KR102024314B1 - 공간터치 인식방법 및 이를 이용한 공간터치 인식장치 - Google Patents

공간터치 인식방법 및 이를 이용한 공간터치 인식장치 Download PDF

Info

Publication number
KR102024314B1
KR102024314B1 KR1020160116250A KR20160116250A KR102024314B1 KR 102024314 B1 KR102024314 B1 KR 102024314B1 KR 1020160116250 A KR1020160116250 A KR 1020160116250A KR 20160116250 A KR20160116250 A KR 20160116250A KR 102024314 B1 KR102024314 B1 KR 102024314B1
Authority
KR
South Korea
Prior art keywords
touch
space
virtual
user
touch recognition
Prior art date
Application number
KR1020160116250A
Other languages
English (en)
Other versions
KR20180028658A (ko
Inventor
엄기윤
Original Assignee
주식회사 토비스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 토비스 filed Critical 주식회사 토비스
Priority to KR1020160116250A priority Critical patent/KR102024314B1/ko
Priority to PCT/KR2017/002078 priority patent/WO2018048043A1/ko
Publication of KR20180028658A publication Critical patent/KR20180028658A/ko
Application granted granted Critical
Publication of KR102024314B1 publication Critical patent/KR102024314B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Abstract

본 발명은 디스플레이패널에서 표시되는 영상에 따라 공간상에서 터치하여 좌표를 입력할 수 있는 공간터치 인식방법 및 이를 이용한 공간터치 인식장치를 제공하는 것이다. 본 발명의 실시예에 따른 공간터치 인식방법은 신체 검출장치에 의해 사용자의 미간을 인식하는 단계, 상기 미간을 중심으로부터 디스플레이장치의 영상표시영역의 둘레와 직선상으로 연결되는 가상터치공간을 설정하는 단계, 상기 가상터치공간 상에 터치를 위해 위치되는 사용자의 신체 일부와 디스플레이장치의 사이 거리를 신체 검출장치에 의해 측정하고, 측정된 거리와 대응되는 상기 가상터치공간 상의 거리에 가상좌표면을 설정하는 단계, 및 상기 가상좌표면에 위치되는 신체 일부의 좌표와 대응되는 상기 영상표시영역의 좌표를 획득하는 단계를 포함한다. 따라서, 공간 상에서의 터치 인식률을 향상시킬 수 있다.

Description

공간터치 인식방법 및 이를 이용한 공간터치 인식장치{a method and apparatus for space touch}
본 발명은 디스플레이패널에서 표시되는 영상에 따라 공간상에서 터치하여 좌표를 입력할 수 있는 공간터치 인식방법 및 이를 이용한 공간터치 인식장치를 제공하는 것이다.
일반적으로 디스플레이장치는 영상을 표시하는 장치로서, 근래에는 다른 입력장치가 필요없이 디스플레이장치에서 표시되는 영상에 따라 직접 터치하여 입력할 수 있는 터치디스플레이장치가 개시되었다.
그러나, 터치 디스플레이장치는 사용자가 직접 디스플레이장치를 직접 터치해야하며, 근래에는 3차원의 입체영상을 표시할 수 있는 기술들이 개발되면서, 공간상에서 터치를 인식할 수 있는 장치들이 개발되었다.
공간 상에서 터치를 수행할 수 있는 장치의 일례로서, 한국공개특허공보 제10-2014-0062195호(2014.5.23.공개)의 가상 터치 장치가 개시된 바가 있다.
상기한 종래의 가상 터치 장치는 전자기기를 원격에서 제어하는 장치에 있어서, 이미지 센서로 구성되며 사용자 신체를 촬영하는 영상획득부와 상기 영상획득부로부터 수신한 영상을 이용하여 촬영된 눈의 동공과 포인터 또는 손가락의 크기 정보를 이용하여 상기 사용자 신체의 3차원 좌표 데이터를 산출하는 공간좌표 산출부로 구성되는 3차원 좌표 산출장치; 및 상기 3차원 좌표 산출장치로부터 수신한 제 1 공간좌표와 제 2 공간좌표를 이용하여 상기 제 1 공간좌표와 제 2 공간좌표를 연결하는 직선이 상기 전자기기와 만나는 접점 좌표 데이터를 산출하는 터치 위치 산출부와, 상기 터치 위치 산출부로부터 수신된 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하는 가상 터치 처리부를 포함하는 제어부로 구성되었다.
이러한 구성의 종래의 가상 터치 장치는 눈과 손가락의 3차원 좌표를 획득하고, 눈과 손가락을 일직선상으로 연결하여 전자기기와 만나는 접점 좌표를 산출함으로써, 가상 공간에서의 터치를 인식할 수 있었다.
하지만, 종래의 공간 터치 방법 및 공간 터치 장치는 손가락과 눈이 일직선상으로 촬영되는 경우, 눈의 좌표를 획득하기 어렵기 때문에 인식 오류가 발생하는 문제점이 있었다.
본 발명은 전술한 바와 같은 문제점들을 해결하기 위해 안출된 것으로서, 본 발명이 해결하고자 하는 과제는 눈과 손가락이 겹쳐 촬영되어도 둘의 인식이 가능하여 인식 오류를 최소화할 수 있는 공간터치 인식방법 및 이를 이용한 공간터치 인식장치를 제공하는 것이다.
상기한 과제를 달성하기 위한 본 발명의 실시예에 따른 공간터치 인식방법은 신체 검출장치에 의해 사용자의 미간을 인식하는 단계, 상기 미간을 중심으로부터 디스플레이장치의 영상표시영역의 둘레와 직선상으로 연결되는 가상터치공간을 설정하는 단계, 상기 가상터치공간 상에 터치를 위해 위치되는 사용자의 신체 일부와 디스플레이장치의 사이 거리를 신체 검출장치에 의해 측정하고, 측정된 거리와 대응되는 상기 가상터치공간 상의 거리에 가상좌표면을 설정하는 단계, 및 상기 가상좌표면에 위치되는 신체 일부의 좌표와 대응되는 상기 영상표시영역의 좌표를 획득하는 단계를 포함한다.
상기 신체 검출장치는 둘 이상의 카메라를 포함하고, 상기 미간을 인식하는 단계는 상기 카메라가 사용자를 촬영하고 촬영된 영상을 기초로 사용자의 양안을 파악하여 미간을 인식하고, 인식된 미간과 디스플레이장치의 사이 거리를 측정하는 단계를 포함할 수 있다.
상기 신체 검출장치는 둘 이상의 카메라를 포함하고, 상기 가상좌표면을 설정하는 단계는 상기 카메라가 사용자를 촬영하고 촬영된 영상에서 터치하는 신체 일부를 파악하고, 파악된 신체 일부와의 디스플레이장치의 사이 거리를 측정하는 단계를 포함할 수 있다.
상기 신체 검출장치는 상기 디스플레이장치의 양측에 각각 위치되는 한 쌍의 카메라와, 상기 한 쌍의 카메라와는 높이가 다르게 설치되는 카메라를 포함할 수 있다.
본 발명의 실시예에 따른 공간터치 인식방법을 이용한 공간터치 인식장치는 영상을 표시하는 디스플레이장치, 상기 디스플레이장치에 설치되어 사용자를 촬영하여 사용자의 미간과 터치를 수행하는 신체 일부의 위치를 파악하는 신체 검출장치, 상기 신체 검출장치에서 검출되는 정보를 제공받아 상기 디스플레이장치의 터치 좌표를 파악하는 터치인식 컨트롤러를 포함하고, 상기 컨트롤러는 상기한 실시예에 따른 공간터치 인식방법에 따라 공간터치를 인식한다.
본 발명에 따르면, 사용자의 미간을 중심으로 가상터치공간을 설정하고 터치가 수행되는 부분에서 가상좌표면이 설정되어 터치하는 신체 일부와 눈이 겹쳐 촬영되더라도 미간이 겹치더라도 오류 없이 터치를 인식할 수 있어 공간상에서 터치 인식률을 향상시킬 수 있다.
또한, 비교적 간단한 구조로 제작비용을 감소시킬 수 있으며, 구조를 단순화할 수 있다.
도 1은 본 발명의 실시예에 따른 공간터치 인식방법을 이용한 공간터치 인식장치를 도시한 사시도이다.
도 2는 본 발명의 실시예에 따른 공간터치 인식방법을 설명하기 위한 개략적인 측면도이다.
도 3은 본 발명의 실시예에 따른 공간터치 인식방법에서 미간을 설정하는 단계를 설명하기 위한 도면이다.
도 4는 본 발명의 실시예에 따른 공간터치 인식방법에서 가상터치공간을 설정하는 단계를 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 공간터치 인식방법에서 가상좌표면을 설정하는 단계를 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 공간터치 인식방법에서 영상표시영역에 터치 좌표를 획득하는 단계를 설명하기 위한 도면이다.
이하, 첨부된 도면을 참고하여 본 발명의 실시예를 설명하도록 한다.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 공간터치 인식방법을 이용한 공간터치 인식장치(100)는 디스플레이장치(110)를 포함할 수 있다.
이 디스플레이장치(110)는 사용자가 터치를 유도하기 위한 영상을 표시할 수 있다.
한편, 디스플레이장치(110)는 미리 설정된 디스플레이장치(110)의 유효한 영상표시 영역인 영상표시영역(111)의 크기가 미리 저장되어 영상표시영역(111)의 크기를 하기에 설명될 터치인식 컨트롤러(170)로 제공할 수 있다.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 공간터치 인식방법을 이용한 공간터치 인식장치(100)는 신체 검출장치(150)를 포함할 수 있다.
이 신체 검출장치(150)는 사용자의 양안을 인식하여 양안의 중간지점인 미간(ECP)을 도출할 수 있다.
한편, 신체 검출장치(150)는 카메라(151,152)로 구현될 수 있으며 카메라(151,152)는 사용자의 얼굴을 촬영하고, 촬영된 영상에서 사용자의 양안을 인식한 뒤 양안의 사이 중앙지점을 미간(ECP)이라고 도출할 수 있다.
여기서, 신체 검출장치(150)는 공지된 얼굴 인식 트래킹 기술을 이용하여 양안을 인식하여 미간(ECP)을 도출할 수 있으며, 미간(ECP)를 도출함으로써, 어느 한눈과 손가락(P)이 겹쳐 촬영되어도 가려진 눈의 위치를 예상하여 나머지 한 눈과 함께 미간(ECP)을 도출할 수 있다.
예컨대, 어느 한 눈이 손가락과 가려져 촬영되는 경우, 가려진 부분이 어느 한 눈이라고 판단하고, 다른 한 눈과의 사이를 미간(ECP)이라고 도출할 수 있다.
한편, 신체 검출장치(150)는 디스플레이장치(110)에 설치되는 둘 이상의 카메라(151,152)를 포함하여 서로 이격된 둘 이상의 카메라(151,152)가 사용자를 촬영하여 미간(ECP)을 도출하고, 도출된 미간(ECP)과 둘 이상의 카메라(151,152)에 의해 각각 촬영된 영상에서 미간(ECP)의 촬영된 위치를 이용하여 거리를 측정하거나, 양측에서 촬영되는 영상의 광량의 차이에 따라 측정하거나, 주변에 촬영된 영상과 목적물의 각도를 파악하여 거리를 측정하는 등 다양한 공지된 듀얼 카메라(151,152)를 이용한 거리측정 방법이 사용될 수 있다.
여기서, 신체 검출장치(150)에서 검출된 미간(ECP)의 위치와 거리 정보는 터치인식 컨트롤러(170)로 제공될 수 있다.
이때, 신체 검출장치(150)는 디스플레이장치(110)의 양측에 설치되는 두 개의 카메라(151,152) 외에 상하의 위치를 명확히 파악할 수 있도록 하나의 카메라(153)가 더 두 개의 카메라(151,152)와는 다른 높이에 설치되어 두 개의 카메라(151,152)에서 촬영된 영상과 높이가 다르게 위치된 카메라(153)에서 촬영된 영상을 비교하여 촬영할 목적물의 높낮이를 파악하여 터치인식 컨트롤러(170)로 제공할 수 있다.
그리고, 신체 검출장치(150)는 미간(ECP)을 감지하는 동시에 신체 일부(이하, '손가락(P)'이라 칭함)을 감지할 수 있다.
한편, 손가락(P)은 미간(ECP)을 검출하는 방법과 마찬가지로 특정한 신체 일부의 형상을 트래킹하는 공지된 기술이 사용될 수 있다.
그리고, 신체 검출장치(150)는 손가락(P)을 검출할 수 있을 뿐만 아니라, 미간(ECP)의 거리를 측정하는 방법과 마찬가지로 디스플레이장치(110)와 손가락(P)의 사이 거리를 측정하여 터치인식 컨트롤러(170)로 제공할 수 있다.
이때에도 물론, 디스플레이장치(110)의 양측에 각각 위치되는 카메라(151,152) 외에 높이가 다르게 설치되는 카메라(153)가 한대 더 추가로 장착되어 손가락(P)의 상하의 위치를 더욱 명확히 파악하여 터치인식 컨트롤러(170)로 제공할 수 있다.
아울러, 실시예에서는 신체 검출장치(150)가 미간(ECP)과 손가락(P)을 모두 검출하도록 구성하였지만, 신체 검출장치(150)는 미간(ECP)을 검출하는 미간(ECP) 검출장치(150)와 손가락(P)을 검출하는 손가락(P) 검출장치(150)가 따로 분리되어 구성될 수 있다.
여기서, 미간(ECP) 검출장치(150)와 손가락(P) 검출장치(150)는 어느 하나가 카메라(151,152)의 촬영되는 영상에 의해 인식하는 장치라면, 다른 하나는 적외선, 레이저, 초음파 등과 같이 촬영되는 영상 외의 방법으로 인식할 수 있는 장치일 수 있다.
도 1 및 도 2에 도시된 바와 같이, 본 발명의 실시예에 따른 공간터치 인식방법을 이용한 공간터치 인식장치(100)는 터치인식 컨트롤러(170)를 포함할 수 있다.
이 터치인식 컨트롤러(170)는 신체 검출장치(150)에 의해 검출되는 미간(ECP)과 미간(ECP)의 위치정보, 그리고 손가락(P)과 손가락(P)의 위치정보를 제공받아 터치되는 좌표를 인식할 수 있다.
여기서, 터치인식 컨트롤러(170)는 하기에 설명될 공간터치 인식방법에 의해 터치 좌표를 인식하므로, 공간터치 인식방법을 설명할 때 더 자세히 설명하도록 한다.
이하, 본 발명의 실시예에 따른 공간터치 인식방법을 상기한 공간터치 인식장치(100)의 각 구성 간 작용과 효과와 함께 설명한다.
먼저, 도 3에 도시된 바와 같이, 본 발명의 실시예에 따른 공간터치 인식방법은 신체 검출장치(150)에서 사용자의 양안을 인식하고, 양안의 중앙지점을 미간(ECP)으로 도출하여 터치인식 컨트롤러(170)로 제공한다.
한편, 도 4에 도시된 바와 같이, 터치인식 컨트롤러(170)는 신체 검출장치(150)에서 제공되는 미간(ECP)의 위치정보와 디스플레이장치(110)에서 영상표시영역(111)의 정보와 크기를 제공받아 미간(ECP)과 영상표시영역(111)의 둘레를 직선상으로 연결하는 가상터치공간(130)을 가상적으로 설정한다.
이때, 터치인식 컨트롤러(170)는 디스플레이장치(110)에 미리 저장된 영상표시영역(111)의 크기를 제공받고, 터치인식 컨트롤러(170)는 신체 검출장치(150)의 위치를 기준으로 제공된 크기를 대입하여 가상터치공간(130)을 형성하는 영상표시영역(111)의 범위를 설정할 수 있다.
이렇게 형성되는 가상터치공간(130)은 미간(ECP)을 꼭지점으로 하고, 영상표시영역(111)을 밑면으로 하는 뿔 형태의 입체적인 공간이 가상적으로 설정된다.
한편, 터치인식 컨트롤러(170)가 가상터치공간(130)을 설정하고, 가상터치공간(130) 상에서 사용자의 손가락(P)을 통해 터치가 수행되면, 신체 검출장치(150)는 터치 좌표를 표시하는 영상표시영역(111)에서부터 손가락(P)이 위치되는 거리를 측정하여 터치인식 컨트롤러(170)로 제공한다.
그리고, 도 5에 도시된 바와 같이, 터치인식 컨트롤러(170)는 손가락(P)의 위치정보를 제공받아 손가락(P)이 위치되는 거리에 해당되는 가상터치공간(130) 상의 거리에 상기 가상터치공간(130)을 수직으로 절단한 형태의 가상좌표면(135)을 설정한다.
이때, 가상좌표면(135)은 일정 간격으로 미리 x,y 값이 설정되어 터치된 부분에서 x,y의 좌표를 획득하거나, 손가락(P)의 상대적인 위치를 계산하여 x,y의 값을 획득할 수도 있다.
한편, 도 6에 도시된 바와 같이, 가상좌표면(135)이 설정되면, 터치인식 컨트롤러(170)는 가상좌표면(135)에서 위치되는 손가락(P)의 위치 좌표를 획득하고, 획득된 좌표와 대응되는 실제 영상표시영역(111)의 터치 좌표를 얻어 터치 좌표를 요구한 장치로 보내준다.
여기서, 터치인식 컨트롤러(170)는 실시간으로 미간(ECP)과 손가락(P)의 위치를 파악하여 실시간으로 가상터치공간(130)과 가상좌표면(135)을 변형시켜 움직이는 사용자에 대응하도록 구성될 수 있다.
따라서, 본 발명의 실시예에 따른 공간터치 인식방법 및 이를 이용한 공간터치 인식장치(100)는 디스플레이장치(110)에 직접 접촉하지 않은 상태에서도 터치를 수행할 수 있다.
또한, 미간(ECP)에 의해 디스플레이장치(110)의 사이에 가상터치공간(130)을 형성하여 어느 한 눈이 손가락(P)과 겹쳐 촬영되더라도 나머지 한 눈으로 미간(ECP)을 예측하여 터치 좌표를 획득할 수 있다.
또한, 종래와 같이 눈과 손가락(P)을 일직선상으로 연결하여 좌표를 획득하는 것이 아니라, 가상터치공간(130)을 형성하고, 미간(ECP)의 전방에 위치되는 가상터치공간(130) 내에서 가상좌표면(135)을 형성하여 터치를 인식하기 때문에 손가락과 눈이 겹쳐 촬영됨으로 인한 인식 오류를 방지하여 공간 상에서의 터치 인식률을 향상시킬 수 있다.
또한, 비교적 간단한 구성으로 제작비용을 감소시키며 구조를 단순화할 수 있다.
이상에서는 본 발명의 실시예를 설명하였으나, 본 발명의 권리범위는 이에 한정되지 아니하며 본 발명의 실시예로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 용이하게 변경되어 균등한 것으로 인정되는 범위의 모든 변경 및 수정을 포함한다.
100: 공간터치 인식장치 110: 디스플레이장치
111: 영상표시영역 130: 가상터치공간
135: 가상좌표면 150: 신체 검출장치
151,152,13: 카메라 170: 터치인식 컨트롤러
ECP: 미간 P: 손가락

Claims (5)

  1. 영상을 표시하는 디스플레이장치, 상기 디스플레이장치에 설치되어 사용자를 촬영하여 사용자의 미간과 터치를 수행하는 신체 일부의 위치를 파악하는 신체 검출장치, 및 상기 신체 검출장치에서 검출되는 정보를 제공받아 상기 디스플레이장치의 터치 좌표를 파악하는 터치인식 컨트롤러를 포함하는 공간터치 장치의 공간터치 인식방법에 있어서,
    상기 신체 검출장치에 의해 사용자의 미간을 인식하는 단계,
    상기 디스플레이장치의 영상표시영역 둘레를 밑면으로 하고 상기 미간의 중심을 꼭지점으로 하는 입체적인 뿔 형상을 가지도록 상기 미간을 중심으로부터 상기 디스플레이장치의 영상표시영역의 둘레와 직선상으로 연결되는 가상터치공간을 설정하는 단계,
    상기 가상터치공간 상에 터치를 위해 위치되는 사용자의 신체 일부와 상기 디스플레이장치의 사이 거리를 신체 검출장치에 의해 측정하고, 측정된 거리와 대응되는 상기 가상터치공간 상의 위치를 수직으로 절단한 형태의 가상좌표면을 설정하는 단계, 및
    상기 가상좌표면에 위치되는 신체 일부의 좌표와 대응되는 상기 영상표시영역의 좌표를 획득하는 단계를 포함하고,
    상기 신체 검출장치는 둘 이상의 카메라를 포함하며,
    상기 미간을 인식하는 단계는 상기 카메라가 사용자를 촬영하고 촬영된 영상을 기초로 사용자의 양안을 파악하여 미간을 인식하고, 인식된 미간과 상기 디스플레이장치의 사이 거리를 측정하는 단계를 포함하고,
    상기 신체 검출장치의 둘 이상의 카메라 중 어느 하나는 높이가 다르게 설치되는 것을 특징으로 하는 카메라를 포함하는 것을 특징으로 하는 공간터치 인식방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 신체 검출장치는 둘 이상의 카메라를 포함하고,
    상기 가상좌표면을 설정하는 단계는
    상기 카메라가 사용자를 촬영하고 촬영된 영상에서 터치하는 신체 일부를 파악하고, 파악된 신체 일부와의 상기 디스플레이장치의 사이 거리를 측정하는 단계를 포함하는 것을 특징으로 하는 공간터치 인식방법.
  4. 삭제
  5. 청구항 1에 기재된 공간터치 인식방법을 이용한 공간터치 인식장치.
KR1020160116250A 2016-09-09 2016-09-09 공간터치 인식방법 및 이를 이용한 공간터치 인식장치 KR102024314B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160116250A KR102024314B1 (ko) 2016-09-09 2016-09-09 공간터치 인식방법 및 이를 이용한 공간터치 인식장치
PCT/KR2017/002078 WO2018048043A1 (ko) 2016-09-09 2017-02-24 공간터치 인식방법 및 이를 이용한 공간터치 인식장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160116250A KR102024314B1 (ko) 2016-09-09 2016-09-09 공간터치 인식방법 및 이를 이용한 공간터치 인식장치

Publications (2)

Publication Number Publication Date
KR20180028658A KR20180028658A (ko) 2018-03-19
KR102024314B1 true KR102024314B1 (ko) 2019-09-23

Family

ID=61561943

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160116250A KR102024314B1 (ko) 2016-09-09 2016-09-09 공간터치 인식방법 및 이를 이용한 공간터치 인식장치

Country Status (2)

Country Link
KR (1) KR102024314B1 (ko)
WO (1) WO2018048043A1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221498A (ja) * 2011-04-08 2012-11-12 Sony Computer Entertainment Inc ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100851977B1 (ko) * 2006-11-20 2008-08-12 삼성전자주식회사 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.
KR101585466B1 (ko) * 2009-06-01 2016-01-15 엘지전자 주식회사 움직임 검출에 의한 전자장치 동작 제어방법 및 이를 채용하는 전자장치
KR101151962B1 (ko) * 2011-02-16 2012-06-01 김석중 포인터를 사용하지 않는 가상 터치 장치 및 방법
JP2012238293A (ja) * 2011-04-28 2012-12-06 Nextedge Technology Inc 入力装置
KR20130085094A (ko) * 2012-01-19 2013-07-29 삼성전기주식회사 유저 인터페이스 장치 및 유저 인터페이스 제공 방법
KR20140062195A (ko) * 2012-11-14 2014-05-23 주식회사 브이터치 카메라 1 대를 사용하는 가상 터치 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221498A (ja) * 2011-04-08 2012-11-12 Sony Computer Entertainment Inc ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法

Also Published As

Publication number Publication date
KR20180028658A (ko) 2018-03-19
WO2018048043A1 (ko) 2018-03-15

Similar Documents

Publication Publication Date Title
JP4701424B2 (ja) 画像認識装置および操作判定方法並びにプログラム
JP6480434B2 (ja) デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
KR101227610B1 (ko) 화상인식장치 및 조작판정방법과 이를 위한 프로그램을 기록한 컴퓨터 판독가능한 기록매체
KR101711781B1 (ko) 화상 처리 프로그램을 기록한 기록 매체, 화상 처리 방법 및 정보 단말기
US9762896B2 (en) 3D display device and method for controlling the same
WO2018086461A1 (zh) 一种基于单目手势识别的视觉跟随方法及机器人
JP2016031761A5 (ko)
JP2019215688A (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
WO2015153673A1 (en) Providing onscreen visualizations of gesture movements
JP2016110177A (ja) 3次元入力装置及び入力システム
WO2018161564A1 (zh) 手势识别系统、方法及显示设备
KR101961266B1 (ko) 시선 추적 장치 및 이의 시선 추적 방법
KR102024314B1 (ko) 공간터치 인식방법 및 이를 이용한 공간터치 인식장치
TWI454653B (zh) 三維絕對座標偵測系統、互動三維顯示系統以及辨識物體之三維座標的方法
KR101542671B1 (ko) 공간 터치 방법 및 공간 터치 장치
JP5950845B2 (ja) 入力装置、情報処理方法、及び情報処理プログラム
WO2018076609A1 (zh) 一种操作终端的方法和终端
JP6643825B2 (ja) 装置及び方法
KR102325684B1 (ko) 두부 착용형 시선 추적 입력 장치 및 이를 이용하는 입력 방법
CN108226939A (zh) 通过绕射光学元件产生激光图案的路径侦测系统及其方法
JP6468078B2 (ja) 視線キャリブレーションプログラム、視線キャリブレーション装置、および視線キャリブレーション方法
JP2011180690A (ja) 表示制御装置、表示制御方法、および表示制御プログラム
EP3059664A1 (en) A method for controlling a device by gestures and a system for controlling a device by gestures
JP5950806B2 (ja) 入力装置、情報処理方法、及び情報処理プログラム
TWI566128B (zh) 虛擬觸控裝置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J301 Trial decision

Free format text: TRIAL NUMBER: 2018101002074; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20180511

Effective date: 20190807

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant