KR20140062195A - 카메라 1 대를 사용하는 가상 터치 장치 - Google Patents

카메라 1 대를 사용하는 가상 터치 장치 Download PDF

Info

Publication number
KR20140062195A
KR20140062195A KR1020120128499A KR20120128499A KR20140062195A KR 20140062195 A KR20140062195 A KR 20140062195A KR 1020120128499 A KR1020120128499 A KR 1020120128499A KR 20120128499 A KR20120128499 A KR 20120128499A KR 20140062195 A KR20140062195 A KR 20140062195A
Authority
KR
South Korea
Prior art keywords
coordinate data
contact point
user
virtual touch
point coordinate
Prior art date
Application number
KR1020120128499A
Other languages
English (en)
Inventor
김석중
Original Assignee
주식회사 브이터치
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 브이터치 filed Critical 주식회사 브이터치
Priority to KR1020120128499A priority Critical patent/KR20140062195A/ko
Publication of KR20140062195A publication Critical patent/KR20140062195A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Abstract

본 발명은 카메라 1 대만을 사용하는 가상 터치 장치를 제공하기 위한 것으로서,
전자기기를 원격에서 제어하는 장치에 있어서,
이미지 센서로 구성되며 사용자 신체를 촬영하는 영상획득부와 상기 영상획득부로부터 수신한 영상을 이용하여 촬영된 눈의 동공과 포인터 또는 손가락의 크기 정보를 이용하여 상기 사용자 신체의 3차원 좌표 데이터를 산출하는 공간좌표 산출부로 구성되는 3차원 좌표 산출장치; 및
상기 3차원 좌표 산출장치로부터 수신한 제 1 공간좌표와 제 2 공간좌표를 이용하여 상기 제 1 공간좌표와 제 2 공간좌표를 연결하는 직선이 상기 전자기기와 만나는 접점 좌표 데이터를 산출하는 터치 위치 산출부와, 상기 터치 위치 산출부로부터 수신된 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하는 가상 터치 처리부를 포함하는 제어부로 구성되며,
카메라를 2 대 이상 설치하거나 광원을 추가하지 않고도 사용자 신체의 3 차원 좌표 데이터를 산출할 수 있는 효과가 있다.

Description

카메라 1 대를 사용하는 가상 터치 장치{Virtual touch apparatus using one camera}
본 발명은 사용자가 전자기기를 원격으로 조작하는 장치에 관한 것으로, 카메라 1 대를 사용하여 사용자 신체의 3 차원 좌표 데이터를 산출하는 가상 터치 장치에 관한 것이다.
최근 스마트폰과 같이 터치패널을 구비한 전자기기들이 많이 사용되고 있다. 이러한 터치패널 기술은 기존 마우스로 조작 가능한 컴퓨터 등 전자기기와 비교할 때 디스플레이에 '포인터'를 표시할 필요가 없다. 사용자는 전자기기 조작을 위해 포인터(컴퓨터의 커서)를 해당 위치(예, 프로그램 아이콘)까지 이동시킬 필요 없이, 손가락을 아이콘 위로 이동한 후 터치하여 동작을 수행한다. 이러한 터치패널 기술에서는 기존 전자기기 제어수단으로 필수적인 '포인터'이동 단계가 불필요하여 전자기기의 빠른 조작이 가능하다.
그러나 터치패널 기술은 위와 같은 편리성에도 불구하고 사용자가 디스플레이 표시면을 직접 터치해야하기 때문에 원격에서는 이용할 수 없다는 생래적인 단점이 있다. 따라서 터치패널 기술을 채용하는 전자기기라 하더라도 원격 조작을 위해서는 종래 리모콘과 같은 장치에 의존할 수밖에 없다.
최근 원격 전자기기 제어장치로서 터치패널 기술과 같이 정확한 지점에 포인터를 생성할 수 있는 장치, 즉 2 대의 카메라를 이용하여 디스플레이 전면을 촬영한 후 촬영된 이미지로부터 사용자의 눈과 손가락의 연장 직선이 디스플레이와 만나는 점에 포인터를 생성시키는 기술이 공개된 특허출원 [문헌 1]에 공개된 바 있으나, 전자기기 제어를 위한 예비적인 조치로 '포인터'를 반드시 생성해야 하고(포인터 제어부를 두고 있음), 그 후에 구체적인 동작제어를 위해 사용자의 제스쳐를 기존에 저장된 패턴과 비교함으로써 동작을 수행하는 점에서 매우 불편하다.
[문헌 1] 공개특허 2010-0129629 2010. 12. 9.
또한, 본 출원인의 대한민국 등록특허 10-1151692호에서 포인터를 사용하지 않는 가상 터치 장치 및 방법을 개시하고 있는 바, 이러한 포인터를 사용하지 않는 가상 터치 장치 및 방법은 마치 터치패널과 같이 디스플레이 상에서 포인터를 사용하지 않음으로써 전자기기의 신속한 조작을 가능하게 한다.
그러나 상기 등록특허 10-1151692호에서는 사용자가 원격에서 전자기기를 조작하기 위해 사용자의 신체 중에서 사용자의 눈과 손가락(또는 손가락이 파지하고 있는 포인터)의 끝의 3차원 좌표 데이터를 산출할 수 있어야 원격에서 가상 터치 조작이 가능하다. 그렇지만 상기 특허에서는 사용자 신체의 3 차원 좌표 데이터를 산출하기 위해서는 카메라가 2 대 이상이거나 별도의 광원 등의 추가 장치가 필요하다는 문제점이 있다.
본 발명은 사용자가 원격에서 전자기기를 조작할 때에도 카메라를 1 대만을 사용하고도 사용자 신체의 3 차원 좌표 데이터를 획득하는 가상 터치 장치를 제공하는데 그 목적이 있다.
상기 목적을 달성하기 위한, 본 발명에 따르는 카메라를 1 대 사용하는 가상 터치 장치는,
전자기기를 원격에서 제어하는 장치에 있어서,
이미지 센서로 구성되며 사용자 신체를 촬영하는 영상획득부와 상기 영상획득부로부터 수신한 영상을 이용하여 촬영된 눈의 동공과 포인터 또는 손가락의 크기 정보를 이용하여 상기 사용자 신체의 3차원 좌표 데이터를 산출하는 공간좌표 산출부로 구성되는 3차원 좌표 산출장치; 및
상기 3차원 좌표 산출장치로부터 수신한 제 1 공간좌표와 제 2 공간좌표를 이용하여 상기 제 1 공간좌표와 제 2 공간좌표를 연결하는 직선이 상기 전자기기와 만나는 접점 좌표 데이터를 산출하는 터치 위치 산출부와, 상기 터치 위치 산출부로부터 수신된 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하는 가상 터치 처리부를 포함하는 제어부로 구성되는 것을 특징으로 한다.
본 발명의 실시 형태에서, 상기 제 1 공간좌표는 상기 사용자 손가락 중 어느 하나 손가락의 끝, 상기 사용자가 손가락으로 파지하고 있는 포인터의 끝 중 어느 하나의 3 차원 좌표이고, 상기 제 2 공간좌표는 상기 사용자의 어느 한쪽 눈의 중심점의 3 차원 좌표로 형성되는 것을 특징으로 하는 카메라 1 대를 사용하는 가상 터치 장치.
본 발명의 다른 실시 형태에서, 상기 가상 터치 처리부는 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정시간 이상 상기 접점 좌표 데이터의 변동이 없으면 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하도록 구성되는 것을 특징으로 하는 카메라 1 대를 사용하는 가상 터치 장치.
본 발명의 또 다른 실시 형태에서, 상기 가상 터치 처리부는 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정시간 이상 상기 접점 좌표 데이터의 변동이 없으면, 제1 공간좌표와 제2 공간좌표 사이에 설정 거리 이상의 거리 변화 발생 유무를 판단하여 설정 거리 이상의 거리 변화가 발생한 경우에는 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하도록 구성되는 것을 특징으로 하는 카메라 1 대를 사용하는 가상 터치 장치.
본 발명에 따른 카메라 1 대를 사용하는 가상 터치 장치는 사용자 신체의 3 차원 좌표 데이터를 얻기 위해 추가적인 카메라 또는 광원 장치 등 부수적인 장치가 필요 없이도 사용자 신체의 3 차원 좌표 데이터를 얻을 수 있다.
도 1은 본 발명의 바람직한 실시예에 따른 가상 터치 장치 블록도.
본 발명의 다른 목적, 특성 및 이점들은 첨부한 도면을 참조한 실시예들의 상세한 설명을 통해 명백해질 것이다.
본 발명에 따른 카메라 1 대를 사용하는 가상 터치 장치의 바람직한 실시예에 대하여 첨부한 도면을 참조하여 설명하면 다음과 같다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예는 본 발명의 개시가 완전하도록 하며 통상의 지식을 가진자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있다.
도 1 은 본 발명의 실시예에 따른 가상 터치 장치를 나타낸 블록 구성도이다.
본 명세서에서 가상 터치 장치는 사용자의 손가락(또는 손가락이 파지하고 있는 포인터)의 끝(제 1 공간좌표)과 사용자의 눈(제 2 공간좌표)이 연결된 일직선이 전자기기의 표시면, 표시면의 둘레의 가상 평면 또는 전자기기의 표면과 만나는 접점 좌표 데이터를 산출한 후 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부에 입력하여 사용자가 원하는 가상 터치 동작을 수행하는 장치로서(이하 "가상 터치 장치"), 카메라 1 대만을 사용하여 사용자 신체의 3 차원 좌표 데이터(제1 공간좌표 및 제 2 공간좌표)를 산출할 수 있는 장치를 말한다.
앞서 언급과 같이 가상 터치 장치에서 가상 터치 동작을 수행하기 위해서는 사용자의 손가락(또는 손가락이 파지하고 있는 포인터)의 끝(제1 공간좌표)과 사용자의 눈(제2 공간좌표)의 3 차원 좌표 데이터가 필수적이다.
그런데 종전의 구조광 방식, 스테레오 방식, TOF 방식 등 일반적인 3 차원 좌표 데이터를 구하는 방식에서는 카메라가 2대 이상이거나 카메라 1 대에 광원이 추가로 필요하다.
그렇지만 사용자의 동공의 지름, 포인터의 지름, 손가락의 3 D 모델링를 미리 알고 있다면 거리에 따라 달라지는 동공, 포인터, 손가락의 크기를 통해 거리를 산출할 수 있다. 사용자의 동공의 지름은 사전에 전자기기에서 설정 절차를 통하여 정할 수 있다. 또한, 포인터의 경우 포인터 제조 과정에서 포인터 전체의 길이와 지름을 정하는 방법을 사용할 수 있다. 마찬가지로 포인터의 일부의 크기(예시, 포인터에 표시되어 있는 띠 형태)와 지름을 사전에 정할 수도 있을 것이다. 손가락의 경우에는 사전적인 3D 모델링 방법에 의해 지름 이외에 부가 정보를 구할 수 있다. 3D 모델링 방법은 기존에 다양하게 존재하고, 본 발명이 속하는 기술분야의 당업자에게는 용이하게 구현이 가능하므로 이 부분에 대한 설명은 생략한다.
본 발명에 따른 카메라 1 대를 사용하는 가상 터치 장치에서 거리를 도출하는 방법의 예를 들어보면, 30 ㎝ 거리에서의 눈의 크기가 20 px 이고, 촬영된 눈의 크기와 이에 따른 거리 변화는 아래표와 같다.
촬영된 눈의 크기 거리
2.5 px 240 ㎝
5 px 120 ㎝
10 px 60 ㎝
20 px 30 ㎝
한편, 앞서 미리 정해진 포인터, 손가락의 두께에 따라 지름은 명확한 크기가 규정될 수 있으나 손가락의 크기는 손가락의 방향, 자세 등에 따라 다른 형태로 보여질 수 있어 명확한 크기를 알아내기 어렵다. 이를 해결하기 위해 손가락을 대신하여 포인터를 사용하는 것이 더 간편한 방법일 수 있다. 포인터의 경우 제조 과정에서 지름(또는 형태)를 정하는 것이므로 이에 대한 정보를 명확하게 파악할 수 있다.
손가락의 크기를 용이하게 파악하는 방법으로, 펜, 골무, 스티커, 도장 등을 손에 부착, 착용, 파지하여 스케일을 통한 거리 계측을 용이하게 도와줄 수도 있다. 뿐만 아니라 펜 또는 골무 등의 끝이 뾰족한 경우 가상 터치의 정확도를 향상시킬 수 있다. 이 때 3 차원 거리 계측은 펜 골무 등의 지름(또는 형태)가 명확한 한 곳(또는 두 곳)을 통하여 펜 끝의 X, Y 좌표를 찾아 3 차원 좌표를 생성할 수 있게 된다.
만약 펜, 골무 등의 지름(또는 형태)이 한 곳이 명확하다면 펜끝의 X, Y 좌표에 지름의 Z 좌표를 그대로 대입하면 된다. 또한 만약 펜, 골무 등의 지름(또는 형태)이 두 곳이 명확하다면 펜끝의 X, Y 좌표에 지름의 Z 좌표 두 곳을 통해 펜의 기울기를 구해내고 이를 통해 펜끝의 Z 좌표를 계산할 수 있다.
그런데 전자기기를 조작할 환경이 어두운 경우에는 눈, 손가락 또는 포인터를 인지하기 위하여 IR 광원을 비춰줄 수도 있을 것이다. 이 경우에 손가락 및 포인터에 IR 광원에 반응하는 IR 반사판, IR 잉크 등을 사용하면 해당 영역을 찾아내는데 도움을 줄 수 있다.
상기에서 설명한 본 발명의 기술적 사상은 바람직한 실시예에서 구체적으로 기술되었으나, 상기한 실시예는 그 설명을 위한 것이며 그 제한을 위한 것이 님을 주의하여야 한다. 또한, 본 발명의 기술적 분야의 통상의 지식을 가진 자라면 본 발명의 기술적 사상의 범위 내에서 다양한 실시예가 가능함을 이해할 수 있을 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (4)

  1. 전자기기를 원격에서 제어하는 장치에 있어서,
    이미지 센서로 구성되며 사용자 신체를 촬영하는 영상획득부와 상기 영상획득부로부터 수신한 영상을 이용하여 촬영된 눈의 동공과 포인터 또는 손가락의 크기 정보를 이용하여 상기 사용자 신체의 3차원 좌표 데이터를 산출하는 공간좌표 산출부로 구성되는 3차원 좌표 산출장치; 및
    상기 3차원 좌표 산출장치로부터 수신한 제 1 공간좌표와 제 2 공간좌표를 이용하여 상기 제 1 공간좌표와 제 2 공간좌표를 연결하는 직선이 상기 전자기기와 만나는 접점 좌표 데이터를 산출하는 터치 위치 산출부와, 상기 터치 위치 산출부로부터 수신된 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하는 가상 터치 처리부를 포함하는 제어부로 구성되는 것을 특징으로 하는 카메라 1 대를 사용하는 가상 터치 장치.
  2. 제 1 항에 있어서,
    상기 제 1 공간좌표는 상기 사용자 손가락 중 어느 하나 손가락의 끝, 상기 사용자가 손가락으로 파지하고 있는 포인터의 끝 중 어느 하나의 3 차원 좌표이고, 상기 제 2 공간좌표는 상기 사용자의 어느 한쪽 눈의 중심점의 3 차원 좌표로 형성되는 것을 특징으로 하는 카메라 1 대를 사용하는 가상 터치 장치.
  3. 제 2 항에 있어서,
    상기 가상 터치 처리부는 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정시간 이상 상기 접점 좌표 데이터의 변동이 없으면 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하도록 구성되는 것을 특징으로 하는 카메라 1 대를 사용하는 가상 터치 장치.
  4. 제 2 항에 있어서,
    상기 가상 터치 처리부는 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정시간 이상 상기 접점 좌표 데이터의 변동이 없으면, 제1 공간좌표와 제2 공간좌표 사이에 설정 거리 이상의 거리 변화 발생 유무를 판단하여 설정 거리 이상의 거리 변화가 발생한 경우에는 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하도록 구성되는 것을 특징으로 하는 카메라 1 대를 사용하는 가상 터치 장치.
KR1020120128499A 2012-11-14 2012-11-14 카메라 1 대를 사용하는 가상 터치 장치 KR20140062195A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120128499A KR20140062195A (ko) 2012-11-14 2012-11-14 카메라 1 대를 사용하는 가상 터치 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120128499A KR20140062195A (ko) 2012-11-14 2012-11-14 카메라 1 대를 사용하는 가상 터치 장치

Publications (1)

Publication Number Publication Date
KR20140062195A true KR20140062195A (ko) 2014-05-23

Family

ID=50890519

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120128499A KR20140062195A (ko) 2012-11-14 2012-11-14 카메라 1 대를 사용하는 가상 터치 장치

Country Status (1)

Country Link
KR (1) KR20140062195A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018048043A1 (ko) * 2016-09-09 2018-03-15 주식회사 토비스 공간터치 인식방법 및 이를 이용한 공간터치 인식장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018048043A1 (ko) * 2016-09-09 2018-03-15 주식회사 토비스 공간터치 인식방법 및 이를 이용한 공간터치 인식장치

Similar Documents

Publication Publication Date Title
KR101381928B1 (ko) 포인터를 사용하지 않는 가상 터치 장치 및 방법
EP2677398A2 (en) Virtual touch device without pointer on display surface
CN102317892B (zh) 控制信息输入装置的方法、信息输入装置、程序和信息存储介质
KR101533319B1 (ko) 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법
KR101343748B1 (ko) 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치
JP2010079834A (ja) 座標検出装置の取り付け位置判断装置及び電子ボードシステム
KR20120126508A (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 터치 인식 방법
JP6202874B2 (ja) 電子機器、キャリブレーション方法およびプログラム
CN106598422B (zh) 混合操控方法及操控系统和电子设备
TWI486815B (zh) 顯示設備及其控制系統和方法
CN106796462B (zh) 确定输入对象的位置
KR101321274B1 (ko) 두대의 카메라와 광원을 이용한 포인터를 사용하지 않는 가상 터치 장치
JP6501806B2 (ja) 情報処理装置、操作検出方法、及びコンピュータプログラム
JP2012141650A (ja) 携帯端末
KR20140062195A (ko) 카메라 1 대를 사용하는 가상 터치 장치
KR101860138B1 (ko) 오브젝트 생성 및 오브젝트의 변환이 가능한 동작 인식 센서를 이용한 3차원 입력 장치
JP6555958B2 (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
JP6579866B2 (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
TW201917525A (zh) 非接觸式輸入裝置及方法、能進行非接觸式輸入的顯示器
TWI498793B (zh) 光學觸控系統及光學觸控控制方法
KR101394604B1 (ko) 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치
KR101272458B1 (ko) 포인터를 사용하지 않는 가상 터치 장치 및 방법
KR20160149403A (ko) 웨어러블 데이터 입력장치 및 이를 이용한 데이터 입력방법
JP2016118947A (ja) 角度調整可能な仮想平面を用いた空間手書き入力システム
JP2016110249A (ja) 空間手書き入力システム、空間手書き入力方法およびコンピュータプログラム

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application