KR101381928B1 - 포인터를 사용하지 않는 가상 터치 장치 및 방법 - Google Patents

포인터를 사용하지 않는 가상 터치 장치 및 방법 Download PDF

Info

Publication number
KR101381928B1
KR101381928B1 KR1020110014523A KR20110014523A KR101381928B1 KR 101381928 B1 KR101381928 B1 KR 101381928B1 KR 1020110014523 A KR1020110014523 A KR 1020110014523A KR 20110014523 A KR20110014523 A KR 20110014523A KR 101381928 B1 KR101381928 B1 KR 101381928B1
Authority
KR
South Korea
Prior art keywords
coordinate data
contact coordinate
spatial
user
virtual touch
Prior art date
Application number
KR1020110014523A
Other languages
English (en)
Other versions
KR20120095084A (ko
Inventor
김석중
Original Assignee
주식회사 브이터치
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 브이터치 filed Critical 주식회사 브이터치
Priority to KR1020110014523A priority Critical patent/KR101381928B1/ko
Priority to US14/000,246 priority patent/US20130321347A1/en
Priority to EP12747163.9A priority patent/EP2677399A4/en
Priority to CN2012800092021A priority patent/CN103370678A/zh
Priority to PCT/KR2012/001198 priority patent/WO2012111998A2/ko
Publication of KR20120095084A publication Critical patent/KR20120095084A/ko
Application granted granted Critical
Publication of KR101381928B1 publication Critical patent/KR101381928B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 전자기기 표시면에 포인터를 표시하지 않고 원격에서 전자기기를 제어하는 장치 및 방법을 제공하기 위한 것으로서,
표시면을 가지는 디스플레이를 포함하여 구성된 전자기기를 원격에서 제어하는 장치에 있어서, 서로 다른 위치에 배치되는 2개 이상의 이미지 센서로 구성되며 상기 표시면 전방의 사용자 신체를 촬영하는 영상획득부; 상기 영상획득부로부터 수신한 영상을 이용하여 상기 사용자 신체의 3차원 좌표 데이터를 산출하는 공간좌표 산출부; 상기 공간좌표 산출부로부터 수신한 제1 공간좌표와 제2 공간좌표를 이용하여 상기 제1 공간좌표와 제2 공간좌표를 연결하는 직선이 상기 표시면과 만나는 접점 좌표 데이터를 산출하는 터치 위치 산출부; 및 상기 터치 위치 산출부로부터 수신된 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하는 가상 터치 처리부로 구성되는 것을 특징으로 하는 가상 터치 장치로 구성되며,
전자기기 표시면에 포인터를 표시하지 않고도 전자기기를 신속하고 정교하게 조작할 수 있도록 하는 효과가 있다.

Description

포인터를 사용하지 않는 가상 터치 장치 및 방법{virtual touch apparatus and method without pointer on the screen}
본 발명은 사용자가 전자기기를 원격으로 조작하는 장치 및 방법에 관한 것으로 전자기기 디스플레이 표시면에 포인터를 표시하지 않고서도 원격에서 전자기기를 정확하게 제어할 수 있는 가상 터치 장치 및 방법에 관한 것이다.
최근 스마트폰과 같이 터치패널을 구비한 전자기기들이 많이 사용되고 있다. 이러한 터치패널 기술은 기존 마우스로 조작 가능한 컴퓨터 등 전자기기와 비교할 때 디스플레이에 '포인터'를 표시할 필요가 없다. 사용자는 전자기기 조작을 위해 포인터(컴퓨터의 커서)를 해당 위치(예, 프로그램 아이콘)까지 이동시킬 필요 없이, 손가락을 아이콘 위로 이동한 후 터치하여 동작을 수행한다. 이러한 터치패널 기술에서는 기존 전자기기 제어수단으로 필수적인 '포인터'이동 단계가 불필요하여 전자기기의 빠른 조작이 가능하다.
그러나 터치패널 기술은 위와 같은 편리성에도 불구하고 사용자가 디스플레이 표시면을 직접 터치해야하기 때문에 원격에서는 이용할 수 없다는 생래적인 단점이 있다. 따라서 터치패널 기술을 채용하는 전자기기라 하더라도 원격 조작을 위해서는 종래 리모콘과 같은 장치에 의존할 수밖에 없다.
최근 원격 전자기기 제어장치로서 터치패널 기술과 같이 정확한 지점에 포인터를 생성할 수 있는 장치, 즉 2대의 카메라를 이용하여 디스플레이 전면을 촬영한 후 촬영된 이미지로부터 사용자의 눈과 손가락의 연장 직선이 디스플레이와 만나는 점에 포인터를 생성시키는 기술이 공개된 특허출원 [문헌 1]에 공개된 바 있으나, 전자기기 제어를 위한 예비적인 조치로 '포인터'를 반드시 생성해야 하고(포인터 제어부를 두고 있음), 그 후에 구체적인 동작제어를 위해 사용자의 제스쳐를 기존에 저장된 패턴과 비교함으로써 동작을 수행하는 점에서 매우 불편하다.
[문헌 1] 공개특허 2010-0129629 2010. 12. 9.
본 발명은 사용자가 원격에서 전자기기를 조작할 때에도 마치 터치패널 표면을 터치하는 것과 같은 편리한 사용자 인터페이스를 제공함에 있다. 이를 위해 본 발명은 전자기기 표시면에 포인터를 사용하지 않고도 전자기기의 조작이 가능하고, 또한 터치패널의 특정 부분을 정교하게 터치하는 것과 같이 정확한 영역 선택이 가능한 방법을 제공한다.
상기 목적을 달성하기 위한 본 발명의 가상 터치 장치는, 표시면을 가지는 디스플레이를 포함하여 구성된 전자기기를 원격에서 제어하는 장치에 있어서, 서로 다른 위치에 배치되는 2개 이상의 이미지 센서로 구성되며 상기 표시면 전방의 사용자 신체를 촬영하는 영상획득부; 상기 영상획득부로부터 수신한 영상을 이용하여 상기 사용자 신체의 3차원 좌표 데이터를 산출하는 공간좌표 산출부; 상기 공간좌표 산출부로부터 수신한 제1 공간좌표와 제2 공간좌표를 이용하여 상기 제1 공간좌표와 제2 공간좌표를 연결하는 직선이 상기 표시면과 만나는 접점 좌표 데이터를 산출하는 터치 위치 산출부; 및 상기 터치 위치 산출부로부터 수신된 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하는 가상 터치 처리부로 구성되는 것을 특징으로 한다.
본 발명의 일 실시형태에서, 상기 공간좌표 산출부는 상기 촬영된 영상을 광학 삼각법을 사용하여 상기 사용자 신체의 3차원 좌표 데이터를 산출하는 것을 특징으로 한다.
본 발명의 실시형태에서, 상기 제1 공간좌표는 상기 사용자 손가락 중 어느 하나 손가락의 끝, 상기 사용자가 손가락으로 파지하고 있는 포인터의 끝 중 어느 하나의 3차원 좌표이고, 상기 제2 공간좌표는 상기 사용자의 어느 한쪽 눈의 중심점의 3차원 좌표로 형성될 수 있다.
본 발명의 다른 실시형태에서, 상기 제1 공간좌표는 상기 사용자 손가락 중 2개 이상의 손가락 끝의 3차원 좌표들이고, 상기 제2 공간좌표는 상기 사용자의 어느 한쪽 눈의 중심점의 3차원 좌표로 형성될 수 있다.
본 발명의 또 다른 실시형태에서, 상기 제1 공간좌표는 2인 이상 사용자에 의해 제시되는 각자 하나 이상의 손가락의 끝의 3차원 좌표들이고, 상기 제2 공간좌표는 상기 2인 이상 사용자들의 어느 한쪽 눈의 중심점의 3차원 좌표들로 형성될 수 있다.
본 발명의 실시형태에서, 상기 가상 터치 처리부는 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터의 변동이 없으면 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력할 수 있다.
본 발명의 다른 실시형태에서, 상기 가상 터치 처리부는 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터의 변동이 없으면, 제1 공간좌표와 제2 공간좌표 사이에 설정 거리 이상의 거리 변화 발생 유무를 판단하여 설정 거리 이상의 거리 변화가 발생한 경우에는 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하도록 형성될 수 있다.
본 발명의 바람직한 실시형태에서, 상기 접점 좌표 데이터의 변동이 상기 디스플레이의 설정 영역 범위 내인 것으로 판단되면 상기 접점 좌표 데이터의 변동이 없는 것으로 간주될 수 있다.
한편, 상기 다른 기술적 과제를 해결하기 위한 본 발명의 포인터를 사용하지 않는 가상 터치 방법은, 표시면을 가지는 디스플레이를 포함하여 구성된 전자기기를 원격에서 제어하기 위해서 영상획득부, 공간좌표 산출부, 터치 위치 산출부 및 가상 터치 처리부로 구성된 가상 터치 장치를 이용하는 방법에 있어서,
상기 영상획득부가 상기 사용자 신체의 영상을 촬영하는 단계와, 상기 공간좌표 산출부가 상기 영상획득부로부터 수신한 상기 영상을 처리하여 상기 사용자 신체의 3차원 공간좌표를 산출하는 단계와, 상기 터치 위치 산출부가 상기 공간좌표 산출부로부터 수신한 상기 사용자 손가락 중 어느 하나 손가락의 끝, 상기 사용자가 손가락으로 파지하고 있는 포인터의 끝 중 어느 하나의 3차원 좌표인 제1 공간좌표와 상기 사용자의 어느 한쪽 눈의 중심점의 3차원 좌표인 제2 공간좌표를 이용하여 상기 제1 공간좌표와 제2 공간좌표를 연결하는 직선이 상기 표시면과 만나는 접점 좌표 데이터를 산출하는 단계와, 상기 가상 터치 처리부가 상기 터치 위치 산출부로부터 수신된 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하는 단계를 포함하는 것을 특징으로 한다.
본 발명에 따른 가상 터치 장치 및 방법은 다음과 같은 효과가 있다.
본 발명에 따른 가상 터치 장치 및 방법은 디스플레이에서 포인터를 사용하지 않음으로써 전자기기의 신속한 조작이 가능하다. 따라서 본 발명은 앞서 설명한 터치패널의 장점을 전자기기 원격제어장치분야에 적용할 수 있는 장치 및 방법을 제안하는 것이다. 일반적으로 컴퓨터, 디지털TV 등 전자기기는 제어방법으로 해당 영역에 포인터를 생성한 후 특정 추가 동작을 수행함으로써 전자기기 조작이 가능하다. 또한 지금까지는 디스플레이 포인터의 위치를 고속으로 설정하기 위한 방법, 디스플레이에서 포인터의 속도 선택 방법, 하나 이상의 포인터를 사용하는 방법, 리모컨에 의해 포인터를 제어하는 방법 등과 같이 무수히 많은 기술들이 포인터를 활용한 응용기술에만 국한되어 개발되어왔다.
또한, 사용자는 전자기기 표시면의 특정영역을 정교하게 포인팅 할 수 있다.
본 발명에서는 전자기기 표시면을 정교하게 포인팅 하기 위해 '손가락 끝과 한쪽 눈만을 이용해야 사물의 위치를 정확히 포인팅할 수 있다'는 원리를 채용한다(손가락 끝을 두 눈으로 보면 손가락 끝이 2개로 보임). 본 발명에서는 이러한 방식을 채용함으로써 사용자는 원격에서도 마치 터치패널을 사용하는 것과 같이 정교하게 화면상의 메뉴를 포인팅할 수 있다.
도 1은 본 발명의 바람직한 실시예에 따른 가상 터치 장치 블록도.
도 2a에서 사용자가 디스플레이에 표시된 화면 메뉴를 선택한다.
도 2b에서 전자기기 디스플레이 서브 메뉴가 표시된다.
도 2c에서 사용자가 디스플레이에 표시된 서브 메뉴를 선택한다.
도 3a에서 사용자가 일정시간 동안 제1 공간좌표와 제2 공간좌표를 유지한다.
도 3b에서 사용자가 손가락 끝을 초기 접점 좌표 방향으로 이동시킨다.
도 3c에서 사용자가 손가락 끝을 제2 공간좌표 방향으로 이동시킨다.
도 4에서 1 사용자가 2개 손가락 끝을 사용하여 터치 동작을 수행한다.
도 5에서 2 사용자가 각자 손가락 끝을 사용하여 터치 동작을 수행한다.
도 6 본 발명에 따른 가상 터치 방법을 보여 주는 흐름도.
본 발명의 다른 목적, 특성 및 이점들은 첨부한 도면을 참조한 실시예들의 상세한 설명을 통해 명백해질 것이다.
본 발명에 따른 포인터를 사용하지 않는 가상 터치 장치의 바람직한 실시예에 대하여 첨부한 도면을 참조하여 설명하면 다음과 같다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예는 본 발명의 개시가 완전하도록 하며 통상의 지식을 가진자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있다.
도 1 은 본 발명의 실시예에 따른 가상 터치 장치를 나타낸 블록 구성도이다.
도 1을 참조하면, 가상 터치 장치(1)는 영상획득부(10), 공간좌표 산출부(20), 터치 위치 산출부(30) 및 가상 터치 산출부(40)을 포함한다.
영상획득부(10)로는 일종의 카메라모듈로 영상을 검출하여 전기적인 이미지 신호로 변환하는 CCD 또는 CMOS와 같은 이미지 센서(11, 12)를 2 이상 포함할 수 있다.
공간좌표 산출부(20)는 영상획득부(10)로부터 수신한 영상을 이용하여 상기 사용자 신체의 3차원 좌표 데이터를 산출한다. 본 발명에 따르면 영상획득부(20)를 구성하는 이미지센서(11, 12)는 각기 다른 각도에서 사용자 신체를 촬영하고 공간좌표 산출부(20)는 수동적인 광학 삼각법을 이용하여 사용자 신체의 3차원 좌표 데이터를 산출할 수 있다.
일반적으로 광학식 3차원 좌표 산출 방법은 센싱 방법에 따라 능동 방식과 수동 방식으로 분류할 수 있다. 능동 방식은 미리 정의된 패턴이나 음파 등을 물체에 투사한 후 그 에너지 또는 초점 등의 센서 파라미터의 제어를 통한 변화량을 측정하여 물체의 3차원 좌표 데이터를 산출하는 방법으로 구조광 혹은 레이저광을 이용하는 방식이 대표적이다. 이에 비하여 수동 방식은 인위적으로 물체에 에너지를 투사하지 않은 상태에서 촬영한 영상의 명암(intensity), 시차(parallax)등을 이용하는 방식이다.
본 발명에서는 물체에 에너지를 투사하지 않는 수동 방식을 채용하고 있는 바, 이 방식은 능동 방식에 비해 다소 정밀도는 떨어질 수 있어도 장비가 간편하고 입력 영상으로부터 텍스쳐를 직접 획득할 수 있는 장점이 있다.
수동 방식에서는 촬영한 영상간에 대응되는 특징점들에게 삼각법을 적용하여 3차원 정보를 획득할 수 있다. 삼각법의 적용하여 3차원 좌표를 추출하는 각종 관련 기법으로 카메라 자동보정(camera self calibration) 기법, Harris의 코너 추출 방법, SIFT 기법, RANSAC 기법, Tsai 기법 등이 흔히 채용된다. 특히, 사용자 신체의 3차원 좌표 데이터를 산출하는 방법으로 입체 카메라법을 이용할 수도 있다. 입체 카메라법은 인간이 두 개의 눈으로 물체를 보고 변위를 얻는 양안입체시의 구조와 동일하게 두 개의 다른 점에서 물체 표면의 동일점을 관측하여 그 점에 대한 예상각으로부터 거리를 구하는 방법이다. 상기 언급한 각종 3차원 좌표 산출 기법들은 본 발명이 속하는 기술분야의 당업자가 용이하게 알 수 있고 구현이 가능한 것들이므로 이에 대한 설명은 생략하기로 한다. 한편, 2차원 이미지를 이용하여 3차원 좌표 데이터를 산출하는 방법과 관련된 특허문헌으로 국내공개특허 제10-0021803호, 제10-2004-0004135호, 제10-2007-0066382호, 제10-2007-0117877호 등 다수가 존재한다.
터치 위치 산출부(30)은 공간좌표 산출부(20)로부터 수신한 제1 공간좌표와 제2 공간좌표를 이용하여 상기 제1 공간좌표와 제2 공간좌표를 연결하는 직선이 상기 표시면과 만나는 접점 좌표 데이터를 산출하는 역할을 수행한다.
일반적으로 사람의 신체 중에서 손가락은 정교하고 섬세한 조작이 가능한 유일한 부분이다. 특히, 손가락 중에서도 엄지 또는 집게 손가락 중에서 어느 하나를 사용하거나 두 손가락을 함께 사용할 경우 정교한 포인팅을 수행할 수 있다. 이에 따라 본 발명에서 제1 공간좌표로서 엄지 및/또는 집게 손가락의 끝부분을 사용하는 것은 매우 효과적이다.
또한 같은 맥락에서 상기 제1 공간좌표의 역할을 하는 손가락의 끝 부분을 대신하여 손가락으로 파지하고 있는 끝이 뾰족한 포인터(예, 펜 끝)를 사용할 수 있다. 이러한 포인터를 사용할 경우 손가락 끝에 비해 사용자 시야로부터 디스플레이를 가리는 부분이 작고 포인터의 뾰족한 끝으로 디스플레이의 매우 작은 부분까지도 정확히 포인팅 할 수 있는 장점이 있다.
또한 본 발명에서는 사용자의 한쪽 눈의 중심점만을 이용한다. 예를 들어 사용자가 두 눈 앞에 집게 손가락을 배치시켜 쳐다보면 상기 집게 손가락은 2개로 보일 것이다. 이는 사용자 양안이 각각 바라 보는 집게 손가락의 형상이 서로 다르기 때문에 이와 같은 현상이 발생한다(양안의 각도차에 의한 것임). 그러나 만약 한쪽 눈으로만 집게 손가락을 바라본다면 집게 손가락이 명확하게 보일 것이다. 또한 굳이 한쪽 눈을 감지 않더라도 의식적으로 한쪽 눈으로만 바라보더라도 집게 손가락은 뚜렷하게 볼 수 있다. 사격, 양궁 등과 같이 조준에 있어 고도의 정확성을 요구하는 스포츠 종목의 경우 대부분 한쪽 눈을 감고 조준하는 것도 이와 같은 원리에 따른 것이다.
본 발명에서는 한쪽 눈으로만 손가락 끝(제1 공간좌표)을 바라 보았을 때 손가락 끝의 형태를 뚜렷하게 파악할 수 있다는 원리를 채용하는 것이다. 이와 같이 사용자가 제1 공간좌표를 정확히 볼 수 있어야 제1 공간좌표와 일치되는 디스플레이의 특정 영역을 포인팅 할 수 있다.
본 발명에서는 1인 사용자가 손가락 중 어느 하나를 사용하는 경우, 제1 공간좌표는 사용자 손가락 중 어느 하나 손가락의 끝, 상기 사용자가 손가락으로 파지하고 있는 포인터의 끝 중 어느 하나의 3차원 좌표이고, 제2 공간좌표는 사용자의 어느 한쪽 눈의 중심점의 3차원 좌표이 될 것이다.
또한, 1인 사용자가 손가락 중 2개 이상을 사용하는 경우, 상기 제1 공간좌표는 상기 사용자 손가락 중 2개 이상의 손가락의 끝의 3차원 좌표들이고, 상기 제2 공간좌표는 상기 2인 이상 사용자들의 어느 한쪽 눈의 중심점의 3차원 좌표들로 형성될 수 있다.
또한, 2인 이상의 사용자가 사용하는 경우, 제1 공간좌표는 2인 이상 사용자에 의해 제시되는 각자 하나 이상의 손가락의 끝의 3차원 좌표들이고, 제2 공간좌표는 상기 2인 이상 사용자들의 어느 한쪽 눈의 중심점의 3차원 좌표들로 형성될 수 있다.
본 발명에 있어서, 가상 터치 처리부(40)는 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터의 변동이 없으면 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부(91)로 입력하도록 형성될 수 있다. 가상 터치 처리부(40)는 1인 사용자 2개 손가락 또는 2인 이상의 사용자에 대해서도 마찬가지로 방식으로 처리할 수 있다.
또한 본 발명에 있어서, 가상 터치 처리부(40)는 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터의 변동이 없으면, 제1 공간좌표와 제2 공간좌표 사이에 설정 거리 이상의 거리 변화 발생 유무를 판단하여 설정 거리 이상의 거리 변화가 발생한 경우에는 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부(91)로 입력하도록 형성될 수 있다. 가상 터치 처리부(40)는 1인 사용자 2개 손가락 또는 2인 이상의 사용자에 대해서도 마찬가지로 방식으로 처리할 수 있다.
한편, 상기 접점 좌표 데이터의 변동이 상기 디스플레이(90)의 설정 영역 범위 내인 것으로 판단되면 상기 접점 좌표 데이터들의 변동이 없는 것으로 간주되도록 형성될 수 있다. 즉, 사용자가 손가락 끝 또는 포인터의 끝으로 디스플레이를 포인팅 할 때 신체 특성상 신체 또는 손가락에 당연히 약간의 움직임 또는 떨림이 있으므로 사용자가 접점 좌표를 그대로 유지하는 것은 매우 어렵다. 따라서 상기 접점 좌표 데이터 값이 디스플레이의 설정 영역 범위안에 존재할 때는 상기 접점 좌표 데이터의 변동이 없는 것으로 간주하여 설정된 동작을 수행하는 명령코드를 생성하여 전자기기의 주 제어부(91)로 입력하도록 할 수 있다.
본 발명에 따른 원격 조정의 대상이 되는 전자기기 중 대표적인 것으로 디지털텔레비젼을 들 수 있다. 일반적으로 디지털텔레비전 수신기는 방송신호 수신부, 영상신호 처리부, 시스템 제어부 등을 별도로 구비하고 있으나 이러한 구성요소들은 당업자에게는 지극히 자명한 사실이므로 여기서는 이들에 상세한 설명을 생략한다. 본 발명에 따른 원격 조정의 대상이 되는 기타 전자기기로는 가전 기기 뿐만 아니라 조명기기, 가스기기, 난방기기, 방법기기 등 홈 네트워킹을 구성하고 각종 전자기기들도 본 발명에 의한 원격 조정 대상이 될 수 있다.
본 발명에 따른 가상 터치 장치(1)는 원격 조정의 대상이 되는 전자기기 프레임 상단에 삽입되어 설치될 수 있고, 또한 전자기기와 별도로 분리되어 설치될 수도 있다.
도 2a는 본 발명의 실시예에 따라 사용자가 전자기기 디스플레이(90) 상에서 특정 아이콘을 선택하는 도면이다. 사용자는 한쪽 눈으로 손가락 끝을 보면서 디스플레이(90)상에서 '음악' 아이콘을 선택한다. 공간좌표 산출부(20)에서는 사용자 신체의 3차원 공간좌표를 생성하고, 터치 위치 산출부(30)는 손가락 끝의 3차원 좌표 데이터(X1, Y1, Z1)와 한쪽 눈의 중심점의 3차원 좌표 데이터(X2, Y2, Z2)를 처리하여 디스플레이 표시면과의 접점 좌표(X, Y, Z)를 산출한다. 이후 가상 터치 처리부(40)는 접점 좌표 데이터(X, Y, Z)에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부(91)로 입력한다. 주 제어부(91)는 상기 명령코드를 수행한 결과를 디스플레이(90)에 표시하도록 제어한다. 도 2a에서는 '음악' 아이콘 메뉴를 선택하였다.
도 2b는 사용자가 도 2a에서 '음악' 아이콘 메뉴를 선택한 후 나타나는 노래 곡명에 대한 서브 메뉴를 디스플레이에 표시한 화면을 나타낸다. 도 2c는 사용자가 음악 서브 메뉴 중에서 특정 곡을 선택하는 화면이다.
도 3a 내지 3c에서 터치 위치 산출부(30)는 손가락 끝의 3차원 좌표 데이터(X1, Y1, Z1)와 한쪽 눈의 중심점의 3차원 좌표 데이터(X2, Y2, Z2)가 일정한 조건(Z 좌표 값의 변동)에 해당될 때에만 디스플레이 표시면과의 접점 좌표(X, Y, Z)에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부(91)로 입력하는 방법을 보여준다.
도 3a는 터치 위치 산출부(30)가 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터의 변동이 없을 경우에만 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부(91)로 입력한다.
도 3b와 도 3c에서 가상 터치 처리부(40)는 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터의 변동(X와 Y 좌표값)이 없으면, 제1 공간좌표와 제2 공간좌표 사이에 설정 거리 이상의 거리 변화 발생 유무를 판단하여 설정 거리 이상의 거리 변화(Z 좌표값의 변화)가 발생한 경우에는 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부(91)로 입력한다. 도 3b은 제1 공간좌표와 제2 공간좌표 사이의 거리가 멀어진 경우이고 도 3c는 제1 공간좌표와 제2 공간좌표 사이의 거리가 가까워진 경우이다.
도4는 1 사용자가 2개의 손가락 끝을 사용하여 전자기기 디스플레이 표시면에 2개의 접점 좌표, (Xa, Ya, Za)와 (Xb, Yb, Zb)를 갖는 경우를 나타낸다. 사용자가 표시면에 2개의 접점 좌표를 가지면서 전자기기 동작을 제어하는 예로는 게임 등에서 흔히 볼 수 있을 것이다. 또한 사용자가 2개의 손가락 끝을 사용할 경우 디스플레이 표시면에서 이미지를 조작(이동, 회전, 축소, 확대 등)할 때에도 매우 유용할 것이다.
도5는 2 사용자가 각자 1개의 손가락 끝을 사용하여 전자기기 디스플레이 표시면에 2개의 접점 좌표, (Xa, Ya, Za)와 (Xb, Yb, Zb)를 갖는 경우를 나타낸다. 2명의 사용자가 표시면에 2개의 접점 좌표를 가지면서 각각 전자기기 동작을 제어하는 예로는 게임 등에서 흔히 볼 수 있을 것이다.
도 6은 본 발명의 실시예에 따른 가상 터치 방법을 보여 주는 흐름도이다.
도시된 바와 같이,
영상획득부(10)가 상기 사용자 신체의 영상을 촬영한다(S510).
공간좌표 산출부(20)가 영상획득부(10)로부터 수신한 상기 영상을 처리하여 상기 사용자 신체의 3차원 공간좌표를 산출한다(S520).
터치 위치 산출부(30)가 공간좌표 산출부(20)로부터 수신한 상기 사용자 손가락 중 어느 하나 손가락의 끝, 상기 사용자가 손가락으로 파지하고 있는 포인터의 끝 중 어느 하나의 3차원 좌표인 제1 공간좌표와 사용자의 어느 한쪽 눈의 중심점의 3차원 좌표인 제2 공간좌표를 이용하여 상기 제1 공간좌표와 제2 공간좌표를 연결하는 직선이 상기 표시면과 만나는 접점 좌표 데이터를 산출한다(S530),
가상 터치 처리부(40)가 터치 위치 산출부(30)로부터 수신된 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부(91)로 입력한다(S540).
본 발명의 다른 실시예에서, 상기 S540 단계에서 가상 터치 처리부(40)는 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터의 변동이 없으면 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부(91)로 입력할 수 있다.
본 발명의 또 다른 실시예에서, 상기 S540 단계에서 가상 터치 처리부(40)는 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터의 변동이 없으면, 상기 제1 공간좌표와 제2 공간좌표 사이에 설정 거리 이상의 거리 변화 발생 유무를 판단하여 설정 거리 이상의 거리 변화가 발생한 경우에는 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부(91)로 입력할 수 있다.
상기에서 설명한 본 발명의 기술적 사상은 바람직한 실시예에서 구체적으로 기술되었으나, 상기한 실시예는 그 설명을 위한 것이며 그 제한을 위한 것이 아님을 주의하여야 한다. 또한, 본 발명의 기술적 분야의 통상의 지식을 가진 자라면 본 발명의 기술적 사상의 범위 내에서 다양한 실시예가 가능함을 이해할 수 있을 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (20)

  1. 표시면을 가지는 디스플레이를 포함하여 구성된 전자기기의 상기 표시면에 포인터를 표시하지 않고 원격에서 제어하는 장치에 있어서,
    서로 다른 위치에 배치되는 2개 이상의 이미지 센서로 구성되며 상기 표시면 전방의 사용자 신체를 촬영하는 영상획득부;
    상기 영상획득부로부터 수신한 영상을 이용하여 상기 사용자 신체의 3차원 좌표 데이터를 산출하는 공간좌표 산출부;
    상기 공간좌표 산출부로부터 수신한 제1 공간좌표와 제2 공간좌표를 이용하여 상기 제1 공간좌표와 제2 공간좌표를 연결하는 직선이 상기 표시면과 만나는 접점 좌표 데이터를 산출하는 터치 위치 산출부; 및
    상기 터치 위치 산출부로부터 수신된 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하는 가상 터치 처리부로 구성되며,
    상기 공간좌표 산출부는 촬영된 영상을 광학 삼각법을 사용하여 상기 사용자 신체의 3차원 좌표 데이터를 산출하며,
    상기 제1 공간좌표는 상기 사용자 손가락 중 어느 하나 손가락의 끝, 상기 사용자가 손가락으로 파지하고 있는 포인터의 끝 중 어느 하나의 3차원 좌표이고, 상기 제2 공간좌표는 상기 사용자의 어느 한쪽 눈의 중심점의 3차원 좌표로 형성되는 것을 특징으로 하는 가상 터치 장치.
  2. 삭제
  3. 삭제
  4. 제 1 항에 있어서,
    상기 가상 터치 처리부는 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터의 변동이 없으면 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하도록 형성되는 것을 특징으로 하는 가상 터치 장치.
  5. 제 1 항에 있어서,
    상기 가상 터치 처리부는 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터의 변동이 없으면, 제1 공간좌표와 제2 공간좌표 사이에 설정 거리 이상의 거리 변화 발생 유무를 판단하여 설정 거리 이상의 거리 변화가 발생한 경우에는 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하도록 형성되는 것을 특징으로 하는 가상 터치 장치.
  6. 제 4 항 내지 제 5 항 중 어느 하나의 항에 있어서,
    상기 접점 좌표 데이터의 변동이 상기 디스플레이의 설정 영역 범위 내인 것으로 판단되면 상기 접점 좌표 데이터의 변동이 없는 것으로 간주하도록 형성되는 것을 특징으로 하는 가상 터치 장치.
  7. 제 1 항에 있어서,
    상기 제1 공간좌표는 상기 사용자 손가락 중 2개 이상의 손가락 끝의 3차원 좌표들이고, 상기 제2 공간좌표는 상기 사용자의 어느 한쪽 눈의 중심점의 3차원 좌표로 형성되는 것을 특징으로 하는 가상 터치 장치.
  8. 제 7 항에 있어서,
    상기 가상 터치 처리부는 상기 공간좌표 산출부로부터 상기 수신한 2개 이상의 제1 공간좌표들과 상기 제2 공간좌표를 이용하여 상기 2개 이상의 제1 공간좌표들과 상기 제2 공간좌표를 연결하는 직선이 상기 표시면과 만나는 2개 이상의 접점 좌표 데이터들을 산출하는 터치 위치 산출부와, 상기 터치 위치 산출부로부터 수신된 상기 접점 좌표 데이터들에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하도록 형성되는 것을 특징으로 하는 가상 터치 장치.
  9. 제 8 항에 있어서,
    상기 가상 터치 처리부는 초기 접점 좌표 데이터들이 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터들의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터들의 변동이 없으면 상기 접점 좌표 데이터들에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하도록 형성되는 것을 특징으로 하는 가상 터치 장치.
  10. 제 8 항에 있어서,
    상기 가상 터치 처리부는 초기 접점 좌표 데이터들이 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터들의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터들의 변동이 없으면, 상기 제1 공간좌표들과 제2 공간좌표 사이에 설정 거리 이상의 거리 변화 발생 유무를 판단하여 설정 거리 이상의 거리 변화가 발생한 경우에는 상기 접점 좌표 데이터들에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하도록 형성되는 것을 특징으로 하는 가상 터치 장치.
  11. 제 9 항 내지 제 10 항 중 어느 하나의 항에 있어서,
    상기 접점 좌표 데이터들의 변동이 상기 디스플레이의 설정 영역 범위 내인 것으로 판단되면 상기 접점 좌표 데이터들의 변동이 없는 것으로 간주하도록 형성되는 것을 특징으로 하는 가상 터치 장치.
  12. 제 1 항에 있어서,
    상기 제1 공간좌표는 2인 이상 사용자에 의해 제시되는 각자 하나 이상의 손가락의 끝의 3차원 좌표들이고, 상기 제2 공간좌표는 상기 2인 이상 사용자들의 어느 한쪽 눈의 중심점의 3차원 좌표들로 형성되는 것을 특징으로 하는 가상 터치 장치.
  13. 제 12 항에 있어서,
    상기 가상 터치 처리부는 상기 공간좌표 산출부로부터 상기 사용자별로 수신한 1개 이상의 제1 공간좌표와 상기 하나의 제2 공간좌표를 이용하여 상기 사용자별로 수신한 1개 이상의 제1 공간좌표들과 상기 하나의 제2 공간좌표를 연결하는 직선이 상기 표시면과 만나는 2개 이상의 접점 좌표 데이터들을 산출하는 터치 위치 산출부와, 상기 사용자별로 상기 터치 위치 산출부로부터 수신된 상기 접점 좌표 데이터들에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하도록 형성되는 것을 특징으로 하는 가상 터치 장치.
  14. 제 13 항에 있어서,
    상기 가상 터치 처리부는 상기 사용자별로 초기 접점 좌표 데이터들이 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터들의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터들의 변동이 없으면, 상기 사용자별로 상기 접점 좌표 데이터들에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하도록 형성되는 것을 특징으로 하는 가상 터치 장치.
  15. 제 13 항에 있어서,
    상기 가상 터치 처리부는 상기 사용자별로 초기 접점 좌표 데이터들이 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터들의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터들의 변동이 없으면, 상기 사용자별로 상기 제1 공간좌표들과 제2 공간좌표 사이에 설정 거리 이상의 거리 변화 발생 유무를 판단하여 설정 거리 이상의 거리 변화가 발생한 경우에는 상기 사용자별로 상기 접점 좌표 데이터들에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하도록 형성되는 것을 특징으로 하는 가상 터치 장치.
  16. 제 14 항 내지 제 15 항 중 어느 하나의 항에 있어서,
    상기 접점 좌표 데이터들의 변동이 상기 디스플레이의 설정 영역 범위 내인 것으로 판단되면 상기 접점 좌표 데이터들의 변동이 없는 것으로 간주하도록 형성되는 것을 특징으로 하는 가상 터치 장치.
  17. 표시면을 가지는 디스플레이를 포함하여 구성된 전자기기의 상기 표시면에 포인터를 표시하지 않고 원격에서 제어하기 위해서 영상획득부, 공간좌표 산출부, 터치 위치 산출부 및 가상 터치 처리부로 구성된 가상 터치 장치를 이용하는 방법에 있어서,
    (A) 상기 영상획득부가 사용자 신체의 영상을 촬영하는 단계와,
    (B) 상기 공간좌표 산출부가 상기 영상획득부로부터 수신한 상기 영상을 처리하여 상기 사용자 신체의 3차원 공간좌표를 산출하는 단계와,
    (C) 상기 터치 위치 산출부가 상기 공간좌표 산출부로부터 수신한 상기 사용자 손가락 중 어느 하나 손가락의 끝, 상기 사용자가 손가락으로 파지하고 있는 포인터의 끝 중 어느 하나의 3차원 좌표인 제1 공간좌표와 상기 사용자의 어느 한쪽 눈의 중심점의 3차원 좌표인 제2 공간좌표를 이용하여 상기 제1 공간좌표와 제2 공간좌표를 연결하는 직선이 상기 표시면과 만나는 접점 좌표 데이터를 산출하는 단계와,
    (D) 상기 가상 터치 처리부가 상기 터치 위치 산출부로부터 수신된 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하는 단계를 포함하는 것을 특징으로 하는 가상 터치 방법.
  18. 제 17 항에 있어서, 상기 (D) 단계에서 상기 가상 터치 처리부는 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터의 변동이 없으면 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하는 것을 특징으로 하는 가상 터치 방법.
  19. 제 17 항에 있어서, 상기 (D) 단계에서 상기 가상 터치 처리부는 초기 접점 좌표 데이터가 산출된 시간으로부터 설정 시간 이상 상기 접점 좌표 데이터의 변동이 있는지를 판단하여 설정 시간 이상 상기 접점 좌표 데이터의 변동이 없으면, 상기 제1 공간좌표와 제2 공간좌표 사이에 설정 거리 이상의 거리 변화 발생 유무를 판단하여 설정 거리 이상의 거리 변화가 발생한 경우에는 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령코드를 생성하여 상기 전자기기의 주 제어부로 입력하는 것을 특징으로 하는 가상 터치 방법.
  20. 제 18 항 내지 제 19 항 중 어느 하나의 항에 있어서, 상기 접점 좌표 데이터의 변동이 상기 디스플레이의 설정 영역 범위 내인 것으로 판단되면 상기 접점 좌표 데이터의 변동이 없는 것으로 간주하는 것을 특징으로 하는 가상 터치 방법.

KR1020110014523A 2011-02-18 2011-02-18 포인터를 사용하지 않는 가상 터치 장치 및 방법 KR101381928B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020110014523A KR101381928B1 (ko) 2011-02-18 2011-02-18 포인터를 사용하지 않는 가상 터치 장치 및 방법
US14/000,246 US20130321347A1 (en) 2011-02-18 2012-02-17 Virtual touch device without pointer
EP12747163.9A EP2677399A4 (en) 2011-02-18 2012-02-17 VIRTUAL TOUCH WITH NO POINTER
CN2012800092021A CN103370678A (zh) 2011-02-18 2012-02-17 不使用指示器的虚拟触摸装置
PCT/KR2012/001198 WO2012111998A2 (ko) 2011-02-18 2012-02-17 포인터를 사용하지 않는 가상 터치 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110014523A KR101381928B1 (ko) 2011-02-18 2011-02-18 포인터를 사용하지 않는 가상 터치 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20120095084A KR20120095084A (ko) 2012-08-28
KR101381928B1 true KR101381928B1 (ko) 2014-04-07

Family

ID=46673059

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110014523A KR101381928B1 (ko) 2011-02-18 2011-02-18 포인터를 사용하지 않는 가상 터치 장치 및 방법

Country Status (5)

Country Link
US (1) US20130321347A1 (ko)
EP (1) EP2677399A4 (ko)
KR (1) KR101381928B1 (ko)
CN (1) CN103370678A (ko)
WO (1) WO2012111998A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190060197A (ko) 2017-11-24 2019-06-03 현대자동차주식회사 가상 터치 인식 장치 및 그의 인식 오류 보정 방법

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9335162B2 (en) 2011-04-19 2016-05-10 Ford Global Technologies, Llc Trailer length estimation in hitch angle applications
CN103019391A (zh) * 2011-09-22 2013-04-03 纬创资通股份有限公司 利用所撷取键盘影像作为指令输入依据的输入装置及方法
US9042603B2 (en) * 2013-02-25 2015-05-26 Ford Global Technologies, Llc Method and apparatus for estimating the distance from trailer axle to tongue
CN104102332B (zh) * 2013-04-08 2017-07-28 鸿富锦精密工业(深圳)有限公司 显示设备及其控制系统和方法
EP3069554A1 (en) 2013-11-13 2016-09-21 Huawei Technologies Co., Ltd. Transmission of machine type communications data using disrupted connectivity
CN105745945B (zh) 2013-11-13 2019-10-22 华为技术有限公司 控制移动通信系统中的机器类通信的数据传输
KR20150099670A (ko) * 2014-02-22 2015-09-01 주식회사 브이터치 가상터치를 이용한 이종 기기 간 컨텐츠 이동 장치 및 방법
KR101533319B1 (ko) * 2014-02-22 2015-07-03 주식회사 브이터치 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법
CN104656903A (zh) * 2015-03-04 2015-05-27 联想(北京)有限公司 一种显示图像处理方法和电子设备
JP2018528551A (ja) * 2015-06-10 2018-09-27 ブイタッチ・コーポレーション・リミテッド ユーザー基準空間座標系上におけるジェスチャー検出方法および装置
US9821845B2 (en) 2015-06-11 2017-11-21 Ford Global Technologies, Llc Trailer length estimation method using trailer yaw rate signal
US10384607B2 (en) 2015-10-19 2019-08-20 Ford Global Technologies, Llc Trailer backup assist system with hitch angle offset estimation
US10005492B2 (en) 2016-02-18 2018-06-26 Ford Global Technologies, Llc Trailer length and hitch angle bias estimation
US10046800B2 (en) 2016-08-10 2018-08-14 Ford Global Technologies, Llc Trailer wheel targetless trailer angle detection
US10222804B2 (en) 2016-10-21 2019-03-05 Ford Global Technologies, Llc Inertial reference for TBA speed limiting
KR101937823B1 (ko) * 2016-10-24 2019-01-14 주식회사 브이터치 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
KR102374408B1 (ko) * 2017-09-08 2022-03-15 삼성전자주식회사 가상 현실에서의 포인터 제어 방법 및 전자 장치
CN107870326A (zh) * 2017-10-13 2018-04-03 深圳天珑无线科技有限公司 一种通信终端及其测距方法以及具有存储功能的装置
CN109145802B (zh) * 2018-08-14 2021-05-14 清华大学 基于Kinect的多人手势人机交互方法及装置
TWI734024B (zh) * 2018-08-28 2021-07-21 財團法人工業技術研究院 指向判斷系統以及指向判斷方法
KR102155378B1 (ko) * 2018-09-19 2020-09-14 주식회사 브이터치 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR102225342B1 (ko) * 2019-02-13 2021-03-09 주식회사 브이터치 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR102191061B1 (ko) 2019-03-11 2020-12-15 주식회사 브이터치 2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
EP4002064A1 (en) * 2020-11-18 2022-05-25 XRSpace CO., LTD. Method and system for showing a cursor for user interaction on a display device
CN114442888A (zh) * 2022-02-08 2022-05-06 联想(北京)有限公司 对象确定方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020025198A (ko) * 2000-05-17 2002-04-03 요트.게.아. 롤페즈 타켓을 위치시키는 방법 및 장치, 이미지 처리기, 그리고타켓 및 타켓 포인트 식별 방법
KR20080055577A (ko) * 2006-12-15 2008-06-19 엘지디스플레이 주식회사 멀티 터치인식 기능을 가지는 표시장치와 그 구동방법
KR100853024B1 (ko) 2006-12-01 2008-08-20 엠텍비젼 주식회사 디스플레이의 영상 제어 방법 및 그 장치
KR20100129629A (ko) * 2009-06-01 2010-12-09 엘지전자 주식회사 움직임 검출에 의한 전자장치 동작 제어방법 및 이를 채용하는 전자장치

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
US6147678A (en) * 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US6531999B1 (en) * 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
KR20020021803A (ko) 2002-03-05 2002-03-22 백수곤 하나 이상의 이차원 이미지로부터 삼차원 모델을 만드는방법
JP2004040445A (ja) 2002-07-03 2004-02-05 Sharp Corp 3d表示機能を備える携帯機器、及び3d変換プログラム
KR100537518B1 (ko) * 2004-01-27 2005-12-19 삼성전자주식회사 공간에서 클릭 동작에 따른 포인팅 위치 조절 방법 및이를 위한 공간형 입력 장치
US7893920B2 (en) * 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
CN101536494B (zh) * 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
US7728825B2 (en) * 2005-03-22 2010-06-01 Microsoft Corporation Targeting in a stylus-based user interface
KR20070066382A (ko) 2005-12-22 2007-06-27 주식회사 팬택 두 대의 카메라를 이용한 3차원 이미지 생성 방법 및 이를구현하는 카메라 단말기
KR100818171B1 (ko) 2006-06-09 2008-04-03 한국과학기술원 손 지시의 3차원 위치 인식 시스템 및 방법
KR100907104B1 (ko) * 2007-11-09 2009-07-09 광주과학기술원 포인팅 지점 산출 방법 및 장치, 그리고 상기 장치를포함하는 원격 협업 시스템
US8149210B2 (en) * 2007-12-31 2012-04-03 Microsoft International Holdings B.V. Pointing device and method
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8693724B2 (en) * 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8593402B2 (en) * 2010-04-30 2013-11-26 Verizon Patent And Licensing Inc. Spatial-input-based cursor projection systems and methods
KR101151962B1 (ko) * 2011-02-16 2012-06-01 김석중 포인터를 사용하지 않는 가상 터치 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020025198A (ko) * 2000-05-17 2002-04-03 요트.게.아. 롤페즈 타켓을 위치시키는 방법 및 장치, 이미지 처리기, 그리고타켓 및 타켓 포인트 식별 방법
KR100853024B1 (ko) 2006-12-01 2008-08-20 엠텍비젼 주식회사 디스플레이의 영상 제어 방법 및 그 장치
KR20080055577A (ko) * 2006-12-15 2008-06-19 엘지디스플레이 주식회사 멀티 터치인식 기능을 가지는 표시장치와 그 구동방법
KR20100129629A (ko) * 2009-06-01 2010-12-09 엘지전자 주식회사 움직임 검출에 의한 전자장치 동작 제어방법 및 이를 채용하는 전자장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190060197A (ko) 2017-11-24 2019-06-03 현대자동차주식회사 가상 터치 인식 장치 및 그의 인식 오류 보정 방법
US10866636B2 (en) 2017-11-24 2020-12-15 VTouch Co., Ltd. Virtual touch recognition apparatus and method for correcting recognition error thereof

Also Published As

Publication number Publication date
EP2677399A4 (en) 2014-09-03
US20130321347A1 (en) 2013-12-05
EP2677399A2 (en) 2013-12-25
KR20120095084A (ko) 2012-08-28
CN103370678A (zh) 2013-10-23
WO2012111998A2 (ko) 2012-08-23
WO2012111998A3 (ko) 2012-12-20

Similar Documents

Publication Publication Date Title
KR101381928B1 (ko) 포인터를 사용하지 않는 가상 터치 장치 및 방법
KR101151962B1 (ko) 포인터를 사용하지 않는 가상 터치 장치 및 방법
KR101441882B1 (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 디스플레이 표시면 둘레의 가상 평면을 사용하여 전자기기를 제어하는 방법
EP2733585B1 (en) Remote manipulation device and method using a virtual touch of a three-dimensionally modeled electronic device
KR20120126508A (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 터치 인식 방법
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
JP6165485B2 (ja) 携帯端末向けarジェスチャユーザインタフェースシステム
KR101343748B1 (ko) 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치
KR101890459B1 (ko) 3차원으로 디스플레이된 오브젝트의 사용자 선택 제스쳐에 응답하기 위한 방법 및 시스템
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
KR20120068253A (ko) 사용자 인터페이스의 반응 제공 방법 및 장치
TWI530858B (zh) 一種立體交互系統和立體交互方法
KR101321274B1 (ko) 두대의 카메라와 광원을 이용한 포인터를 사용하지 않는 가상 터치 장치
WO2014185808A1 (en) System and method for controlling multiple electronic devices
TWI486815B (zh) 顯示設備及其控制系統和方法
KR101272458B1 (ko) 포인터를 사용하지 않는 가상 터치 장치 및 방법
US20130201157A1 (en) User interface device and method of providing user interface
KR20130133482A (ko) 티오에프 카메라를 이용한 포인터를 사용하지 않는 가상 터치 장치
KR101394604B1 (ko) 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치
WO2017217375A1 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
KR20140021166A (ko) 2차원 가상 터치 장치
KR20140060615A (ko) 포인터를 사용하지 않는 가상 터치 장치에 있어서의 전자기기의 가상 평면을 이용한 원격 조작 장치
KR20140062195A (ko) 카메라 1 대를 사용하는 가상 터치 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
N231 Notification of change of applicant
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
GRNT Written decision to grant
X701 Decision to grant (after re-examination)
FPAY Annual fee payment

Payment date: 20180323

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190401

Year of fee payment: 6