KR19990008158A - 인터페이스 장치 - Google Patents

인터페이스 장치 Download PDF

Info

Publication number
KR19990008158A
KR19990008158A KR1019970707683A KR19970707683A KR19990008158A KR 19990008158 A KR19990008158 A KR 19990008158A KR 1019970707683 A KR1019970707683 A KR 1019970707683A KR 19970707683 A KR19970707683 A KR 19970707683A KR 19990008158 A KR19990008158 A KR 19990008158A
Authority
KR
South Korea
Prior art keywords
shape
cursor
display
interaction
hand
Prior art date
Application number
KR1019970707683A
Other languages
English (en)
Inventor
마루노수수무
이마가와타로
모리야미치요
콘도켄지
Original Assignee
모리시타요우이치
마쓰시타덴키산교가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모리시타요우이치, 마쓰시타덴키산교가부시끼가이샤 filed Critical 모리시타요우이치
Publication of KR19990008158A publication Critical patent/KR19990008158A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras

Abstract

본 발명은, 컴퓨터, 워드 프로세서 등의 정보 기기나 텔레비전 등의 디스플레이를 갖는 기기의 입출력을 행하는 인터페이스 장치에 관한 것으로, 조작자의 손의 형상 및 또는 그 움직임을 인식하는 인식 수단과, 이 인식 수단에 의해 인식된 손의 형상 및 또는 움직임의 특징을 특수 형상으로서 화면에 표시하는 표시 수단과, 이 표시 수단에 의해 화면에 표시된 특수 형상에 의해, 화면내에 표시된 정보를 제어하는 제어 수단을 구비하고, 손의 형상을 바꾸든지 동작하는 것만으로 화면에 표시된 2차원 혹은 3차원 정보를 선택하거나, 지시하거나, 움직이거나 하여 제어할 수 있는 조작성이 양호한, 범용성이 높은 인터페이스 장치이다.

Description

인터페이스 장치
이러한 종류의 종래의 인터페이스 장치로서, 표시 장치내의 정보에 무엇인가 별도의 정보를 부가하거나, 표시의 정보를 변경하거나, 선택하거나 하기 위해, 표시 화면중의 마우스에 의해 검출한 좌표 위치에 커서를 표시하여 행하는 것이 있다.
도 30은 이러한 종류의 종래의 인터페이스 장치의 개요를 도시하는 것이다. 도 30에 있어서, (501)은 호스트 컴퓨터, (502)는 디스플레이이며, 디스플레이(502)중에는 호스트 컴퓨터(501)에 의해, 가상의 조작 버튼(503, 504, 505)이 표시되어 있다. (506)은 마우스 커서이며, 마우스(507)에 의해 검출한 마우스(507)의 이동량에 근거하여, 마우스(507)의 움직임에 동기하여 화면중을 움직이도록, 호스트 컴퓨터(501)가 표시 제어한다. 사용자는, 마우스(507)를 움직이는 것에 의해, 표시 화면중의 임의의 가상의 조작 버튼의 위치에 마우스 커서(506)를 이동시켜, 마우스(507)상의 스위치(508)를 누르는 것에 의해, 조작 버튼을 선택하여, 호스트 컴퓨터(501)에 동작의 지시가 인가되도록 되어 있다.
그러나 상기 종래의 구성에서는, 기기의 본체와는 별도로 마우스라는 입력 장치가 필요하고, 또 마우스를 조작하는 테이블 등의 기틀이 필요하기 때문에, 휴대 정보 기기 등에 이용하는 것은 알맞지 않다. 또, 마우스를 거쳐서 조작을 실행하기 때문에, 반드시 직접적이고 알기 쉬운 인터페이스로는 되어 있지 않다.
발명의 개시
본 발명의 하나의 목적은, 키보드나 마우스 등의 입력 장치를 필요로 하지 않고, 간단히 기기의 조작이 가능한 인터페이스 장치에 있다. 또한 다른 목적으로서, 조작자의 의도에 따른 상호 작용의 판정이 차차 자동적으로 이루어지는 것에 의해, 표시물을 지시하거나, 잡거나 하는 조작의 조작성이 더욱 향상된 인터페이스 장치를 제공하고자 하는 것이다.
구성으로서 본 발명은, 조작자의 손의 형상을 인식하는 인식 수단과, 이 인식 수단에 의해 인식된 손의 형상의 특징을 특수 형상으로서 화면에 표시하는 표시 수단과, 이 표시 수단에 의해 화면에 표시된 특수 형상에 의해, 화면내에 표시된 정보를 제어하는 제어 수단을 구비한 인터페이스 장치에 있어서, 손의 형상을 바꾸는 것만으로 화면에 표시된 정보를 제어할 수 있는 것이다.
또한, 손의 움직임도 인식하는 것에 의해, 더욱 조작성이 좋은 인터페이스 수단을 제공하는 것이다. 그 움직임 인식은, 손의 형상 또는 움직임을 촬상(撮像)한 화상을 보존하는 프레임 메모리와, 상기 프레임 메모리내에 보존한 화상보다 이전의 시간에 촬상한 화상을 기준 화상으로서 축적하는 기준 화상 메모리를 마련하고, 프레임 메모리내의 화상과, 기준 화상 메모리내에 축적하고 있는 기준 화상과의 차이를 추출함으로써 달성한다. 또, 다른 인식 방법은, 촬상한 화상중의 사용자의 손의 형상 및 또는 움직임을 사용자의 윤곽으로서 추출하고, 그 윤곽을 추적하여, 윤곽선의 각도와 윤곽선의 길이와의 관계, 즉 윤곽 파형을 연산하고 필터링하여, 소정의 형상을 나타내는 형상 파형을 생성함으로써 달성된다.
또한, 손의 형상의 특징을 특수 형상으로서 화면에 표시하여 커서로서 조작하기 위한 커서 표시 수단과, 그 커서 표시 이외의 표시물과의 관련을, 커서 표시 이외의 표시물의 위치를 대표하는 대표점 좌표 및 형상으로서 기억하는 수단과, 커서 표시와 상기 표시물과의 사이의 상호 작용을 연산 판정하는 수단을 마련하여, 커서 표시를 가상의 매니퓰레이터(manipulator)화하여 표시하는 경우 등에 있어서, 표시된 가상 물체를 잡을 때에 조작자의 의도에 따른 상호 작용에 의해 조작이 매끄럽게 실현될 수 있는 것이다.
이상과 같이 구성한 인터페이스 장치는, 사용자가 인식 수단을 향해, 예컨대 손을 얹으면 손의 형상에 상당하는 특수 형상이 화면내에 소위 화면 조작을 위한 아이콘 표시가 이루어져, 그 아이콘 표시에 따른 제어가 가능해 진다.
또는 손짓에 의해서 지시를 가하면, 가해진 손짓이 표시 화면상에 손의 형상에 대응하여 설정된 특수 형상이 표시됨과 동시에, 그 움직임도 표시되어, 예컨대 표시 화면에 표시한 가상 스위치 등을 손짓에 의해서 선택하거나, 화면상에 표시된 표시물을 목적에 따라 잡거나 운반하거나 하는 것이 가능해져, 마우스 등의 입력 장치를 필요로 하지 않고, 대단히 간편한 기기의 조작이 가능해지는 것이다.
또한 손의 형상에 대응하여 설정된 특수 형상이 단순한 커서 이외에 가상 매니퓰레이터로서 동작하고, 가상 매니퓰레이터로 조작하고자 하는 표시물과의 상호 작용을, 조작자가 의도하던 판정이 차차 자동적으로 이루어지는 것에 의해 조작성이 더욱 향상된 인터페이스를 실현할 수 있다.
본 발명은, 컴퓨터, 워드 프로세서 등의 정보 기기나 텔레비전 등의 디스플레이를 갖는 기기의 입출력을 행하는 인터페이스 장치에 관한 것이다.
도 1은 본 발명의 실시예 1에 따른 인터페이스 장치의 외관도,
도 2는 본 발명의 동실시예에 따른 인터페이스 장치의 상세 블럭도,
도 3은 본 발명의 동실시예에 따른 인터페이스 장치에 의해 판단하는 손의 형상의 예를 도시한 도면,
도 4는 본 발명의 동실시예에 따른 인터페이스 장치의 형상 식별 수단의 상세 실시예를 도시한 도면,
도 5는 동실시예의 화상차 연산부에 의한 연산의 일례를 도시한 도면,
도 6은 동실시예의 아이콘 생성부가 생성하는 아이콘의 예를 도시한 도면,
도 7은 동실시예에 따른 인터페이스 장치의 동작예를 도시한 외관도,
도 8은 본 발명의 실시예 2에 따른 인터페이스 장치의 외관도,
도 9는 본 발명의 실시예 2에 따른 인터페이스 장치의 상세 블럭도,
도 10은 동실시예의 인터페이스 장치에 의해 판단하는 손의 형상의 예를 도시한 도면,
도 11은 동실시예의 인터페이스 장치의 동작 인식부의 상세 실시예를 도시한 도면,
도 12는 동실시예의 화상차 연산부에 의한 연산의 일례를 도시한 도면,
도 13은 동실시예의 동작예를 도시한 도면,
도 14는 본 발명의 실시예 3에 따른 인터페이스 장치의 상세 블럭도,
도 15는 본 발명에 따른 실시예 3의 인터페이스 장치의 동작 인식부의 상세 실시예를 도시한 도면,
도 16a∼d는 동실시예에 따른 인터페이스 장치에 의해 표시 화면상에 표시하는 아이콘의 예를 도시한 도면,
도 17은 본 발명의 동실시예에 따른 인터페이스 장치의 동작 인식부의 동작을 도시한 도면,
도 18은 본 발명의 동실시예에 따른 인터페이스 장치의 동작 인식부의 동작을 도시한 도면,
도 19는 본 발명의 동실시예에 따른 인터페이스 장치의 동작 인식부의 동작을 도시한 도면,
도 20은 본 발명의 동실시예에 따른 인터페이스 장치의 동작 인식부의 동작을 도시한 도면,
도 21은 실시예 4를 설명하기 위한 인터페이스 장치를 도시한 도면,
도 22a는 실시예의 인터페이스 장치에 이용하는 커서의 일례에 있어서 커서가 열린 상태를 도시한 도면,
도 22b는 실시예의 닫힌 상태를 도시한 도면,
도 22c는 실시예의 인터페이스 장치에 이용하는 커서의 일례에 있어서 커서가 열린 상태를 도시한 도면,
도 22d는 실시예의 닫힌 상태를 도시한 도면,
도 22e는 실시예의 인터페이스 장치에 이용하는 커서의 일례에 있어서 커서가 열린 상태를 도시한 도면,
도 22f는 실시예의 닫힌 상태를 도시한 도면,
도 23a는 실시예의 인터페이스 장치에 이용하는 가상 물체의 일례의 형태를 도시한 도면,
도 23b는 실시예의 인터페이스 장치에 이용하는 가상 물체의 일례의 형태를 도시한 도면,
도 24a는 가상 공간의 커서와 가상 물체의 배치를 도시한 정면도,
도 24b는 가상 공간의 커서와 가상 물체의 배치를 도시한 측면도,
도 25는 동실시예를 설명하기 위한 가상 공간의 표시예를 도시한 도면,
도 26은 동실시예의 인터페이스 장치의 일례를 도시한 블럭도,
도 27a는 동실시예의 인터페이스 장치에 이용하는 입력 수단에 있어서의 입력 장치의 일례를 도시한 도면,
도 27b는 동실시예의 인터페이스 장치에 이용하는 입력 수단에 있어서의 입력 장치의 일례를 도시한 도면,
도 27c는 동실시예의 인터페이스 장치에 이용하는 입력 수단에 있어서의 입력 장치의 일례를 도시한 도면,
도 28a는 동실시예의 카메라를 이용하여 손을 촬상한 화상의 일례를 도시한 도면,
도 28b는 동실시예의 카메라를 이용하여 손을 촬상한 화상을 이치화(二値化)한 일례를 도시한 도면,
도 29a는 본 발명의 동실시예의 인터페이스 장치에 이용하는 표시 수단이 표시하는 화면의 일례를 도시한 도면,
도 29b는 동표시 화면의 제 2 예를 도시한 도면,
도 29c는 동표시 화면의 제 3 예를 도시한 도면,
도 29d는 동표시 화면의 제 4 예를 도시한 도면,
도 30은 종래의 인터페이스 장치를 설명하기 위한 설명도.
(실시예 1)
본 발명의 실시예 1은, 조작자의 손의 형상을 인식하기 위해 촬상 장치 등의 인식 수단과, 이 인식 수단에 의해 인식된 손의 형상의 특징을 아이콘 등으로 특수 형상으로서 화면에 표시하는 표시 수단과, 이 표시 수단에 의해 화면에 표시된 아이콘 등의 특수 형상을 소위 커서로서 동작시켜 화면내에 표시된 정보를 손의 형상을 바꾸는 것에 의해 제어하는 제어 수단을 구비한 인터페이스 장치이다.
도 1은, 본 발명에 의한 인터페이스 장치의 실시예 1의 외관을 도시한 것이다. (1)은 호스트 컴퓨터, (2)는 표시에 이용하는 디스플레이, (3)은 화상을 촬상하는 CCD 카메라이다. CCD 카메라(3)는, 디스플레이의 표시 방향과 동일 방향으로 촬상면을 배치하여 놓아, 사용자가 표시면에 향하는 것에 의해, 사용자의 손 형상을 촬상할 수 있도록 되어 있다. 디스플레이상에는, 메뉴(201, 202) 및 상기 손 형상을 반영한 표시를 행하는 아이콘(200)을 표시할 수 있도록 되어 있다.
도 2는, 본 발명의 상세 블럭도를 도시하는 것이다. CCD 카메라로부터 입력된 화상은, 프레임 메모리(21)에 저장된다. 기준 화상 메모리(25)에는, 미리 촬상된 사람을 포함하지 않는 배경의 화상을, 기준 화상으로서 보존하고 있다. 기준 화상은 필요에 따라 수시 갱신할 수 있다.
형상 식별 수단(22)은, 프레임 메모리내에 저장한 화상과, 기준 화상 메모리에 보존된 화상과의 차를 추출함으로써, 화상중에서 배경 화상을 제거함과 동시에, 예컨대 사용자의 손에 상당하는 부분을 추출하여, 그 형상이, 예컨대 도 3a에 도시한 바와 같은, 한 개의 손가락 형상인지, 또는 도 3b에 도시한 바와 같은 두 개의 손가락 형상인지, 또는 그 외에 도 3c와 같은 것인지를 판단한다.
도 4는, 형상 식별 수단(22)의 상세 실시예를 도시한 것으로, 화상차 연산부(221)와, 윤곽 추출부(222)와, 형상 식별부(223)로 구성한 예를 도시한 것이다.
화상차 연산부(221)는, 전술한 바와 같이, 프레임 메모리내에 저장한 화상과, 기준 화상 메모리에 보존된 화상과의 차를 연산한다. 이에 따라, 추출하고자 하는 물체, 예컨대 사용자와 배경의 부분을 분리할 수 있는 것이다. 예컨대, 화상차 연산부(221)를 단순한 감산 회로로 구성한 경우, 도 5에 도시하는 바와 같이 프레임 메모리내의 화상중의 사용자의 손의 부분만을 추출할 수 있는 것을 알 수 있다. 윤곽 추출부(222)는, 화상차 연산부(221)에 의해 연산한 결과의 화상중에 존재하는 물체의 윤곽 형상을 추출한다. 구체적인 방법예로서는, 화상의 에지를 추출함으로써, 간단히 윤곽 형상을 추출할 수 있다.
형상 식별부(223)는, 상기 윤곽 추출부(222)에 의해서 추출한, 손의 윤곽 형상을 상세히 식별하여, 예컨대 그 형상이, 도 3a에 도시한 바와 같은, 한 개의 손가락의 형상인지, 또는 도 3b에 도시한 바와 같은 두 개의 손가락의 형상인지를 판단한다. 형상의 식별법으로서는 예컨대, 템플레이트 매칭(template matching), 형상 모델과의 매칭 방법, 뉴럴 네트워크(neural network) 등을 이용하는 것이 가능하다.
아이콘 생성부(24)는, 상기 형상 식별부(223)에 의한 손의 형상의 식별 결과에 근거하여, 디스플레이에 표시해야 할 특수 형상으로서 아이콘 화상을 생성한다. 예컨대, 손의 형상의 식별 결과가 한 개의 손가락 형상이면, 예컨대 도 6a에 도시한 바와 같은 숫자 1의 아이콘을, 또 두 개의 손가락 형상이면, 예컨대 도 6b에 도시한 바와 같은, 숫자 2의 아이콘을 생성한다. 아이콘의 형상으로서는 손의 형상의 식별 결과가 한 개의 손가락 형상이면, 도 6c에 도시한 바와 같은 한 개의 손가락형의 아이콘을, 또 두 개의 손가락 형상이면, 도 6d에 도시한 바와 같은 두 개의 손가락형의 아이콘 등을 생성하여도 좋다. 표시 제어부(23)는, 형상 식별부(223)에 의한 손의 형상의 식별 결과에 근거하여 표시를 제어한다. 예컨대, 식별 결과에 근거한 상기 아이콘을 표시함과 동시에, 식별 결과와 미리 대응시켜 놓은 메뉴를 손 형상의 식별 결과에 근거하여 강조하여 표시를 한다.
이상과 같이 구성한 본 발명의 실시예에 의한 조작예를 이하에 나타낸다.
도 7a에 도시한 바와 같이, 본 발명에 의한 인터페이스 장치를 구비한 기기를 향하여 사용자가 손을 한 개의 손가락 형상으로 하면, 디스플레이상에 숫자 1의 아이콘이 표시됨과 동시에, 첫 번째의 메뉴인 텔레비전의 표시가 강조 표시된다. 이 때 강조 표시에 맞춰 디스플레이 장치로부터 소리 혹은 음성을 출력 하는 것에 의해 조작자의 주의를 더욱 환기시키는 것이 가능하다. 여기서, 도 7b와 같이 손을 두 개의 손가락 형상으로 하면, 디스플레이상에 숫자 2의 아이콘이 표시됨과 동시에, 두 번째의 메뉴인 네트워크의 표시가 강조 표시된다. 이 상태에서 예컨대 일정 시간 동일한 손의 형상을 유지하는 것에 의해 두 번째의 메뉴가 선택되어, 호스트 컴퓨터에 네트워크 단말의 표시를 하도록 지령을 내리는 것이 가능하다. 메뉴의 선택에는 음성 등을 병용하여도 좋다. 도 7c와 같이 미리 결정된 손의 형상 이외인 경우에는 디스플레이상에는 아이콘 및 메뉴는 표시되지 않고, 호스트 컴퓨터에 명령은 전달되지 않는다.
이와 같이 본 발명에 의하면, 촬상한 화상중의 손의 형상을 식별하여, 식별 결과에 따라 컴퓨터 등의 기기를 제어하는 것이 가능하고, 키보드나 마우스 등의 기기를 이용하지 않고서 원격으로 비접촉으로 조작을 하는 것이 가능하다. 또한, 손의 형상을 식별한 결과를 화면에 반영시키는 것에 의해 사용자가 식별 결과를 확인하면서 조작을 할 수 있어서, 사용하기 쉽고 또한 확실한 조작이 가능해 진다.
또, 본 실시예에서는 단지 메뉴 선택에 적용한 예를 도시하였지만, 손의 임의의 형상에 따른 아이콘 표시가, 그림이나 문장 등으로 치환하도록 미리 설정함으로써, 그림이나 문자를 표시에 기입 제어하는 것도 용이한 것은 물론이다.
(실시예 2)
본 발명의 실시예 2는, 적어도 촬상부와, 촬상한 화상중의 물체의 형상 및 또는 움직임을 인식하는 동작 인식부와, 이 동작 인식부에 의해 인식한 물체의 형상 및 또는 움직임을 표시하는 표시부에 따라 구성하고, 상기 촬상부에서 촬상한 화상을 보존하는 프레임 메모리와, 이 프레임 메모리내에 저장한 화상보다 이전의 시간에 촬상한 화상을 기준 화상으로서 축적하는 기준 화상 메모리를 마련하고, 동작 인식부에, 프레임 메모리내의 화상과, 기준 화상 메모리내에 축적하고 있는 기준 화상과의 차이를 추출하는 화상 변화 추출부를 마련한 인터페이스 장치이다.
도 8은, 본발명에 의한 인터페이스 장치의 실시예 2의 외관을 도시한 것이다. 도 8에 있어서 실시예 1과 동일한 기능을 갖는 부분에는 동일한 수치로 구성 요소를 나타낸다. 즉, (1)은 호스트 컴퓨터, (2)는 표시에 이용하는 디스플레이, (3)은 화상을 촬상하는 CCD 카메라이다. CCD 카메라(3)는, 디스플레이(2)의 표시 방향과 동일 방향으로 촬상면을 배치해 놓아서, 사용자가 표시면에 향하는 것에 의해, 사용자의 손짓을 촬상할 수 있도록 되어 있다. 디스플레이(2)의 표시면상에는, 가상 스위치(204, 205, 206) 및 상기 가상 스위치를 선택하는 화살표 커서의 아이콘(203)을 표시할 수 있도록 되어 있다.
도 9는, 본 실시예의 상세한 구성의 블럭도를 도시하는 것이다. CCD 카메라(3)로부터 입력된 화상은, 프레임 메모리(21)에 저장된다. 기준 화상 메모리(25)에는, 미리 촬상된 화상이, 기준 화상으로서 보존되어 있다. 기준 화상 갱신부(26)는, 타이머(261)와 화상 갱신부(262)에 의해 구성되어 있으며, 타이머(261)에서 지시되는 일정한 시간 간격으로 프레임 메모리(21)에 보존한 최신 화상을 기준 화상 메모리(25)에 전송하여, 기준 화상을 갱신한다.
동작 인식부(22)는, 프레임 메모리내에 저장한 화상과, 기준 화상 메모리에 보존된 화상과의 차를 추출함으로써, 화상중으로부터 배경 화상을 제거함과 동시에, 예컨대 사용자의 손에 상당하는 부분을 추출하여, 그 형상이, 예컨대 도 10a에 도시한 바와 같은 한 개의 손가락 형상인지, 또 도 10b에 도시한 바와 같은 주먹의 형상인지를 판단한다.
도 11은, 동작 인식부(22)의 상세 실시예를 도시한 것으로, 화상차 연산부(221)와 윤곽 추출부(222)와 형상 변화 식별부(225)와 위치 검출부(224)에 의해 구성한 예를 도시한 것이다.
화상차 연산부(221)는, 전술한 바와 같이 프레임 메모리(21)내에 저장한 화상과, 기준 화상 메모리(25)에 보존된 화상과의 차를 연산한다. 이에 따라, 움직임으로서 추출하고자 하는 물체, 예컨대 사용자의 손의 부분과 배경의 부분을 분리할 수 있음과 동시에, 움직이고 있는 물체 화상만을 추출할 수 있다. 예컨대, 화상차 연산부(221)를 단순한 감산 회로로 구성한 경우, 도 12에 도시한 바와 같이 기준 화상중의 손의 부분과, 프레임 메모리중의 최신 화상중의 손의 부분만을 추출할 수 있으며, 움직이고 있는 손의 부분만을 간단히 확인할 수 있는 것이다. 윤곽 추출부(222)는, 화상차 연산부(221)에 의해 연산한 결과의 화상중에 존재하는 물체, 즉 움직이기 전과, 움직인 후의 손의 부분의 윤곽 형상을 추출한다. 구체적인 방법예로서는, 화상의 에지를 추출함으로써, 간단히 윤곽 형상을 추출할 수 있다.
형상 변화 식별부(225)는, 윤곽 추출부(222)에 의해 추출한, 움직인 후의 손의 부분의 윤곽 형상을 상세히 식별하여, 예컨대 그 형상이, 도 10a에 도시한 바와 같은, 한 개의 손가락 형상인지, 또 도 10b에 도시한 바와 같은 주먹 형상인지를 판단한다. 이와 동시에 위치 검출부(224)는, 상기 움직인 후의 사용자의 손의 부분의 윤곽 형상의 중심 좌표를 연산한다.
아이콘 생성부(24)는, 형상 변화 식별부(225)에 의한 손의 형상의 식별 결과에 근거하여, 디스플레이에 표시해야 할 아이콘 화상을 생성한다. 아이콘 화상의 예로서는 예컨대, 손의 형상의 식별 결과가 한 개의 손가락 형상이면, 예컨대 도 13a에 도시한 바와 같은 화살표의 아이콘을 생성하고, 또 주먹 형상이면, 예컨대 도 13b에 도시한 바와 같은 X 표시의 아이콘을 생성한다. 또한, 손의 형상의 식별 결과가 두 개의 손가락 형상이면, 예컨대 도 13c에 도시한 바와 같은 두 개의 손가락 형상을 모방한 형상의 아이콘을 생성하며, 또 주먹의 형상이면, 예컨대 도 13d에 도시한 바와 같은, 주먹 형상을 모방한 형상의 아이콘을 생성하는 구성으로 하여도 좋다.
표시 제어부(23)는, 아이콘 생성부(24)에 의해 생성한 아이콘의 디스플레이(2)상에서의 표시 위치를 제어하는 것에 의해, 좌표 변환부(231)와 좌표 반전부(232)로 이루어진다. 좌표 변환부(231)는, 촬상한 화상의 좌표로부터 디스플레이(2)의 표시 좌표로의 변환을 실행하고, 또 좌표 반전부(232)는, 변환한 표시 좌표의 좌우 위치를 반전한다. 즉, 위치 검출부(224)에 의해 검출한 사용자의 손에 상당하는 부분의 화상중의 중심 좌표로부터, 디스플레이(2)의 표시 좌표로의 변환을 행하여, 좌우의 좌표를 반전시켜 디스플레이(2)에 아이콘을 표시할 수 있다. 이 조작에 의해, 사용자가 손을 오른쪽으로 움직이면, 이 동작을 거울에 반사한 것과 같이, 표시 화면상에서 아이콘이 마주보아 오른쪽으로 움직인다.
이상과 같이 구성한 본 실시예에 의한 조작예를 이하에 나타낸다. 도 8에 도시한 바와 같이 본 실시예에 의한 인터페이스 장치를 구비한 기기를 향하여 사용자가 손을 한 개의 손가락 형상으로 하여 움직이면, 디스플레이상에 표시한 화살표 커서가, 손의 움직임에 대응한 임의의 위치로 이동한다. 다음에, 디스플레이(2)상에 표시한 임의의 가상 스위치(204, 205, 206)상에 손을 움직이는 것에 따라 화살표 커서를 이동시키고, 손을 쥐어, 주먹 형상으로 하면, 그 가상 스위치(204, 205, 206)가 선택되어, 호스트 컴퓨터(1)에 지령을 인가할 수 있다.
또한, 본 실시예에서는, 촬상한 화상중의 물체의 형상 및 움직임을 인식하는 구성으로 하였지만, 촬상한 화상중의 물체의 형상 또는 움직임중 어느 하나를 인식하는 구성으로 하여도 좋은 것은 물론이다.
이상과 같이 본 발명에 의하면, 촬상한 화상중의 물체의 형상 및 또는 움직임을 인식하는 동작 인식부와, 동작 인식부에 의해 인식한 물체의 형상 및 또는 움직임을 표시하는 표시부와, 촬상부로 촬상한 화상을 저장하는 프레임 메모리와, 프레임 메모리내에 저장한 화상보다 이전의 시간에 촬상한 화상을 기준 화상으로서 축적하는 기준 화상 메모리를 마련하고, 동작 인식부에, 프레임 메모리내의 화상과, 기준 화상 메모리내에 축적하고 있는 기준 화상과의 차이를 추출함으로써, 촬상부를 향하여 사용자가 예컨대 손짓에 의해서 지시를 내리면, 인가한 손짓이 표시 화면상에 표시되어, 예컨대 표시 화면상에 표시한 가상 스위치 등을 손짓에 의해서 선택할 수 있어서, 마우스 등의 입력 장치를 필요로 하지 않고, 대단히 간편한 기기의 조작이 가능해지는 것이다.
(실시예 3)
본 발명의 실시예 3은, 적어도 촬상부와, 촬상한 화상중의 사용자의 손의 형상 및 또는 움직임을 인식하는 동작 인식부와, 이 동작 인식부에 의해 인식한 사용자의 손의 형상 및 또는 움직임을 표시하는 표시부를 가지며, 촬상한 사용자의 윤곽을 추출하는 윤곽 추출 수단과, 이 추출한 윤곽을 추적하여, 윤곽선의 각도와 윤곽선의 길이와의 관계, 즉 윤곽 파형을 연산하는 윤곽 파형 연산부와, 이 윤곽 파형 연산부에 의해 연산한 윤곽 파형을 필터링하여, 소정의 형상을 나타내는 형상 파형을 생성하는 형상 필터를 마련하여 상기 동작 인식부를 구성한 인터페이스 장치이다.
이상과 같이 구성한 인터페이스 장치의 촬상부를 향하여 사용자가, 예컨대 손짓에 의해 지시를 가하면, 촬상부는 사용자의 화상을 촬상한다. 윤곽 추출 수단은 사용자의 화상의 윤곽을 추출하고, 이 윤곽은, 윤곽 파형 연산부에 의해, 윤곽상의 기준점을 개시점으로 한 윤곽선의 길이를 횡축으로 하여, 수평선에 대한 윤곽선의 각도, 즉 윤곽 파형으로서 변환된다. 이 윤곽 파형은, 소정의 대역의 밴드패스 필터(bandpass filter), 예컨대 손가락의 요철에 상당하는 밴드패스 필터에 의해 구성한 형상 필터에 의해 손가락의 요철 형상을 나타내는 형상 파형으로 변환되어, 손이 있는 위치를 연산함과 동시에, 이 형상 파형중에 존재하는 펄스수를 세는 것만으로, 나와 있는 손가락 개수, 즉 손의 형상을 정확하게 판단시킬 수 있다. 이 손의 위치나 형상에 근거하여, 인가한 손짓이 표시부의 표시 화면상에 표시되어, 예컨대 표시 화면상에 표시한 가상 스위치 등을 손짓에 의해 선택할 수 있는 것이어서, 마우스 등의 입력 장치를 필요로 하지 않고, 대단히 간편한 기기의 조작이 가능해진다.
또한, 대역이 다른 복수의 밴드패스 필터에 의해 복수의 형상 필터를 구성하여, 상기 복수의 형상 필터에 의해 생성한 형상 파형에 근거하여, 사용자의 동작을 판정시키도록 구성하여도 좋다. 이에 따라, 복수의 형상을 인식할 수 있게 된다.
또한, 적어도 손의 요철에 대응하는 윤곽 파형 형상의 밴드패스 필터와, 손가락의 요철에 대응하는 윤곽 파형 형상의 밴드패스 필터에 의해 복수의 형상 필터를 구성하여도 좋다. 이에 따라, 손의 부분의 요철만을 반영한 매끄러운 형상 파형으로 변환되고, 또 손가락의 요철만을 반영한 형상 파형으로 변환된다.
또한, 촬상한 사용자의 윤곽 형상의 좌표와, 윤곽 파형 연산부에 의해 연산한 윤곽 파형과의 대응을 기억시키는 좌표 테이블을 마련하고, 형상 파형의 파고 존재 위치와 상기 좌표 테이블을 이용하여, 촬상 화상중의 소정의 형상이 존재하는 좌표를 연산하는 좌표 연산부를 마련하여 동작 인식부를 구성하여도 좋다. 이에 따라, 윤곽 형상의 좌표가 연산되어, 그 좌표가 출력된다.
또한, 형상 필터에 의해 생성한 형상 파형중의 펄스수를 세는 형상 판정부를 마련하여 동작 인식부를 구성하고, 상기 형상 판정부의 출력값에 따라, 물체의 형상을 판정시키도록 하여도 좋다. 이에 따라, 펄스수에 따라, 두 개의 손가락 형상인지, 주먹진 형상인지의 판정이 용이하게 이루어진다.
또한, 형상 필터에 의해 생성한 형상 파형을 미분하는 미분기를 마련하여 동작 인식부를 구성하여도 좋다. 미분에 의해, 파형이 보다 펄스 형상으로 되어, 펄스수의 카운트가 용이해 진다.
본 발명에 의한 인터페이스 장치의 실시예의 외관은 실시예 2에 도시한 도 8과 마찬가지이며, 실시예 2와 동일한 부분은 도 8, 도 10을 이용하여 설명하고, 기타 다른 부분만을 도 14 이후에 나타내고 있다.
도 14는, 본 발명의 실시예 3의 상세 블럭도를 도시하는 것이다. CCD 카메라(3)로부터 입력된 화상은, 프레임 메모리(31)에 저장된다. 동작 인식부(32)는, 프레임 메모리(31)내에 저장한 화상중에서, 예컨대 사용자의 손에 상당하는 부분을 추출하여, 그 형상이, 예컨대 도 10a에 도시한 바와 같은 한 개의 손가락 형상인지, 또 도 10b에 도시한 바와 같은 주먹 형상인지를 판단한다.
도 15는, 동작 인식부(32)의 상세한 실시예를 도시한 것이며, 도 16∼도 20을 이용하여 그 상세한 동작을 설명한다.
윤곽 추출부(321)는, 화상중에 존재하는 물체의 윤곽 형상을 추출한다. 구체적인 방법예로서는, 화상을 이치화(二値化)하고, 그 에지를 추출함으로써, 간단히 윤곽 형상을 추출할 수 있다. 도 17(A1)은, 추출한 윤곽선의 일례이며, 손의 부분은 한 개의 손가락 형상을 나타내고 있다.
다음에 윤곽 파형 연산부(322)는, 도 17(A1)에 도시한 바와 같은 윤곽 추출부(321)에 의해 추출한 물체의 윤곽 형상을 도면내의 개시점 s를 기점으로 하여, 도면의 화살표의 방향(반시계 방향)으로 윤곽선을 따라, 도 19에 도시한 바와 같이 윤곽선상의 각 점 x에 있어서의 윤곽선의 수평선으로부터의 각도 θ를, 개시점 s로부터의 거리 l에 대한 함수로서 추출하여, 도 17(B1)에 도시한 바와 같은, 거리 l을 시간축으로 한 파형 형상으로 변환함과 동시에, 거리 l에 대응하는 윤곽선상의 각 점의 좌표를 테이블로 하여, 변환 테이블(324)에 보존한다. (3231) 및 (3232)로 나타내는 형상 필터 1 및 형상 필터 2는, 각각 도 17(B1)에 도시한 윤곽 파형중의 손 부분의 요철, 및 손가락 부분의 요철에 대응하는 대역을 통과시키는 필터이다.
형상 필터 1에 의해, 도 17(B1)은, 도 17(B11)에 도시한 바와 같이, 손 부분의 요철만을 반영한 매끄러운 형상 파형으로 변환되고, 또 형상 필터 2에 의해, 도 17(B12)에 도시한 바와 같이, 손가락의 요철만을 반영한 형상 파형으로 변환되어, 각각 미분기(3251 및 3252)에 의해 미분되고, 최종적으로, 도 17(Bl12) 및 도 17(B122)에 도시하는 형상 미분 파형을 얻을 수 있다. 형상 판정부(3262)는, 손 부분의 윤곽 형상이, 도 10a에 도시한 바와 같은, 두 개의 손가락 형상인지, 또 도 10b에 도시한 바와 같은 주먹 형상인지를 판단하고, 이와 동시에 좌표 연산부(3261)는, 상기 사용자의 손 부분의 윤곽 형상의 중심 좌표를 연산하는 것이다. 좌표 연산부(3261)는, 도 17(Bl12)에 도시하는 형상 미분 파형중의, 큰 펄스 파형이 존재하는 위치, lc1, lc2를 구하여, 좌표 변환 테이블(324)에 의해, 도 20에 도시하는 c1점, c2점으로 변환하고, c1점에서 c2점까지의 손 부분의 윤곽선에 의해, 손 부분의 중심을 연산하여, 손 좌표로서 출력한다.
또, 형상 판정부(3262)는, 도 17(B122)의 형상 미분 파형중의 손가락 부분에 상당하는 펄스 파형의 수를 카운트하여 출력한다. 즉, 도 17(B122)의 경우에는, 손가락 부분에 상당하는 2개의 큰 펄스 파형이 존재하기 때문에, 도 10a에 도시하는 바와 같은, 두 개의 손가락 형상인 것으로 판정하여 출력할 수 있다. 또, 도 18(A2)에 도시하는 바와 같이, 손을 쥔 형상인 경우, 손가락 부분의 요철이 거의 없으며, 형상 필터 2의 출력은, 도 18(B22)에 도시하는 바와 같이, 요철이 없는 형상 파형으로 되며, 따라서 미분기(3262)의 출력도, 도 18(B222)에 도시하는 바와 같이, 펄스 파형이 없는 것과 같은 형상 미분 파형으로 되고, 펄스 파형의 카운트는 0으로 되어, 도 10b에 도시한 바와 같은 주먹 형상인 것으로 판정하여 출력할 수 있다.
이 형상 판정부(3262)의 구체적인 구성예로서는, 단순한 임계값 처리법이나, 뉴럴 네트워크 등을 이용할 수 있다.
도 14의 아이콘 생성부(34)는, 도 15내의 형상 판정부(3262)에 의한 손의 형상의 식별 결과에 근거하여, 디스플레이에 표시해야 할 아이콘 화상을 생성한다. 예컨대, 손의 형상의 식별 결과가 한 개의 손가락 형상이면, 예컨대 도 16a에 도시하는 바와 같은 화살표의 아이콘을, 또 주먹 형상이면, 예컨대 도 16b에 도시하는 바와 같은, X 표시의 아이콘을 생성한다. 표시 제어부(33)는, 아이콘 생성부(34)에 의해 생성한 아이콘의 디스플레이상에서의 표시 위치를 제어하기 때문에, 좌표 변환부(331)와 좌표 반전부(332)로 이루어진다. 좌표 변환부(331)는, 촬상한 화상의 좌표로부터 디스플레이의 표시 좌표로의 변환을 행하고, 또 좌표 반전부(332)는, 변환한 표시 좌표의 좌우 위치를 반전한다. 즉, 도 15내의 좌표 연산부(3261)가 출력한 사용자의 손에 상당하는 부분의 화상중의 중심 좌표로부터, 디스플레이의 표시 좌표로의 변환을 행하고, 좌우의 좌표를 반전시켜 디스플레이에 아이콘을 표시하는 것이다. 이 조작에 의해, 사용자가 손을 오른쪽으로 움직이면, 이 동작을 거울에 반사시킨 것과 마찬가지로, 표시 화면 형상으로 아이콘이 마주보아 오른쪽으로 움직인다.
이상과 같이 구성한 본 발명의 실시예에 의한 조작예를 이하에 나타낸다. 도 8에 도시하는 바와 같이 본 발명에 의한 인터페이스 장치를 구비한 기기를 향하여 사용자가, 손을 한 개의 손가락 형상으로 하여 움직이면, 디스플레이(2)상에 표시한 아이콘(203)의 화살표 커서가, 손의 움직임에 대응한 임의의 위치로 이동한다. 다음에, 디스플레이(2)상에 표시한 임의의 가상 스위치(204, 205, 206)상에, 손을 움직이는 것에 따라 화살표 커서를 이동시키고, 손을 쥐어, 주먹 형상으로 하면, 그 가상 스위치가 선택되어, 호스트 컴퓨터(1)에 지령을 인가할 수 있는 것이다.
또, 표시하는 아이콘의 예로서는, 도 16c, d에 도시하는 바와 같이, 손의 형상 그자체를 아이콘화하면, 실제의 손의 움직임과 대응이 취해져, 알기 쉽다. 구체적으로는, 도 16c, d와 같은 화상을 미리 등록해 두어도 좋으며, 또 윤곽 추출부에 의해 추출한 손의 윤곽 형상 데이터를 임의의 크기로 축소 또는 확대하여, 아이콘 화상으로서 이용하는 것도 가능하다.
이와 같이, 본 실시예는 인터페이스 장치의 촬상부를 향하여 사용자가, 예컨대 손짓에 의해 지시를 가하면, 촬상부는, 사용자의 화상을 촬상하고, 사용자의 화상의 윤곽을 추출하여, 윤곽상의 기준점을 개시점으로 한 윤곽선의 길이를 횡축으로 하고, 수평선에 대한 윤곽선의 각도, 즉 윤곽 파형으로 하여 변환된다. 이 윤곽 파형은, 소정의 대역의 밴드패스 필터, 예컨대 손가락의 요철에 상당하는 밴드패스 필터에 의해 구성한 형상 필터에 의해 손가락의 요철 형상을 나타내는 형상 파형으로 변환되어, 손이 있는 위치를 연산함과 동시에, 이 형상 파형중에 존재하는 펄스수를 세는 것만으로, 나와 있는 손가락의 개수, 즉 손의 형상을 정확하게 판단시킬 수 있다. 이 손의 위치나 형상에 근거하여, 인가한 손짓이 표시 화면상에 표시되며, 예컨대 표시 화면상에 표시한 가상 스위치 등을 손짓에 의해 선택할 수 있는 것이어서, 마우스 등의 입력 장치를 필요로 하지 않고, 대단히 간편한 기기의 조작이 가능해 진다.
(실시예 4)
지금까지의 실시예는 표시 화면에 표시된 2차 화면에 대하여 조작을 하는 예에 대하여 설명하였지만, 본 실시예는 가상적인 3차원을 2차원 표시 화면에 표시한 경우의 조작에 관한 것이다.
일반적으로는 표시된 가상적인 3차원 공간에 있어서, 커서를 이용하여 가상 공간내의 가상 물체를 잡는 동작을 상정하면, 이하와 같은 구성으로 된다.
도 21에 있어서 A1은 입력 장치, A2는 커서 좌표 기억부, A3은 물체 좌표 기억부, A4는 표시 장치, A5는 접촉 판단부이다. 도 22a, 도 22b는 전술한 실시예와 마찬가지로 조작자의 손의 형상으로부터 표시할 수 있는 2손가락의 매니퓰레이터 형상의 커서를 나타낸다. 도 22a는 손가락을 연 상태, 도 22b는 손가락을 닫은 상태를 나타낸다. 도 23은 가상 공간내의 가상 물체의 예를 나타낸다. 여기서 조작자는 2손가락의 커서를 이용하여 가상 3차원 공간내의 가상 물체를 잡는 동작을 상정한다. 도 24a, 도 24b는 커서를 이용하여 가상 물체를 잡을 때의 가상 공간내의 커서 및 가상 물체의 배치를 도시한다. 도 25는 표시 장치 A4의 표시를 나타낸다.
조작자의 조작이 입력부 A1에 인가되면, 커서 좌표 기억부 A2에 기억하는 커서 좌표 및 커서의 2손가락의 간격이 상기 조작에 근거하여 갱신된다. 표시 장치 A4는 커서 좌표 기억부 A2가 기억하는 정보 및 물체 좌표 기억부 A3가 기억하는 가상 물체의 위치 정보를 이용하여 커서와 가상 물체를 포함하는 가상 공간을 묘획한다. 여기서, 접촉 판단부 A5는 커서 좌표 기억부 A2가 기억하는 정보 및 물체 좌표 기억부 A3가 기억하는 가상 물체의 위치 정보를 이용하여 커서와 가상 물체가 가상 공간내에서 접촉하는지 여부를 계산한다. 구체적으로는, 커서 및 가상 물체를 구성하는 복수의 면 사이의 가상 공간 내에서의 거리를 각각의 면 사이에 관하여 계산하고, 커서의 2손가락 사이에 가상 물체가 접촉하면, 커서가 가상 물체를 잡은 것으로 판단하여, 이후 커서의 이동에 맞춰 물체의 좌표를 변경한다.
그러나 이러한 방법에서는 도 24a, b에 도시한 바와 같은 배치의 경우에 표시 장치에 의한 표시가 도 25와 같이 되어, 가상 공간내에서 커서와 가상 물체의 위치가 완전히 일치하지 않은 경우에서도 좌표가 일치하는 것으로 조작자가 오판단하는 경우가 있다. 또한, 3차원 표시 장치를 이용한 경우나 도 24a, b를 병기한 바와 같은 표시에서도, 실공간내와 가상 공간내의 거리 감각의 차이로 인해 원활한 조작이 곤란해 진다.
이와 같이, 표시 공간인 가상적인 공간에 있어서의 거리 감각과 실공간에서의 거리 감각과의 차이나, 조작자가 의도하는 커서의 움직임과 실제의 커서의 움직임과의 차이에 의해, 커서와 가상 공간내의 가상 물체와의 상호 작용(예컨대 가상의 매니퓰레이터에 의해 가상 물체를 잡는 경우 등)에 있어서 조작자의 의도에 따른 상호 작용(상기의 예에서는 가상 물체를 잡음)을 원활하게 실현할 수 없다.
본 실시예에서는, 가상 공간에 있어서 조작자가 손짓 등으로 비접촉으로 조작성이 좋게 커서를 제어할 수 있음과 동시에, 가상 공간내의 가상 물체와의 상호 작용의 발생 유무를, 가상 공간내의 커서와 가상 물체의 구성 요소(가상 공간이 3차원인 경우는 표면) 사이의 거리에 따라서만 결정하는 것은 아니고, 상호 작용 판정 수단이 반드시 가상 공간 내에서의 거리가 근접해 있지는 않은 대상물에 대해서도 상호 작용을 유발함으로써, 커서가 가상 물체와 상호 작용을 일으키는지 여부의 판정을 조작자의 의도에 가깝게, 인터페이스의 조작성을 더욱 향상시킬 수 있다. 또한, 반드시 가상 공간내에서의 거리가 근접하지는 않은 대상물에 대해서도 상호 작용을 일으키는 것이 가능해 진다.
본 실시예의 제 1 구성은, 표시 수단과, 상기 표시 수단에 표시하는 커서의 위치 및 형상을 변경하는 입력 수단과, 상기 커서의 위치를 대표하는 대표점 좌표 및 상기 커서의 형상을 기억하는 커서 기억 수단과, 상기 커서 이외의 표시물의 위치를 대표하는 대표점 좌표 및 상기 표시 물체의 형상을 기억하는 물체 기억 수단과, 상기 커서 기억 수단에 기억하는 커서의 위치 및 형상과 상기 물체 기억 수단에 기억하는 표시물의 위치 및 형상을 이용하여, 상기 커서와 상기 표시물과의 사이의 상호 작용을 판정하는 상호 작용 판정 수단으로 구성하며, 상기 상호 작용 판정 수단은, 적어도 1점의 상기 커서의 대표점과 적어도 1점의 상기 표시물의 대표점과의 사이의 거리를 계산하는 거리 계산 수단과, 상기 커서의 이동 또는 형상의 변화를 인식하는 동작 인식 수단과, 상기 거리 계산 수단이 계산하는 거리와 상기 동작 인식 수단의 인식 결과를 이용하여 상기 커서와 상기 표시물과의 상호 작용을 결정하는 종합 판정 수단으로 이루어지는 것을 특징으로 하는 인터페이스 장치이다.
본 구성에 의해, 가상 공간에서 조작자가 조작하는 커서와 가상 공간내의 가상 물체와의 상호 작용의 발생 유무를, 가상 공간내의 상기 커서와 상기 가상 물체의 구성 요소(가상 공간이 3차원인 경우는 표면) 사이의 거리에 따라서만 결정하는 것은 아니고, 거리 계산 수단이 산출하는 대표점 사이의 거리 및 동작 인식 수단이 인식하는 커서의 동작에 의해 종합 판정 수단이 상호 작용의 발생 유무를 판정함으로써, 반드시 가상 공간내에서의 거리가 근접하지는 않은 대상물에 대해서도 상호 작용을 일으키는 것이 가능해 진다.
또한, 제 1 구성에 있어서, 동작 인식 수단이 미리 등록한 동작을 인식한 경우에, 거리 계산 수단이 계산하는 거리가 미리 정한 기준 이하인 표시물에 대하여 상호 작용 판정 수단이 상호 작용을 발생시키는 제 2 구성으로 하여도 좋다.
또한, 제 1, 제 2 구성에 있어서, 표시 공간내에서의 커서의 이동 방향과 이동량을 산출하는 이동 벡터 산출 수단을 마련하고 상호 작용 판정 수단을 구성하여, 상기 이동 방향 산출 수단이 산출하는 커서의 이동 방향 및 커서의 이동량에 근거하여 상호 작용 판정 수단이 상기 커서와 표시물과의 상호 작용을 결정하는 제 3 구성으로 하여도 좋다.
또한, 제 3 구성에 있어서, 이동 벡터 산출 수단이 산출하는 커서의 이동량이 미리 정한 기준치 이하인 경우에 상호 작용 판정 수단이 상호 작용을 발생시키는 제 4 구성으로 하여도 좋다.
또한, 제 3, 제 4 구성에 있어서, 이동 벡터 산출 수단이 산출하는 커서의 이동 방향의 연장선 근방에 존재하는 표시물에 대하여 상호 작용 판정 수단이 상호 작용을 발생시키는 제 5 구성으로 하여도 좋다.
또한, 제 1∼제 5 구성에 있어서, 커서의 형상과 표시물의 형상이 미리 등록한 조합으로 되는 경우에 상호 작용 판정 수단이 상호 작용을 발생시키는 제 6 구성으로 하여도 좋다.
또한, 제 1∼제 6 구성에 있어서, 커서 형상 및 표시물의 형상을 인식하는 형상 판정 수단을 구비하고 상호 작용 판정 수단을 구성하여, 상기 형상 인식 수단이 인식하는 커서의 형상과 표시물의 형상이 일치하는 경우에 대하여 상호 작용 판정 수단이 상호 작용을 발생시키는 제 7 구성으로 하여도 좋다.
또한, 제 l∼제 7 구성에 있어서, 시선 방향을 검출하는 시선 입력 수단을 마련하고, 상기 시선 입력 수단이 검출하는 시선의 연장선상 근방의 표시물에 대하여, 동작 인식 수단이 미리 등록한 동작을 인식한 경우에, 상호 작용 판정 수단이 상호 작용을 발생시키는 제 8 구성으로 하여도 좋다.
또한, 제 8 구성에 있어서, 시선 입력 수단이 검출하는 시선의 연장선상 근방의 표시물에 대하여, 상기 시선의 연장선상 근방에 커서가 존재하고, 또한 동작인식 수단이 미리 등록한 동작을 인식한 경우에, 상호 작용 판정 수단이 상호 작용을 발생시키는 제 9 구성으로 하여도 좋다.
또한, 제 1∼제 9 구성에 있어서, 상호 작용을 발생시킨 경우, 커서와 대상으로 하는 표시물과의 위치 관계 및 상기 커서의 형상 및 상기 표시물의 형상을 학습하는 학습 수단을 마련하여, 상호 작용 판정 수단이 학습 수단의 학습 결과에 근거하여, 상호 작용을 결정하는 제 10 구성으로 하여도 좋다.
또한, 제 10 구성에 있어서, 커서와 대상으로 하는 표시물과의 위치 관계 또는 상기 커서의 형상 및 상기 표시물의 형상이 학습 수단이 과거에 학습한 위치 관계 또는 형상과 유사한 경우에, 상호 작용 판정 수단이 상호 작용을 발생시키는 제 11 구성으로 하여도 좋다.
또한, 제 1∼제 11 구성에 있어서, 커서 기억부 및 물체 기억부로부터 거리 계산 수단으로의 입력에 대하여 좌표 변환을 하는 좌표 변환 수단을 마련하여 상호 작용 판정 수단을 구성하는 제 12 구성으로 하여도 좋다.
또한, 제 12 구성에 있어서, 상호 작용을 발생시킨 경우, 커서와 대상으로 하는 표시물과의 위치 관계를 접근시키도록 좌표 변환을 하는 제 13 구성으로 하여도 좋다.
본 발명의 제 4 실시예에 대하여 도면을 참조하여 설명한다. 도 26은 인터페이스 장치의 하나의 실시예의 블럭도를 도시하는 것이다.
도 26에 있어서, (41)은 입력 수단, (42)는 커서 기억 수단, (43)은 물체 기억 수단, (44)는 표시 수단, (45)는 상호 작용 판정 수단, (45a)는 거리 계산 수단, (45b)는 동작 인식 수단, (45c)는 종합 판정 수단, (45d)는 이동 벡터 산출 수단, (45e)는 형상 판정 수단, (45f)는 학습 수단, (45g)는 좌표 변환 수단, (46)은 시선 입력 수단이다.
도 26에 있어서 조작자가 입력 수단(41)에 대하여 조작을 하고, 상기 조작 결과에 근거하여, 커서 기억 수단(42)이 커서의 가상 공간내에서의 위치를 대표하는 대표점 좌표 및 형상을 변경·기억하고, 표시 수단(44)은 커서 기억 수단(42)이 기억하는 커서의 가상 공간내에서의 위치를 대표하는 대표점 좌표 및 형상과 물체 기억 수단(43)이 기억하는 가상 물체의 가상 공간내에서의 위치를 대표하는 대표점 좌표 및 형상에 근거하여 상기 커서 및 상기 가상 물체를 2차원 표시 혹은 3차원 표시한다.
시선 입력 수단(46)은 상기 표시상에 있어서의 조작자의 시선의 위치를 검출한다. 거리 계산 수단(45a)은 커서 기억 수단(42)과 물체 기억 수단(43)에 기억하는 대표점의 좌표에 근거하여 커서와 가상 물체와의 가상 공간내에서의 거리를 계산한다. 동작 인식 수단(45b)은 커서 기억 수단(42)과 물체 기억 수단(43)에 기억하는 내용에 근거하여 조작 동작의 인식을 한다. 이동 벡터 산출 수단(45d)은 가상 공간내에서의 커서의 이동 방향 및 이동 거리를 산출한다. 형상 판정 수단(45e)은 커서의 형상과 가상 물체의 형상이 상호 작용을 일으키는 데 적절한지 여부를 판정한다. 학습 수단(45f)은 종합 판정 수단(45c)이 커서와 가상 물체의 사이의 상호 작용을 일으킨 경우의 상기 커서와 상기 가상 물체의 위치 및 형상의 관계를 기억하여, 현재의 상태가 과거에 상호 작용을 일으킨 상태와 유사한지 여부를 출력한다.
종합 판정 수단(45c)은 거리 계산 수단(45a)이 출력하는 커서와 가상 물체 사이와의 거리와, 동작 인식 수단(45b)이 인식한 인식 결과와, 이동 벡터 산출 수단(45d)이 산출하는 커서의 이동 방향과 이동 거리와, 시선 입력 수단(46)이 검출하는 시선의 위치와, 형상 판정 수단(45e)의 판정 결과와, 학습 수단(45f)이 출력하는 과거의 상호 작용과의 유사 정도에 근거하여 상기 커서와 상기 가상 물체가 상호 작용하는지 여부를 판정하고, 상호 작용의 결과에 따라서 상기 커서나 상기 가상 물체의 대표점 좌표나 형상을 변경한다. 좌표 변환 수단(45g)은 상호 작용 판정 수단(45)이 상호 작용을 일으킨 경우에 거리 계산 수단(45a)이 거리 계산에 이용하는 커서와 대상으로 되는 가상 물체와의 가상 공간내에서의 좌표를 양자의 위치가 근접하도록 좌표 변환을 한다.
도 22a, b는 본 발명의 인터페이스 장치에 이용하는 커서의 실시예 1에서 2손가락의 매니퓰레이터 형상인 것이다. 도면에 있어서 도 22a는 손가락을 연 상태, 도 22b는 손가락을 닫은 상태이다. 도 22c, d는 본 발명의 인터페이스 장치에 이용하는 커서의 실시예 2에서 2손가락 2관절의 매니퓰레이터 형상인 것이다. 도면에 있어서 도 22c는 손가락을 연 상태, 도 22d는 손가락을 닫은 상태이다. 도 22e, f는 본 발명의 인터페이스 장치에 이용하는 커서의 실시예 3이고 다섯 손가락의 손 형상인 것이다. 도 22에 있어서 도 22e는 손을 연 상태, 도 22f는 손을 닫은 상태이다.
도 23a, b는 본 발명의 인터페이스 장치에 이용하는 가상 공간내의 물체의 예이다(도 23a는 입방체, 도 23b는 평면체).
이상과 같이 구성한 인터페이스 장치에 대하여, 이하 그 동작을 설명한다. 본 실시예에서는 조작자가 3차원의 가상 공간내에서 도 22와 같은 커서를 이동하여, 상기 가상 공간내에 존재하는 도 23과 같은 가상 물체를 잡아 이동하는 동작을 상정한다.
조작자의 조작은 입력 수단(41)에 대하여 실행한다. 여기서, 입력에는 커서의 위치 혹은 형상을 변화시키기 위한 정보를 입력하는 입력 장치로서, 도 27a∼도 27c에 도시하는 바와 같은 수단 혹은 카메라나 키보드, 음성 인식 등에 의한 커맨드 입력 등을 이용하는 것이 가능하다. 도 27a는 마우스로, 마우스 본체의 이동과 버튼의 클릭 등에 의해서 커서를 조작한다. 도 27b는 데이터 글로브(glove)로, 사람의 손에 장착하여, 손가락의 관절각이나 데이터 글로브의 실공간내에서의 위치를 커서의 위치와 형상에 반영시켜, 커서를 조작한다. 도 27c는 조이스틱으로, 레버의 조작 및 조작 버튼과의 병용에 의해 커서를 조작한다. 카메라를 이용하는 경우에는 신체 또는 신체의 일부(손 등)를 카메라로 촬상하여, 손의 형상 및 위치를 읽어낸다.
도 28은 손만을 카메라로 촬상한 경우의 형상 추출의 하나의 실시예를 도시한다. 도 28a는 카메라로 손을 촬상한 예이다. 도 28a의 화상의 각 화소의 휘도를 이치화한 것이 도 28b이다. 도 28b에 있어서, 흑화 영역에 외접하는 장방형의 세로변 길이와 가로변 길이와의 비율 등에 의해 손의 개폐 정도의 판정이 가능해져, 흑화소 전체의 중심 좌표와 면적으로부터 위치와 거리의 입력이 가능해진다. 입력 수단(41)은 상기 조작 내용(커서의 이동량이나 커서 형상의 변경량 등)을 커서 기억 수단(42)에 출력한다.
커서 기억 수단(42)은 입력 수단(41)이 출력한 조작 내용에 근거하여, 커서 기억 수단에서 기억하는 커서의 대표점의 가상 공간내에서의 좌표와 형상을 기억한다. 대표점으로서는 커서의 중심 좌표 (X0, Y0, Z0)를 대표점으로서 이용한다. 또한, 대표점으로서는, 커서를 구성하는 각 면의 중심 좌표나 정점(頂点)의 좌표 등을 이용하여도 좋다. 형상으로서는 도 22a의 경우는 2손가락의 간격 d, 도 22b, c의 경우는 각 손가락의 관절의 내각 θn(n은 관절의 번호 : θn이 작아지면 관절이 굽은 상태를 나타냄)을 기억 정보로 한다. 또 형상으로서는 각 손가락의 손끝이나 각 관절의 가상 공간내에서의 좌표 등을 이용하여도 좋다.
물체 기억 수단(43)은 조작의 대상으로 되는 도 23에 도시하는 가상 공간내의 가상 물체의 대표점의 좌표와 형상을 기억한다. 대표점으로서는 가상 물체의 중심 좌표(입방체 : (X1, Y1, Z1), 평면체 : (X2, Y2, Z2))를 대표점으로서 이용한다. 또 대표점으로서는, 가상 물체를 구성하는 각 면의 중심 좌표나 정점의 좌표 등을 이용하여도 좋다. 형상으로서는 미리 정한 형상을 나타내는 파라미터 α를 형상으로서 기억한다(여기서 입방체를 α=1, 평면체를 α= 2로 정의함). 또 형상으로서는 정점 좌표 등을 이용하여도 좋다.
표시 수단(44)은 커서 기억 수단(42)과 물체 기억 수단(43)이 기억하는 커서와 가상 물체의 위치와 형상의 정보에 근거하여 가상 공간을 미리 지정한 시점으로부터 바라 본 상을 2차원 표시한다. 도 29a에 표시 수단의 표시예를 도시한다. 조작자가 조작을 하면 커서의 표시 위치 혹은 형상이 변화하여, 조작자는 그 표시에 근거하여 조작을 계속한다.
상호 작용 판정 수단(45)은 커서 위치가 변화할 때마다 커서가 물체를 잡았는지 여부(상호 작용의 유무)를 판정하여, 커서가 물체를 잡은 것으로 판단한 경우에는 커서의 이동에 맞춰 가상 물체의 좌표도 이동시킨다.
거리 계산 수단(45a)은 커서 기억 수단(42)에 기억하는 커서의 중심 좌표 (X0, Y0, Z0)와 물체 기억 수단(43)에 기억하는 가상 물체의 중심 좌표(X1, Y1, Z1), (X2, Y2, Z2)와의 거리를 계산한다.
동작 인식 수단(45b)은 미리 등록한 동작으로서 잡는다라는 동작을 커서의 형상의 변화를 이용하여 인식한다. 도 22a의 커서의 경우에는 2손가락의 간격 d가 계속해서 감소하는 상태를 잡는다 동작으로 인식하고, 도 22b, c의 커서의 경우에는 모든 손가락의 각도 θn이 계속해서 감소하는 상태를 잡는다 동작으로 인식한다. 또, 동작의 인식 방법으로서는 형상을 나타내는 파라미터(상기 d나 θn 등)의 시계열적인 변화를 시계열 패턴 인식 수법 (테이블 매칭, DP 매칭, 히든 마르코프 모델(HMM), 리커런트 뉴럴 네트워크 등)을 이용하여 미리 특정한 동작을 학습시킨 후, 인식 방법으로서 이용하여도 좋다.
이동 벡터 산출 수단(45d)은 커서의 중심 좌표(X0, Y0, Z0)의 변화를 이용하여 가상 공간내에서의 커서의 이동 방향과 이동량을 산출한다. 예컨대 현시각 t의 중심 좌표(X0, Y0, Z0)t와 1시각 전의 중심 좌표(X0, Y0, Z0)t-1과의 차분 벡터의 방향과 크기를 커서의 이동 방향과 이동량으로 한다.
형상 판정 수단(45e)은 커서 기억 수단에 기억하는 커서의 형상이 물체 기억수단에 기억하는 형상의 가상 물체를 잡는 데 적절한 형상인지 여부(커서의 형상이 가상 물체와 상호 작용을 일으키는 데 적절한지 여부)를 판정한다. 여기서는 물체의 형상을 나타내는 파라미터 α의 값이 1인 때는 커서의 손가락이 열려 있는 상태를 적절한 상태로 한다. 커서의 손가락이 열려 있는 상태의 판단으로서는, 예컨대, 도 22a의 커서의 경우에는 d의 값이 d의 최대값 dmax와 0과의 중간값보다 큰 경우로 하고, 도 22b, c의 경우에는 각 관절각 θn이 각각의 최대값 θnmax와 0과의 중간값보다 전부 큰 경우로 한다.
물체의 형상을 나타내는 파라미터α의 값이 0인 때에는 커서의 손가락끝의 간격이 좁은 상태를 적절한 상태로 한다. 커서의 손가락끝이 좁은 상태의 판단으로서는, 예컨대 도 22a의 커서의 경우에는 d의 값이 d의 최대값 dmax와 0과의 중간값보다 작은 경우로 하고, 도 22b, c의 경우에는 각 관절각 θn이 각각의 최대값 θnmax와 0과의 중간값보다 전부 작은 경우로 한다. 또, 형상의 판정법으로서는, 가상 공간에 있어서 커서가 가상 물체를 접촉하는 상태에서 잡았을 때의 커서 형상을 나타내는 파라미터(d 혹은 θn)를 미리 기억하여 두고, 각각의 파라미터의 값이 ± 30%의 범위에서 일치하면 잡는 동작에 적절한 것으로 판단하는 등도 가능하다.
시선 입력 수단(46)은 조작자의 시선을 검출하여, 표시 수단(44)이 표시하는 화면상에서 조작자가 주시하는 좌표(주시점의 좌표)를 산출한다. 시선의 검출 수단으로서는 CCD 카메라나 광 센서 등을 이용하여 조작자의 눈동자의 방향을 검출하는 방법 등을 이용하고, 조작자의 머리 부분의 위치를 카메라 등을 이용하여 계측함으로써 상기 화면상의 주시점을 산출한다.
학습 수단(45f)은 종합 판정 수단(45c)이 커서가 가상 물체를 잡은 것으로 판단하였을 때의 커서의 형상을 나타내는 파라미터(d 또는 θn)와 잡은 가상 물체의 형상을 나타내는 파라미터 α 및 상기 커서의 위치와 상기 가상 물체의 위치와의 상대적인 위치 관계(커서의 중심과 가상 물체의 중심을 연결하는 벡터)를 기억하여, 현재의 가상 물체의 형상을 나타내는 파라미터와 주위의 가상 물체의 형상을 나타내는 파라미터 및 현재의 커서의 중심과 주위의 가상 물체의 중심과의 위치관계가, 과거에 물체를 잡은 경우에 가까운 경우(예컨대, 각 파라미터 및 위치 관계를 나타내는 벡터의 각 차원의 요소의 값이 과거의 값과 ±30%의 범위에서 일치하는 경우 등)에는 과거의 상황과 유사한 것으로 판단하여 1을 출력하고, 그 밖의 경우에는 0을 출력한다. 또, 다른 학습 수단으로서 과거에 물체를 잡은 경우의 커서의 형상을 나타내는 파라미터와 잡은 가상 물체의 형상을 나타내는 파라미터 α 및 상기 커서의 위치와 상기 가상 물체의 위치와의 상대적인 위치 관계를 뉴럴 네트워크 등을 이용하여 학습하여도 좋다. 또한, 학습하는 항목으로서 시선 검출수단(46)으로 검출한 화면상에서의 주시점 좌표와 커서의 표시 화면상에서의 좌표와의 위치 관계 등을 포함해서 학습하는 것도 가능하다.
좌표 변환 수단(45g)은 물체를 잡은 경우(상호 작용을 일으킨 경우)에 거리 계산 수단이 거리 계산에 이용하는 좌표를 가상 공간내에서의 커서와 대상으로 되는 가상 물체와의 거리가 근접하도록 좌표 변환한다. 예컨대, 커서가 가상 물체를 잡았을 때의 각각의 좌표가 (100, 150, 20)과 (105, 145, 50)인 경우, 좌표 변환 수단은 각 좌표축내, 차가 가장 큰 Z 좌표에 대하여 수학식 1과 같이 변환을 한다.
Z' = 0.8× z
여기서, z는 좌표 변환 수단이 입력으로 하는 커서 및 가상 물체의 중심(重心)의 Z좌표, Z'는 좌표 변환 수단이 출력하는 Z 좌표를 나타낸다. 이 경우 X 좌표의 값 및 Y 좌표의 값은 변경하지 않는다. 또한, 커서 기억 수단과 물체 기억 수단에 기억하는 값은 변경하지 않기 때문에, 표시 수단이 표시하는 화면은 변화하지 않는다. 상기한 바와 같은 변환을 하는 것에 의해, 가상 공간내에서의 거리가 떨어져 있는 경우에도 조작자가 잡는 동작을 하면, 그 이후는 거리 계산을 하는 경우의 커서와 가상 물체 사이의 거리가 작아져, 거리 계산 수단이 조작자가 지각하는 거리감각에 가까운 거리를 계산하는 것이 가능해 진다.
종합 판정 수단(45c)은 거리 계산 수단(45a)이 출력하는 커서와 가상 물체 사이와의 거리가 미리 정한 기준 이하인 경우, 동작 인식 수단(45b)이 미리 등록한 잡는다라는 동작을 인식한 경우에, 잡는다라는 상호 작용이 발생한 것으로 판정하고, 이후 잡는다 상호 작용이 종료할 때까지 물체 기억 수단(43)에 기억하는 잡고 있는 가상 물체의 중심 좌표의 값을 커서의 중심 좌표에 일치시킨다. 여기서, 미리 정하는 상기 기준값은 실제로 커서와 물체가 가상 공간내에서 접촉할 수 있는 거리보다 큰 값이어도 좋다. 예컨대 도 25(도 24의 배치)의 경우, 가상 물체와 커서와의 거리가 상기 거리의 기준값 이하이면, 조작자가 잡는 동작을 입력 수단(1)에 지시하여, 동작 인식 수단(45b)이 잡는 동작을 인식하면 가상 물체를 잡아 이동하는 것이 가능해 진다.
또한, 종합 판정 수단(45c)은 상기 거리의 기준 이하에 복수의 가상 물체가 존재하는 경우, 도 29b에 도시하는 바와 같이 커서와 가상 물체를 연결하는 선분 (파선)과 이동 벡터 산출 수단(45d)이 산출하는 커서의 이동 방향(화살표)과 이루는 각도가 임의의 기준(예컨대 90도) 이하인 물체만을 대상으로 하여, 조작자의 조작에 있어서 커서의 이동 방향을 고려한 상호 작용의 판정이 가능해진다(도면에서는 3물체중 가장 상부에 위치하는 것을 선택함). 또, 커서의 이동 거리에 대해서는, 이동 거리가 미리 정한 이동 거리 기준보다 큰 경우에는 상호 작용을 일으키지 않는다. 이에 따라, 단지 커서를 이동하고 있는 경우에 조작자가 의도하지 않은 상호 작용을 일으키지 않는 것이 가능해 진다.
또한, 도 29c에 도시하는 바와 같이 복수의 가상 물체가 상기 기준을 만족하고 있는 경우, 상기 시선 입력 수단(46)이 검출하는 주시점의 위치에 가까운 가상 물체를 종합 판정 수단(45c)이 잡는다 대상으로 한다(도면에서는 주시점을 의미하는 + 표시에 가까운 좌측의 물체를 선택함). 이에 따라, 조작자의 시선을 이용하여 용이하게 대상을 선택하는 것이 가능해 진다.
또한, 도 29d에 도시하는 바와 같이 화면상에서 근접한 물체가 존재하는 경우, 형상 판정 수단(45e)이 판정한 커서의 형상에 일치하는 가상 물체를 종합 판정 수단(45c)이 잡는다 대상으로 한다(도면에서는 커서의 손가락의 간격이 좁기 때문에 잡는다 동작의 대상으로서 평면체를 적절한 것으로 판단하여, 평면체를 선택함). 이에 따라, 조작자가 의도하는 가상 물체를 커서의 형상에 의해 선택하는 것이 가능해져, 조작자가 가상 물체를 잡는 경우에 연상하기 쉬운 커서 형상을 대응시킴으로써 조작이 용이해진다.
또한, 학습 수단(45f)이 과거에 물체를 잡은 경우와 유사한 것으로 판단한 가상 물체를 종합 판정 수단(45c)이 우선적으로 선택한다. 이에 따라 조작자가 과거에 행한 조작에 가까운 판단을 재현하여, 조작성을 향상시키는 것이 가능해진다.
이와 같이 본 발명은, 가상 공간에서 조작자가 조작하는 커서와 가상 공간내의 가상 물체와의 상호 작용의 발생 유무를, 커서와 가상 물체와의 거리만으로 결정하는 것은 아니고, 조작자의 조작에 있어서의 동작이나 시선, 혹은 과거의 사례에 근거하여 결정함으로써, 가상 공간내에서의 커서를 이용한 가상 물체와의 상호 작용을 하는 인터페이스에서 조작성을 향상시키는 것이 가능하다.
또, 본 실시예에서는 상호 작용으로서 커서를 이용하고 가상 물체를 잡는 동작을 이용하여 설명하였지만, 그 외에 가상 물체에 대한 지시(포인팅)나 충돌, 마찰, 타격, 원격 조작 등의 동작에 관해서도 마찬가지의 취급이 가능하다. 또한, 가상 공간이 2차원 공간인 경우나, 표시 수단이 3차원 입체 표시 디스플레이 등을 이용한 경우에도 동일한 효과를 얻을 수 있다. 또한, 실현 수단으로서는 하드웨어를 이용하여도 좋고, 컴퓨터상의 소프트웨어를 이용하여 실현하여도 좋다.
이상과 같이 본 실시예는, 가상 공간에 있어서 조작자가 조작하는 커서와 가상 공간내의 가상 물체와의 상호 작용의 발생의 유무를, 가상 공간내의 상기 커서와 상기 가상 물체를 구성 요소 사이의 거리에 따라서만 결정하는 것은 아니고, 거리 계산 수단이 산출하는 대표점 사이의 거리 및 동작 인식 수단이 인식하는 커서의 동작에 의해서 종합 판정 수단이 상호 작용의 발생 유무를 판정함으로써, 반드시 가상 공간내에서의 거리가 근접하지는 않는 대상물에 대해서도 상호 작용을 일으키는 것이 가능해져, 조작성이 좋은 입출력 인터페이스를 제공하는 것이 가능해 진다. 또한, 종래의 접촉 판정법과 같이 가상 공간내의 상기 커서와 상기 가상 물체를 구성 요소 사이의 거리를 전부 계산할 필요가 없기 때문에 계산량을 경감하여, 처리의 고속화를 도모하는 것이 가능해 진다.
이상과 같이 본 발명은, 조작자의 손의 형상 혹은 또 그 움직임을 인식하여, 인식된 손의 형상의 특징을 특수 형상으로서 화면에 커서 표시하는 것에 의해, 화면내에 표시된 정보를, 손의 형상이나 움직임에 의해 화면에 표시된 정보를 용이하고 조작성이 양호하게 제어할 수 있는 것이다.
또한, 손의 형상의 특징을 특수 형상으로서 화면에 표시하여 커서 표시함과 동시에, 그 커서 표시 이외의 표시물과의 관련을 조작자의 의도에 따른 상호 작용의 판정이 차차 자동적으로 이루어지는 것에 의해, 표시물을 지시하거나, 잡거나 하는 조작의 조작성이 더욱 향상된 인터페이스가 실현가능한 것이다.
도면의 참조 부호의 일람표
1 : 호스트 컴퓨터
2 : 디스플레이
3 : CCD 카메라
21 : 프레임 메모리
22 : 형상 식별 수단
23 : 표시 제어부
24 : 아이콘 생성부
25 : 기준 화상 메모리
26 : 기준 화상 갱신부
31 : 프레임 메모리
32 : 동작 인식부
33 : 표시 제어부
34 : 아이콘 생성부
41 : 입력 수단
42 : 커서 기억 수단
43 : 물체 기억 수단
44 : 표시 수단
45 : 상호 작용 판정 수단
46 : 시선 입력 수단
200 : 아이콘
201 : 메뉴
202 : 메뉴
203 : 아이콘
204 : 가상 스위치
205 : 가상 스위치
206 : 가상 스위치
221 : 화상차 연산부
222 : 윤곽 추출부
223 : 형상 식별부
224 : 위치 검출부
225 : 형상 변화 식별부
231 : 좌표 변환부
232 : 좌표 반전부
261 : 타이머
262 : 화상 갱신부
321 : 윤곽 파형 연산부
322 : 윤곽 파형 연산부
324 : 변환 테이블
331 : 좌표 변환부
332 : 좌표 반전부
501 : 호스트 컴퓨터
502 : 디스플레이
503 : 조작 버튼
504 : 조작 버튼
505 : 조작 버튼
506 : 마우스 커서
507 : 마우스
508 : 스위치
3231 : 형상 필터 1
3232 : 형상 필터 2
3251 : 미분기
3252 : 미분기
3261 : 좌표 연산부
3262 : 형상 판정부(미분기)

Claims (25)

  1. 조작자의 손의 형상을 인식하는 인식 수단과,
    상기 인식 수단에 의해 인식된 손의 형상의 특징을 특수 형상으로서 화면에 표시하는 표시 수단과,
    상기 표시 수단에 의해 화면에 표시된 특수 형상에 의해, 상기 화면내에 표시된 정보를 제어하는 제어 수단을 포함한 인터페이스 장치.
  2. 제 1 항에 있어서,
    인식 수단이 손의 형상과 함께 상기 손의 움직임을 인식하고, 표시 수단이 상기 인식 수단에 의해 인식된 손의 형상과 움직임의 특징을 특수 형상으로서 화면에 표시하는 인터페이스 장치.
  3. 제 1 항에 있어서,
    제어 수단이 화면내에 표시된 정보를 선택하도록 제어하는 인터페이스 장치.
  4. 적어도 촬상부와,
    촬상한 화상중의 물체의 형상 및 또는 움직임을 인식하는 동작 인식부와,
    상기 동작 인식부에 의해 인식한 물체의 형상 및 또는 움직임을 표시하는 표시부를 포함하며,
    상기 촬상부에서 촬상한 화상을 저장하는 프레임 메모리와,
    상기 프레임 메모리내에 보존한 화상보다 이전의 시간에 촬상한 화상을 기준 화상으로서 축적하는 기준 화상 메모리를 마련하고,
    상기 동작 인식부에, 상기 프레임 메모리내의 화상과, 상기 기준 화상 메모리내에 축적하고 있는 기준 화상과의 차이를 추출하는 화상차 연산부를 마련한 인터페이스 장치.
  5. 제 4 항에 있어서,
    기준 화상 메모리내에 축적하고 있는 기준 화상을 신규 화상으로 갱신하는 기준 화상 갱신부를 마련한 인터페이스 장치.
  6. 제 4 항에 있어서,
    기준 화상 갱신부에 기준 화상 갱신의 간격을 연산하는 타이머를 마련한 인터페이스 장치.
  7. 적어도 촬상부와,
    촬상한 화상중의 사용자의 손의 형상 및 또는 움직임을 인식하는 동작 인식부와,
    상기 동작 인식부에 의해 인식한 사용자의 손의 형상 및 또는 움직임을 표시하는 표시부를 가지며,
    촬상한 사용자의 윤곽을 추출하는 윤곽 추출 수단과,
    상기 윤곽을 추적하여, 윤곽선의 각도와 윤곽선의 길이와의 관계, 즉 윤곽 파형을 연산하는 윤곽 파형 연산부와,
    상기 윤곽 파형 연산부에 의해 연산한 윤곽 파형을 필터링하여, 소정의 형상을 나타내는 형상 파형을 생성하는 형상 필터를 마련하여 상기 동작 인식부를 구성한 인터페이스 장치.
  8. 제 7 항에 있어서,
    대역이 다른 복수의 밴드패스 필터(bandpass filter)에 의해 복수의 형상 필터를 구성하고, 상기 복수의 형상 필터에 의해 생성한 형상 파형에 근거하여, 사용자의 동작을 판정시키도록 한 인터페이스 장치.
  9. 제 7 항에 있어서,
    적어도 손의 요철에 대응하는 윤곽 파형 형상의 밴드패스 필터와,
    손가락의 요철에 대응하는 윤곽 파형 형상의 밴드패스 필터에 의해 복수의 형상 필터를 구성한 인터페이스 장치.
  10. 제 7 항에 있어서,
    촬상한 사용자의 윤곽 형상의 좌표와, 윤곽 파형 연산부에 의해 연산한 윤곽 파형과의 대응을 기억시키는 좌표 테이블을 마련하고, 형상 파형의 파고 존재 위치와 상기 좌표 테이블을 이용하여, 촬상 화상중의 소정의 형상이 존재하는 좌표를 연산하는 좌표 연산부를 마련하여 동작 인식부를 구성한 인터페이스 장치.
  11. 제 7 항에 있어서,
    형상 필터에 의해 생성한 형상 파형중의 펄스수를 세는 형상 판정부를 마련하여 동작 인식부를 구성하고, 상기 형상 판정부의 출력값에 따라, 물체의 형상을 판정시키도록 한 인터페이스 장치.
  12. 제 7 항에 있어서,
    형상 필터에 의해 생성한 형상 파형을 미분하는 미분기를 마련하여 동작 인식부를 구성한 인터페이스 장치.
  13. 표시 수단과,
    상기 표시 수단에 표시하는 커서의 위치 및 형상을 변경하는 입력 수단과,
    상기 커서의 위치를 대표하는 대표점 좌표 및 상기 커서의 형상을 기억하는 커서 기억 수단과,
    상기 커서 이외의 표시물의 위치를 대표하는 대표점 좌표 및 상기 표시 물체의 형상을 기억하는 물체 기억 수단과,
    상기 커서 기억 수단에 기억하는 커서의 위치 및 형상과 상기 물체 기억 수단에 기억하는 표시물의 위치 및 형상을 이용하여, 상기 커서와 상기 표시물과의 사이의 상호 작용을 판정하는 상호 작용 판정 수단을 포함하며,
    상기 상호 작용 판정 수단은,
    적어도 1점의 상기 커서의 대표점과 적어도 1점의 상기 표시물의 대표점과의 사이의 거리를 계산하는 거리 계산 수단과,
    상기 커서의 이동 또는 형상의 변화를 인식하는 동작 인식 수단과,
    상기 거리 계산 수단이 계산하는 거리와 상기 동작 인식 수단의 인식 결과를 이용하여 상기 커서와 상기 표시물과의 상호 작용을 결정하는 종합 판정 수단으로 이루어지는 것을 특징으로 하는 인터페이스 장치.
  14. 제 13 항에 있어서,
    동작 인식 수단이 미리 등록한 동작을 인식한 경우에, 거리 계산 수단이 계산하는 거리가 미리 정한 기준 이하인 표시물에 대하여 상호 작용 판정 수단이 상호 작용을 발생시키는 것을 특징으로 하는 인터페이스 장치.
  15. 제 13 항에 있어서,
    표시 공간내에서의 커서의 이동 방향과 이동량을 산출하는 이동 벡터 산출 수단을 마련하여 상호 작용 판정 수단을 구성하고, 상기 이동 방향 산출 수단이 산출하는 커서의 이동 방향 및 커서의 이동량에 근거하여 상호 작용 판정 수단이 상기 커서와 표시물과의 상호 작용을 결정하는 것을 특징으로 하는 인터페이스 장치.
  16. 제 15 항에 있어서,
    이동 벡터 산출 수단이 산출하는 커서의 이동량이 미리 정한 기준치 이하인 경우에 상호 작용 판정 수단이 상호 작용을 발생시키는 것을 특징으로 하는 인터페이스 장치.
  17. 제 15 항에 있어서,
    이동 벡터 산출 수단이 산출하는 커서의 이동 방향의 연장선 근방에 존재하는 표시물에 대하여 상호 작용 판정 수단이 상호 작용을 발생시키는 것을 특징으로 하는 인터페이스 장치.
  18. 제 13 항에 있어서,
    커서의 형상과 표시물의 형상이 미리 등록한 조합으로 이루어진 경우에 상호 작용 판정 수단이 상호 작용을 발생시키는 것을 특징으로 하는 인터페이스 장치.
  19. 제 13 항에 있어서,
    커서 형상 및 표시물의 형상을 인식하는 형상 판정 수단을 구비하여 상호 작용 판정 수단을 구성하고, 상기 형상 인식 수단이 인식하는 커서의 형상과 표시물의 형상이 일치하는 경우에 대하여 상호 작용 판정 수단이 상호 작용을 발생시키는 것을 특징으로 하는 인터페이스 장치.
  20. 제 13 항에 있어서,
    시선 방향을 검출하는 시선 입력 수단을 마련하고, 상기 시선 입력 수단이 검출하는 시선의 연장선상 근방의 표시물에 대하여, 동작 인식 수단이 미리 등록한 동작을 인식한 경우에, 상호 작용 판정 수단이 상호 작용을 발생시키는 것을 특징으로 하는 인터페이스 장치.
  21. 제 20 항에 있어서,
    시선 입력 수단이 검출하는 시선의 연장선상 근방의 표시물에 대하여, 상기시선의 연장선상 근방에 커서가 존재하고, 또한 동작 인식 수단이 미리 등록한 동작을 인식한 경우에, 상호 작용 판정 수단이 상호 작용을 발생시키는 것을 특징으로 하는 인터페이스 장치.
  22. 제 13 항에 있어서,
    상호 작용을 발생시킨 경우, 커서와 대상으로 하는 표시물과의 위치 관계 및 상기 커서의 형상 및 상기 표시물의 형상을 학습하는 학습 수단을 마련하고, 상호 작용 판정 수단이 학습 수단의 학습 결과에 근거하여, 상호 작용을 결정하는 것을 특징으로 하는 인터페이스 장치.
  23. 제 22 항에 있어서,
    커서와 대상으로 하는 표시물과의 위치 관계 또는 상기 커서의 형상 및 상기표시물의 형상이 학습 수단이 과거에 학습한 위치 관계 또는 형상과 유사한 경우에, 상호 작용 판정 수단이 상호 작용을 발생시키는 것을 특징으로 하는 인터페이스 장치.
  24. 제 13 항에 있어서,
    커서 기억부 및 물체 기억부로부터 거리 계산 수단으로의 입력에 대하여 좌표변환을 하는 좌표 변환 수단을 마련하여 상호 작용 판정 수단을 구성하는 것을 특징으로 하는 인터페이스 장치.
  25. 제 24 항에 있어서,
    상호 작용을 발생시킨 경우, 커서와 대상으로 하는 표시물과의 위치 관계를 접근시키도록 좌표 변환을 하는 것을 특징으로 하는 인터페이스 장치.
KR1019970707683A 1995-04-28 1996-04-25 인터페이스 장치 KR19990008158A (ko)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP95-105551 1995-04-28
JP10555195 1995-04-28
JP95-270828 1995-10-19
JP27082895 1995-10-19
JP28476895 1995-11-01
JP95-284768 1995-11-01

Publications (1)

Publication Number Publication Date
KR19990008158A true KR19990008158A (ko) 1999-01-25

Family

ID=27310522

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970707683A KR19990008158A (ko) 1995-04-28 1996-04-25 인터페이스 장치

Country Status (7)

Country Link
US (1) US6191773B1 (ko)
EP (1) EP0823683B1 (ko)
KR (1) KR19990008158A (ko)
CN (1) CN1183151A (ko)
DE (1) DE69634913T2 (ko)
TW (2) TW310401B (ko)
WO (1) WO1996034332A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100815159B1 (ko) 2005-12-08 2008-03-19 한국전자통신연구원 다수의 카메라를 이용한 손 추적 3 차원 입력 장치 및 그방법
KR100845274B1 (ko) * 2006-11-06 2008-07-09 주식회사 시공테크 관람자의 시선 방향을 고려한 전시 시스템의 인터페이스방법 및 장치
KR20100129629A (ko) * 2009-06-01 2010-12-09 엘지전자 주식회사 움직임 검출에 의한 전자장치 동작 제어방법 및 이를 채용하는 전자장치
KR101102242B1 (ko) * 2009-11-25 2012-01-03 주식회사 프라이머스코즈 의사 손동작으로 제어되는 수술실용 환자정보 디스플레이 장치와 그 제어방법
US9377858B2 (en) 2009-10-27 2016-06-28 Samsung Electronics Co., Ltd. Three-dimensional space interface apparatus and method

Families Citing this family (336)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6176782B1 (en) * 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
CA2182238A1 (en) * 1996-07-29 1998-01-30 Mitel Knowledge Corporation Input device simulating touch screen
US6961700B2 (en) 1996-09-24 2005-11-01 Allvoice Computing Plc Method and apparatus for processing the output of a speech recognition engine
US6750848B1 (en) * 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications
US6292169B1 (en) * 1998-02-13 2001-09-18 Kabushiki Kaisha Toshiba Information input apparatus
US6560281B1 (en) * 1998-02-24 2003-05-06 Xerox Corporation Method and apparatus for generating a condensed version of a video sequence including desired affordances
US6088018A (en) * 1998-06-11 2000-07-11 Intel Corporation Method of using video reflection in providing input data to a computer system
JP2000163196A (ja) * 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
GB2345538B (en) * 1998-11-06 2003-12-17 David James Optical tracker
US7113918B1 (en) * 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US6559828B1 (en) * 1999-08-13 2003-05-06 Clothing Plus Oy User interface for selecting functions in an electronic hardware
US6901561B1 (en) * 1999-10-19 2005-05-31 International Business Machines Corporation Apparatus and method for using a target based computer vision system for user interaction
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
US20030132950A1 (en) * 2001-11-27 2003-07-17 Fahri Surucu Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains
US20030174125A1 (en) * 1999-11-04 2003-09-18 Ilhami Torunoglu Multiple input modes in overlapping physical space
US8956228B2 (en) * 1999-12-03 2015-02-17 Nike, Inc. Game pod
US6585622B1 (en) 1999-12-03 2003-07-01 Nike, Inc. Interactive use an athletic performance monitoring and reward method, system, and computer program product
JP2001184161A (ja) 1999-12-27 2001-07-06 Ricoh Co Ltd 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体
WO2001073745A1 (en) * 2000-03-29 2001-10-04 Indelelink Corporation Personalized computer peripheral
US20020039111A1 (en) * 2000-06-27 2002-04-04 James Gips Automated visual tracking for computer access
US6803906B1 (en) * 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
EP1739528B1 (en) * 2000-07-05 2009-12-23 Smart Technologies ULC Method for a camera-based touch system
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
AU2001286450A1 (en) * 2000-08-12 2002-02-25 Georgia Tech Research Corporation A system and method for capturing an image
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7095401B2 (en) * 2000-11-02 2006-08-22 Siemens Corporate Research, Inc. System and method for gesture interface
LU90675B1 (de) * 2000-11-10 2002-05-13 Iee Sarl Verfahren zum Steuern von Geraeten
US8751957B1 (en) 2000-11-22 2014-06-10 Pace Micro Technology Plc Method and apparatus for obtaining auditory and gestural feedback in a recommendation system
US6600475B2 (en) 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US20020136455A1 (en) * 2001-01-31 2002-09-26 I-Jong Lin System and method for robust foreground and background image data separation for location of objects in front of a controllable display within a camera view
US6895520B1 (en) 2001-03-02 2005-05-17 Advanced Micro Devices, Inc. Performance and power optimization via block oriented performance measurement and control
KR20020073890A (ko) * 2001-03-16 2002-09-28 한국전자통신연구원 손의 주물거림을 이용한 3 차원 모델링 시스템 및 그 방법
DE10114891A1 (de) * 2001-03-26 2002-10-17 Geometrie Concern Verwaltungs Dateieingabeverfahren
US20020174426A1 (en) * 2001-05-15 2002-11-21 Koninklijke Philips Electronics N.V Method and apparatus for activating a media player based on user behavior
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7274800B2 (en) * 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
US7023499B2 (en) * 2001-09-21 2006-04-04 Williams Cassandra S Television receiver with motion sensor
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
US20030095154A1 (en) * 2001-11-19 2003-05-22 Koninklijke Philips Electronics N.V. Method and apparatus for a gesture-based user interface
US6564144B1 (en) 2002-01-10 2003-05-13 Navigation Technologies Corporation Method and system using a hand-gesture responsive device for collecting data for a geographic database
US20030132913A1 (en) * 2002-01-11 2003-07-17 Anton Issinski Touchless computer input device to control display cursor mark position by using stereovision input from two video cameras
US7209883B2 (en) * 2002-05-09 2007-04-24 Intel Corporation Factorial hidden markov model for audiovisual speech recognition
US20030212552A1 (en) * 2002-05-09 2003-11-13 Liang Lu Hong Face recognition procedure useful for audiovisual speech recognition
US7165029B2 (en) 2002-05-09 2007-01-16 Intel Corporation Coupled hidden Markov model for audiovisual speech recognition
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7161579B2 (en) * 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
JP4115188B2 (ja) * 2002-07-19 2008-07-09 キヤノン株式会社 仮想空間描画表示装置
US7102615B2 (en) 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US8947347B2 (en) 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US9174119B2 (en) 2002-07-27 2015-11-03 Sony Computer Entertainement America, LLC Controller for providing inputs to control execution of a program when inputs are combined
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US8160269B2 (en) 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US8139793B2 (en) 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US7918733B2 (en) 2002-07-27 2011-04-05 Sony Computer Entertainment America Inc. Multi-input game control mixer
US7627139B2 (en) * 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US9474968B2 (en) * 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US8233642B2 (en) 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US7850526B2 (en) 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
KR100817647B1 (ko) * 2002-07-27 2008-03-27 가부시키가이샤 소니 컴퓨터 엔터테인먼트 변형될 수 있는 장치를 사용하는 인간-컴퓨터간 인터페이스
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US7854655B2 (en) 2002-07-27 2010-12-21 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US7803050B2 (en) 2002-07-27 2010-09-28 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US9682319B2 (en) * 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US7815507B2 (en) * 2004-06-18 2010-10-19 Igt Game machine user interface using a non-contact eye motion recognition device
US8460103B2 (en) * 2004-06-18 2013-06-11 Igt Gesture controlled casino gaming system
US20040041828A1 (en) * 2002-08-30 2004-03-04 Zellhoefer Jon William Adaptive non-contact computer user-interface system and method
US6996460B1 (en) 2002-10-03 2006-02-07 Advanced Interfaces, Inc. Method and apparatus for providing virtual touch interaction in the drive-thru
US7171043B2 (en) 2002-10-11 2007-01-30 Intel Corporation Image recognition using hidden markov models and coupled hidden markov models
US8206219B2 (en) 2002-10-30 2012-06-26 Nike, Inc. Interactive gaming apparel for interactive gaming
EP2039403B1 (en) * 2002-10-30 2016-08-24 NIKE Innovate C.V. Clothes with concealable motion capture markers for computer games
US6954197B2 (en) * 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
WO2004055776A1 (en) * 2002-12-13 2004-07-01 Reactrix Systems Interactive directed light/sound system
US7472063B2 (en) 2002-12-19 2008-12-30 Intel Corporation Audio-visual feature fusion and support vector machine useful for continuous speech recognition
US7203368B2 (en) * 2003-01-06 2007-04-10 Intel Corporation Embedded bayesian network for pattern recognition
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US8508508B2 (en) * 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US7629967B2 (en) * 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US9573056B2 (en) * 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
CN1902930B (zh) * 2003-10-24 2010-12-15 瑞克楚斯系统公司 管理交互式视频显示系统的方法和系统
US7355593B2 (en) 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
JP4481663B2 (ja) * 2004-01-15 2010-06-16 キヤノン株式会社 動作認識装置、動作認識方法、機器制御装置及びコンピュータプログラム
US7663689B2 (en) 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
US7232986B2 (en) * 2004-02-17 2007-06-19 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
IL161002A0 (en) * 2004-03-22 2004-08-31 Itay Katz Virtual video keyboard system
DE102004020824A1 (de) * 2004-04-28 2005-12-01 BSH Bosch und Siemens Hausgeräte GmbH Stellvorrichtung mit einem zumindest zweidimensionalen Sen-sorbereich
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7492357B2 (en) * 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8120596B2 (en) 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
WO2005119356A2 (en) 2004-05-28 2005-12-15 Erik Jan Banning Interactive direct-pointing system and calibration method
US8684839B2 (en) * 2004-06-18 2014-04-01 Igt Control of wager-based game using gesture recognition
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
US7942744B2 (en) 2004-08-19 2011-05-17 Igt Virtual input system
JP4419768B2 (ja) * 2004-09-21 2010-02-24 日本ビクター株式会社 電子機器の制御装置
US20060072009A1 (en) * 2004-10-01 2006-04-06 International Business Machines Corporation Flexible interaction-based computer interfacing using visible artifacts
KR100663515B1 (ko) * 2004-11-08 2007-01-02 삼성전자주식회사 휴대 단말 장치 및 이를 위한 데이터 입력 방법
EP1662362A1 (en) * 2004-11-26 2006-05-31 Océ-Technologies B.V. Desk top scanning with hand gestures recognition
KR100659888B1 (ko) * 2005-01-07 2006-12-20 엘지전자 주식회사 이동 단말기의 3차원 영상 처리방법
EP2458554B1 (en) 2005-01-21 2015-04-29 Qualcomm Incorporated Motion-based tracking
KR100960577B1 (ko) 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
JP4372051B2 (ja) * 2005-06-13 2009-11-25 株式会社東芝 手形状認識装置及びその方法
US9285897B2 (en) 2005-07-13 2016-03-15 Ultimate Pointer, L.L.C. Easily deployable interactive direct-pointing system and calibration method therefor
JP4712804B2 (ja) * 2005-07-29 2011-06-29 パイオニア株式会社 画像表示制御装置及び画像表示装置
US20080263479A1 (en) * 2005-11-25 2008-10-23 Koninklijke Philips Electronics, N.V. Touchless Manipulation of an Image
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
US20070165007A1 (en) * 2006-01-13 2007-07-19 Gerald Morrison Interactive input system
US20090002342A1 (en) * 2006-02-03 2009-01-01 Tomohiro Terada Information Processing Device
EP1983402A4 (en) * 2006-02-03 2013-06-26 Panasonic Corp INPUT DEVICE AND ITS METHOD
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US8537111B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
WO2007097548A1 (en) * 2006-02-20 2007-08-30 Cheol Woo Kim Method and apparatus for user-interface using the hand trace
US20070205994A1 (en) * 2006-03-02 2007-09-06 Taco Van Ieperen Touch system and method for interacting with the same
US20070265075A1 (en) * 2006-05-10 2007-11-15 Sony Computer Entertainment America Inc. Attachable structure for use with hand-held controller having tracking ability
JP4267648B2 (ja) * 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8144121B2 (en) * 2006-10-11 2012-03-27 Victor Company Of Japan, Limited Method and apparatus for controlling electronic appliance
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
JP2008146243A (ja) * 2006-12-07 2008-06-26 Toshiba Corp 情報処理装置、情報処理方法、及びプログラム
JP4720738B2 (ja) * 2006-12-20 2011-07-13 日本ビクター株式会社 電子機器
US20080252596A1 (en) * 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
WO2008128096A2 (en) * 2007-04-11 2008-10-23 Next Holdings, Inc. Touch screen system with hover and click input methods
JP2008269174A (ja) * 2007-04-18 2008-11-06 Fujifilm Corp 制御装置、方法およびプログラム
JP5905662B2 (ja) 2007-04-24 2016-04-20 オブロング・インダストリーズ・インコーポレーテッド プロテイン、プール、およびスロークス処理環境
US8031272B2 (en) * 2007-07-19 2011-10-04 International Business Machines Corporation System and method of adjusting viewing angle for display
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8432377B2 (en) * 2007-08-30 2013-04-30 Next Holdings Limited Optical touchscreen with improved illumination
KR20100075460A (ko) * 2007-08-30 2010-07-02 넥스트 홀딩스 인코포레이티드 저 프로파일 터치 패널 시스템
CN101952818B (zh) * 2007-09-14 2016-05-25 智慧投资控股81有限责任公司 基于姿态的用户交互的处理
JP4636064B2 (ja) 2007-09-18 2011-02-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP4569613B2 (ja) * 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
CN101874404B (zh) * 2007-09-24 2013-09-18 高通股份有限公司 用于语音和视频通信的增强接口
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
JP4670860B2 (ja) * 2007-11-22 2011-04-13 ソニー株式会社 記録再生装置
US8542907B2 (en) * 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
KR101079598B1 (ko) * 2007-12-18 2011-11-03 삼성전자주식회사 디스플레이장치 및 그 제어방법
US8115877B2 (en) * 2008-01-04 2012-02-14 International Business Machines Corporation System and method of adjusting viewing angle for display based on viewer positions and lighting conditions
US20090213093A1 (en) * 2008-01-07 2009-08-27 Next Holdings Limited Optical position sensor using retroreflection
US20090207144A1 (en) * 2008-01-07 2009-08-20 Next Holdings Limited Position Sensing System With Edge Positioning Enhancement
US8405636B2 (en) * 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US20100039500A1 (en) * 2008-02-15 2010-02-18 Matthew Bell Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator
JP5684577B2 (ja) * 2008-02-27 2015-03-11 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー シーンの深度データをキャプチャし、コンピュータのアクションを適用する方法
US8259163B2 (en) * 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
EP2258587A4 (en) * 2008-03-19 2013-08-07 Denso Corp OPERATING DEVICE FOR A VEHICLE
JP2009245392A (ja) * 2008-03-31 2009-10-22 Brother Ind Ltd ヘッドマウントディスプレイ及びヘッドマウントディスプレイシステム
US20110102570A1 (en) * 2008-04-14 2011-05-05 Saar Wilf Vision based pointing device emulation
DE102008020772A1 (de) * 2008-04-21 2009-10-22 Carl Zeiss 3D Metrology Services Gmbh Darstellung von Ergebnissen einer Vermessung von Werkstücken
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8836646B1 (en) 2008-04-24 2014-09-16 Pixar Methods and apparatus for simultaneous user inputs for three-dimensional animation
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US10180714B1 (en) * 2008-04-24 2019-01-15 Pixar Two-handed multi-stroke marking menus for multi-touch devices
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US8902193B2 (en) * 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
US20090277697A1 (en) * 2008-05-09 2009-11-12 Smart Technologies Ulc Interactive Input System And Pen Tool Therefor
US20090278794A1 (en) * 2008-05-09 2009-11-12 Smart Technologies Ulc Interactive Input System With Controlled Lighting
JP4318056B1 (ja) 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
US8595218B2 (en) * 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
EP2304527A4 (en) * 2008-06-18 2013-03-27 Oblong Ind Inc GESTIK BASED CONTROL SYSTEM FOR VEHICLE INTERFACES
JP4720874B2 (ja) 2008-08-14 2011-07-13 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
EP2329344A4 (en) * 2008-09-15 2013-08-14 Smart Technologies Ulc TOUCH INPUT WITH IMAGE SENSOR AND SIGNAL PROCESSOR
US8937687B2 (en) * 2008-09-30 2015-01-20 Echostar Technologies L.L.C. Systems and methods for graphical control of symbol-based features in a television receiver
US8473979B2 (en) * 2008-09-30 2013-06-25 Echostar Technologies L.L.C. Systems and methods for graphical adjustment of an electronic program guide
US20100083315A1 (en) * 2008-09-30 2010-04-01 Echostar Technologies Llc Systems and methods for graphical control of user interface features provided by a television receiver
US9357262B2 (en) * 2008-09-30 2016-05-31 Echostar Technologies L.L.C. Systems and methods for graphical control of picture-in-picture windows
US8582957B2 (en) 2008-09-22 2013-11-12 EchoStar Technologies, L.L.C. Methods and apparatus for visually displaying recording timer information
US8572651B2 (en) * 2008-09-22 2013-10-29 EchoStar Technologies, L.L.C. Methods and apparatus for presenting supplemental information in an electronic programming guide
US8763045B2 (en) * 2008-09-30 2014-06-24 Echostar Technologies L.L.C. Systems and methods for providing customer service features via a graphical user interface in a television receiver
US20100079385A1 (en) * 2008-09-29 2010-04-01 Smart Technologies Ulc Method for calibrating an interactive input system and interactive input system executing the calibration method
US20100079413A1 (en) * 2008-09-29 2010-04-01 Denso Corporation Control device
US8793735B2 (en) 2008-09-30 2014-07-29 EchoStar Technologies, L.L.C. Methods and apparatus for providing multiple channel recall on a television receiver
US8397262B2 (en) * 2008-09-30 2013-03-12 Echostar Technologies L.L.C. Systems and methods for graphical control of user interface features in a television receiver
JP5594733B2 (ja) * 2008-10-01 2014-09-24 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理方法、情報記憶媒体及びプログラム
US20110205189A1 (en) * 2008-10-02 2011-08-25 John David Newton Stereo Optical Sensors for Resolving Multi-Touch in a Touch Detection System
KR101562827B1 (ko) * 2008-10-23 2015-10-23 삼성전자주식회사 가상 객체 조작 장치 및 그 방법
US9100614B2 (en) * 2008-10-31 2015-08-04 Echostar Technologies L.L.C. Graphical interface navigation based on image element proximity
US8339378B2 (en) * 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
US8961313B2 (en) * 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
US20120202569A1 (en) * 2009-01-13 2012-08-09 Primesense Ltd. Three-Dimensional User Interface for Game Applications
US20100225588A1 (en) * 2009-01-21 2010-09-09 Next Holdings Limited Methods And Systems For Optical Detection Of Gestures
KR101617645B1 (ko) * 2009-02-24 2016-05-04 삼성전자주식회사 디스플레이 제어 방법 및 이를 이용한 장치
US20100229090A1 (en) * 2009-03-05 2010-09-09 Next Holdings Limited Systems and Methods for Interacting With Touch Displays Using Single-Touch and Multi-Touch Gestures
WO2010103482A2 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
US8527657B2 (en) * 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US9317128B2 (en) * 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8342963B2 (en) * 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
TWI396442B (zh) * 2009-05-21 2013-05-11 Chunghwa Telecom Co Ltd Application of gesture to recognize the gesture label of the Internet TV platform
US8692768B2 (en) 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
JP5317911B2 (ja) * 2009-09-28 2013-10-16 任天堂株式会社 情報処理プログラムおよび情報処理装置
JP2011081480A (ja) * 2009-10-05 2011-04-21 Seiko Epson Corp 画像入力システム
JP2011081469A (ja) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd 入力装置
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US20110095977A1 (en) * 2009-10-23 2011-04-28 Smart Technologies Ulc Interactive input system incorporating multi-angle reflecting structure
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
EP2494432B1 (en) * 2009-10-27 2019-05-29 Harmonix Music Systems, Inc. Gesture-based user interface
US8702485B2 (en) 2010-06-11 2014-04-22 Harmonix Music Systems, Inc. Dance game and tutorial
US20110199387A1 (en) * 2009-11-24 2011-08-18 John David Newton Activating Features on an Imaging Device Based on Manipulations
CN102713794A (zh) * 2009-11-24 2012-10-03 奈克斯特控股公司 用于手势识别模式控制的方法和装置
WO2011069152A2 (en) * 2009-12-04 2011-06-09 Next Holdings Limited Imaging methods and systems for position detection
US20110164032A1 (en) * 2010-01-07 2011-07-07 Prime Sense Ltd. Three-Dimensional User Interface
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
US20110234542A1 (en) * 2010-03-26 2011-09-29 Paul Marson Methods and Systems Utilizing Multiple Wavelengths for Position Detection
US8593402B2 (en) 2010-04-30 2013-11-26 Verizon Patent And Licensing Inc. Spatial-input-based cursor projection systems and methods
US20110280439A1 (en) * 2010-05-11 2011-11-17 Beverly Harrison Techniques for person detection
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
KR101126110B1 (ko) * 2010-06-28 2012-03-29 (주)펜앤프리 3차원 입체 영상 표시 시스템 및 이를 이용한 3차원 입체 영상 표시 방법
US9167289B2 (en) 2010-09-02 2015-10-20 Verizon Patent And Licensing Inc. Perspective display systems and methods
EP2614426A2 (en) 2010-09-08 2013-07-17 Telefonaktiebolaget L M Ericsson (publ) Gesture-based control of iptv system
EP2428870A1 (en) * 2010-09-13 2012-03-14 Samsung Electronics Co., Ltd. Device and method for controlling gesture for mobile device
US8890803B2 (en) 2010-09-13 2014-11-18 Samsung Electronics Co., Ltd. Gesture control system
KR101708696B1 (ko) 2010-09-15 2017-02-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8610831B2 (en) * 2010-10-12 2013-12-17 Nokia Corporation Method and apparatus for determining motion
US8957856B2 (en) 2010-10-21 2015-02-17 Verizon Patent And Licensing Inc. Systems, methods, and apparatuses for spatial input associated with a display
US8284082B2 (en) 2010-10-27 2012-10-09 Sling Media Pvt. Ltd. Dynamic encode setting adjustment
US9195345B2 (en) * 2010-10-28 2015-11-24 Microsoft Technology Licensing, Llc Position aware gestures with visual feedback as input method
KR20120046973A (ko) * 2010-11-03 2012-05-11 삼성전자주식회사 움직임 정보 생성 방법 및 장치
WO2012064309A1 (en) * 2010-11-11 2012-05-18 Echostar Ukraine L.L.C. Hearing and/or speech impaired electronic device control
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US11064910B2 (en) 2010-12-08 2021-07-20 Activbody, Inc. Physical activity monitoring system
KR101795574B1 (ko) 2011-01-06 2017-11-13 삼성전자주식회사 모션에 의해 제어되는 전자기기 및 그 제어 방법
KR101858531B1 (ko) * 2011-01-06 2018-05-17 삼성전자주식회사 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법
CN103329066B (zh) * 2011-01-19 2017-03-29 惠普发展公司,有限责任合伙企业 用于多模式手势控制的方法和系统
US9189072B2 (en) * 2011-02-08 2015-11-17 Lg Electronics Inc. Display device and control method thereof
JP2012190183A (ja) * 2011-03-09 2012-10-04 Sony Corp 画像処理装置および方法、並びにプログラム
US9067136B2 (en) * 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8928589B2 (en) * 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
JP5709228B2 (ja) * 2011-04-28 2015-04-30 Necソリューションイノベータ株式会社 情報処理装置、情報処理方法及びプログラム
JP5670255B2 (ja) * 2011-05-27 2015-02-18 京セラ株式会社 表示機器
JP5757166B2 (ja) * 2011-06-09 2015-07-29 ソニー株式会社 音制御装置、プログラム及び制御方法
JP5298161B2 (ja) * 2011-06-13 2013-09-25 シャープ株式会社 操作装置及び画像形成装置
JP5864144B2 (ja) 2011-06-28 2016-02-17 京セラ株式会社 表示機器
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US9030487B2 (en) * 2011-08-01 2015-05-12 Lg Electronics Inc. Electronic device for displaying three-dimensional image and method of using the same
WO2013018099A2 (en) * 2011-08-04 2013-02-07 Eyesight Mobile Technologies Ltd. System and method for interfacing with a device via a 3d display
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
EP2756670A4 (en) * 2011-09-12 2015-05-27 Intel Corp CAPTURE OF MULTIMEDIA CLIPS BY GESTURE CONTROL
KR101880998B1 (ko) * 2011-10-14 2018-07-24 삼성전자주식회사 이벤트 기반 비전 센서를 이용한 동작 인식 장치 및 방법
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
DE102012201978A1 (de) * 2012-02-10 2013-08-14 Robert Bosch Gmbh Verfahren zum Auslesen einer Lichtsensorsteuereinrichtung sowie Vorrichtung zum Auslesen einer Lichtsensorsteuereinrichtung
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
DE102012203457A1 (de) * 2012-03-05 2013-09-05 E.G.O. Elektro-Gerätebau GmbH Kamera-Modul zur Bediengestenerkennung und Haushaltsgerät
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
US9230064B2 (en) 2012-06-19 2016-01-05 EZ as a Drink Productions, Inc. Personal wellness device
US10133849B2 (en) 2012-06-19 2018-11-20 Activbody, Inc. Merchandizing, socializing, and/or gaming via a personal wellness device and/or a personal wellness platform
US10102345B2 (en) 2012-06-19 2018-10-16 Activbody, Inc. Personal wellness management platform
US9696547B2 (en) * 2012-06-25 2017-07-04 Microsoft Technology Licensing, Llc Mixed reality system learned input and functions
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US8934675B2 (en) 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
KR101845046B1 (ko) 2012-07-13 2018-04-03 가부시키가이샤 주스 디자인 요소 선택 장치, 요소 선택 방법 및 프로그램
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
TWI454971B (zh) * 2012-12-11 2014-10-01 Pixart Imaging Inc 電子裝置控制方法以及使用此電子裝置控制方法的電子裝置
CN103902192A (zh) * 2012-12-28 2014-07-02 腾讯科技(北京)有限公司 人机交互操作的触发控制方法和装置
JP2014137616A (ja) * 2013-01-15 2014-07-28 Fujitsu Ltd 表示制御装置、表示制御システム及び表示制御方法
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
CN104007808B (zh) * 2013-02-26 2017-08-29 联想(北京)有限公司 一种信息处理方法及电子设备
US9524028B2 (en) 2013-03-08 2016-12-20 Fastvdo Llc Visual language for human computer interfaces
US10220303B1 (en) 2013-03-15 2019-03-05 Harmonix Music Systems, Inc. Gesture-based music game
TWI524213B (zh) * 2013-04-02 2016-03-01 宏達國際電子股份有限公司 控制方法及電子裝置
US9298266B2 (en) * 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9749541B2 (en) * 2013-04-16 2017-08-29 Tout Inc. Method and apparatus for displaying and recording images using multiple image capturing devices integrated into a single mobile device
US9229476B2 (en) 2013-05-08 2016-01-05 EZ as a Drink Productions, Inc. Personal handheld electronic device with a touchscreen on a peripheral surface
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
US9262064B2 (en) * 2013-07-09 2016-02-16 EZ as a Drink Productions, Inc. Handheld computing platform with integrated pressure sensor and associated methods of use
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
US10152136B2 (en) 2013-10-16 2018-12-11 Leap Motion, Inc. Velocity field interaction for free space gesture interface and control
US9891712B2 (en) 2013-12-16 2018-02-13 Leap Motion, Inc. User-defined virtual interaction space and manipulation of virtual cameras with vectors
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
KR20150084524A (ko) * 2014-01-14 2015-07-22 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
EP2908218B1 (en) * 2014-02-14 2018-03-14 Omron Corporation Gesture recognition apparatus and control method of gesture recognition apparatus
DE102014202836A1 (de) * 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
US10124246B2 (en) 2014-04-21 2018-11-13 Activbody, Inc. Pressure sensitive peripheral devices, and associated methods of use
CN104199555A (zh) * 2014-09-19 2014-12-10 北京百纳威尔科技有限公司 终端的设置方法及装置
JP6702746B2 (ja) * 2016-02-10 2020-06-03 キヤノン株式会社 撮像装置、その制御方法、プログラム及び記憶媒体
US9791936B1 (en) 2016-05-03 2017-10-17 Aram Kavach Audio and motion-based control of a personalized smart appliance, media, and methods of use
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
CN108920071B (zh) * 2018-06-21 2021-06-08 Oppo广东移动通信有限公司 基于异形显示屏的控制方法、装置、存储介质及移动终端
US11809633B2 (en) 2021-03-16 2023-11-07 Snap Inc. Mirroring device with pointing based navigation
US11798201B2 (en) 2021-03-16 2023-10-24 Snap Inc. Mirroring device with whole-body outfits
US11734959B2 (en) 2021-03-16 2023-08-22 Snap Inc. Activating hands-free mode on mirroring device
US11978283B2 (en) 2021-03-16 2024-05-07 Snap Inc. Mirroring device with a hands-free mode
US11908243B2 (en) * 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59132079A (ja) * 1983-01-17 1984-07-30 Nippon Telegr & Teleph Corp <Ntt> 手操作入力装置
JPH02190776A (ja) * 1989-01-20 1990-07-26 Nec Corp パターン検査装置
EP0450196B1 (en) * 1990-04-02 1998-09-09 Koninklijke Philips Electronics N.V. Data processing system using gesture-based input data
JPH04238524A (ja) * 1991-01-23 1992-08-26 Matsushita Electric Ind Co Ltd アイコン選択方法
JPH04289910A (ja) * 1991-03-19 1992-10-14 Kobe Nippon Denki Software Kk 情報入力方式
JP3182876B2 (ja) * 1991-05-24 2001-07-03 ソニー株式会社 画像信号処理方法とその装置
JPH0527906A (ja) * 1991-07-24 1993-02-05 Matsushita Electric Ind Co Ltd 図形選択装置
JPH0566908A (ja) * 1991-09-05 1993-03-19 Nec Corp 物体把持表示方法
DE69204045T2 (de) * 1992-02-07 1996-04-18 Ibm Verfahren und Vorrichtung zum optischen Eingang von Befehlen oder Daten.
JPH0612177A (ja) * 1992-06-29 1994-01-21 Canon Inc 情報入力方法及びその装置
DE69430967T2 (de) * 1993-04-30 2002-11-07 Xerox Corp Interaktives Kopiersystem
JP3355708B2 (ja) * 1993-06-29 2002-12-09 カシオ計算機株式会社 コマンド処理装置
JPH0757103A (ja) * 1993-08-23 1995-03-03 Toshiba Corp 情報処理装置
JPH0816781A (ja) * 1994-06-27 1996-01-19 Oki Electric Ind Co Ltd 画像認識装置
JPH0844490A (ja) * 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5864334A (en) * 1997-06-27 1999-01-26 Compaq Computer Corporation Computer keyboard with switchable typing/cursor control modes

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100815159B1 (ko) 2005-12-08 2008-03-19 한국전자통신연구원 다수의 카메라를 이용한 손 추적 3 차원 입력 장치 및 그방법
KR100845274B1 (ko) * 2006-11-06 2008-07-09 주식회사 시공테크 관람자의 시선 방향을 고려한 전시 시스템의 인터페이스방법 및 장치
KR20100129629A (ko) * 2009-06-01 2010-12-09 엘지전자 주식회사 움직임 검출에 의한 전자장치 동작 제어방법 및 이를 채용하는 전자장치
US9377858B2 (en) 2009-10-27 2016-06-28 Samsung Electronics Co., Ltd. Three-dimensional space interface apparatus and method
KR101102242B1 (ko) * 2009-11-25 2012-01-03 주식회사 프라이머스코즈 의사 손동작으로 제어되는 수술실용 환자정보 디스플레이 장치와 그 제어방법

Also Published As

Publication number Publication date
US6191773B1 (en) 2001-02-20
EP0823683B1 (en) 2005-07-06
TW334540B (en) 1998-06-21
CN1183151A (zh) 1998-05-27
WO1996034332A1 (fr) 1996-10-31
DE69634913T2 (de) 2006-01-05
EP0823683A1 (en) 1998-02-11
DE69634913D1 (de) 2005-08-11
TW310401B (ko) 1997-07-11
EP0823683A4 (en) 2000-12-06

Similar Documents

Publication Publication Date Title
KR19990008158A (ko) 인터페이스 장치
JP3777650B2 (ja) インターフェイス装置
JP2941207B2 (ja) ジェスチャ認識システム
Rautaray et al. Real time multiple hand gesture recognition system for human computer interaction
KR101688355B1 (ko) 다수의 지각 감지 입력의 상호작용
JPH0844490A (ja) インターフェイス装置
TWI499966B (zh) 互動式操作方法
US20120200494A1 (en) Computer vision gesture based control of a device
Jing et al. Human-computer interaction using pointing gesture based on an adaptive virtual touch screen
JP2016520946A (ja) 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法
TWI471755B (zh) 能操控電氣設備作動模式的操控裝置
JP2015222591A (ja) ヒューマンコンピュータインタラクションシステム、手と手指示点位置決め方法、及び手指のジェスチャ決定方法
JP2015522195A (ja) 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム
KR20130001176A (ko) 근접 범위 움직임 추적 시스템 및 방법
Abe et al. Virtual 3-D interface system via hand motion recognition from two cameras
JP6618276B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2004078977A (ja) インターフェイス装置
CN108536273A (zh) 基于手势的人机菜单交互方法与系统
Rautaray et al. Design of gesture recognition system for dynamic user interface
CN111596757A (zh) 一种基于指尖交互的手势控制方法和装置
JPH05324181A (ja) ハンドポインティング式入力装置
Conci et al. Natural human-machine interface using an interactive virtual blackboard
JPH09311759A (ja) ジェスチャ認識方法および装置
Aggarwal et al. An Approach to Control the PC with Hand Gesture Recognition using Computer Vision Technique
Choondal et al. Design and implementation of a natural user interface using hand gesture recognition method

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid