KR100878127B1 - 몸짓 기반 입력 및 타겟 표시용 단일 카메라 시스템 - Google Patents

몸짓 기반 입력 및 타겟 표시용 단일 카메라 시스템 Download PDF

Info

Publication number
KR100878127B1
KR100878127B1 KR1020027012389A KR20027012389A KR100878127B1 KR 100878127 B1 KR100878127 B1 KR 100878127B1 KR 1020027012389 A KR1020027012389 A KR 1020027012389A KR 20027012389 A KR20027012389 A KR 20027012389A KR 100878127 B1 KR100878127 B1 KR 100878127B1
Authority
KR
South Korea
Prior art keywords
target
controller
plane
line
space
Prior art date
Application number
KR1020027012389A
Other languages
English (en)
Other versions
KR20020086931A (ko
Inventor
구타스리니바스
트라이코비치미로슬라프
이미선
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20020086931A publication Critical patent/KR20020086931A/ko
Application granted granted Critical
Publication of KR100878127B1 publication Critical patent/KR100878127B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Infusion, Injection, And Reservoir Apparatuses (AREA)
  • External Artificial Organs (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

평면 상에 위치한 타겟의 위치는 평면 상에 컴퓨터 계산 가능하게 투영된 지시 방향을 입력함으로써 표시된다. 타겟이 윤곽선 상에 위치된 것으로 공지되면, 위치는 명백하게 지정된다. 대안으로서, 타겟의 위치는 연속적인 단계에서 축방향 좌표를 입력함으로써 지정될 수 있다. 다른 대안의 접근에서, 타겟을 포함하는 이미지는 병진 및/또는 회전하며, 타겟이 재차 표시된다. 다음, 2-방향 투영이 2-공간의 타겟의 위치를 결정하는데 사용된다. 방향 표시들은 카메라 또는 하나 이상의 무선 송신기와 같은 다른 방법에 의해 입력될 수 있다.
평면, 타겟, 카메라, 지시 표시기, 평면 투영, 교차점

Description

몸짓 기반 입력 및 타겟 표시용 단일 카메라 시스템{Single camera system for gesture-based input and target indication}
본 발명은 타겟의 위치에 대한 정보를 입력하는 시스템 및 방법에 관한 것이며, 특히 단일 카메라 이미지를 사용하는 그러한 시스템에 관한 것이다.
다수의 컴퓨터 기반 시스템은 타겟의 위치에 대한 정보를 필요로 한다. 예를 들면, 통상의 마우스가 스크린 상의 제어부 또는 좌표를 선택하는데 사용된다. 타겟 위치 데이터가 컴퓨터에 입력되는 다른 영역은 자동 화상 회의 시스템의 분야이다. 예를 들면, 사용자는 단순히 대상물을 가리키거나 조이스틱으로 제어함으로써 관심 대상물에 카메라를 조준할 수 있다. 작업은, 사용자가 마우스 또는 조이스틱을 사용하지 않고 다른 사람들에게 타겟을 가리키는데 통상 사용되는 통상의 몸짓을 사용하여 타겟을 가리킬 수 있게 하는 시스템의 다수의 프론트에서 진행된다.
이러한 몸짓 기반 시스템은 보다 직관적이며, 음성 명령(예를 들면, 각각의 음성 명령이 "팬 좌측으로(PAN-LEFT)", "위로(UP)", "아래로(DOWN)" 등과 같은 명령에 대응하는 기본적으로 언어 기반 심벌 프로세서인, "명령 제어"), 조이스틱 제어와 같은 명시적인 명령을 필요로 하는 종래의 시스템보다 제어가 용이하다.
다중 카메라 관점을 사용하여 사용자가 지시하는 방향을 결정하는 방법이 있다. 예를 들면 카메라 기반 시스템은, 마사아키 후쿠모토, 야스히토 수엥가 및 켄지 마세의 논문 "'핑거 포인터': 이미지 프로세싱에 의한 지시 인터페이스('Finger-Pointer': Pointing interface by Image Processing)"에 상세히 설명되어 있다. 이러한 시스템은, 사용자의 지시와 일치하는 3차원 벡터를 결정하기 위해 실제 장면의 3차원 모델을 생성하도록 다중 각도의 관점을 조합해야 할 필요가 있기 때문에 종종 복잡하다. 또한, 카메라는 배치되어 조준되어야 하며, 카메라의 위치 및 방위가 정확하게 정의되어야 한다. 다음, 3차원 모델이 사용자가 지시하는 타겟을 결정하는데 사용된다. 타겟이 공지된 표면에 배치되어 있는 제한된 환경에서 이러한 복잡성을 극복하기 위한 한 기술은, 본원에 완전히 설명되는 것처럼 그 전체가 본원에 참조로서 관련되는, 2000년 5월 17일 출원된, 발명의 명칭이 "3차원 모델링이 없는 이미지 프로세싱에 의해 타겟을 표시하는 장치 및 방법"인 미국 특허 출원 제 09/572,991 호에 개시된 바와 같은 두 개의 무보정 카메라(uncalibrated camera) 및 평면 투영 변환을 사용하는 것이다. 여기서, 보정이 필요하지 않지만, 상기 출원의 방법은 상당한 격리 거리에 배치되어야 하는 다수의 카메라를 필요로 한다.
마우스는 상대 위치를 가리킴으로써 스크린 상에 소정의 2차원 좌표의 위치를 나타낸다. 마우스가 초기에 제어될 때, 마우스에 의해 표시된 위치의 시작 지점은 임의적이다. 단지 피드백 및 상대 이동을 사용함으로써, 사용자는 타겟 위치를 최종적으로 나타낼 수 있다. 마우스와 매우 유사하게 작용하는 단순한 단일 카메라 몸짓 기반 기술은 미국 특허 제 5,594,469 호에 개시되어 있다. 상기 방법에서, 사용자의 몸짓은 피드백에 의해 표시된 위치 및 단일 카메라에 의해 획득된다. 다음, 사용자는 피드백 신호가 소정의 결과를 표시할 때까지 몸짓을 변형한다. 예를 들면, 사용자는 그의 손을 이동시키고, 변위의 방향 및 크기가 스크린 상에 커서의 변위의 상대 방향 및 크기로 맵핑된다. 그러나, 상기 시스템은 시작 지점이 임의적이며 (통상 시각적인) 피드백이 요구된다는 점에서 마우스 또는 조이스틱과 동일한 단점을 갖는다.
간략하게는, 평면 상에 위치한 타겟의 위치는 평면 상에 지시 방향의 투영을 입력함으로써 표시된다. 타겟이 평면의 윤곽선 상에 위치되면, 위치는 방향 투영에 의해 명백하게 지정되며, 윤곽선 및 투영의 교차점이 소정의 타겟이 된다. 대안으로서, 타겟의 2차원 위치가 연속적인 단계에서 축방향 좌표를 입력함으로써 지정될 수 있다. 다른 대안의 접근에서는, 타겟을 포함하는 이미지가 병진 및/또는 회전되며 타겟이 재차 표시된다. 다음, 2-방향 투영의 교차점이 2-공간에서의 타겟의 위치를 결정하는데 사용된다. 방향 표시는 카메라, 또는 하나 이상의 무선 송신기, 섀도우 캐스팅 등과 같은 다른 방법으로 입력될 수 있다.
본 발명의 시스템에서, 상기에 참조한 미국 특허 출원 제 09/572,991 호에 개시된 방식의 평면 투영 변환을 사용하지만, 공통 평면 상에 단일의 방향 표시 벡터의 개별적인 평면 투영을 제공하는 두 개의 카메라를 사용하는 대신에, 단일 카메라의 이미지의 좌표가 공지된 평면에 맵핑되어 2차원 보다는 단지 1차원의 좌표 정보만을 제공한다. 예를 들면, 슬라이더 제어와 같은 단일축 제어가 지시 몸짓에 의해 제어될 수 있다. 도로 맵(road map) 상에 도시된 도로 상의 지점이 또한 표시될 수 있다. 또한, 연속적인 몸짓 입력, 즉 표의 열에 대해 하나 행에 대해 하나를 사용하여, 원하는 셀(cell)을 표시할 수 있다. 대안으로서, 장면의 이미지는 스크린 상에 투영될 수 있으며 타겟이 스크린 상에 표시될 수 있다. 다음, 제 1 표시 후에, 장면은 병진 및/또는 회전될 수 있으며 타겟이 재차 지시될 수 있다. 상기 두 개의 지시 표시의 두 개의 평면 투영으로부터, 타겟의 위치가 단순히 두 개의 투영의 교차점을 발견함으로써 유도될 수 있다.
본 발명은 보다 완전한 이해를 위해 하기의 예시적인 도면을 참조하여 특정의 적합한 실시예와 관련하여 설명한다. 도면에 있어서, 도면은 본 발명의 적합한 실시예의 예시 및 도시적인 설명을 위해서만 도시된 것이며, 본 발명의 원리 및 개념적인 양태의 가장 유용하고 용이한 이해를 설명하기 위한 목적으로 제공된 것이다. 이러한 관점에서, 본 발명의 기초적인 이해에 필요한 것 이상으로 본 발명의 구조적 상세를 도시하지 않았으며, 도면과 관련한 상세한 설명으로부터 당 기술 분야의 숙련자들에게는 본 발명의 다수의 형태가 실제로 어떠한 방식으로 실시될 수 있는지는 명백할 것이다.
도 1a는 본 발명의 실시예를 실시하기 위한 지그의 평면도.
도 1b는 도 1a의 지그의 정면도.
도 1c는 도 1a 및 도 1b의 지그의 측면도.
도 2는 본 발명의 실시예에 사용되는 셋업 구조를 도시하는 도면.
도 3 및 도 4는 두 개의 윤곽선 상의 표시된 위치가 지점을 표시하는데 사용되는 셋업 카메라 이미지의 평면 투영 좌표들 사이의 기하학적 관계를 도시하는 도면.
도 5 및 도 6은 두 개의 위치로 이동된 단일의 윤곽선 상의 표시된 위치가 지점을 표시하는데 사용되는 셋업 카메라 이미지의 평면 투영 좌표들 사이의 기하학적 관계를 도시하는 도면.
도 7은 본 발명을 실시하는데 사용될 수 있는 물리적인 구조를 도시하는 도면.
도 1a, 도 1b 및 도 1c를 참조하면, 카메라(150)는 구경(aperture)(155)을 갖는 스크린(135)의 후방의 플랫폼(110)에 지지되어 있다. 카메라(150)는, 상기 카메라(150)가 구경(155)을 통해 장면을 주시하도록 스크린의 전방에 조준 가능하다. 카메라(150)의 조준은 구경(155)의 에지(170)가 그 이미지에 시각 표시 가능하도록 이루어진다. 따라서, 카메라(150)의 시야 영역은 구경(155)에 의해 약간 클립(clip)된다. 장치(200)에서, 스크린(135)의 용도는 구경(155)의 코너부(261 내지 264)의 형태인 4개의 마커를 표시하기 위한 것이며, 이러한 용도에 효과적일 수 있는 임의의 장치가 만족스럽게 사용될 수 있다는 것을 주목해야 한다. 예를 들면 마크 또는 와이어 프레임 대상물을 갖는 투명 유리가 사용될 수 있다. 직사각형 구경(155) 또는 와이어 프레임에 의해 제공된 바와 같은, 코너부에서 인접하 는 직선은, 4개의 코너부의 좌표를 식별하는데 보간법이 사용될 수 있게 하여, 소형 마커의 직접 측정에 대한 좌표 측정의 정밀도를 증가시킨다는 점에서 유리하다.
도 2를 참조하면, 장치(200)는 사용자(30)를 주시하는데 사용되는 위치에 배치되어 있다. 셋업 중에, 카메라(240)는 타겟이 위치될 수 있는 지점의 장소, 예를 들면 스크린(210) 및 장치(200)의 스크린(135)의 4개의 코너부(261 내지 264)가 시야 영역 내에 있는 위치 및 방위에 일시적으로 배치된다. 4개의 부가 지점(221 내지 224)이 또한 스크린(210) 상에 마킹될 수 있다. 4개의 지점(221 내지 224)은 또한 셋업 카메라(240)의 시야 영역에 있다. 단일의 셋업 이미지만이 셋업 카메라(240)에 요구된다. 셋업 이미지는, 카메라(150)의 이미지의 4개의 지점(261 내지 264)이 셋업 카메라(240)의 이미지의 4개의 지점으로 맵핑하는 평면 투영 변환을 계산하는데 사용된다. 이러한 셋업 변환이 계산되면, 카메라(150)의 이미지의 임의의 이미지 좌표를 셋업 카메라(240)의 이미지 좌표로 변환하는데 사용된다. 상기 셋업 카메라(240)의 이미지는 모든 타겟 위치 데이터 또는 그의 이미지가 셋업 변환을 적절하게 변경함으로써 임의의 원하는 평면으로 변환될 수 있다는 사실에 기초한다. 예시적인 실시예에서, 사용자의 눈(236) 및 손가락 끝(235)의 좌표는 카메라(150) 이미지의 좌표로부터 카메라(240) 이미지의 좌표로 변환된다.
사용자(30)가 지시 몸짓을 사용하여 타겟(260)을 가리키는 것이 도시되어 있다. 사람이 타겟(260)과 같은 타겟을 가리키기 위해 사용하는 몸짓은 사용자의 손가락 끝(235), 사용자의 오른쪽(또는 왼쪽) 눈(230), 및 타겟(260)이 직선으로 연결되어 있다는 것이 실험적으로 판명되었다. 이제, 도 3 및 도 4를 참조하면, 스 크린(210)의 평면은 도면 부호 350으로 나타내며, 사용자(30)의 눈(236)과 손가락 끝(235)을 연결하는 선은 도면 부호 330으로 나타낸다. 셋업 카메라(240)의 시야에서의 타겟(260)의 평면 투영은 사용자(30)의 눈(236)과 손가락 끝(235)에 의해 규정된 직선 또는 방향 벡터(330)의 평면 투영을 따라 위치된다. 도면 부호 325로 나타낸 카메라(240)의 초점은 방향 벡터와 함께 평면(320)을 규정한다. 평면(320)과, 타겟이 위치된 평면(350)의 교차점은 방향 벡터(330)의 투영을 규정한다. 타겟(예를 들면, T1)이 예를 들면 수직축 또는 슬라이더 제어부(360)와 같은, 평면(350)의 특정선 또는 윤곽선 상에 위치되어 있는 것으로 공지되면, 타겟 지점은 직선(330)의 평면 투영(310)과 수직축 또는 슬라이더 제어부(360)의 교차점을 발견함으로써 얻어질 수 있다.
도 3 내지 도 4를 계속 참조하면, 평면(350) 상의 임의의 지점을 표시하기 위해, 두 개의 축 또는 슬라이더 제어부(360, 365)가 스크린(210) 상에 연속적으로 투영될 수 있으며, 위치는 예를 들면 수직축 또는 슬라이더 제어부(360) 상의 수직 위치를 먼저 가리키고, 다음 예를 들면 수평축 또는 슬라이더 제어부(365) 상의 수평 위치를 가리킴으로써 표시된다. 이는 행을 지정하고, 다음 열을 지정함으로써 표의 특정 셀을 지정하는 방식과 유사하다.
도 5를 참조하면, 지점은 직선이 아닌 선(460) 상에 지정될 수 있다. 방향 벡터(430)에 대응하는 투영선(410)은 한 지점에서만 곡선 또는 윤곽선(460)을 교차하며, 다음 타겟 지점이 명백하게 결정될 수 있다. 예를 들면, 도로 또는 다른 대상물의 윤곽선 상의 지점의 위치가 이러한 방식으로 지정될 수 있다. 또한, 타겟은 평면(450)에 위치되는 것으로 가정된다.
도 5 및 도 6을 함께 참조하면, 임의의 이미지가 제 1 위치 및 방위로 지정되는 것으로 가정한다. 제 1 위치 및 방위에서, 타겟(473)은 방향 벡터(430)에 의해 표시된다. 표시가 수행되면, 타겟(473)은 방향 벡터(430)의 투영에 의해 지정된 선(410)에 의해 규정된 경로 상에 위치되는 것으로 공지된다. 본 실시예에서, 타겟(473)이 미리 규정된 선 또는 윤곽선(460) 상에 위치하는 것이 요구되는 대신에, 이미지의 위치 및/또는 방위가 변경되며 사용자는 방향 벡터(430)에 의해 표시된 다른 표시를 생성한다. 다음, 제 2 투영선(412)이 평면(450)에 규정된다. 투영선들(410, 412)의 교차점은 타겟(473)의 위치를 표시한다. 물론, 명백하게, 투영선들(410, 412)은 장면에 대해 규정된다.
상술한 실시예에서는, 타겟이 특정 방식(눈-손가락 끝)의 지시 몸짓에 의해 표시되었지만, 이러한 표시는 다른 방식으로 유도될 수도 있다. 예를 들면, 관찰 장치(sighting device) 또는 과녁(wand)이 사용될 수도 있다. 또한, 스크린 상의 타겟 보다는, 타겟은 실질적으로 공통 평면 상에 위치한 임의의 대상물 또는 이미지일 수 있다. 또한, 대상물 또는 타겟은 단일 평면 상에 위치될 필요는 없으며, 각각 표시 마크의 개별 세트를 갖는 다수의 평면 상에 위치될 수 있다. 본 발명은 또한, 타겟이 평면이 아닌 표면에 위치될 수 있도록 다른 변환을 사용함으로써 확장될 수도 있다. 다른 변형예는 방향을 표시하는 몸짓의 방식이다. 이미지의 시계열(time series)이, 방향을 표시하는 이동 몸짓을 유의할 수 있는 짧은 시간 간격에 걸쳐 손 또는 손가락의 움직임(sweep) 방향과 같은 방향을 유도하는데 사용될 수 있다. 또한, 다른 적합한 애플리케이션은 화이트 보드(white-board) 애플리케이션일 수 있다. 또한, 표시 마크는 스크린 상에 마킹될 필요가 없으며, 스크린의 코너부에 위치될 수 있다. 또한, 표시 마크는 셋업 중에 한 지점에서 스크린 상에 투영되고, 그 후 제거될 수 있다. 다음, 표시점 좌표가 셋업이 변경될 때까지 표시 마크를 재차 참조하지 않고 변환을 계산하는데 사용될 수 있다. 이러한 기술의 다른 애플리케이션은 타겟에 카메라를 조준하는데 사용하기 위한 것이다. 기준 이미지의 좌표가 공지되면, 카메라는 타겟을 획득하기 위해 재조준되어 주밍(zoom)될 수 있다. 이는 자동 영상 회의 시스템 분야에서 유용할 수 있다.
이제, 도 7을 참조하면, 본 발명의 응용을 실시하기 위해 사용될 수 있는 장치 및 프로세스가 블록 다이어그램으로 도시되어 있다. 이미지 프로세서(505)는 카메라(501)로부터 이미지 데이터를 수신한다. 이미지 및 좌표 데이터는 메모리(510) 또는 비휘발성 메모리(520)에 저장될 수 있다. 예를 들면, 변환 데이터는, 일단 계산되면, 응용 프로세서(530)에 적용할 수 있는 타겟의 좌표(x,y)를 유도하기 위해 카메라(501)로부터 이미지의 계산에 사용되는 비휘발성 메모리(520) 및 메모리(510)에 저장될 수 있다. 응용 프로세서는 상술한 연속적인 타겟 표시 단계를 실행하기 위해 다수의 이미지 프로세싱 단계를 명령할 수 있다. 타겟이 표시될 때마다, 음성 응답 시스템과 같은 표시기(522)가 사용자의 입력을 표시할 수 있다. 음성 응답 시스템에서, 사용자는 특정 언어 또는 명령을 말함으로써 그의 현재 몸짓이 완료되었음을 표시할 수 있다. 대안으로서, 사용자는 몸짓, 리모트 컨트롤 버튼, 또는 다른 표시기(522)를 사용하여 그의 현재 몸짓이 완료되었음을 표시할 수 있다. 다음, 응용 프로세서(530)는 게임의 아바타에 대한 제어 데이터 또는 화이트 보드 상의 자취와 같은 출력을 출력 장치(540)에 발생시킨다. 평면 투영이 무선 기기에 의해 얻어지는 시스템에서는, RF 검출기(524)가 제공될 수 있다.
카메라(501)에 의해 얻어지는 투영 데이터는 소나(sonar), 무선, 초음파 의료 기기 또는 평면 투영을 형성할 수 있는 임의의 다른 기기와 같은 다른 소스로부터 유도될 수 있다는 것을 주목해야 한다. 또한, 동일한 계산 방법론이 카메라에 의해 얻어지는 방위를 갖는 표시기 이외의 지시 표시기와 관련하여 사용될 수 있다. 예를 들면, 무선 송신기를 갖는 관찰 튜브 또는 건사이트(gun-sight)가 컴퓨터에 의해 얻어져서 스크린 상의 타겟의 위치를 결정하는데 사용될 수 있다. 무선 기반 서판(writing tablet), 네트워크식 화이트 보드 애플리케이션 등에 사용되는 기술이 카메라의 필요성을 전적으로 회피하면서 지시 장치의 방위를 결정하는데 사용될 수 있다. 이러한 장치는 상기에 참조로서 본원에 관련된 미국 특허 출원 제 09/572,991 호에 또한 사용되어 있다.
당 기술 분야의 숙련자들은 본 발명이 상기의 예시적인 실시예들의 상세에 한정되는 것은 아니며, 본 발명이 본 발명의 정신 또는 필수 속성을 벗어나지 않는 다른 특정 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 따라서, 본 발명의 실시예들은 예시적인 것이며 한정적인 것은 아닌 것으로 고려되며, 본 발명의 범주는 상기 설명보다는 청구범위에 의해 표시되며, 따라서 청구범위와 등가의 의미 및 범위 내에서의 모든 변형은 본원에 속하는 것으로 고려된다.

Claims (12)

  1. 타겟의 위치를 결정하는 방법에 있어서:
    - 사용자에 의해 공간에 선의 표시를 생성하는 단계;
    - 공간 내의 상기 선의 미리 규정된 평면 상에의 평면 투영(planar projection)을 제어기에 의해 입력하는 단계; 및
    - 알려진 경로와 상기 평면 투영의 교차점을 상기 제어기에 의해 결정함으로써 상기 미리 규정된 평면에 놓이는 상기 알려진 경로를 따라 위치를 결정하는 단계를 포함하는, 타겟의 위치 결정 방법.
  2. 제 1 항에 있어서, 상기 생성 단계는 인간의 몸짓(human gesture)을 포함하는, 타겟의 위치 결정 방법.
  3. 제 2 항에 있어서, 상기 입력 단계는 카메라를 통해 이미지를 획득하는 단계를 포함하는, 타겟의 위치 결정 방법.
  4. 제 1 항에 있어서, 상기 입력 단계는 평면 투영 변환에 의해 다른 평면으로 카메라 이미지의 평면 투영을 변환하는 단계를 포함하는, 타겟의 위치 결정 방법.
  5. 제 1 항에 있어서, 상기 생성 단계는, 사용자에 의해 지시 장치를 조준하고, 카메라에 의한 이미지 생성(imaging) 및 라디오 수신기에 의한 검출 중 적어도 하나에 의해 상기 지시 장치의 방위(orientation)를 획득하는 단계를 포함하는, 타겟의 위치 결정 방법.
  6. 제 1 항에 있어서, 사용자에 의해 공간에 다른 선의 표시를 생성하고, 상기 미리 규정된 평면 상에 공간 내의 상기 다른 선의 다른 평면 투영을 제어기에 의해 입력하고, 다른 알려진 경로와 상기 다른 평면 투영의 교차점을 상기 제어기에 의해 결정함으로써 상기 미리 규정된 평면에 놓이는 상기 다른 알려진 경로를 따라 다른 위치를 결정하고, 및 상기 교차점들의 위치들로부터 상기 미리 규정된 평면 내의 타겟 지점의 좌표들을 상기 제어기에 의해 계산하는 단계를 더 포함하는, 타겟의 위치 결정 방법.
  7. 제 6 항에 있어서, 상기 계산 단계는 상기 알려진 경로와 상기 다른 알려진 경로의 교차점을 계산하는 단계를 포함하는, 타겟의 위치 결정 방법.
  8. 미리 규정된 평면 상의 타겟의 위치를 결정하는 방법에 있어서:
    - 사용자에 의해 공지된 2 차원 표면 상의 상기 타겟에 조준된 공간에서 제 1 선의 표시를 생성하는 단계;
    - 공간 내의 상기 제 1 선의 제 1 표시를 입력하고, 상기 미리 규정된 평면 상에의 공간 내의 상기 제 1 선의 제 1 평면 투영을 제어기에 의해 결정하는 단계;
    - 상기 평면 상의 상기 타겟의 위치를 상기 제어기에 의해 변경하는 단계;
    - 상기 사용자에 의해 상기 타겟에 조준된 공간에 제 2 선의 표시를 생성하는 단계;
    - 공간 내의 상기 제 2 선의 제 2 표시를 입력하고, 상기 미리 규정된 공간 상에의 공간 내의 상기 제 2 선의 제 2 평면 투영을 상기 제어기에 의해 결정하는 단계; 및
    - 상기 제 1 및 제 2 평면 투영들에 응답하여 상기 타겟의 위치를 상기 제어기에 의해 계산하는 단계를 포함하는, 타겟의 위치 결정 방법.
  9. 제 8 항에 있어서, 상기 변경 단계는, 상기 타겟을 포함하는 장면의 이미지를 투영하고, 일정한 각각의 상대적인 방위들 및 위치들에서 상기 장면 내의 물체들의 관계들을 보존하도록 상기 장면의 상기 이미지를 변경하는 단계를 포함하는, 타겟의 위치 결정 방법.
  10. 타겟의 1 차원 위치를 식별하기 위한 이미지 프로세싱 컴퓨터에 있어서:
    - 이미지들을 수신하기 위해 카메라(501, 524)에 접속 가능한 제어기(530)를 포함하며,
    - 상기 제어기는 미리 규정된 평면(350) 상의 제 1 방향의 상기 이미지들 중 제 1 이미지의 표시(330)의 제 1 평면 투영(310)을 상기 이미지들 중 제 1 이미지로부터 계산하도록 프로그래밍되며,
    - 상기 제어기는 상기 제 1 평면 투영(310)과 상기 미리 규정된 평면에 놓이는 제 1 미리 결정된 선(360)의 제 1 교차점을 계산하도록 더 프로그래밍되며,
    - 상기 제어기는 상기 제 1 교차점(T1)의 표시를 출력하도록 더 프로그래밍되는, 이미지 프로세싱 컴퓨터.
  11. 제 10 항에 있어서, 상기 제어기는 상기 미리 규정된 평면(350)과 일치하는 표면 상에 상기 제 1 미리 결정된 선(310)과 일치하는 이미지를 생성하도록 프로그래밍되는, 이미지 프로세싱 컴퓨터.
  12. 제 10 항에 있어서,
    - 상기 제어기(530)는 상기 미리 규정된 평면(350) 상으로의 제 2 방향의 상기 이미지들 중 제 2 이미지의 표시(330)의 제 2 평면 투영(312)을 상기 이미지들 중 제 2 이미지로부터 계산하도록 프로그래밍되며,
    - 상기 제어기는 상기 제 2 평면 투영(312)과 상기 미리 규정된 평면에 놓이는 제 2 미리 결정된 선(365)의 제 2 교차점(T2)을 계산하도록 프로그래밍되며,
    - 상기 제어기는 상기 제 1 및 제 2 교차점들(T1, T2)에 응답하여 타겟 위치를 계산하도록 프로그래밍되며,
    상기 제 1 교차점의 상기 표시는 상기 타겟 위치를 포함하는, 이미지 프로세싱 컴퓨터.
KR1020027012389A 2001-01-22 2001-12-17 몸짓 기반 입력 및 타겟 표시용 단일 카메라 시스템 KR100878127B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/766,710 2001-01-22
US09/766,710 US6600475B2 (en) 2001-01-22 2001-01-22 Single camera system for gesture-based input and target indication

Publications (2)

Publication Number Publication Date
KR20020086931A KR20020086931A (ko) 2002-11-20
KR100878127B1 true KR100878127B1 (ko) 2009-01-14

Family

ID=25077269

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020027012389A KR100878127B1 (ko) 2001-01-22 2001-12-17 몸짓 기반 입력 및 타겟 표시용 단일 카메라 시스템

Country Status (8)

Country Link
US (1) US6600475B2 (ko)
EP (1) EP1629366B1 (ko)
JP (1) JP4278979B2 (ko)
KR (1) KR100878127B1 (ko)
CN (1) CN1307510C (ko)
AT (1) ATE447735T1 (ko)
DE (1) DE60140387D1 (ko)
WO (1) WO2002057894A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9700788B2 (en) 2011-04-22 2017-07-11 Samsung Electronics Co., Ltd. Video object detecting apparatus, video object deforming apparatus, and methods thereof

Families Citing this family (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US6943774B2 (en) * 2001-04-02 2005-09-13 Matsushita Electric Industrial Co., Ltd. Portable communication terminal, information display device, control input device and control input method
JP3811025B2 (ja) * 2001-07-03 2006-08-16 株式会社日立製作所 ネットワーク・システム
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7038661B2 (en) * 2003-06-13 2006-05-02 Microsoft Corporation Pointing device and cursor for use in intelligent computing environments
GB2407635B (en) * 2003-10-31 2006-07-12 Hewlett Packard Development Co Improvements in and relating to camera control
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US7969409B2 (en) * 2004-02-18 2011-06-28 Rafal Jan Krepec Camera assisted pen tablet
JP4566596B2 (ja) * 2004-03-29 2010-10-20 アルパイン株式会社 操作指示装置
US20050227217A1 (en) * 2004-03-31 2005-10-13 Wilson Andrew D Template matching on interactive surface
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US20060098900A1 (en) 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
WO2008028674A2 (en) 2006-09-08 2008-03-13 Exbiblio B.V. Optical scanners, such as hand-held optical scanners
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US7394459B2 (en) 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7893920B2 (en) * 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
US7338449B2 (en) * 2004-05-25 2008-03-04 Siemens Medical Solutions Usa, Inc. Three dimensional locator for diagnostic ultrasound or medical imaging
US7787706B2 (en) * 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7593593B2 (en) * 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
US8560972B2 (en) 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US20060072009A1 (en) * 2004-10-01 2006-04-06 International Business Machines Corporation Flexible interaction-based computer interfacing using visible artifacts
KR100663515B1 (ko) * 2004-11-08 2007-01-02 삼성전자주식회사 휴대 단말 장치 및 이를 위한 데이터 입력 방법
US7864159B2 (en) 2005-01-12 2011-01-04 Thinkoptics, Inc. Handheld vision based absolute pointing system
KR100724939B1 (ko) * 2005-06-20 2007-06-04 삼성전자주식회사 카메라부를 이용한 유저 인터페이스 구현 방법 및 이를위한 이동통신단말기
US20070018966A1 (en) * 2005-07-25 2007-01-25 Blythe Michael M Predicted object location
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US8060840B2 (en) 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface
US7984995B2 (en) * 2006-05-24 2011-07-26 Smart Technologies Ulc Method and apparatus for inhibiting a subject's eyes from being exposed to projected light
US8913003B2 (en) 2006-07-17 2014-12-16 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer using a projection marker system
US7907117B2 (en) * 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
US7770115B2 (en) * 2006-11-07 2010-08-03 Polycom, Inc. System and method for controlling presentations and videoconferences using hand motions
US20110025818A1 (en) * 2006-11-07 2011-02-03 Jonathan Gallmeier System and Method for Controlling Presentations and Videoconferences Using Hand Motions
JP4171039B2 (ja) 2006-12-22 2008-10-22 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4171040B2 (ja) * 2006-12-22 2008-10-22 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
US8212857B2 (en) * 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
US9176598B2 (en) 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
TW200919336A (en) * 2007-10-25 2009-05-01 Ind Tech Res Inst Method for positioning a non-structural object in a series of continuing images
US9171454B2 (en) * 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
WO2009089045A1 (en) * 2008-01-08 2009-07-16 Kessler Jonathan A Image based interaction and communication method
US8847739B2 (en) * 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US8305345B2 (en) * 2008-08-07 2012-11-06 Life Technologies Co., Ltd. Multimedia playing device
WO2010022386A2 (en) * 2008-08-22 2010-02-25 Google Inc. Navigation in a three dimensional environment on a mobile device
US20100105479A1 (en) 2008-10-23 2010-04-29 Microsoft Corporation Determining orientation in an external reference frame
WO2010096193A2 (en) 2009-02-18 2010-08-26 Exbiblio B.V. Identifying a document by performing spectral analysis on the contents of the document
WO2010105244A2 (en) 2009-03-12 2010-09-16 Exbiblio B.V. Performing actions based on capturing information from rendered documents, such as documents under copyright
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8547327B2 (en) 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
US9406212B2 (en) 2010-04-01 2016-08-02 Sealed Air Corporation (Us) Automated monitoring and control of contamination activity in a production area
US9189949B2 (en) 2010-12-09 2015-11-17 Sealed Air Corporation (Us) Automated monitoring and control of contamination in a production area
US9143843B2 (en) 2010-12-09 2015-09-22 Sealed Air Corporation Automated monitoring and control of safety in a production area
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8649592B2 (en) 2010-08-30 2014-02-11 University Of Illinois At Urbana-Champaign System for background subtraction with 3D camera
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US9011607B2 (en) 2010-10-07 2015-04-21 Sealed Air Corporation (Us) Automated monitoring and control of cleaning in a production area
US20120095575A1 (en) * 2010-10-14 2012-04-19 Cedes Safety & Automation Ag Time of flight (tof) human machine interface (hmi)
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US8928589B2 (en) * 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
US9317130B2 (en) 2011-06-16 2016-04-19 Rafal Jan Krepec Visual feedback by identifying anatomical features of a hand
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9336456B2 (en) 2012-01-25 2016-05-10 Bruno Delean Systems, methods and computer program products for identifying objects in video data
US20130204408A1 (en) * 2012-02-06 2013-08-08 Honeywell International Inc. System for controlling home automation system using body movements
CN103294173A (zh) * 2012-02-24 2013-09-11 冠捷投资有限公司 基于使用者动作的遥控系统及其方法
WO2013136333A1 (en) 2012-03-13 2013-09-19 Eyesight Mobile Technologies Ltd. Touch free user interface
KR101533320B1 (ko) * 2012-04-23 2015-07-03 주식회사 브이터치 포인터가 불필요한 3차원 객체 정보 획득 장치
CN103873760B (zh) * 2012-12-17 2017-12-26 联想(北京)有限公司 一种对焦点调整方法及电子设备
TWI486820B (zh) * 2012-12-28 2015-06-01 Wistron Corp 用於互動系統之座標轉換方法及電腦系統
US8933882B2 (en) * 2012-12-31 2015-01-13 Intentive Inc. User centric interface for interaction with visual display that recognizes user intentions
US9141198B2 (en) * 2013-01-08 2015-09-22 Infineon Technologies Ag Control of a control parameter by gesture recognition
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
JP6171452B2 (ja) * 2013-03-25 2017-08-02 セイコーエプソン株式会社 画像処理装置、プロジェクターおよび画像処理方法
TWI563818B (en) * 2013-05-24 2016-12-21 Univ Central Taiwan Sci & Tech Three dimension contactless controllable glasses-like cell phone
KR20220136517A (ko) 2013-06-27 2022-10-07 아이사이트 모빌 테크놀로지 엘티디 디지털 디바이스와 상호작용을 위한 다이렉트 포인팅 검출 시스템 및 방법
US20160196042A1 (en) 2013-09-17 2016-07-07 Koninklijke Philips N.V. Gesture enabled simultaneous selection of range and value
KR101533319B1 (ko) * 2014-02-22 2015-07-03 주식회사 브이터치 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법
CN104978012B (zh) 2014-04-03 2018-03-16 华为技术有限公司 一种指向交互方法、装置及系统
KR101453815B1 (ko) 2014-08-01 2014-10-22 스타십벤딩머신 주식회사 사용자의 시점을 고려하여 동작인식하는 인터페이스 제공방법 및 제공장치
DE102015201728A1 (de) * 2015-02-02 2016-08-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Auswählen eines Bedienelements eines Kraftfahrzeugs und Bediensystem für ein Kraftfahrzeug
WO2016200197A1 (ko) * 2015-06-10 2016-12-15 (주)브이터치 사용자 기준 공간좌표계 상에서의 제스처 검출 방법 및 장치
US10216262B1 (en) * 2015-08-22 2019-02-26 Bertec Corporation Force management system that includes a force measurement assembly, a visual display device, and one or more data processing devices
US11301045B1 (en) 2015-08-22 2022-04-12 Bertec Corporation Measurement system that includes at least one measurement assembly, a visual display device, and at least one data processing device
US10390736B1 (en) 2015-08-22 2019-08-27 Bertec Corporation Force measurement system that includes a force measurement assembly, at least one visual display device, and one or more data processing devices
US10860843B1 (en) 2015-08-22 2020-12-08 Bertec Corporation Measurement system that includes at least one measurement assembly, a head-mounted visual display device, and a data processing device
US10555688B1 (en) 2015-08-22 2020-02-11 Bertec Corporation Measurement system that includes at least one measurement assembly, a head-mounted visual display device, and a data processing device
TWI553509B (zh) * 2015-10-30 2016-10-11 鴻海精密工業股份有限公司 手勢控制系統及方法
US11604517B2 (en) * 2016-09-02 2023-03-14 Rakuten Group, Inc. Information processing device, information processing method for a gesture control user interface
CN107346175B (zh) * 2017-06-30 2020-08-25 联想(北京)有限公司 一种手势位置校正方法和增强现实显示设备
CN110554784B (zh) * 2018-05-31 2023-07-14 广东虚拟现实科技有限公司 输入方法、装置、显示设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999032959A2 (en) * 1997-12-22 1999-07-01 Koninklijke Philips Electronics N.V. Method and system for gesture based option selection

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2695745B1 (fr) 1992-09-15 1994-10-28 Sextant Avionique Procédé de dialogue gestuel multimode dans un environnement virtuel.
FR2696574B1 (fr) 1992-10-06 1994-11-18 Sextant Avionique Procédé et dispositif d'analyse d'un message fourni par des moyens d'interaction à un système de dialogue homme-machine.
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
JP3267047B2 (ja) 1994-04-25 2002-03-18 株式会社日立製作所 音声による情報処理装置
JP3270643B2 (ja) * 1994-12-22 2002-04-02 キヤノン株式会社 指示位置検出方法及び装置
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
KR19990008158A (ko) 1995-04-28 1999-01-25 모리시타요우이치 인터페이스 장치
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
US6353764B1 (en) 1997-11-27 2002-03-05 Matsushita Electric Industrial Co., Ltd. Control method
DE19845028A1 (de) 1998-09-30 2000-06-08 Siemens Ag Magnetresonanz (MR)-System
US6147678A (en) * 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
DE60133386T2 (de) 2000-05-17 2009-04-02 Koninklijke Philips Electronics N.V. Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999032959A2 (en) * 1997-12-22 1999-07-01 Koninklijke Philips Electronics N.V. Method and system for gesture based option selection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9700788B2 (en) 2011-04-22 2017-07-11 Samsung Electronics Co., Ltd. Video object detecting apparatus, video object deforming apparatus, and methods thereof

Also Published As

Publication number Publication date
ATE447735T1 (de) 2009-11-15
US6600475B2 (en) 2003-07-29
KR20020086931A (ko) 2002-11-20
JP2004522220A (ja) 2004-07-22
JP4278979B2 (ja) 2009-06-17
WO2002057894A2 (en) 2002-07-25
CN1307510C (zh) 2007-03-28
CN1636178A (zh) 2005-07-06
EP1629366B1 (en) 2009-11-04
DE60140387D1 (de) 2009-12-17
WO2002057894A3 (en) 2007-11-08
US20020097218A1 (en) 2002-07-25
EP1629366A2 (en) 2006-03-01

Similar Documents

Publication Publication Date Title
KR100878127B1 (ko) 몸짓 기반 입력 및 타겟 표시용 단일 카메라 시스템
KR100869447B1 (ko) 3차원 모델링 없이 이미지 처리에 의해 타겟을 지시하는 장치 및 방법
US9001208B2 (en) Imaging sensor based multi-dimensional remote controller with multiple input mode
US8872762B2 (en) Three dimensional user interface cursor control
EP3283938B1 (en) Gesture interface
US20210112181A1 (en) Image processing device, image processing method, and recording medium
US8593402B2 (en) Spatial-input-based cursor projection systems and methods
WO2013035758A1 (ja) 情報表示システム、情報表示方法、及び記憶媒体
TWI408587B (zh) 觸控系統及其定位方法
CN102508578B (zh) 投影定位装置及方法、交互系统和交互方法
JP2002172575A (ja) 教示装置
JP2002092647A (ja) 情報呈示システム及びモデル誤差検出システム
JP2003270719A (ja) 投影方法、投影装置、作業支援方法及び作業支援システム
JP2007064684A (ja) マーカ配置補助方法及び装置
JP4593172B2 (ja) カメラ制御装置
JP2002324239A (ja) 情報呈示システム
JPH07160412A (ja) 指示位置検出方法
JP7279975B2 (ja) 2次元カメラを利用して客体制御を支援する方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体
KR100601001B1 (ko) 자이로와 초음파를 이용한 컴퓨터 입력장치
US20160011675A1 (en) Absolute Position 3D Pointing using Light Tracking and Relative Position Detection
US11995254B2 (en) Methods, devices, apparatuses, and storage media for mapping mouse models for computer mouses
US20230325009A1 (en) Methods, devices, apparatuses, and storage media for mapping mouse models for computer mouses
WO2023054661A1 (ja) 注視位置分析システム及び注視位置分析方法
JP2018037766A (ja) 映像編集装置、映像編集方法及び映像編集用コンピュータプログラム
CN116075800A (zh) 用于向用户输入提供反馈的方法和设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130107

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140107

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20141229

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151230

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170109

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20171229

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190107

Year of fee payment: 11