KR20020031188A - 화상회의, 기타 카메라에 기반한 시스템 애플리케이션들에있어서의 지시 방향 교정 - Google Patents

화상회의, 기타 카메라에 기반한 시스템 애플리케이션들에있어서의 지시 방향 교정 Download PDF

Info

Publication number
KR20020031188A
KR20020031188A KR1020027003317A KR20027003317A KR20020031188A KR 20020031188 A KR20020031188 A KR 20020031188A KR 1020027003317 A KR1020027003317 A KR 1020027003317A KR 20027003317 A KR20027003317 A KR 20027003317A KR 20020031188 A KR20020031188 A KR 20020031188A
Authority
KR
South Korea
Prior art keywords
user
calibration
points
directed direction
camera
Prior art date
Application number
KR1020027003317A
Other languages
English (en)
Inventor
미로슬라브 트라코비크
Original Assignee
요트.게.아. 롤페즈
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 요트.게.아. 롤페즈, 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 요트.게.아. 롤페즈
Publication of KR20020031188A publication Critical patent/KR20020031188A/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Abstract

카메라에 기반한 시스템은 주어진 시스템 사용자에 대하여 시스템내에서 사용자가 지시하는 방식을 특징짓는 교정 정보를 결정하기 위한 교정 절차를 수행한다. 시스템은 사용자로 하여금 디스플레이 상의 다른 위치들에 있는 둘 또는 그이상의 점들의 집합에 있는 각각의 점을 분리하여 지시하도록 명령한다. 시스템은 그 다음에 사용자에 의해서 지시된 점들 각각에 대하여 시스템의 한 세트의 카메라들에 있는 각각의 카메라에 의해 생성되는 이미지에 있는 사용자의 지시 손가락의 위치를 검출한다. 그리고나서 그 점들 각각에 대하여 지시 손가락의 위치와 이에 대응하는 디스플레이 상의 점은 하나의 선을 특정한다. 그 점들과 관련된 선들은 그리고나서 기준점 또는 사용자에 대한 다른 지시 방향 교정 정보를 계산하는 데 사용된다. 사용자에 대한 교정 정보는 사용자 식별 정보와 함께 시스템의 데이터 베이스에 저장될 것이다. 그리고 사용자에 대한 일련의 지시 방향 결정들에 사용된다.

Description

화상 회의, 기타 카메라에 기반한 시스템 애플리케이션들에 있어서의 지시 방향 교정{Pointing direction calibration in video conferencing and other camera-based system applications}
발명의 배경
전통적인 화상 회의 시스템들과 기타 이미 알려진 카메라에 기반한 시스템들에서, 이미지 신호 처리 기술을 사용할 경우에 특정 참가자(particular participant)가 지시하는 방향을 결정하는 것이 바람직하다. 예를 들어, 참가자들은 화이트보드, 프레젠테이션 디스플레이, 물체, 또는 다른 로컬 참가자(local participant)를 지시할 것이다. 그러한 또는 다른 경우들에 그 시스템은 원거리 참가자들에게 보여질 수 있도록, 지시된 디스플레이, 물체 또는 참가자를 카메라의 시계(視界)로 가져오기 위해 지시 방향(the direction of pointing)을 사용한다.
화상회의와 기타 애플리케이션들에서 지시 방향 결정에 있어서의 문제점은각기 다른 사람들은 각기 다른 지시 방법을 가지고 있을 것이라는 점이다. 예를 들어, 어떤 사람들은 사용자의 팔이 희망 목표점(desired target point)과 교차하는 방법으로 지시할 것이다. 그러나 다른 어떤 사람들은 주로 손가락과 오른쪽 또는 왼쪽 눈과 같은 기준점(reference point)을 사용하여 지시할 것이다. 전자의 경우에, 팔의 방향은 그 사람이 가리키는 곳이 어디인지 정확하게 결정하는 데에 불충분할 수 있다. 모든 사용자들의 지시 메커니즘을 특정하기 위해 동일한 모델을 사용하는 것은 따라서 지시 방향의 결정에 있어서 부정확을 불러올 수 있다.
사용자 지시 방향 결정(determination of user pointing direction)을 포함하는 전통적인 카메라에 기반한 시스템의 예가 "핸드 포인팅 장치"("Hand Pointing Apparatus")라는 제목으로 1999년 5월 6일 공개된 유럽 특허 출원 번호 EP913790 A1에 기술되어 있다. 이 시스템은 사용자에 의해 지시되고 있는 가상 3차원 공간상의 특정 위치를 결정하기 위해 서로 다른 방향들로 맞추어진 한 세트의 비디오 카메라로부터 얻어진 이미지들을 처리한다. 그러나 이 시스템, 또는 이와 유사한 다른 전통적인 시스템들은 지정된 사용자의 지시 방식을 결정하기 위한 교정 기술을 제공하지는 않는다. 따라서 그 시스템은 모든 사용자들이 똑같은 방식으로 지시한다는 가정을 할 경우에 일어날 수 있는, 위에서 언급된 부정확성들로부터 어려움을 겪을지도 모른다.
따라서 개인 사용자의 특정 지시 방식을 결정할 수 있는 교정 기술이 필요하다는 것은 명백하다. 그렇게 하므로 해서 사용자가 디스플레이, 물체 또는 다른 사용자를 가리킬 경우에 그 시스템은 더욱 정확하게 지시 방향을 결정할 수 있다.
발명의 분야
본 발명은 일반적으로는 이미지 신호 처리(image signal processing) 분야에 관련된 것이며, 특히 화상 회의와 기타 카메라에 기반한 시스템 애플리케이션들에 사용되는 교정 기술들(calibration techniques)에 관련된 것이다.
도면들의 간단한 설명
도1은 본 발명에 있어서 지시 방향 교정을 포함하는 카메라에 기반한 시스템의 실시예를 보여준다.
도2는 도1의 카메라에 기반한 시스템에서 사용되어질 수 있는 예시 프로세싱 시스템의 블록 다이아그램이다.
도3은 본 발명에 있어서 지시 방향 교정 절차의 예를 예시하는 흐름도이다.
발명의 요약
본 발명은 카메라에 기반한 시스템에 있어서, 개인 사용자가 지시하는 방식을 특정하는 교정 정보를 결정하기 위하여 사용될 수 있는 교정 기술을 제공한다. 교정 정보의 결정은 이후 일련의 지시 방향 결정에 사용되어 진다. 그리고 교정 정보의 결정은 그 교정이 없었다면 가능했을 것보다 지시 방향 결정이 더 정확하게 될 것을 확실히 한다.
본 발명에 있어서, 카메라에 기반한 시스템은 사용자가 디스플레이 상의 다른 위치들에 있는 둘 또는 그 이상의 점들의 집합에 있는 각각의 점을 분리하여 지시하도록 명령한다. 그 점들은 디스플레이상의 서로 다른 위치들에 연속적으로 또는 동시에 디스플레이되는 아이콘들의 형태가 될 것이다. 그 시스템은 사용자에 의하여 지시되어진 점들 각각에 대하여, 그 시스템의 카메라들의 집합에 있는 각각의 카메라에 의해 생성된 이미지에 있는 사용자의 지시 손가락의 위치를 검출한다. 그렇게 함으로써 그 점들 각각에 대하여 지시 손가락의 위치와 그에 대응되는 디스플레이상의 점은 하나의 선을 특정한다. 그 점들과 관련된 선들은 기준점 계산, 또는 그 사용자를 위한 다른 지시 방향 교정 정보를 계산하는 데에 사용되어 진다. 예를 들면, 기준점은 계산된 선들의 교점으로써 결정될 수 있다. 사용자를 대한 교정 정보는 시스템의 데이타베이스에 사용자 식별 정보와 함께 저장될 수 있다. 그리고 이러한 교정 정보는 그 사용자에 대한 추후 지시 방향 결정들에 사용되어 질 수 있다.
한 가지 실시예에서, 그 시스템은 적어도 두개의 카메라를 포함하고 있고 첫번째와 두번째 카메라에 의해서 생성된 이미지 둘모두에서 사용자의 지시 손가락 위치를 결정한다.
본 발명의 기술들은 카메라에 기반한 시스템들, 가령, 화상 회의 시스템들, 비디오 감시 및 모니터링 시스템들, 그리고 인간-기계 인터페이스들(human-machine interfaces)을 포함하는 많은 종류의 다양한 이미지 처리 에플리케이션들에서 사용될 수 있다. 본 발명의 이러한 그리고 다른 특징들과 잇점들은 첨부된 도면들과 다음의 상세한 설명으로부터 더 자명해 질 것이다.
발명의 상세한 설명
도1은 본 발명의 실시예로서, 카메라에 기반한 시스템(100)을 보여준다. 카메라에 기반한 시스템(100)은 프로세싱 시스템(processing system)(102), 한쌍의 카메라(104-1, 104-2), 그리고 스크린에 기반한 디스플레이(106)를 포함한다. 이하에서 더 세부적으로 기술되다시피 프로세싱 시스템(102)은 카메라들(104-1, 104-2)과 디스플레이(106)를 제어한다.
카메라들(104-1, 104-2)은 예를 들어, 팬-틸트-줌(pan-tilt-zoom, PTZ)카메라, 줌(zoom)카메라, 또는 기타 다른 적당한 이미지 캡처 디바이스(image capture device)가 될 수 있다. 여기서 사용되는 "카메라"라는 용어는 일종의 이미지 캡처 디바이스를 포함하는 것으로 의도된다.
도1에서, 사용자(110)는 디스플레이(106)의 프레젠테이션 스크린(presentation screen)상의 점P를 향해 손가락(112)을 지시함으로써 시스템(100)과 상호작용하는 것으로 보여지고 있다. 사용자의 머리에 있는 기준점(116)과 사용자가 손가락(112)으로 지시하는 점P 사이에 하나의 선(114)이 만들어진다. 그림에서 표현되다시피 손가락 끝(112)은 또한 기준선(reference line)(114)상에 위치한다.
실시예에서, 본 발명은 그 시스템(100)의 각각의 사용자에 대하여, 기준점 116과 같은 특정 기준점을 결정하는 "인간 지시"(person pointing) 교정 과정을 제공한다. 기준점은 일반적으로 사용자 위, 또는 사용자와 관련된 특정 점, 즉, 사용자의 좌측 또는 우측 눈, 양눈 사이의 점, 그리고 머리 위의 또 다른 점등에 대응된다. 다행스럽게도, 지정된 사용자에 대해 결정된 기준점은 그 사용자에 대한 지시 방향 교정을 제공하고, 이후에 그 사용자에 대한 일련의 지시 방향 결정들의 정확성 개선을 위해 사용되어질 수 있다.
도1의 카메라에 기반한 시스템(100)은 많은 상이한 이미지 처리 애플리케이션들, 즉, 화상 회의, 비디오 감시(video surveillance), 휴먼-머신 인터페이스들(human-machine interfaces)등을 포함하는 애플리케이션들의 사용을 위해 개조될 수 있다. 더 일반적으로, 상기 시스템(100)은 본 발명에 의해 제공되는 개선된 지시 방향 결정 능력들로부터 이득을 얻을 수 있는 어떤 애플리케이션에서도 사용될 수 있다.
카메라에 기반한 시스템(100)에서의 프로세싱 시스템(102)은 여기에서 기술된 인간 지시 교정 과정들을 수행할 수 있는 컴퓨터, 한 세트의 컴퓨터들, 또는 하드웨어, 소프트웨어, 펌웨어(firmware) 요소들의 다른 어떤 배열로써 구현될 수 있다.
도2는 프로세싱 시스템(102)의 가능한 한가지 구현을 보여준다. 이 구현에서, 프로세싱 시스템(102)은 버스(bus)(124)를 통해 의사 소통을 하도록 연결된 프로세서(processor)(120)와 메모리(memory)(122)를 포함한다. 또한 버스(124)에는 데이터베이스(database)(126), 카메라 인터페이스(camera interface)(130), 디스플레이 드라이버(display driver)(132), 그리고 커멘드 인터페이스(command interface)(134)등이 연결되어 있다.
프로세서(120)는 본 발명의 교정 과정을 수행하기 위해 메모리(122)에 저장된 소프트웨어를 실행한다. 프로세서(120)는 가령, 마이크로프로세서, 중앙처리장치(CPU), 마이크로콘트롤러, 디지털시그날프로세서(DSP), Application-specific integrated circuit(ASIC), 또는 다른 타입의 프로세싱 디바이스 및 그러한 장치들의 일부들 또는 조합들을 대표한다.
메모리(122)는 전자 메모리(electronic memory), 광학 또는 자기 디스크에 기반한 메모리(optical or magnetic disk-based memory), 또는 테이프에 기반한 메모리(tape-based memory), 및 이러한 그리고 다른 타입들의 저장 장치들의 조합들 또는 부분들을 대표한다. 데이터베이스(126)는 메모리(122)와 비슷한 방식으로 구현될 것이다. 비록 도2에서 메모리와 별개 요소로 보여지고 있지만, 메모리(122)의 부분으로 구현될 수도 있을 것이다.
카메라 인터페이스(130)는 좌우 회전, 상하 회전, 줌(zoom) 제어 신호들과 같은 제어 신호들을 카메라들(104-1, 104-2)에 제공한다. 카메라 인터페이스(130)는 또한 카메라들(104-1, 104-2)로부터 비디오 신호들을 수신한다. 그리고 그러한 신호들을 뒤따르는 처리에 적합한 형태로 만들기 위한 처리를 한다. 예를 들어, 카메라들(104-1, 104-2)로부터의 아날로그 비디오 신호들은 카메라 인터페이스(130)에서 대응하는 디지탈 비디오 신호들로 변환될 것이다.
디스플레이 드라이버(132)는 프로세서(120)로부터 수신된 명령들 또는 다른 신호들에 반응하여 디스플레이(106)상의 프레젠테이션을 위한 적합한 신호들을 제공한다. 예를 들어, 도3의 흐름도와 관련하여 이하에서 기술되는 바와 같이, 프로세서(120)의 감독하에 있는 디스플레이 드라이버(132)는 신호들을 디스플레이에 보낸다. 그렇게 함으로해서 다른 아이콘들이 특정한 순서로 디스플레이 스크린 상의 서로 다른 점들에 표시되고 디스플레이 드라이버는 교정 과정을 거치면서 사용자를 지시한다.
커멘드 인터페이스(134)는 카메라에 기반한 시스템(100)의 작동을 바람직한방법으로 감독하기위하여 사용자가 입력 명령들(input commands)을 프로세싱 시스템(102)에 제공하는 것을 허용한다. 또한 커멘드 인터페이스(134)는 시스템에 의해서 요구되는 정보에 대한 적합한 프롬프트들(suitable prompts)을 사용자에게 전달하기위해서 사용된다. 예를 들면, 커멘드 인터페이스(134)는 사용자로하여금 어떤 액션들을 취하거나 또는 어떤 명령들을 입력하도록 지시하는 음성 발생기(speech generator)와 사용자로부터 유출된 음성 명령들을 검출하는 음성 검출기(speech detector)를 포함한다. 커멘드 인터페이스(134)는 또한 사용자가 가지고 있는 원거리 제어 디바이스(remote control device)를 가지고 통신할 수 있도록 만들어 진다. 그렇게 함으로써 사용자는, 예를 들어, 디스플레이 스크린 상에 나타난 프롬프트들(prompts)에 반응하여 원격 제어를 통해 명령들을 입력할 수 있다. 또한 다른 타입의 명령들도 사용되어질 수 있다.
프로세싱 시스템(102)의 구성요소들 또는 구성요소들의 그룹들은 다른 전통적인 데스크탑 또는 휴대용 컴퓨터의 대응되는 요소들은 물론, 여러가지 프로세싱 디바이스들의 대응되는 부분들 또는 조합들을 대표한다. 더우기, 본발명의 다른 구현들에서, 프로세서(120), 메모리(122), 또는 다른 프로세싱 시스템(102)의 구성요소들의 기능들중의 일부 또는 전부가 단일 디바이스로 결합될 수도 있다. 예를 들면, 프로세싱 시스템(102)의 구성요소들의 하나 또는 그이상이 ASIC 또는 회로 카드(circuit card)로 구현되어서 컴퓨터, 텔레비젼, 셋톱 박스, 또는 다른 프로세싱 디바이스에 내장되어질 수 있다.
도3은 본 발명의 실시예에 따른 인간 지시 교정 절차의 흐름도(flowdiagram)이다. 단계 150에서, 주어진 사용자는 교정 및 저장 절차, 즉 여기서는 간단히 교정 절차(calibration procedure)이라고 일컬어지는 절차를 시작하기 위하여 시스템에 명령(command)을 준다. 예를 들어, 사용자는 그러한 명령을 음성으로, 원격 제어 디바이스상의 버튼 조작으로, 또는 어떤 다른 적합한 메커니즘을 통해서 입력할 수 있다. 그러한 명령은 디스플레이 스크린상 또는 청각적으로 인식할 수 있는 메커니즘을 통해서 사용자에게 주어지는 시스템 프롬프트(system prompt)에 반응하여 주어질 수 있다.
단계152에서 시스템(100)은 사용자의 얼굴을 각각의 카메라들(104-1, 104-2)에 의해 생성되는 하나 또는 그 이상의 이미지들로 위치시킨다. 그리고 그것으로부터 사용자 식별 정보(user-identifying information)를 유도 한다. 이러한 정보는 카메라들(104-1, 104-2)로부터 생성된 이미지들로부터 유도된 사용자의 어떤 얼굴 특성들을 포함한다. 그리고, 키, 눈의 색깔 또는 위치, 전자기장(electromagnetic field)등과 같은 별도의 생체 측정 정보들(biometric informations)이 보충되어질 수 있다. 도1,2에 보여지지는 않았지만, 기술계에서 잘 알려진 다른 디바이스들이 이러한 사용자 식별 정보의 집합에 사용되어질 수 있을 것이다. 그외에도, 많은 다른 타입들의 기술들이 정해진 사용자를 시스템에서 식별하는데 사용되어질 수 있을 것이다.
그리고나서, 시스템(100)은 교정 정보가, 예를 들면, 프로세싱 시스템(102)의 데이터베이스(126)와 같은 특정된 교정 데이터베이스에서 그 식별되어진 사용자들에 대해서 이미 저장되었는지 여부를 결정하기위해 체크한다. 만일 이미 저장된경우라면, 그 사용자에 대한 교정 절차를 실행할 필요는 없다. 따라서 시스템(100)은 지금 현재 시스템과 상호작용하고 있는 정해진 사용자가 이전에 교정 절차를 이미 수행하였는지 여부를 자동적으로 인식하도록 만들어진다. 반면에, 만일 사용자가 이미 시스템과 교정 절차를 실행하지 않았다면, 사용자로하여금 교정 명령을 입력하도록 명령하는 지시명령어에 반응하여, 사용자는 단계150에서 명령을 입력할 수 있다.
만일 교정 정보가 그 사용자에 대하여 이미 저장되지 않았다면, 사용자 식별정보는 프로세싱 시스템(102)의 데이터베이스(126)에 저장된다. 데이터베이스(126)는 그래서 그 시스템(100)의 사용자들 각각에 대한 저장된 사용자 식별 정보의 집합들을 포함한다. 정해진 사용자에 대한 도3의 처리 결과로서 생성된 교정 정보는 그 사용자에 대한 식별 정보와 함께 저장될 것이다.
단계154에서 시스템(100)은 디스플레이(106)의 디스플레이 스크린을 통해서 사용자에게 일련의 아이콘들을 디스플레이한다. 각각의 아이콘들은 스크린 상의 서로 다른 점들에 대응한다. 그리고 그 아이콘들은 한번에 하나씩, 또는 한 그룹으로 디스플레이 될 수 있다. 예를 들면, 디스플레이 스크린의 중앙에 하나, 디스플레이 스크린의 각 코너에 각각 하나씩 총 5개의 아이콘들이 있을 수 있다. 많은 다른 아이콘들의 배열들이 또한 사용될 수도 있다.
각각의 디스플레이된 아이콘에 대하여, 사용자는 그 아이콘을 지시하도록 명령된다. 그리고, 사용자가 지금 지정된 아이콘을 지시하고 있다는 것을 나타내는 피드백(feedback)을 시스템에 제공하도록 명령된다. 예를 들면, 시스템은 사용자가그 아이콘을 지시하도록 명령하는 인스트럭션들(instructions)과 함께 디스플레이 스크린상의 특정 아이콘을 강조(highlight)하거나 디스플레이한다. 또다른 예로서 인스트럭션들이 생성된 음성 출력(generated speech output)으로서 주어질 수도 있다. 사용자는 음성 명령들, 또는 다른 적합한 입력 메커니즘들, 가령 원격 제어 디바이스상의 버튼을 조정하므로 해서 피드백을 시스템에 제공할 수 있다.
또한 단계154에서 보여지다시피, 시스템(100)은 각각의 아이콘들에 대해서 사용자의 지시 손가락(pointing finger)을 카메라들(104-1, 104-2)에 의해서 생성되는 이미지들에 위치시킨다. 전통적인 이미지 처리 기술들이 지시 손가락을 위치시키는 데 사용될 수 있다. 이러한 기술들은 기술 분야에서 잘 이해되어진다. 따라서 여기에서는 자세하게 기술되지는 않는다. 일단 지시 손가락이 카메라들(104-1, 104-2) 각각에 의해 생성되는 이미지에 위치되어지면, 시스템은 디스플레이 스크린의 평면의 위치, 카메라들의 위치들, 카메라들의 촛점 거리들 등에 대한 그 시스템의 지식을 사용하여 지시 손가락의 3차원 위치를 계산한다. 시스템은 그리고 나서 지시 손가락의 3차원 위치로부터 3차원상 손가락 위치와 디스플레이 스크린상의 대응하는 아이콘의 이미 알려진 위치에 의해 유일하게 결정되는 선을 계산한다. 그러한 선의 예는 사용자(110)가 도1에서 점P를 향해 지시하는 선114이다.
단계156은 사용자가 적어도 두개의 디스플레이된 아이콘들을 지시한 뒤에 시스템은 이로부터 계산된 선들의 교점으로써, 정해진 사용자에 대한 바람직한 기준점을 결정할 수 있음을 나타낸다. 더우기, 단계154에 기술되다시피 시스템은 각각의 디스플레이된 아이콘들에 대해서 이에 대응하는 계산된 선을 결정한다. 이러한계산된 선들의 교점은 도1과 관련하여 앞에서 이미 기술된 바람직한 사용자 특정(user-specific) 기준점을 제공한다. 그리고 이러한 기준점은, 단계152에서 저장된 이와 대응하는 사용자 식별 정보와 함께 데이터베이스(126)에 저장된다. 비록 단지 두개의 아이콘들을 사용하여 교정 정보가 생성될 수 있다고 하더라도 교정의 정확성을 증대시키기 위해서는 두개 이상의 아이콘들을 사용하는 것이 많은 애플리케이션들에 있어서 더 바람직할 것이다.
어떤 애플리케이션들에서, 정해진 사용자에 대하여 결정된 기준점은, 예를 들면, 사용자의 대칭선(line of symmetry)을 결정하기 위해 카메라들(104)에 의해 생성된 이미지들을 처리하고 그 기준점이 대칭선 위 또는 가까이에 있는지를 체크하므로 해서 확인될 수 있다. 그러나, 이런 타입의 확인(verification)은 본 발명의 요구사항이 아님을 이해하여야 한다.
전에 언급했다시피, 도3에 예시된 방법으로, 정해진 사용자에 대해 결정된 기준점은 그 정해진 사용자에 대한 추후 일련의 지시 방향 결정들에 사용될 수 있도록 교정을 제공한다. 예를 들면, 만일 사용자(110)가 위에서 기술된 과정을 완수하고, 추후에 도1에 보여지는 바와 같이 디스플레이 스크린 상의 점P를 지시하고 있다면, 시스템은 교정 정보로서 이전에 이미 저장된 기준점(116)을 검색하고, 사용자가 지시하고 있는 점P를 식별시키는 선114를 결정하기위해, 그 기준점과 손가락(112) 위치감지(detection of the finger)를 이용한다. 본 발명의 교정과정의 사용은 각각의 시스템 사용자에 대해 지시 방향 결정이 정확할 것을 확실히 한다.
앞에서 기술된 발명의 구현은 오직 예시적인 것으로 의도되어진다. 예를 들면, 도1,2에 나타난 특정된 타입들과 배열들의 시스템 요소들은 단지 예시들에 불과한 것이다. 그리고 많은 대체적인 시스템 구성들(configurations)이 본 발명의 인간 지시 교정 기술들을 구현하기 위하여 사용되어 질 수 있다. 덧붙여서, 비록 예시적인 구현에서 교정 점들이 디스플레이 상에서 아이콘들로서 표시된다고 하더라도 다른 구현들에서는 가령, 디스플레이에 인접한 벽 위의 점들 등과 같이 시스템의 다른 위치들에 있는 다른 타입들의 점들을 사용할 수 있다. 더우기, 앞에서 언급했다시피, 본 발명은 적어도 부분적으로 전자적, 자기적, 또는 광학적 저장 매체에 저장되고 프로세싱 시스템(102)의 프로세서(120)와 같은 프로세싱 디바이스에 의해 실행되는 하나 또는 그 이상의 소프트웨어 프로그램들의 형태로 구현되어질 수 있다.

Claims (21)

  1. 카메라에 기반한 시스템(100)에서 사용자(110)에 대한 지시 방향의 교정을 수행하는 방법에 있어서,
    시스템에서 서로 다른 위치들에서 둘 또는 그이상의 점들의 집합에 있는 각각의 점을 사용자로 하여금 각각 분리해서 지시하도록 명령하는 단계,
    사용자에 의해서 지시된 점들의 각각에 대해 시스템의 하나 또는 그 이상의 카메라들(104) 각각에 의해 생성된 이미지에서 사용자의 지시 손가락(112)의 위치를 검출하여 상기 점들의 각각에 대해 지시 손가락의 위치와 그에 대응하는 점이 선(114)을 특정하도록하는 검출 단계 및,
    적어도 부분적으로 둘 또는 그이상의 점들과 관련된 선들에 기초하여 사용자에 대한 지시 방향 교정 정보를 계산하는 단계를 포함하는,
    지시 방향 교정 수행 방법.
  2. 제1항에 있어서,
    상기 시스템은 적어도 두개의 카메라들을 포함하고,
    상기 검출 단계는 첫번째 카메라에 의한 이미지와 두번째 카메라에 의한 이미지 둘 모두에서 사용자의 지시 손가락의 위치를 결정하는 단계를 포함하는,
    지시 방향 교정 수행 방법.
  3. 제1항에 있어서,
    사용자에 대한 사용자 식별 정보를 결정하는 단계와,
    사용자 식별 정보와 관련하여 사용자에 대한 교정 정보를 저장하는 단계를 더 포함하는,
    지시 손가락 교정 수행 방법.
  4. 제1항에 있어서,
    상기 계산 단계는 사용자에 대한 교정 정보를 적어도 부분적으로 둘 또는 그이상의 점들과 관련한 선들의 교점으로써 결정하는 단계를 포함하는,
    지시 방향 교정 수행 방법.
  5. 제1항에 있어서,
    상기 교정 정보는 사용자와 관련된 기준점(116)을 포함하는,
    지시 방향 교정 수행 방법.
  6. 제5항에 있어서,
    상기 기준점은 사용자의 머리 위 또는 가까이에 있는 점을 포함하는,
    지시 방향 교정 수행 방법.
  7. 제1항에 있어서,
    시스템의 카메라들에 의해서 생성된 둘 또는 그이상의 이미지들에서 사용자의 대칭선을 결정하는 단계와,
    교정 정보와 사용자의 대칭선 사이의 관계가 특정 판단기준을 만족시키는지를 결정함으로써 교정 정보를 확인하는 단계를 더 포함하는,
    지시 방향 교정 수행 방법.
  8. 제1항에 있어서,
    적어도 점들의 부분 집합이 시스템의 디스플레이(106)상에 표시된 아이콘들을 포함하는,
    지시 방향 교정 수행 방법.
  9. 제8항에 있어서,
    상기 아이콘들 중 단지 하나만이 정해진 점에 때를 맞추어 디스플레이 상에 표시되는,
    지시 방향 교정 수행 방법.
  10. 제8항에 있어서,
    적어도 아이콘들의 부분 집합이 디스플레이 상에 동시에 표시되는,
    지시 방향 교정 수행 방법.
  11. 카메라에 기반한 시스템(100)에 있어서 사용자(110)를 위한 지시 방향 교정을 수행하는 데 사용하기 위한 장치에 있어서,
    복수의 카메라들(104) 및;
    그 복수의 카메라들에 연결된 프로세싱 시스템(102)으로서,
    (ⅰ)카메라에 기반한 시스템에서 서로 다른 위치에 둘 또는 그 이상의 점들의 집합에서 각각의 점을 분리해서 지시하도록 사용자를 명령하고,
    (ⅱ)사용자에 의해서 지시된 점들 각각에 대하여, 적어도 복수의 카메라들의 부분 집합의 각각에 의하여 생성된 이미지에 있는 사용자의 지시 손가락(112)의 위치를 검출하고 그 각각의 점들에 대하여 지시 손가락의 위치와 그에 대응하는 점이 하나의 선(114)을 특정하고,
    (ⅲ)둘 또는 그이상의 점들로 이루어진 선들상에 적어도 부분적으로 기초한 사용자에 대한 지시 방향 교정 정보를 계산하도록 동작하는 상기 프로세싱 시스템을 포함하는,
    지시 방향 교정 수행 장치.
  12. 제11항에 있어서,
    상기 프로세싱 시스템은 상기 카메라들의 첫번째 카메라에 의해서 생성된 이미지와 상기 카메라들의 두번째 카메라에 의해서 생성된 이미지 둘 모두에서 사용자의 지시 손가락의 위치를 결정하는,
    지시 방향 교정 수행 장치.
  13. 제11항에 있어서,
    상기 프로세싱 시스템은 사용자에 대한 사용자 식별 정보를 결정하고,
    사용자 식별 정보와 관련된 사용자에 대한 교정 정보를 저장하도록 더 동작하는,
    지시 방향 교정 수행 장치.
  14. 제11항에 있어서,
    상기 프로세싱 시스템은 적어도 일부라도 둘 또는 그 이상의 점들로 이루어진 선들의 교점으로써 사용자에 대한 교정 정보를 결정하는,
    지시 방향 교정 수행 장치.
  15. 제11항에 있어서,
    상기 교정 정보는 사용자와 관련된 기준점(116)을 포함하는,
    지시 방향 교정 수행 장치.
  16. 제15항에 있어서,
    상기 기준점은 사용자의 머리 위 또는 가까이에 있는 점을 포함하는,
    지시 방향 교정 수행 장치.
  17. 제11항에 있어서,
    상기 프로세싱 시스템은,
    카메라들에 의해서 생성된 둘 또는 그 이상의 이미지들에서 사용자의 대칭 선을 결정하고,
    교정 정보와 사용자의 대칭선 사이의 관계가 특정된 판단기준을 만족하는지를 결정함으로써 교정 정보를 확인하는 동작을 더 수행하는,
    지시 방향 교정 수행 장치.
  18. 제11항에 있어서,
    상기의 적어도 점들의 부분 집합은 카메라에 기반한 시스템의 디스플레이(106)상에 표시된 아이콘들을 포함하는,
    지시 방향 교정 수행 장치.
  19. 제18항에 있어서,
    상기 아이콘들 중 단지 하나가 디스플레이 상의 정해진 점에 적합한 때에 나타나는,
    지시 방향 교정 수행 장치.
  20. 제18항에 있어서,
    적어도 상기 아이콘들 중의 부분 집합이 디스플레이 상에 동시에 나타나는,
    지시 방향 교정 수행 장치.
  21. 카메라에 기반한 시스템(100)에서 사용자(110)에 대한 지시 방향의 교정을 수행하는 데 사용하기 위한 하나 또는 그 이상의 프로그램들을 저장하기 위한 저장 매체를 포함하는 생산물로서,
    상기 하나 또는 그 이상의 프로그램들은 프로세서(120)에 의해 실행될 때, 다음의 각 단계들 즉,
    사용자로 하여금 시스템에서 서로 다른 위치들에 있는 둘 또는 그이상의 점들의 집합에 있는 각각의 점을 분리하여 지시하도록 명령하는 단계,
    사용자에 의해서 지시된 점들의 각각에 대해 시스템의 하나 또는 그 이상의 카메라 각각에 의해 생성된 이미지에 있는 사용자의 지시 손가락(112)의 위치를 검출하고 그 점들 각각에 대해서 지시 손가락의 위치와 그에 대응하는 점이 선(114)을 특정하는 단계,
    둘 또는 그이상의 점들과 관련된 선들에 적어도 부분적으로 기초한 사용자에 대한 지시 방향 교정 정보를 계산하는 단계를 실행하는,
    상기 생산물.
KR1020027003317A 2000-07-13 2001-07-04 화상회의, 기타 카메라에 기반한 시스템 애플리케이션들에있어서의 지시 방향 교정 KR20020031188A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/615,879 2000-07-13
US09/615,879 US6531999B1 (en) 2000-07-13 2000-07-13 Pointing direction calibration in video conferencing and other camera-based system applications
PCT/EP2001/007678 WO2002007073A2 (en) 2000-07-13 2001-07-04 Pointing direction calibration in camera-based system applications

Publications (1)

Publication Number Publication Date
KR20020031188A true KR20020031188A (ko) 2002-04-26

Family

ID=24467177

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020027003317A KR20020031188A (ko) 2000-07-13 2001-07-04 화상회의, 기타 카메라에 기반한 시스템 애플리케이션들에있어서의 지시 방향 교정

Country Status (6)

Country Link
US (2) US6531999B1 (ko)
EP (1) EP1303833A2 (ko)
JP (1) JP2004504675A (ko)
KR (1) KR20020031188A (ko)
CN (1) CN1423796A (ko)
WO (1) WO2002007073A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100491432B1 (ko) * 2002-11-06 2005-05-25 주식회사 유씨티코리아 멀티모달 사용자 인터페이스를 이용한 대화형 전시시스템

Families Citing this family (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100917A (ja) * 1999-09-29 2001-04-13 Sanyo Electric Co Ltd 座標入力装置
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
JP2001184161A (ja) 1999-12-27 2001-07-06 Ricoh Co Ltd 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体
AU2001227797A1 (en) * 2000-01-10 2001-07-24 Ic Tech, Inc. Method and system for interacting with a display
ES2435248T3 (es) * 2000-07-05 2013-12-17 Smart Technologies Ulc Sistema y método táctil basado en cámaras
US6803906B1 (en) * 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US6943774B2 (en) * 2001-04-02 2005-09-13 Matsushita Electric Industrial Co., Ltd. Portable communication terminal, information display device, control input device and control input method
GB2374663A (en) * 2001-04-18 2002-10-23 Nokia Corp Presentation of images
US6919880B2 (en) * 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
US6926148B2 (en) * 2001-07-13 2005-08-09 Donaldson Company, Inc. Filter carrier tray
US20030132913A1 (en) * 2002-01-11 2003-07-17 Anton Issinski Touchless computer input device to control display cursor mark position by using stereovision input from two video cameras
US7904826B2 (en) * 2002-03-29 2011-03-08 Microsoft Corporation Peek around user interface
US20040001144A1 (en) * 2002-06-27 2004-01-01 Mccharles Randy Synchronization of camera images in camera-based touch system to enhance position determination of fast moving objects
JP2004094653A (ja) * 2002-08-30 2004-03-25 Nara Institute Of Science & Technology 情報入力システム
US6954197B2 (en) * 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US6972401B2 (en) * 2003-01-30 2005-12-06 Smart Technologies Inc. Illuminated bezel and touch system incorporating the same
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US8508508B2 (en) * 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US6947032B2 (en) * 2003-03-11 2005-09-20 Smart Technologies Inc. Touch system and method for determining pointer contacts on a touch surface
US7532206B2 (en) * 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7256772B2 (en) * 2003-04-08 2007-08-14 Smart Technologies, Inc. Auto-aligning touch system and method
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7355593B2 (en) * 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7232986B2 (en) * 2004-02-17 2007-06-19 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7492357B2 (en) * 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US7893920B2 (en) * 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8120596B2 (en) 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
US7746321B2 (en) 2004-05-28 2010-06-29 Erik Jan Banning Easily deployable interactive direct-pointing system and presentation control system and calibration method therefor
JP2006047534A (ja) * 2004-08-03 2006-02-16 Alpine Electronics Inc 表示制御システム
US7719523B2 (en) * 2004-08-06 2010-05-18 Touchtable, Inc. Bounding box gesture recognition on a touch detecting interactive display
US20070046643A1 (en) * 2004-08-06 2007-03-01 Hillis W Daniel State-Based Approach to Gesture Identification
US7724242B2 (en) 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7859523B2 (en) * 2004-08-10 2010-12-28 Microsoft Corporation Direct navigation of two-dimensional control using a three-dimensional pointing device
US7657117B2 (en) * 2004-12-20 2010-02-02 Palo Alto Research Center Incorporated Method and apparatus for calibrating a camera-based whiteboard scanner
US9285897B2 (en) 2005-07-13 2016-03-15 Ultimate Pointer, L.L.C. Easily deployable interactive direct-pointing system and calibration method therefor
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US20070165007A1 (en) * 2006-01-13 2007-07-19 Gerald Morrison Interactive input system
US20070205994A1 (en) * 2006-03-02 2007-09-06 Taco Van Ieperen Touch system and method for interacting with the same
US20070216660A1 (en) * 2006-03-20 2007-09-20 Steve Sposato Methods and apparatus to implement electronic whiteboards
CN101075295B (zh) * 2006-05-16 2012-01-25 崴擎科技股份有限公司 被动式及交互式实时影像辨识方法
US7907117B2 (en) * 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
US20080100586A1 (en) * 2006-10-26 2008-05-01 Deere & Company Method and system for calibrating a touch screen
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
US8421931B2 (en) * 2006-12-27 2013-04-16 Motorola Mobility Llc Remote control with user profile capability
EP2135155B1 (en) 2007-04-11 2013-09-18 Next Holdings, Inc. Touch screen system with hover and click input methods
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
KR20100055516A (ko) * 2007-08-30 2010-05-26 넥스트 홀딩스 인코포레이티드 개선된 조광을 가진 광학 터치 스크린
KR20100075460A (ko) 2007-08-30 2010-07-02 넥스트 홀딩스 인코포레이티드 저 프로파일 터치 패널 시스템
US8149210B2 (en) * 2007-12-31 2012-04-03 Microsoft International Holdings B.V. Pointing device and method
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
US20090278794A1 (en) * 2008-05-09 2009-11-12 Smart Technologies Ulc Interactive Input System With Controlled Lighting
US8902193B2 (en) * 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
US20090277697A1 (en) * 2008-05-09 2009-11-12 Smart Technologies Ulc Interactive Input System And Pen Tool Therefor
KR100931403B1 (ko) * 2008-06-25 2009-12-11 한국과학기술연구원 손 동작에 의한 네트워크 상의 기기 및 정보 제어 시스템
JP5331887B2 (ja) * 2008-09-15 2013-10-30 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 複数のカメラを有するタッチスクリーンディスプレイ
US20100079385A1 (en) * 2008-09-29 2010-04-01 Smart Technologies Ulc Method for calibrating an interactive input system and interactive input system executing the calibration method
US8446389B2 (en) * 2008-10-15 2013-05-21 Lenovo (Singapore) Pte. Ltd Techniques for creating a virtual touchscreen
US8525776B2 (en) * 2008-10-27 2013-09-03 Lenovo (Singapore) Pte. Ltd Techniques for controlling operation of a device with a virtual touchscreen
US8339378B2 (en) * 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
US20100225588A1 (en) * 2009-01-21 2010-09-09 Next Holdings Limited Methods And Systems For Optical Detection Of Gestures
US20100229090A1 (en) * 2009-03-05 2010-09-09 Next Holdings Limited Systems and Methods for Interacting With Touch Displays Using Single-Touch and Multi-Touch Gestures
US8111247B2 (en) * 2009-03-27 2012-02-07 Sony Ericsson Mobile Communications Ab System and method for changing touch screen functionality
US8902280B2 (en) * 2009-04-16 2014-12-02 Hewlett-Packard Development Company, L.P. Communicating visual representations in virtual collaboration systems
US8692768B2 (en) 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
US20110095977A1 (en) * 2009-10-23 2011-04-28 Smart Technologies Ulc Interactive input system incorporating multi-angle reflecting structure
KR101381928B1 (ko) * 2011-02-18 2014-04-07 주식회사 브이터치 포인터를 사용하지 않는 가상 터치 장치 및 방법
GB2488785A (en) * 2011-03-07 2012-09-12 Sharp Kk A method of user interaction with a device in which a cursor position is calculated using information from tracking part of the user (face) and an object
TWI435250B (zh) * 2011-03-14 2014-04-21 Wistron Corp 光學觸控螢幕的準確度校正方法
KR101235432B1 (ko) * 2011-07-11 2013-02-22 김석중 3차원 모델링된 전자기기의 가상터치를 이용한 원격 조작 장치 및 방법
US20150035746A1 (en) * 2011-12-27 2015-02-05 Andy Cockburn User Interface Device
WO2013136333A1 (en) 2012-03-13 2013-09-19 Eyesight Mobile Technologies Ltd. Touch free user interface
WO2014034049A1 (ja) * 2012-08-30 2014-03-06 パナソニック株式会社 スタイラス検出装置およびスタイラス検出方法
US9081413B2 (en) * 2012-11-20 2015-07-14 3M Innovative Properties Company Human interaction system based upon real-time intention detection
US8933882B2 (en) * 2012-12-31 2015-01-13 Intentive Inc. User centric interface for interaction with visual display that recognizes user intentions
US9117120B2 (en) 2013-05-24 2015-08-25 Honda Motor Co., Ltd. Field of vision capture
US9846486B2 (en) 2013-06-27 2017-12-19 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
KR101533319B1 (ko) 2014-02-22 2015-07-03 주식회사 브이터치 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법
CN104978012B (zh) 2014-04-03 2018-03-16 华为技术有限公司 一种指向交互方法、装置及系统
CN105260008B (zh) 2014-07-15 2018-10-12 华为技术有限公司 一种定位位置的方法及装置
DE102015201728A1 (de) * 2015-02-02 2016-08-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Auswählen eines Bedienelements eines Kraftfahrzeugs und Bediensystem für ein Kraftfahrzeug
JP2018528551A (ja) * 2015-06-10 2018-09-27 ブイタッチ・コーポレーション・リミテッド ユーザー基準空間座標系上におけるジェスチャー検出方法および装置
EP4224293B1 (en) * 2017-07-03 2024-04-03 Aptiv Technologies Limited System and method for determining a pointing direction in 3d space

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US259497A (en) * 1882-06-13 Cutter for leather-whitening machines
EP0829799A3 (en) 1992-05-26 1998-08-26 Takenaka Corporation Wall computer module
CA2089107A1 (en) * 1993-02-09 1994-08-10 Colleen Ann Kramer Method of using water impervious sheet material as a bath toy
US5536009A (en) * 1994-04-28 1996-07-16 Insulation Materials Corporation Of America Pool puzzle, method of play
US5711606A (en) 1995-10-27 1998-01-27 Technology Licensing Corporation Diagnostic system for a cooking appliance
JP3749369B2 (ja) 1997-03-21 2006-02-22 株式会社竹中工務店 ハンドポインティング装置
DE19746864A1 (de) 1997-10-22 1999-04-29 Jun Hartmut Neven System zur Analyse von Fingerbewegungen durch Distanzsensoren zur Bestimmung von virtuellen Tastendrücken
JP3795647B2 (ja) 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
DE69830295T2 (de) * 1997-11-27 2005-10-13 Matsushita Electric Industrial Co., Ltd., Kadoma Steuerungsverfahren
US6195104B1 (en) 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6091378A (en) * 1998-06-17 2000-07-18 Eye Control Technologies, Inc. Video processing methods and apparatus for gaze point tracking

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100491432B1 (ko) * 2002-11-06 2005-05-25 주식회사 유씨티코리아 멀티모달 사용자 인터페이스를 이용한 대화형 전시시스템

Also Published As

Publication number Publication date
CN1423796A (zh) 2003-06-11
US6531999B1 (en) 2003-03-11
EP1303833A2 (en) 2003-04-23
WO2002007073A2 (en) 2002-01-24
WO2002007073A3 (en) 2003-01-23
US20030076299A1 (en) 2003-04-24
JP2004504675A (ja) 2004-02-12

Similar Documents

Publication Publication Date Title
KR20020031188A (ko) 화상회의, 기타 카메라에 기반한 시스템 애플리케이션들에있어서의 지시 방향 교정
US6901561B1 (en) Apparatus and method for using a target based computer vision system for user interaction
KR101227610B1 (ko) 화상인식장치 및 조작판정방법과 이를 위한 프로그램을 기록한 컴퓨터 판독가능한 기록매체
US6931596B2 (en) Automatic positioning of display depending upon the viewer's location
JP2001125738A (ja) プレゼンテーション制御システム及びその制御方法
US20170351327A1 (en) Information processing apparatus and method, and program
JP2002351603A (ja) 携帯情報処理装置
WO2003044648A2 (en) Method and apparatus for a gesture-based user interface
JP2012238293A (ja) 入力装置
WO2022100262A1 (zh) 显示设备、人体姿态检测方法及应用
JP6381361B2 (ja) データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム
JPWO2018150569A1 (ja) ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JPH05298015A (ja) 視線検出システムおよび情報処理システム
KR100845274B1 (ko) 관람자의 시선 방향을 고려한 전시 시스템의 인터페이스방법 및 장치
JPH1185442A (ja) 情報出力装置
JPH05232908A (ja) 指示入力装置
WO2018185830A1 (ja) 情報処理システム、情報処理方法、情報処理装置、及びプログラム
JP2009244949A (ja) 操作対象の切替装置
JP2001005975A (ja) 機器制御装置及び方法
US11775063B1 (en) Display device and display method
TWI780816B (zh) 電子裝置以及操作方法
US11082615B2 (en) Mobile terminal device that generates picture where person's eye direction in shot image has been modified
CN115348438B (zh) 三维显示设备控制方法及相关装置
US20220351546A1 (en) Information processing apparatus, information processing method, and storage medium
US20230168745A1 (en) Gesture recognition apparatus, system, and program thereof

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid