KR101298384B1 - 상호작용형 디스플레이의 표면을 위한 입력 방법 - Google Patents

상호작용형 디스플레이의 표면을 위한 입력 방법 Download PDF

Info

Publication number
KR101298384B1
KR101298384B1 KR1020087004501A KR20087004501A KR101298384B1 KR 101298384 B1 KR101298384 B1 KR 101298384B1 KR 1020087004501 A KR1020087004501 A KR 1020087004501A KR 20087004501 A KR20087004501 A KR 20087004501A KR 101298384 B1 KR101298384 B1 KR 101298384B1
Authority
KR
South Korea
Prior art keywords
light
interactive display
display surface
scanning
reflected
Prior art date
Application number
KR1020087004501A
Other languages
English (en)
Other versions
KR20080038176A (ko
Inventor
도슨 이
Original Assignee
마이크로소프트 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 코포레이션 filed Critical 마이크로소프트 코포레이션
Publication of KR20080038176A publication Critical patent/KR20080038176A/ko
Application granted granted Critical
Publication of KR101298384B1 publication Critical patent/KR101298384B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)

Abstract

객체 또는 객체로서 제공된 사용자 입력을 탐지하도록 구성된 상호작용형 디스플레이 시스템이다. 상기 시스템은 그래픽 이미지가 디스플레이되는 디스플레이 표면, 상기 상호작용형 디스플레이 표면을 스캐닝하도록 구성된 하나 이상의 스캐닝 광원 및 상호작용형 디스플레이 표면에 접촉하거나 근접한 객체로부터 반사된 광을 탐지하도록 구성된 광 탐지기를 구비한다. 기계 명령어를 저장하는 컴퓨팅 시스템은 스캐닝 광원 및 광 탐지기와 통신한다. 실행될 때, 기계 명령어는 컴퓨팅 시스템이 스캐닝 광원으로 상호작용형 디스플레이 표면을 조사(照射)하고, 광탐지기로 광원에 의한 조사(照射) 이후 객체로부터 반사된 광을 탐지하며, 상호작용형 디스플레이 표면상의 또는 표면에 근접한 객체로부터 반사된 탐지된 광을 기초로 출력 신호를 발생하도록 한다.
상호작용형 디스플레이, 광 탐지기, 스캐닝 광원, 광 검출기

Description

상호작용형 디스플레이의 표면을 위한 입력 방법{INPUT METHOD FOR SURFACE OF INTERACTIVE DISPLAY}
더 나은 사용자 인터페이스가 제공되면 컴퓨터 시스템의 효용성은 높아진다. 컴퓨터 시스템을 위한 사용자 인터페이스는 퍼스널 컴퓨터(PC)가 처음으로 광범위하게 이용가능하게 된 이후부터 많이 발전해왔다. 초기의 PC는 시리얼 마우스와 같이 다소 구식의 사용자 입력 장치를 사용했다. 하지만, 마이크로프로세서, 가용 메모리, 프로그래밍 기능에서의 놀라운 발전은 사용자 인터페이스 디자인에서의 발전과 사용자 친화적 그래픽 운영체제와 하드웨어의 발전에 공헌했다. 사용자 인터페이스 기술에서의 진보 중에서 일 특정 분야는 사용자 인터페이스에 인접한 객체에 대한 탐지와 관련되는 것으로 때때로 근접 탐지(proximity detection)라고 불리운다. 일반적으로, 인터페이스에 적용되는 것과 같이, 근접 탐지는 예컨대, 사용자의 손 또는 손가락 및/또는 무생물의 객체를 포함하는 객체들이 사용자 인터페이스 또는 표면(surface)에 근접할 때 이들 객체를 탐지하는 것과 관련된다.
커패시턴스 기반 시스템, 다양한 광학 기반 탐지 시스템을 포함하는 사용자 인터페이스와 연관된 근접 탐지에는 사용되는 몇 가지 탐지 기술들이 사용된다. 이하의 논의는 광학-기반 근접 탐지의 사용에 관하여 집중할 것이다. 광학-기반 근접 탐지는 전체 사용자 인터페이스 표면을 광으로 조사(照射)하고, 디지털 비디오 카메라를 설치하여 객체로부터 반사되어 나오는 광을 기초로 그래픽 디스플레이 표면에 접촉되었거나 근접한 객체를 식별하는 방식으로 발전해 왔다. 그러한 시스템은 디지털 카메라 시야 영역 내의 객체를 구분하기 위하여 태양광을 극복하기에 충분한 사용자 인터페이스 표면의 조사(照射)를 요구한다. 그러한 시스템에 있어서 객체를 탐지하는데 불필요한 태양광의 효과를 줄이는 방법으로는 조사원(照射原)의 갯수를 늘리고, 조사원(照射原)의 전력을 증가시키며, 객체를 탐지하는데 사용되는 광원에 의해 발생되는 조사광(照射光)을 편광(polarizing)시키며, 파장 구별(wavelength discrimination)을 위한 필터 및 다양한 변조(modulation)기술을 포함한다. 이러한 각각의 기술은 시야 영역에 대하여 바람직한 균등 조사(照射)를 달성하는데 결점을 갖는다.
컴퓨터 시스템을 위한 사용자 인터페이스에 관련된 최근의 발전에 따라 상호작용형 디스플레이도 등장하였다. 상호작용형 디스플레이는 그래픽 이미지를 테이블 위와 같은 평면 표면상에 사용자에게 제공한다. PC가 상호작용형 디스플레이에 접속되어 보다 정교한 명령과 인터페이스 특성을 제공하는 사용자 상호작용의 화려한 경험과, 시스템에 입력하는데 있어 훨씬 더 자연스러운 상호작용 경험을 하게한다. 상호작용형 디스플레이의 초기 실시예는 디스플레이 표면과 사용자의 상호작용에 응답하기 위해 근접-탐지를 사용하였으나, 전술한 바와 같이 상이한 광학-기반 객체 근접 탐지 시스템에서도 공통적인 문제가 발생하였다. 그러므로, 보다 강인한 광학 객체 근접 탐지 설계가 중요해졌다.
몇몇 상호작용형 디스플레이 구현은 후술 되어있다. 기술된 구현의 한 특징은 스캐닝 광원(scanning light source)으로서 객체나 객체로서 제공되는 사용자 입력을 탐지하기 위한 방법과 관련이 있으며, 객체는 상호작용형 디스플레이 표면상에 또는 표면에 근접하여 존재한다. 설명되는 방법은 스캐닝 광원으로 상호작용형 디스플레이 표면을 조사(照射)하는 단계를 구비한다. 스캐닝 광원은 미리 정해진 파장의 광을 조사(照射)하고, 상호작용형 디스플레이의 적어도 일부 표면을 스캔하여 상호작용형 디스플레이의 적어도 일부 표면이 시간에 따라 전체 스캔될 수 있도록 구성되어 있을 수 있다. 스캐닝 광원이 객체를 조사(照射)하면, 상호작용형 디스플레이 표면상의 또는 표면에 근접한 객체로부터 반사된 미리 정해진 파장의 광이 탐지된다.
이하에서 좀더 상세히 논의되는 구현에는 객체나 객체를 통해 제공되는 사용자 입력을 탐지하도록 구성된 상호작용형 디스플레이 시스템과 관련된다. 상호작용형 디스플레이 시스템은 그래픽 이미지가 표시되는 상호작용형 디스플레이 표면을 가진 것으로 설명되어 있다. 상호작용형 디스플레이 시스템은 상호작용형 디스플레이 표면을 스캐닝하여, 상호작용형 디스플레이의 적어도 일부 표면이 시간에 따라 전체 스캐닝 되도록 하나 이상의 스캐닝 광원을 포함할 수 있다. 상호작용형 디스플레이 시스템은 상호작용형 디스플레이 표면상의, 또는 표면에 근접한 객체로부터 반사된 광을 탐지하도록 구성된 광 탐지기를 더 구비하는 것으로 기술된다. 컴퓨팅 시스템은 스캐닝 광원 및 광 탐지기와 통신한다. 컴퓨팅 시스템은 프로세서, 메모리를 구비할 수 있고, 이 메모리에는, 스캐닝 광원으로 상호작용형 디스플레이 표면을 조사(照射)하거나, 상호작용형 디스플레이 표면상의 또는 표면에 근접한 객체로부터 반사된 스캐닝 광원과 관련된 광을 탐지하는 것과 같은 복수의 상호작용형 디스플레이 함수를 프로세서가 수행하도록 하는 기계 명령어가 구비될 수 있다. 반사된 광은 스캐닝 광원이 상호작용형 디스플레이의 적어도 일부를 조사(照射)하는 동안 광 탐지기를 통해 탐지된다. 메모리는 상호작용형 디스플레이 표면상의 또는 표면에 근접한 객체로부터 반사되어 탐지된 광에 기초하여 출력 신호를 발생하기 위한 기계 명령어를 저장한다.
이하에서 상세히 논의되는 또 다른 구현에는 사용자 입력을 상호작용형 디스플레이 표면상의, 또는 표면에 근접한 객체를 탐지하도록 구성된 상호작용형 디스플레이 시스템을 통해 수신하는 방법과 관련된다. 이 방법은 복수의 스캐닝 광원 각각과 상호작용형 디스플레이 표면에서 하나 이상의 복수의 상이한 표면 구역 부분을 결합시킨다. 이 단계에 따르면, 이들 상이한 표면 구역 부분을 조합하게 되면, 사용자 입력을 수신하도록 구성된 상호작용형 디스플레이 표면과 실질적으로 상응한다. 이 방법은 또한 미리 정해진 시간 간격 내에 적어도 하나의 복수의 스캐닝 광원으로 상호작용형 디스플레이 표면의 상이한 표면 구역 부분을 조사(照射)하는 단계, 그리고 적어도 하나의 상이한 표면 구역 부분상의, 또는 부분에 근접한 하나 이상의 객체로부터 반사된 광을 탐지하는 단계를 구비한다. 이하에서 더욱 상세히 설명되는 바와 같이, 스캐닝 광원 중 적어도 하나의 스캐닝 광원이 조사(照射)할 때 반사된 광의 근원를 제공한다. 이 방법은 각각의 복수의 상이한 표면 구역 부분상의 또는 부분에 근접한 하나 이상의 객체에서 반사된 탐지광에 응답하여 복수의 객체 탐지 신호를 발생하는 단계를 구비한다. 마지막으로, 이 방법은 상호작용형 디스플레이 표면상의 또는 표면에 근접한 하나 이상의 객체로부터 반사된 광과 연관된 사용자 입력을 결정하기 위한 복수의 객체 탐지 신호를 프로세싱하는 단계를 구비한다.
이상 설명한 내용은 후술하는 실시예에서 상세히 설명할 몇 가지 발명의 사상을 간략하게 소개하기 위하여 제공되었다. 하지만, 이는 청구항의 본질적인 특징이나 핵심을 구별짓거나, 청구항의 범위를 결정하는데 참고가 될 의도로 기술된 것은 아니다.
하나 이상의 예시적인 실시예 및 이들에 대한 변형의 다양한 특징과 이에 따른 장점은 상세한 설명과 이에 대응하는 도면을 참조하여 보다 쉽게 이해될 것이다.
도 1은 본 발명을 실시하는 상호작용형 디스플레이 표면과 함께 사용하기 적합한 일반적인 기존의 컴퓨팅 장치나 PC의 기능적 블록 다이어그램.
도 2는 내부 PC를 구비하는 상호작용형 디스플레이 테이블의 형태인 상호작용형 디스플레이 표면의 내부 컴포넌트를 보여주는 단면도.
도 3은 상호작용형 디스플레이 테이블이 외부 PC에 연결되어 있는 실시예에 관한 입체도.
도 4A는 일반적으로 스캔되는 상호작용형 디스플레이 표면의 일부에서 반사된 광을 탐지하는 면적 탐지기 및 분리된 스캐닝 광원을 포함하는 상호작용형 디스플레이 표면에 대한 도식적 단면도.
도 4B는 함께 스캐닝하는 통합된 스캐닝 광원 및 스캐닝 탐기기를 포함하는 상호작용형 디스플레이 표면의 도식적인 단면도를 나타내는 도면.
도 5A는 상호작용형 디스플레이 표면에 근접한 감광성 탐지기(photosensitive detector)의 배열 및 스캐닝 광원을 포함하는 상호작용형 디스플레이 표면에 대한 도식적 단면도.
도 5B는 상호작용형 디스플레이에 근접하도록 배치된(또는 일체화된) 감광성 탐지기의 배열 및 상호작용형 디스플레이의 특정한 부분을 조사(照射)하도록 구성된 복수의 스캐닝 광원을 포함하는 상호작용형 디스플레이 시스템의 도식적 부분 입체도.
도 5C는 도 5B에 나타난 감광성 탐지기의 배열을 구비하는 평면 패널 디스플레이에 대한 도식적 부분도.
도 6은 상호작용형 디스플레이 표면상의 또는 표면에 근접한 객체를 탐지하는 방법의 예시적인 단계를 나타내는 흐름도.
도 7은 사용자 입력을, 상호작용형 디스플레이 표면상의 또는 표면에 근접한 객체를 탐지하도록 구성된 상호작용형 디스플레이를 통해 수신하는 방법의 예시적인 단계를 나타내는 다른 흐름도.
도면과 실시예는 한정하는 것이 아니다.
예시적인 실시예들은 도면을 참조하여 설명된다. 명세서에서 개시되는 실시예와 도면은 제한하고자 하는 것이 아니라 설명하기 위해 제공되는 것이다. 더 나 아가, 첨부된 청구항에서, 대안들의 목록에 '적어도 하나' 또는 '하나의'라는 구 다음에 오는 접속어 '및'이 사용되면, 위 '및'의 의미는 접속어 '또는'에 해당하는 것이다.
예시적인 컴퓨팅 시스템
도 1은 상호작용형 디스플레이 테이블 또는 비슷한 컴퓨팅 시스템과 같이, 연결된 클라이언트들의 커ㅋ퓨터 디바이스에게 디지털 미디어를 제공하기 위한 컴퓨팅 시스템 및/또는 컴퓨터 서버에 대한 기능적 블록 다이어그램이다.
후술하는 논의는 특정한 방법들이 시행될 수 있는 적절한 컴퓨팅 환경에 관하여 간략하고 일반적인 설명을 제공하기 위한 것이다. 더 나아가, 후술하는 논의는 프로그램 모듈과 같은 컴퓨터로 실행 가능한 명령어를 컴퓨팅 시스템으로 실행하기 위한 배경(context)을 설명한다. 일반적으로, 프로그램 모듈은 특정 태스크를 수행하거나 특정 추상적 데이터형을 실행하는 루틴, 프로그램, 객체, 컴포넌트, 데이터 구조 등을 구비한다. 당업자는 멀티프로세서 시스템, 메인프레임 컴퓨터, 개인용 컴퓨터, 프로세서 제어 개인용 가전제품, PDA(디지털 미디어 컨텐츠의 서버로 사용될 때는 포함되지 않는다) 및 이와 동등한 것을 포함하여, 다른 컴퓨팅 시스템 구성도 적용될 수 있을 것이라고 인식할 것이다. 하나의 구현은 태스크가 통신 네트워크에 의해 접속된 원격 프로세싱 디바이스에 의해서 실시되는 분산 컴퓨팅 환경을 포함한다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬과 리모트 메모리 저장 장치 모두에 위치할 수 있다.
도 1을 참조하면, 다양한 방법을 실시하기에 적합한 예시적인 시스템이 도시 되어 있다. 시스템은 종래 PC(20)과 같은 형태의 일반적인 목적의 컴퓨팅 디바이스를 구비한다. 시스템 버스는 시스템 메모리에서 프로세싱 유닛(21)과 같이 다양한 시스템 컴포넌트를 연결하며, 메모리 버스 또는 메모리 제어기, 병렬 버스 및 임의의 다양한 버스 구조일 수 있다. 시스템 메모리는 판독 전용 메모리(ROM)(24) 및 랜덤 액세스 메모리(RAM)(25)를 구비한다.
시스템 시작시와 같은 때에 PC(20) 내의 구성 요소들 간 정보의 전송을 가능하도록 하는 기초적인 루틴(fundamental routine)을 포함하는 기본적인 입/출력 시스템(26)(BIOS)은 ROM(24)에 저장된다. PC(20)는 하드디스크로부터 판독하거나 그에 기록하는 하드디스크 드라이브(27), 착탈식 자기 디스크(29)로부터 판독하거나 그에 기록하는 자기 디스크 드라이브(28), CD-ROM 또는 다른 광학 저장 매체와 같은 착탈식 광학 디스크(31)로부터 판독하거나 그에 기록하는 광학 디스크(30)를 구비한다. 하드디스크 드라이브(27), 자기 디스크 드라이브(28), 광학 디스크 드라이브(30)는 각각 하드디스크 드라이브 인터페이스(32), 자기 디스크 드라이브 인터페이스(33), 광학 디스크 드라이브 인터페이스(34)에 의해 시스템 버스(23)에 접속되어 있다. 드라이브와 이것과 관련된 컴퓨터로 판독 가능한 저장 매체는 컴퓨터로 판독 가능한 기계 명령어, 데이터 구조, 프로그램 모듈 및 PC(20)를 위한 다른 데이터의 비휘발성 저장소를 제공한다. 기술된 예시적인 환경은 하드디스크 드라이브(27), 착탈식 자기 디스크(29), 착탈식 광학 디스크(31)를 사용하고 있지만, 자기 카세트, 플래쉬 메모리 카드, DVD, 베르누이 카트리지, RAM, ROM, 및 이와 동종 같이 컴퓨터로 액세스 가능한 기계 명령어 및 데이터를 저장할 수 있는 컴퓨터 로 판독 가능한 저장 매체의 다른 형식도 역시 사용될 수 있을 것이라고 당업자는 알 수 있을 것이다.
수 개의 프로그램 모듈은, 운영 체제(35), 하나 이상의 어플리케이션 프로그램(36), 다른 프로그램 모듈(37) 및 프로그램 데이터(38)를 포함하여 하드디스크(27), 자기 디스크(29), 광학 디스크(31), ROM(24) 또는 RAM(25)에 저장되어 있을 수 있다. 사용자는 명령이나 정보를 PC(20)에 입력할 수 있고, 키보드(40) 및 포인팅 장치(42)와 같은 입력 장치를 통해 제어 입력을 제공할 수 있다. 포인팅 장치(42)는 마우스, 스타일러스(stylus), 무선 원격 제어 또는 다른 포인터를 포함할 수 있지만, 본 발명과 관련하여 사용자가 입력과 제어를 위한 상호작용형 디스플레이 시스템을 사용할 수 있어, 그런 기존의 포인팅 장치가 생략될 수 있다. 후술하는 설명에서 용어 '마우스'는 스크링 상의 커서의 위치를 제어하는데 유용한 임의의 포인팅 장치를 모두 포함한다. 다른 입력 장치(미도시)는 마이크, 조이스틱, 촉각 조이스틱(haptic joystick), 요크(yoke), 발 페달, 게임 패드, 위성 안테나, 스태너 등을 포함할 수 있다. 또한 PC(20)는 프린터 또는 후술할 상호작용형 디스플레이 테이블과 같은 다른 인터페이스와 통신하기 위한 블루투스 라디오 또는 다른 무선 인터페이스를 포함할 수 있다. 이들 및 다른 입/출력(I/O) 장치는 시스템 버스(23)에 연결된 I/O 인터페이스(46)를 통해 프로세싱 유닛(21)에 접속될 수 있다. 'I/O 인터페이스'라는 어구는 직렬 단자, 병렬 단자, 게임 단자, 키보드 단자 및/또는 범용 직렬 버스(USB)에 사용되는 각각의 인터페이스를 모두 포함한다. 시스템 버스(23)는 후술할 상호작용형 디스플레이(60) 내에 구비된 디지털 비디오 카메라로부터의 신호를 수신하기 위해 상호작용형 디스플레이(60)에 연결된 카메라 인터페이스(미도시)에 접속될 수 있다. 디지털 비디오 카메라는 대신에 USB 단자와 같이 적절한 직렬 I/O단자에 접속될 수 있다. 또한 시스템 버스(23)는 I/O 인터페이스(46)나 다른 인터페이스를 통해, 더 자세히 후술할 제어 신호를 광원에 제공하기 위해 상호작용형 디스플레이 내의 광원에 접속될 수 있다. 더 나아가, 시스템 버스(23)는 사용자 입력을 수신하기 위하여 I/O 인터페이스(46) 또는 다른 인터페이스를 통해 상호작용형 디스플레이 내의 광 탐지기에 접속될 수 있다. 선택적으로, 모니터(47)는 비디오 어답터(48)과 같은 적절한 인터페이스를 통해 시스템 버스(23)에 연결될 수 있다. 하지만, 후술할 상호작용형 디스플레이 시스템은 보다 풍부한 디스플레이를 제공할 수 있고 또한 사용자와 정보의 입력 및 소프트웨어 어플리케이션 제어를 위해 사용작용을 할 수 있으며, 이에 따라 바람직하게 비디오 어답터에 연결된다. 일반적으로, PC는 스피커(사운드 카드 또는 다른 오디오 인터페이스를 통해 - 미도시)나 프린터와 같은 다른 주변 출력 장치(미도시)에 연결될 수 있다.
후술하는 특정 방법은 PC(20) 또한 원격 컴퓨터(49)와 같이 하나 이상의 원격 컴퓨터로의 논리 접속을 사용하는 네트워크 환경에서 작동될 수 있음에도 불구하고 단일 기계에서 실행될 수 있다. 원격 컴퓨터(49)는 다른 PC, 서버(PC와 같이 구성될 수 있는), 라우터, 네트워크 PC, 피어 장치 또는 위성 또는 다른 공통 네트워크 노드(common network node)(모두 도시된 것은 아님)일 수 있고, 외부 메모리 저장 장치(50)만이 도 1에 도시되었지만 통상적으로 PC(20)과 관련된 모든 또는 많 은 구성 요소를 포함한다. 도 1에 도시된 논리 접속은 LAN(local area network)(51), WAN(wide area network)(52)을 포함한다. 그런 네트워크 환경은 사무실, 기업-와이드 컴퓨터 네트워크(enterprise-wide computer network), 인트라넷 및 인터넷에 공통이다.
LAN 네트워크 환경에서 사용될 때, PC(20)는 네트워크 인터페이스 또는 어답터(53)를 통해 LAN(21)에 접속된다. WAN 네트워크 환경에서 사용될 때, PC(20)는 통상적으로 인터넷과 같은 WAN(52)상에서 통신을 수립하기 위하여, 모뎀(54) 또는 케이블 모뎀, 디지털 섭스크라이버 라인(Digital Subscriber Line; DSL) 인터페이스 또는 집적 서비스 디지털 네트워크(Intergrated Service Digital Network; ISDN) 인터페이스와 같은 다른 수단을 구비한다. 내부, 외부에 설치되어 있을 수 있는 모뎀(54)은 시스템 버스(23)에 연결되어 있거나, I/O 장치 인터페이스(46) 즉, 직렬 단자를 통해 버스에 연결되어 있다. 네트워크 환경에서, PC(20)에 의해 사용되는 프로그램 모듈 또는 그것에 대한 부분은 원격 메모리 저장 장치에 저장될 수 있다. 이곳에 나타난 네트워크 접속은 예시적이며, 무선 통신 및 광대역 네트워크 링크와 같은 컴퓨터 간 통신 링크를 수립하는 방법이 사용될 수 있음이 이해되어야 한다.
예시적인 상호작용 표면
도 2에서, 프레임(62) 내에 PC(20)를 포함하는 예시적인 상호작용형 디스플레이 테이블(60)이 나타나 있으며, 이는 컴퓨터를 위한 비디오 디스플레이 장치 및 광학 입력 장치로서 기능을 한다. 도시된 실시예는 상호작용형 디스플레이 테이블(60)의 일 구현의 단면도이다. 도 2에 나타난 실시예에서 텍스트와 그래픽 이미지를 디스플레이하는데 사용되는 광선(82a-82c)은 점선으로 나타나있고, 상호작용형 디스플레이 테이블(60)의 상호작용형 디스플레이 표면(64) 상의 또는 바로 위의 물체를 감지하는 적외선은 파선으로 나타나있다. 테이블 표면의 주변은 사용자의 팔을 지지하거나, 또는 그래픽 이미지 또는 상호작용형 디스플레이 표면(64)상에 디스플레이된 가상 환경과 상호작용할 수 있는 객체를 포함하는 다른 객체를 지지하는데 유용하다.
스캐닝 광원(66)은 두 직교 좌표(즉, X, Y 방향)에서 스캐닝하도록 구동되는 발광 다이오드(light emiting diode; LED), 레이저 다이오드 및 다른 적절한 스캐닝 광원과 같은 임의의 다양한 광 발생 장치를 포함할 수 있다. 스캐닝 광원(66)과 이하에서 논의된 다른 스캐닝 광원들 각각을 위해 사용되는 스캐닝 메커니즘은 거울, 검류계 거울(galvanometer mirror)의 회전 또는 광선으로 표면을 래스터 스캐닝하는데 일반적으로 사용되는 다른 공지의 스캐닝 메커니즘일 수 있다. 일반적으로, 스캐닝 광원(66)은 인간의 눈으로 볼 수 없는 적외선 스펙트럼의 파장을 가진 광을 발생하도록 구성되어 있다. 하지만, 상호작용형 디스플레이 표면(64) 상에 제공되어 보여지는 이미지의 디스플레이를 방해하지 못하도록, 인간의 눈으로 볼 수 없는 임의의 파장의 광이 사용될 수 있다. 스캐닝 광원(66)은 사용되는 특정 광원에 따라서, 프레임(62)의 내측 임의의 위치에 탑재될 수 있다. 파선(78a, 78b, 78c)에 의해 표시된 바와 같이, 스캐닝 광원(66)에 의해 발생 된 광은 상호작용형 디스플레이 표면(64) 중 아래쪽 면을 향해 위쪽으로 유도된다. 스캐닝 광원(66)에 의해 발생된 광은, 피지 (sheet of vellum) 또는 광을 산란시키는 특성을 가진 다른 적절한 반투명 재료를 포함하는 테이블의 반투명 층(64a)을 통과한 후 상호작용형 디스플레이 표면(64) 상의 또는 근접한 임의의 객체로부터 반사된다.
특허 청구 범위와 상세한 설명에 사용된 용어 '근접한'은, 객체가 상호작용형 디스플레이 표면에 접촉했거나, 객체의 반사도와 같은 요인에 따라서 상호작용형 디스플레이 표면으로부터, 예를 들어 3cm 정도 또는 그 이상의, 근거리만큼 떨어진 경우를 모두 포함한다. 단지 하나의 스캐닝 광원(66)이 나타나 있지만, 복수의 이와 같은 스캐닝 광원이, 상호작용형 디스플레이 표면에 균일한 조사(照射)를 제공하기 위해 프레임(62)의 내측 주위의 이격된(spaced-apart) 위치에 탑재되어 있을 수 있음이 이해되어야 한다. 파선(78a)에 의해 나타난 바와 같이, 스캐닝 광원(66)에 의해 발생한 광은 아무 객체에도 조사(照射)되지 않은 채 테이블 표면을 통해 빠져 나가거나; 파선(78b)에 의해 표시된 바와 같이, 테이블 표면상의 객체에 조사(照射)되거나/조사(照射)하고; 파선(78c)에 의해 표시된 바와 같이, 테이블 표면에 접촉하지는 않았지만 근거리 상의(즉, 근접한) 객체에 조사(照射)될 수 있다.
상호작용형 디스플레이 표면(64) 상의 객체는 디스플레이 표면에 놓여 있거나 적어도 부분적으로 접촉해 있는 '접촉(touch)' 객체(76a) 및 상호작용형 디스플레이 표면에 실제로 접촉해 있지는 않지만 가까이 있는 '부양(hover)' 객체(76b)를 포함한다. 그러므로, 접촉 객체 및 부양 객체는 모두 디스플레이 표면에 '근접(adjacent)'해 있을 수 있고, 이 용어는 후술하는 설명에 사용된다. 상호작용형 디스플레이 표면을 통과하는 광을 산란시키기 위해 상호작용형 디스플레이 표면 아래에 반투명 층(64a)을 사용함으로써, 그 결과 상호작용형 디스플레이 표면(64)의 위로 접근함에 따라, 객체로부터 반사되는 적외선의 양은 객체가 실제로 디스플레이 표면에 접촉할 때 최고로 상승하게 된다.
도 2에 나타나 있는 바와 같이, 광 탐지기(68)는 상호작용형 디스플레이 표면 위의 '접촉' 객체 또는 '부양' 객체(즉, 근접한)로부터 반사된 적외선을 탐지하기 위해 적합한 위치로서, 상호작용형 디스플레이 표면(64) 아래의 프레임(62)에 탑재된다. 일반적으로, 광 탐지기(68)는 상호작용형 디스플레이 표면(64) 상의/근접한 객체로부터 반사된 광을 탐지하는데 적합한 임의의 광 탐지 장치일 수 있다. 예를 들어, 광 탐지기(68)는 면 CMOS(area CMOS) 또는 면 CCD(area charged coupled device; area CCD) 센서일 수 있다. 도 2에 나타난 구현은 하나의 광 탐지기(68)를 도시하지만, 복수의 광 탐지기(68)가 상호작용형 디스플레이(60) 내에 사용될 수 있다. 광 탐지기(68)에는 적외선만을 통과시키고 점선(84a)을 따라 상호작용형 디스플레이 표면(64)을 통해 들어오는 주변의 가시광선은 차단시키는 적외선 필터(86a)가 설치될 수 있다. 이 구현에서, 광 탐지기(68)가 상호작용형 디스플레이 표면(64)에 근접한 객체로부터 반사된 적외선에만 반응하는 출력 신호를 발생하는 것이 바람직하기 때문에, 스캐닝 광원(66)과 광 탐지기(68) 사이에 배플(baffle)(79)을 놓아, 스캐닝 광원(66)으로부터 직접 나온 적외선이 광 탐지기(68)로 입사되지 못하도록 차단한다. 광 탐지기(68)는 점선(84a)에 의해 나타난 경로를 통해 들어오는 외부 적외선을 포함하여, 위에서부터 상호작용형 디스플레이 표면(64)을 통과하여 상호작용형 디스플레이의 내부로 들어오는 주변광에 포함되어 있는 임의의 적외선에도 반응을 할 수 있다는 것은 명백할 것이다.
테이블 표면 상의 또는 그보다 위의 객체로부터 반사된 적외선은 (a)파선(80a, 80b)으로 표시된 바와 같이 반투명층(64a)과 적외선 통과 필터(86a)를 통과해 광 탐지기(68)로 들어가거나; (b)파선(80c)으로 표시된 바와 같이 광 탐지기(68)로 입사되지 않고 상호작용형 디스플레이(60)의 다른 내부 표면에 의해 반사되거나 흡수될 수 있다.
반투명 층(64a)은 반사 및 입사 적외선을 모두 산란시킨다. 그러므로, 전술한 바와 같이, 상호작용형 디스플레이 표면(64)에 더 가까이에 접근한 부유 객체(76b)와 같은 '부유' 객체는 디스플레이 표면으로부터 더 멀리 떨어진, 같은 반사율의 객체보다 더 많은 적외선을 반사할 것이다. 광 탐지기(68)는 그것의 작동 영역 내에 '접촉', '부유' 객체에서 반사된 적외선을 감지하고, 수신되는 적외선에 따라서 탐지 신호를 발생한다. 이 탐지 신호는 각 객체의 위치, 및 선택적으로는 객체의 크기, 방향, 모양, 궤적과 같은 다른 파라미터를 결정하기 위한 프로세싱을 위하여 PC(20)로 입력된다. 사용자의 팔뚝과 같은 객체의 일부는 테이블 위에 있을 수 있는 반면, 사용자의 손가락과 같은 다른 부분은 테이블에 접촉해 있을 수 있음을 주목해야 한다. 또한, 객체와 관련된 다른 파라미터도 탐지될 수 있다. 예를 들어, 객체는 그 객체 또는 그 객체가 구성원으로 속하는 관련 객체들의 계층에 따라 특정되는 적외선 반사 패턴 또는 바코드와 같은 부호화된 식별자를 그것의 아래면에 포함할 수 있다. 따라서, 객체 및/또는 반사 패턴으로부터 반사된 적외선에 응답하여 하나 이상의 광 탐지기(68)로부터의 탐지 신호는 그 객체의 파라미터 또는 그 객체와 관련된 다른 파라미터를 결정할 때뿐만 아니라, 그러한 각각의 특정 객체를 탐지하는데 사용될 수 있다.
실시예들은 객체로부터 반사된 적외선을 이용하여 그것의 특성을 탐지함으로써 다른 정보뿐만 아니라, 객체 및/또는 상호작용형 디스플레이 표면(64)에 상대적인 객체의 위치를 식별하는데 사용가능하다. 객체, 그것의 방향 및 다른 파라미터를 식별하고 탐지하기 위해 실행되는 논리 단계의 상세는 2005. 3. 31 출원된 출원 번호 10/814,577, '코딩패턴을 식별하여 상호작용형 디스플레이 표면상의 객체를 식별하는 방법' 및 출원 번호 10/814,761 '상호작용 표면에서의 3D 객체의 접속과 오프셋을 결정하는 방법'의 명세서에 설명되어 있다. 이 두가지 특허 출원서의 명세서와 도면은 (배경 지식으로서) 본 발명에 참조되지만, 본 특허 청구 범위의 발명에 필수적인 사항은 아니다.
PC(20)는 도 2의 실시예에 도시된 바와 같이 상호작용형 디스플레이 테이블(60)과 일체형일 수 있고, 선택적으로 도 3의 실시예에 도시된 바와 같이 상호작용형 디스플레이 테이블의 외부에 설치될 수 있다. 도 3에서, 상호작용형 디스플레이 테이블(60')은 데이터 케이블(63)을 통해 외부 PC(20)(선택적인 모니터(47)를 구비한다) 에 연결된다. 다른 방법으로, 외부 PC(20)는 무선 링크(즉, WiFi 또는 다른 적절한 라디오 신호 링크)를 통하여 상호작용형 디스플레이 테이블(60)에 연결될 수 있다. 또한 이 도면에 나타나있는 바와 같이, '0'으로서 나타난 영점과 함께 직교축 X, Y은 상호작용형 디스플레이 표면(64)에 연관되어 있다. 따로 도시하지는 않았지만, 각각의 직교 축을 따라 복수의 좌표 위치들이 채용되어, 상호작용형 디스플레이 표면(64)의 임의의 위치를 특정할 수 있음을 이해할 것이다.
만약, 상호작용형 디스플레이 테이블(60')이 외부 PC(20)(도 3과 같이) 또는 셋톱박스(set top box), 비디오 게임, 랩탑 컴퓨터 또는 미디어 컴퓨터(미도시)와 같은 다른 형식의 외부 컴퓨팅 장치에 연결되었다면, 상호작용형 디스플레이 테이블(60)은 입/출력 장치를 포함한다. 상호작용형 디스플레이 테이블(60')의 전원은 기존의 AC 전원(미도시)에 연결되어 있는 전원 리드(61)를 통해서 공급된다. 상호작용형 디스플레이 테이블(60)에 연결된 데이터 케이블(63)은 PC(20)의 USB 2.0 단자, IEEE 1394(또는 파이어 와이어) 단자 또는 이더넷 단지(Ethernet port)에 연결될 수 있다. 무선 접속의 속도가 계속 증가 됨에 따라, 상호작용형 디스플레이 테이블(60')은 그러한 고속 무선 접속 또는 다른 적절한 유선 또는 무선 데이터 통신 링크를 통해 PC(20)과 같은 컴퓨팅 장치에 연결될 수 있다는 것도 고려될 수 있다. 상호작용형 디스플레이 시스템 내부에 설치되든, 외부에 설치되든, PC(20)는 디지털 비디오 카메라(68)로부터의 디지털 이미지를 프로세싱하기 위한 알고리즘을 실행하고, 상호작용형 디스플레이 테이블에서 보다 직관적인 사용자 인터페이스 기능을 사용하기 위해 고안된 소프트웨어 어플리케이션을 실행하며, 또한 그런 기능을 사용하기 위해서 디자인되지 않았지만 상호작용형 디스플레이 테이블의 입출력 성능을 유용하게 활용하기 위한 다른 소프트웨어 어플리케이션을 실행하기도 한다. 다른 방법으로, 상호작용형 디스플레이 시스템은 외부 컴퓨팅 장치에 연결될 수 있지만, 외부 PC에서 실행되지 않는 이미지 프로세싱 및 다른 작업을 위한 내부 컴퓨팅 장치를 구비할 수 있다.
상호작용형 디스플레이 테이블(60 또는 60')(즉, 상기 설명된 상호작용형 디스플레이 테이블의 실시예 모두)의 중요하고 강력한 특징은 상호작용형 디스플레이 표면(64)상에 게임 또는 다른 소프트웨어 어플리케이션을 위한 그래픽 이미지 또는 가상 환경을 디스플레이할 수 있는 기능과, 객체(76a)와 같이 디스플레이 표면상에 놓여 있거나, 객체(76b)와 같이 디스플레이 표면 바로 위에 떠 있는 객체(또는 그것의 특성)를 식별함으로써 사용자가 그래픽 이미지 또는 가상 환경과 상호작용할 수 있는 기능이다.
다시 도 2를 고려하면, 상호작용형 디스플레이 테이블(60)은 상호작용형 디스플레이 표면(64)에 그래픽 이미지, 가상 환경 또는 텍스트 정보를 디스플레이하기 위해 사용되는 비디오 프로젝터(70)를 구비할 수 있다. 비디오 프로젝터는 예를 들어, 해상도가 640×480인 픽셀로서, LCD(Liquid Crystal Display) 또는 디지털 광 프로세서(DLP) 형식 또는 LCoS(Liquid Crystal on Silicon) 디스플레이 형식일 수 있다. 적외선 컷 필터(IR cut filter)(86b)는 비디오 프로젝터(70)의 프로젝터 렌즈 전면부에 탑재되어, 비디오 프로젝터에 의해 발생된 적외선이 상호작용형 디스플레이 표면(64) 상의 또는 표면 위의 객체로부터 반사된 적외선과 간섭을 일으킬 수 있는 상호작용형 디스플레이의 테이블 하우징 내부로 들어가는 것을 막을 수 있다. 비디오 프로젝터(70)는 점선(82a)을 따라서 제1 거울 집합(72a)을 향해 광을 투사한다. 제1 거울 집합(72a)은 비디오 프로젝터(70)로부터 수신되어 점선(82a)을 거쳐 투사된 광을 프레임(62)의 투명 개구(transparent opening)(90a)를 거쳐 점선 경로(82b)를 따라 반사시켜서, 반사된 투사광이 제2 거울 집합(72b)으로 입사하도록 한다. 제2 거울 집합(72b)은 점선(82b)으로부터의 광을 점선(82c)을 따라 프로젝트 렌즈의 초점이 존재하는 반투명 층(64a)으로 반사시켜서, 투사된 이미지가 상호작용형 디스플레이 표면(64)에서 보일 수 있도록 초점이 맞게 된다.
제1 및 제2 거울 집합의 각도를 조절하여 디스플레이 표면에 투사된 이미지가 디스플레이 표면에 정렬되는 것을 확실히 하기 위해, 정렬 장치(74a 및 74b)가 제공되며 이는 나사막대 및 회전형 조절 너트(74c)를 구비한다. 투사된 이미지를 원하는 방향으로 가리키는 것에 더해서, 이 두 거울 집합은 프로젝터(70)와 반 투명층(64a) 사이의 거리를 길게 만들어서, 프로젝터에 긴 초점거리(와 낮은 비용)의 프로젝터 렌즈를 사용할 수 있게 한다. 어떤 대안적인 구현에서는, 비디오 프로젝터 대신에 이하에서 보다 상세히 설명된 LCD 패널 또는 유기 발광 디스플레이(OLED)가 사용될 수 있다.
지금까지의 논의 및 이하의 논의는 상호작용형 디스플레이 테이블(60 및 60')의 형식 내의 상호작용형 디스플레이 장치를 설명하였다. 하지만, 상호작용형 디스플레이 표면이 반드시 일반적인 수평 테이블 윗면의 형식으로 존재해야만 하는 것은 아니라고 이해되어야 한다. 본 명세서에서 설명된 발명은 다른 형태, 곡면 및 수평형이 아닌 다른 방향의 디스플레이 평면을 포함할 수도 있고, 이들에 적합하게 적용될 수 있다. 그러므로, 후술하는 설명에는 물리적인 객체를 상호작용형 디스플레이 표면 '상에' 위치시킨다고 설명함에도 불구하고, 물리적인 객체가 디스플레이 표면에 접촉하거나, 디스플레이 표면에 근접시킴으로써, 물리적인 객체를 상호작용형 디스플레이 표면에 근접하게 위치시킬 수 있음으로 이해되어야 한다.
도 4A를 보면, 스캐닝 광원(466) 및 광 탐지기(468)를 구비하는 상호작용형 디스플레이 표면(460)이 간략하게 도시화된 단면도가 나타나 있다. 부유 객체(476a)는 디스플레이 표면(464)의 위에 나타나 있으며, 접촉 객체(476b)는 디스플레이 표면(464)과 접촉하여 나타나 있다. PC(20)는 스캐닝 광원(466) 및 광 탐지기(468)를 제어하기 위해 구성되어 있다. 일 실시예에서, 도 4B에 도시되어 있는 광 탐지기(468) 및 스캐닝 광원(466)은 통합된 스캐닝 광원 및 광 탐지기(490)로 대체되어 있어, 동일한 스캐닝 메커니즘(미도시)이 상호작용형 디스플레이 표면의 동일한 부분을 동시에 스캐닝하기 위해 스캐닝 광원 및 스캐닝 광 탐지기를 구동시킨다. 기존 기술인 '전체 면적 조사(照射)'와 대비해, 이러한 방법의 장점 중 하나는 전체 시스템 조사(照射)에 더 낮은 전원이 요구된다는 점이다. 조사선(照射線)은 공간적으로는 단면적 크기에 있어 작지만, 매우 밝아서, 조사선은 상호작용형 디스플레이 표면의 부분에 걸쳐 스캐닝되는 작은 면적에 집중된다.
동작 중에서, 상호작용형 디스플레이 시스템(460)(도 4A)은 스캐닝 광원(466)으로 상호작용형 디스플레이 표면(464)을 조사(照射)하도록 구성되어, 광원이 미리 정해진 파장의 광을 발생시키고 미리 정해진 파장의 광으로 상호작용형 디스플레이 표면의 일부를 스캐닝할 수 있게 된다. 상호작용형 디스플레이 표면은 요구되는 시간 간격에 걸쳐 전체 스캐닝 된다. 상호작용형 디스플레이 시스템(460)은 상호작용형 디스플레이 표면상의 또는 표면에 근접한 객체로부터 반사된 미리 정해진 파장의 광을 탐지하도록 구성될 수 있다. 하지만, 이하에서 설명되는 바와 같이 광 탐지기를 상호작용형 디스플레이 표면에 걸쳐 스캐닝하지 않고도, 스캐닝 광원이 미리 정해진 파장의 광으로 객체를 조사(照射)하기 때문에 반사된 광은 비스캐닝 광탐지기를 사용해서도 탐지된다.
스캐닝 광원(466)은 일반적으로 적어도 상호작용형 디스플레이 표면(464)의 지정된 표면 구역 부분에 대하여 적외선 또는 근적외선 스펙트럼의 광으로 순차적으로 스캐닝을 하도록 구성된다. 만약 복수의 스캐닝 광원(466)이 상호작용형 디스플레이 표면의 상이한 부분들을 스캐닝하도록 사용되면, 위에서 언급한 지정된 표면 구역 부분은 상호작용형 디스플레이 표면 전체 또는 그것의 일부가될 수 있다
예시적인 일 구현에서, 스캐닝 광원(466)은 크기가 4mm까지 작은 객체의 특성을 조사(照射)하기 위한 조준 광 직경을 갖는 래스터 스캐닝 발광원(laster scanning light source)이다. 이 예시적인 구현에서, 스캐닝 광원(466)은 예를 들어 대략 152×114 픽셀 크기에 대해 초당 60회의 비율로 상호작용형 디스플레이 표면(464)의 일부를 동시에 조사(照射)할 수 있다. 당업자는, 상호작용형 디스플레이 표면이 스캔 되어야만 하는 비율, 요구되는 스캐닝 광의 크기 및 다른 고려 사항들과 같은 어플리케이션에 따른 특정 요구에 따라서 임의의 조사선 크기를 갖는 스캐닝 광원(466)이 구성될 수 있다는 것을 인식할 것이다.
스캐닝 광원(466)은 일반적으로 접촉, 부유 객체(476a 및 476b)를 각각 조사(照射)하는 조사선(478a 및 478b)에 의해 나타나 있듯이 디스플레이 표면(464)에 근접한 객체를 조사(照射)하도록 구성된다. 일 실시예에서(그리고 도 3의 상호작용형 디스플레이 표면(64)을 참조하여), 스캐닝 광원(466)은 X축에 따라서 31kHz, Y축에 따라서 60Hz의 비율로 상호작용형 디스플레이 표면을 스캔하도록 구성되어있다. 가는 광선을 통한 상호작용형 디스플레이 표면의 조사(照射)는 상호작용형 디스플레이 표면에서의 스캐닝 광선의 밝기를 증가시키고, 요구되는 광선의 전력량을 줄여주며, 객체 탐지에 사용되는 광의 파장과 신호대비노이즈 비율(signal-to-noise ratio)을 비약적으로 증가시킨다. 명백하게, 그러한 시스템은 상호작용형 디스플레이 표면에 연속적인 조사(照射)를 제공하는(즉, 스캔하지 않는) 시스템보다 주변광의 영향을 상당히 덜 받는다.
광 탐지기(468)는 상호작용형 디스플레이 표면(464) 상의 또는 근접한 객체로부터 반사된 광을 탐지하도록 구성된, 선, 점 및/또는 면 광 탐지기와 같은, 임의의 광 탐지 장치일 수 있다. 도 4B에 나타난 실시예와 대응하는 일 구현에서, 통합된 스캐닝 광원 및 광 탐지기(490)는, 통합 스캐닝 광원에 의해 발생된 스캐닝 광선의 현재 제공되는 영역과 일반적으로 일치하는 상호작용형 디스플레이 표면의 영역에서의 광을 탐지하도록 구성된 캔틸레버식 진동 탐지기(cantilevered vibrating detector)를 구비한다. 이 구현은 파선(480a 및 480b)에 의해 표시된 경로를 따라 상호작용형 디스플레이 표면에 근접한 객체로부터 반사된 광을 수신하는 통합된 스캐닝 광원 및 광 탐지기(490)의 스캐닝 광 탐지기를 나타냄으로써 상세히 설명된다. 일 예시적 구현에서 통합된 스캐닝 광원 및 광 탐지기(490)의 스캐닝 광 탐지기는 700kHz 이상의 작동 대역폭을 갖고 있다. 통합된 스캐닝 광원 및 탐지기(490)는 일반적으로 스캐닝 조사(照射) 및 스캐닝 광 탐지를 위한 스캐닝 및 이미징 옵틱스(optics)를 사용한다. 상호작용형 디스플레이 시스템에 사용되기에 적합한 스캐닝 광원과 스캐닝 광 탐지기는 당업계에 잘 알려져 있고 본 명세서에 자세하게 기술될 필요는 없다.
작동 중에, 통합된 스캐닝 광원 및 광 탐지기(490)는 디스플레이 표면(464)의 일부를 조사(照射)하는 동안, 동시에 상기 상호작용형 디스플레이 표면에서 조사(照射)된 대부분의 부분 내에서 디스플레이 표면(464)상의 또는 표면에 근접한 객체로부터 반사된 광을 탐지하는(즉, 상(上)의 또는 떠있는 객체를 탐지하는)한다. 일 실례에서(미도시), 복수의 통합된 스캐닝 광원 및 광 탐지기(490) 장치는 각각 상호작용형 디스플레이 표면(464)의 다른 부분을 스캐닝하도록 구성되었다. 이러한 방법으로, 전체 상호작용형 디스플레이 표면(464)은 높은 감도의 객체 탐지가 가능하도록 복수의 스캐닝 광원에 의해 빠르게 스캐닝될 수 있다. 일 실시예에서, 상호작용형 디스플레이 표면은 복수의 상이한 근접 표면 부분으로 나누어질 수 있고, 각각은 통합된 스캐닝 광원 및 광 탐지기(490)에 의해 스캐닝될 수 있다. 보다 구체적으로, 하나의 예시적 구현은 상호작용형 디스플레이 표면(464)의 전체 가용 면적의 1/9에 해당되는 상이한 조사(照射) 지역에 각각 할당된 9개의 통합된 스캐닝 광원 및 광 탐지기(490) 장치(개별적으로는 미도시)를 구비한다.
PC(20)는 통합된 스캐닝 광원 및 광 탐지기(490)에 의해 탐지된 광을 기초로 상호작용형 디스플레이 표면에 근접한 객체의 특성을 탐지 및/또는 결정하도록 구성될 수 있고, 만약 복수의 통합된 스캐닝 광원 및 광 탐지기(490) 장치가 사용되면, PC는 복수의 스캐닝 광 탐지기 각각으로부터의 신호를 결합시켜, 하나 이상의 조사(照射) 영역에 근접할 수 있는 객체에 관한 함수를 실행할 수 있다. 그러므로, 상호작용형 디스플레이 테이블(460)은 객체로부터 반사된 광의 파라미터를 기초로 크기, 형태, 방향, 궤도 또는 객체와 관련된 하나 이상의 특성을 측정할 수 있고, 이는 하나 이상의 통합된 스캐닝 광원 및 광 탐지기(490)장치로서 상호작용형 디스플레이 표면의 하나 이상의 스캐닝된 영역을 스캐닝함으로써 제공된다.
도 5A로 넘어가면, 스캐닝 광원(566) 및 감광성 광표면(photosensitive light surface)(568)을 구비하는 상호작용형 디스플레이(560)의 도식적인 단면도가 도시되어 있다. 도 5A의 실시예는 상호작용형 디스플레이(564) 상의(예를 들어, 접촉 객체(576b)) 또는 근접한(예들 들어, 부유 객체(576b)) 객체로부터 반사된 광을 탐지하기 위해 실행될 수 있는 다른 방법의 광 탐지 시스템을 나타낸다. 스캐닝 광원(566)은 광선(578a 및 578b)을 발생시키고, 각각 객체(576a 및 576b)로부터 반사되어(예를 들어, 반사광(580a 및 580b)) 감광성 광표면(568)으로 들어간다. 예시적인 상호작용형 디스플레이 표면(564)은 LCD 또는 OLED 배열 디스플레이와 같은 평면-패널 디스플레이를 포함할 수 있다. 이 실시예에서, 감광성 광표면(568)은 스캐닝 광원(566)에 의해 발생된 광은 통과시키지만, 상호작용형 디스플레이 표면(564)에 접근한 객체로부터 반사된 입사광은 탐지한다. 감광성 광표면(568)은 일반적으로 디스플레이 표면(564)에 근접하여 위치된다. 도 5A의 실례에서 나타난 바와 같이, 감광성 광표면(568)은 상호작용형 디스플레이 표면(564) 하부에 부착된 광탐지 층일 수 있고, 디스플레이 표면과 일체화되어 형성될 수 있다.
일반적으로 감광성 광 탐지기(568)는 예를 들어, 포토트랜지스터 어레이(photo transistor array) 또는 포토다이오드 어레이(photodiode array)를 포함하는 평면 배열 탐지기이다. 일부 구현에서, 감광성 광 탐지기(568)는 디스플레이의 제조공정에서 평면-패널 디스플레이 장치와 함께 일체형으로 형성된다. 일체형 디스플레이/탐지기 장치는 표면 하부에서 입사하는 적외선 영역의 광을 쉽게 통과시킬 수 있지만, 디스플레이 위에서 반사된 같은 파장 영역의 광을 탐지할 수 있으며, 이로 인하여 가시광선 영역에서 디스플레이되는 이미지의 질에 영향을 끼치지 않는다. 이러한 방법으로 스캐닝 광원(566)으로부터의 적외선은 상호작용형 디스플레이 표면(564)에 근접한 임의의 객체를 조사(照射)하기 위하여 광 탐지기(568)를 통해 통과 가능하다. 작동 중에서, 스캐닝 광원(566)으로부터 발생한 광과 상호작용형 디스플레이 표면(564)에 근접한 객체로부터 반사된 광은 광 탐지기(568)에 영향을 미쳐서 PC(20)에 대한 입력인 탐지 신호가 발생 되도록 한다. 다른 구현에서, PC(20)는 상호작용형 디스플레이 표면(564)을 조사(照射)하기 위해 스캐닝 광원(566)을 제어하고, 상호작용형 디스플레이 표면에 근접한 객체로부터 반사된 광을 탐지하도록 구성될 수 있다. 도 4A를 참조하여 전술된 것에 따르면, 스캐닝 광원(566)은 하나의 스캐닝 광원을 사용하여 실행될 수 있고, 또는 조사(照射) 리프레시 비율(illumination refresh rate) 및 탐지 반응 감도(detection response resolution)를 최대화하기 위해 미리 정해진 시간 간격 내에 상호작용형 디스플레이(564)의 상이한 부분을 각각 조사(照射)하도록 구성된 복수의 스캐닝 광원을 사용하여 실행될 수 있다.
도 5B는 4개의 스캐닝 광원(566a-566d)이 상호작용형 디스플레이 표면(564)의 상이한 4가지 부분, 즉 부분(555, 556, 557 및 558)을 조사(照射)하도록 구성된 실시예를 도시한다. 상호작용형 디스플레이 표면의 각각의 부분은 광선(578a-578d)에 의해 나타난 바와 같이 스캐닝 광원(566a-566d) 중 서로 다른 하나에 의해 조사(照射)된다. 스캐닝 광원은 디스플레이 표면(564)에 근접한 임의의 객체를 조사(照射)하며, 이 객체는 스캐닝 광원이 조사(照射)하는 특정 부분 내에 있다. 예를 들어, '접촉' 객체(576b)는 부분(557)에 닿고 스캐닝 광원(566c)에 의해 조사(照射)된다. 부유 객체(576a)는 상호작용형 디스플레이 표면(564)의 부분(558) 근처에 나타나 있으며 스캐닝 조사광을 광 탐지기(568)로 반사시키는 것(예를 들어, 광선(580a)로서) 또한 나타나 있다. 당업자는 이미지(예를 들어, 이미지(599))가 상호작용형 디스플레이 표면상에 사용자에게 디스플레이되는 동안 이와 동시에 각각의 스캐닝 광원(566a-566d)이 객체와 사용자 입력 탐지를 위하여 상호작용형 디스플레이 표면(564)의 해당되는 부분(예를 들어, 임의의 부분(555, 556, 557 및 558))을 조사(照射)하도록 구성될 수 있는 것을 인식할 것이다.
도 5B에 나타난 실시예는 표면 또는 층으로서 형성된 일체형 평면 패널 및 감광성질의 광 탐지기 배열(568)을 구비하고, 이는 도 5C에 상세하게 나타나 있다. 이러한 장치의 어레이에서 전형적인 디스플레이 소자(540)(예를 들어, 픽셀)가 일체형 평면 패널 및 감광성질의 광 탐지기 배열(568)의 소자로서 도 5C에 나타나 있다. 그러한 배열 내의 위와 같은 장치들에서 전형적인 광 탐지기 소자(542)가 도식적으로 도 5C에 도시되어 있다. 디스플레이 소자(540)는 픽셀 또는 LCD 또는 OLED 패널의 픽셀의 클러스터일 수 있다. 광 탐지기 소자(542)는 예를 들어, 단일 장치 또는, 포토트랜지스터 또는 포토다이오드의 클러스터일 수 있다. 비록 도 5A-5C가 일체형 평면 패널 및 감광성질의 광 탐지기 배열(568)을 나타내고 있지만, 도 2, 3, 4A 및 4B를 참조하여 설명된 디스플레이 및 탐지기의 대안적인 형식이 도 5B에서 나타난 디스플레이 표면의 특정 부분을 조사(照射)하기 위한 복수의 스캐닝 광원으로 사용될 수 있음을 이해해야 한다. 이러한 경우, 스캐닝 광 탐지기는 상호작용형 디스플레이 표면의 상이한 부분과 결합 되어야하고, 스캐닝 광원으로 그 부분과 연관된 부분을 스캐닝해야 할 것이다.
도 6은 상호작용형 디스플레이 표면상의 또는 표면에 근접한 객체를 탐지하는 예시적인 방법(600)을 나타내는 흐름도이다. 방법(600)은 도 1-5를 참조하여 설명된 소자, 장치 및 기술과 함께 일부 실시예로서 실행될 수 있다. 일부 구현예에서는, 하나 이상의 방법(600)의 단계가 컴퓨터로 실행 가능한 코드 또는 기계 명령어를 포함하는 컴퓨터로 판독 가능한 기록 매체에서 구체화되어, 컴퓨터로 판독 가능한 코드가 프로세서에 의해 실행될 때 일련의 단계가 구현된다. 이하의 기술에서는 방법(600)의 다양한 단계들이 위 방법의 단계들을 수행하는 하나 이상의 컴퓨팅 시스템 프로세서의 관점에서 설명되어 있다. 일부 구현예에서는, 방법(600)의 목표를 벗어나지 않거나 다른 결과를 발생시키지 않은 채, 방법(600)의 특정 단계가 결합되어 동시에 실행되거나 다른 순서에 의해 실행될 수 있다.
단계(610)에서 상호작용형 디스플레이 표면의 일부는, 적어도 하나의 스캐닝 광원이 상호작용형 디스플레이 표면을 스캐닝함에 따라 그것에 의해 조사(照射)된다. 스캐닝 광원은 상호작용형 디스플레이 표면이 가시(可視) 그래픽 및/또는 텍스트 이미지를 능동적으로 디스플레이하는지 여부와 상관없이 상호작용형 디스플레이 표면의 일부를 조사(照射)할 수 있다. 일 구현예에서, 복수의 스캐닝 광원 각각은 상호작용형 디스플레이 표면의 상이한 특정 부분을 조사(照射)하도록 구성되어 있어서, 전체 상호작용형 디스플레이 표면은 복수의 스캐닝 광원에 의해 미리 정해진 시간 간격으로 조사(照射)된다.
단계(620)에서, 상호작용형 디스플레이 표면에 근접한 객체로부터 반사된 스캐닝 광원으로부터의 광은 스캐닝 광원이 상호작용형 디스플레이 표면의 일부를 조사(照射)할 때 광 탐지기에 의해 탐지된다. 광은 스캐닝 광원들이 상호작용형 디스플레이 표면의 일부를 조사(照射)하고 있을 때 탐지될 수 있다. 일 구현예에서, 광은 스캐닝 광원과 함께 스캐닝하도록 구성된 스캐닝 광 탐지기로서 탐지될 수 있어, 스캐닝 광원에 의해 스캐닝 된 상호작용형 디스플레이 표면의 일부가 또한 스캐닝 광 탐지기에 의해 동시에 스캐닝 된다. 스캐닝 광원 및 스캐닝 광 탐지기는 일체형일 수 있어서 함께 스캔할 수 있거나, 상호작용형 디스플레이 표면의 동일 영역을 동시에 스캐닝하도록 동기화될 수 있다. 다른 구현예에서, 광 탐지기는 스캐닝 광 탐지기가 아니고, 상호작용형 디스플레이 표면에 닿거나 떠있는 객체에서 반사된 광을 단순히 탐지하는 면 광 탐지기(area light detector)이다.
단계(630)에서 상호작용형 디스플레이 표면상의 또는 표면에 근접한 객체로부터 반사되고 광 탐지기에 의해 수신되어 탐지된 광에 대한 응답으로 출력 신호가 광 탐지기에 의해 생성된다. 일 구현예에서, 출력 신호는, 광 탐지기에 연결되며 상호작용형 디스플레이 표면에 근접한 하나 이상의 객체의 특성을 결정하거나 탐지하도록 되어있을 수 있는 컴퓨팅 시스템에 의해 처리된다. 일 실시예에서, 출력 신호는 적용되어 객체(들)의 배치 또는 상호작용형 디스플레이 표면에 근접한 하나 이상의 탐지된 객체의 특성에 기초하여 사용자 입력을 결정할 수 있다.
도 7은 상호작용형 디스플레이 표면에 근접한 객체를 탐지하도록 구성된 상호작용형 디스플레이 시스템을 통해 사용자 입력을 수신하기 위한 예시적인 방법에 대한 논리적 단계를 나타내는 또 다른 흐름도이다. 방법(700)은 도 1-5를 참조하여 설명된 소자, 장치, 기술과 함께 일부 실시예로서 실행될 수 있다. 일부 구현예에서는, 하나 이상의 방법(700)의 단계가 컴퓨터로 실행 가능한 코드 또는 기계 명령어를 포함하는 컴퓨터로 판독 가능한 기록 매체에서 구체화될 수 있어, 컴퓨터로 판독 가능한 코드가 프로세서에 의해 실행될 때 일련의 단계가 구현된다. 이하의 기술에서는 명세서에서 방법(700)의 다양한 단계들이에 위 방법의 단계들을 수행하는 하나 이상의 컴퓨팅 시스템 프로세서의 관점에서 설명되어 있다. 일부 구현예에서는, 방법(700)의 목표를 벗어나지 않거나 다른 결과를 발생시키지 않은 채, 방법(700)의 특정 단계가 결합되어 동시에 실행되거나 다른 순서에 의해 실행될 수 있다.
단계(710)에서, 복수의 스캐닝 광원 각각은 상호작용형 디스플레이 표면의 복수의 상이한 표면 구역 부분 중 하나 이상과 연관되어 있다. 일 구현예에서, 상이한 표면 구역 부분의 조합을 전부 합치면 사용자 입력을 위해 사용된 상호작용형 디스플레이 표면의 전체 면적과 실질적으로 동일하다. 복수의 스캐닝 광원 각각은 그것이 조사할 디스플레이 표면의 서로 다른 특정 부분과 연관된다.
단계(720)에서, 상호작용형 디스플레이 표면의 상이한 표면 구역 부분 각각이 미리 정해진 시간 간격 내에 복수의 스캐닝 광원 중 적어도 하나에 의해 조사(照射)된다. 일 구현예에서, 미리 정해진 시간 간격은 상호작용형 디스플레이 표면을 조사(照射)하는데 요구되는 시간을 최소화하기 위해 전체 표면 구역 부분의 갯수 및 전체 스캐닝 광원 갯수를 기초로 하여 결정된다.
단계(730)에서, 적어도 하나의 상이한 표면 구역 부분상의 또는 부분에 근접한 하나 이상의 객체로부터 반사된 광이 탐지된다. 일 구현에서, 복수의 스캐닝 광원 중 적어도 하나는 스캐닝 광원이 조사(照射)를 제공할 때 반사되는 광에 대한 근원을 제공한다. 일 구현예에서, 객체로부터 반사된 광은 스캐닝 광 탐지기로 탐지된다. 다른 구현예에서는, 예컨대 상호작용형 디스플레이 표면의 근접한 곳에 위치한 광 탐지기의 배열과 같이, 스캐닝 되지 않은 광 탐지기를 통해 광이 탐지된다.
단계(740)에서, 복수의 객체 탐지 신호는 단계(730)에서 탐지된, 하나 이상의 객체로부터 반사된 광을 기초로 발생된다. 다른 구현예에서는 발생된 복수의 광 탐지 신호들은 광 탐지기와 통신하는 컴퓨팅 시스템의 입력으로 들어간다.
단계(750)에서, 복수의 객체 탐지 신호들은 사용자 입력을 결정하기 위해 처리된다. 일 구현예에서, 사용자 입력은 상호작용형 디스플레이 표면에 근접한 하나 이상의 객체로부터 반사된 광과 관련된다. 예를 들어, 객체는 사용자 입력으로 해석될 수 있는 특정 광 반사 특성을 가질 수 있거나, 또는 객체는 사용자에 의해 상호작용형 디스플레이 표면에 가까이 위치시키면 사용자 입력을 제공하는 광학 바코드와 같은 광 반사/흡수 코드를 객체 표면에 가질 수 있다.
다른 구현은 방법(700) 중 적어도 하나의 단계를 수행할 때 상호작용형 디스플레이 표면상에 이미지를 디스플레이하는 단계 및 이에 따라 디스플레이된 이미지와 상호작용하기 위해 사용자 입력을 적용하는 단계를 구비한다.
본 발명이 선호되어 실시되는 형식 및 그것의 변형을 통해 설명되었지만, 당업자는 후술하는 청구항의 발명의 범위에 속하는 범위 내에 많은 다른 변형이 만들어질 수 있음을 이해할 것이다. 이에 따라, 발명의 범위는 전술한 실시예가 아닌 특허 청구 범위 전체로서 판단되어야 한다.

Claims (20)

  1. 객체 또는 객체에 대해 제공되는 사용자 입력을 스캐닝 광원을 사용하여 탐지하기 위한 방법- 상기 객체는 상호작용(interactive) 디스플레이 표면상에 있거나 그 표면에 근접함 -으로서,
    (a) 상호작용형 디스플레이 표면을 복수의 스캐닝 광원으로 조사(照射)하는 단계- 상기 상호작용형 디스플레이 표면은 외부 표면 및 내부 표면을 가지며, 상기 스캐닝 광원 각각은 동일한 미리 정해진 파장의 광을 방출하고, 상기 미리 정해진 파장의 상기 광으로 상기 상호작용형 디스플레이 표면의 개개의 영역들을 동시에 스캐닝하여, 시간의 경과에 따라 상호작용형 디스플레이 표면 전체가 완전히 스캐닝되도록 구성되고, 상기 상호작용형 디스플레이 표면을 조사하는 단계는 상기 복수의 스캐닝 광원이 감광성 광 표면을 지나 상기 상호작용형 디스플레이 표면쪽으로 광을 방출하여 상기 상호작용형 디스플레이 표면의 상기 외부 표면상에 있는 또는 그 표면에 근접한 객체를 조사하는 단계를 포함함 -와,
    (b) 상기 상호작용형 디스플레이 표면의 상기 외부 표면상에 있는 또는 그 표면에 근접한 객체로부터 반사된 상기 미리 정해진 파장의 광을 탐지하는 단계- 상기 반사된 광은 상기 복수의 스캐닝 광원 중 적어도 하나가 상기 미리 정해진 파장의 광으로 상기 객체를 조사(照射)함에 따라 탐지되고, 상기 감광성 광 표면은 상기 객체로부터 반사된 상기 미리 정해진 파장에 대한 탐지기로서 동작함 -
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 복수의 스캐닝 광원은 적외선 스펙트럼 내의 상기 미리 정해진 파장의 광을 방사하도록 구성된 방법.
  3. 제1항에 있어서,
    상기 탐지하는 단계는 상기 상호작용형 디스플레이 표면상에 있는 또는 그 표면에 근접한 상기 객체로부터 반사된 광을 탐지하기 위해 상기 복수의 스캐닝 광원과 동기화되어 상기 상호작용형 디스플레이 표면을 스캐닝하는 단계를 포함하는 방법.
  4. 제3항에 있어서,
    상기 탐지하는 단계는, 상기 상호작용 광 표면의 상기 스캐닝과 상기 복수의 스캐닝 광원을 서로 조절하여, 상기 미리 정해진 파장의 광으로 조사(照射)되는 구역이 객체로부터 반사된 광이 탐지되는 탐지 구역과 일치하도록 하는 단계를 포함하는 방법.
  5. 제1항에 있어서,
    상기 감광성 광 표면은 상기 상호작용형 디스플레이 표면의 내부 표면에 근접하고 상기 상호작용형 디스플레이 표면의 외부 표면에 근접한 또는 그 외부 표면과 접촉하는 상기 객체로부터 반사된 광을 탐지하는데 사용되는 유일한 광 탐지기인 방법.
  6. 제1항에 있어서,
    전체 상호작용형 디스플레이 표면에 대한 복합 출력이 제공되도록 상기 복수의 스캐닝 광원 각각에 대응하는 영역에서 상기 반사된 광을 탐지하는 단계로부터의 출력을 결합(combining)하는 단계를 더 포함하는 방법.
  7. 제1항에 있어서,
    상기 탐지하는 단계는
    (a) 상기 객체에 의해 반사된 상기 광으로부터 결정되는 상기 객체의 특성에 기초하여 상기 상호작용형 디스플레이 표면에 접촉하거나 근접한 특정 객체;
    (b) 상기 객체의 크기;
    (c) 상기 객체의 형태;
    (d) 시간의 경과에 따른 상기 객체의 궤적;
    (e) 상기 객체의 배향; 및
    (f) 상기 객체로부터 반사된 상기 광의 파라미터들에 기초하여 상기 객체와 관련된 특징
    중 적어도 하나를 탐지하는 단계를 포함하는 방법.
  8. 사용자 인터페이스 표면상에 있는 또는 그 표면에 근접한 객체를 탐지하기 위한 상호작용형 디스플레이 시스템으로서,
    (a) 그래픽 이미지가 디스플레이되는 상호작용형 디스플레이 표면- 상기 상호작용형 디스플레이 표면은 내부 표면 및 외부 표면을 가짐 -;
    (b) 복수의 스캐닝 광원- 각각의 스캐닝 광원은 동일한 파장의 광으로 상기 상호작용형 디스플레이 표면의 영역을 스캐닝하여 시간의 경과에 따라 상호작용형 디스플레이 표면 전체가 상기 복수의 스캐닝 광원에 의해 완전히 스캐닝 되도록 구성됨 -;
    (c) 상기 상호작용형 디스플레이 표면에 접촉하거나 근접한 객체로부터 반사된 광을 탐지하도록 구성된 광 탐지기- 상기 광 탐지기는 상기 상호작용형 디스플레이 표면의 내부 표면에 근접한 감광성 광 표면이고, 상기 감광성 광 표면은 상기 복수의 스캐닝 광원으로부터의 광이 자신을 통과하여 상기 상호작용형 디스플레이 표면쪽으로 전달되도록 하고 또한 상기 상호작용형 디스플레이 표면으로부터 되돌아오는 반사 광을 탐지하도록 구성됨 -; 및
    (d) 상기 복수의 스캐닝 광원 및 상기 광 탐지기와 통신하는 컴퓨팅 시스템
    을 포함하되,
    상기 컴퓨팅 시스템은 프로세서 및 상기 프로세서와 통신하는 메모리를 포함하고, 상기 메모리에는 상기 프로세서가
    (i) 상기 복수의 스캐닝 광원으로 상기 상호작용형 디스플레이 표면을 조사(照射)하는 기능;
    (ii) 상기 스캐닝 광원 각각이 상기 상호작용형 디스플레이 표면의 해당 영역을 조사(照射)하는 동안 상기 광 탐지기를 통해 상기 상호작용형 디스플레이 표면상에 있는 또는 그 표면에 근접한 객체로부터 반사된 상기 스캐닝 광원과 관련된 광을 탐지하는 기능- 상기 광 탐지기를 통한 광 탐지 기능은 광이 상기 감광성 광 표면을 통과한 이후 그리고 상기 광이 상기 객체로부터 반사된 이후 되돌아갈 때 상기 감광성 광 표면을 사용하여 광을 탐지하는 기능을 포함함 -; 및
    (iii) 상기 상호작용형 디스플레이 표면상의 또는 표면에 근접한 객체로부터 반사된 상기 탐지된 광에 기초하여 출력 신호를 발생하는 기능
    을 포함한 복수의 상호작용형 디스플레이 기능들을 실행하도록 하는 기계 명령어가 저장되는
    상호작용형 디스플레이 시스템.
  9. 제8항에 있어서,
    상기 광 탐지기는
    (a) 면 광 탐지기;
    (b) 선 광 탐지기;및
    (c) 점 광 탐지기
    중 하나인 상호작용형 디스플레이 시스템.
  10. 제9항에 있어서,
    상기 광 탐지기는 상기 스캐닝 광원 중 적어도 하나와 통합되어(integrated), 상기 광 탐지기 및 상기 적어도 하나의 스캐닝 광원은 함께 스캐닝하는
    상호작용형 디스플레이 시스템.
  11. 제10항에 있어서,
    상기 광 탐지기는 상기 스캐닝 광원 중 적어도 하나에 의해 방출된 조사광선(照射光線)과 동시에 스캐닝하는 스캐닝 광 탐지기인
    상호작용형 디스플레이 시스템.
  12. 제9항에 있어서,
    상기 면 광 탐지기는 상기 상호작용형 디스플레이 표면의 상기 내부 표면에 인접한 상기 감광성 광 표면 내에 포함되는
    상호작용형 디스플레이 시스템.
  13. 제12항에 있어서,
    상기 감광성 광 표면은 포토트랜지스터 배열인
    상호작용형 디스플레이 시스템.
  14. 제8항에 있어서,
    상기 복수의 스캐닝 광원 각각은 적외선 스펙트럼 파장의 광을 방사하도록 구성된
    상호작용형 디스플레이 시스템.
  15. 제8항에 있어서,
    상기 상호작용형 디스플레이 표면은 광 산란 층(light diffusing layer)을 더 포함하는
    상호작용형 디스플레이 시스템.
  16. 제8항에 있어서,
    상기 그래픽 이미지는
    (a) 프로젝터;
    (b) 액정 디스플레이 패널; 및
    (c) 유기 발광 디스플레이 패널
    중 하나를 통해 상기 상호작용형 디스플레이 상에 형성되는
    상호작용형 디스플레이 시스템.
  17. 제8항에 있어서,
    상기 스캐닝 광원 각각은 조준 광선(collimated light beam)을 갖는 레이저인
    상호작용형 디스플레이 시스템.
  18. 상호작용형 디스플레이 표면상에 있는 또는 그 표면에 근접한 객체를 탐지하도록 구성된 상호작용형 디스플레이로의 사용자 입력을 수신하는 방법으로서,
    (a) 복수의 스캐닝 광원들 각각을 상기 상호작용형 디스플레이 표면의 복수의 상이한 표면 구역 부분들 중 하나 이상과 연관시키는 단계- 상기 상이한 표면 구역 부분들의 조합은 사용자 입력을 수신하는데 사용되는 상기 상호작용형 디스플레이 표면의 일부를 나타냄 -;
    (b) 상기 상호작용형 디스플레이 표면의 상기 상이한 표면 구역 부분들 각각을 미리 정해진 시간 간격 내에서 동일한 광 파장을 갖는 상기 복수의 스캐닝 광원 중 적어도 하나로 동시에 조사(照射)하는 단계;
    (c) 상기 상이한 표면 구역 부분들 중 적어도 하나 상에 있는 또는 근접한 하나 이상의 객체로부터 반사된 광을 탐지하는 단계- 상기 복수의 스캐닝 광원 중 적어도 하나는 조사(照射)를 제공할 때 반사되는 광의 근원을 제공하고, 광을 탐지하는 단계는 상기 복수의 스캐닝 광원으로부터 상기 상호작용형 디스플레이 표면쪽으로 방출되는 광을 수신하는 감광성 광 표면을 사용하는 상기 반사되는 광의 탐지를 트리거링하는 단계를 포함함 -;
    (d) 상기 복수의 상이한 표면 구역 부분들 각각에 접촉한 또는 근접한 하나 이상의 객체로부터 광을 탐지하는 단계에 기초하여 복수의 객체 탐지 신호들을 발생시키는 단계- 상기 복수의 광 탐지 신호들은 상기 하나 이상의 객체로부터 반사된 광을 기술함 -; 및
    (e) 상기 사용자 입력을 수신하기 위하여 상기 복수의 객체 탐지 신호들을 처리하는 단계- 상기 사용자 입력은 상기 상호작용형 디스플레이 표면상에 있는 또는 그 표면에 근접한 하나 이상의 객체로부터 반사된 광과 연관됨 -
    를 포함하는 방법.
  19. 제18항에 있어서,
    (a) 제18항의 단계(a)-(e) 중 적어도 하나의 단계가 실행되는 동안 상기 상호작용형 디스플레이 표면에 이미지를 디스플레이하는 단계; 및
    (b) 상기 사용자 입력을 상기 디스플레이된 이미지와 상호작용하도록 적용하는 단계를 더 포함하는 방법.
  20. 제18항에 있어서,
    상기 상호작용형 디스플레이 표면의 상기 상이한 표면 구역 부분들 각각을 동시에 조사(照射)하는 단계는 넓은 구역에 걸치기보다는 작은 구역에 집중된 공간적으로 작은 크기를 갖는 복수의 단면 빔을 사용하는 단계를 포함하고,
    상기 감광성 광 표면은 상기 상호작용 표면에 근접하고, 상기 상호작용 표면과 상기 복수의 스캐닝 광원 사이에 배치되며,
    상기 감광성 광 표면은 상기 반사되는 광을 검출하는 광 탐지기를 내부에 포함하고,
    상기 스캐닝 광원은 초당 60회의 비율로 152×114 픽셀 크기에 대해 조사하는 조준 빔 직경을 갖는 래스터 스캐닝 발광원인
    방법.
KR1020087004501A 2005-08-31 2006-08-23 상호작용형 디스플레이의 표면을 위한 입력 방법 KR101298384B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/218,171 US7911444B2 (en) 2005-08-31 2005-08-31 Input method for surface of interactive display
US11/218,171 2005-08-31
PCT/US2006/032709 WO2007027471A1 (en) 2005-08-31 2006-08-23 Input method for surface of interactive display

Publications (2)

Publication Number Publication Date
KR20080038176A KR20080038176A (ko) 2008-05-02
KR101298384B1 true KR101298384B1 (ko) 2013-08-20

Family

ID=37803415

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020087004501A KR101298384B1 (ko) 2005-08-31 2006-08-23 상호작용형 디스플레이의 표면을 위한 입력 방법

Country Status (8)

Country Link
US (2) US7911444B2 (ko)
EP (1) EP1920310A4 (ko)
JP (1) JP4955684B2 (ko)
KR (1) KR101298384B1 (ko)
CN (1) CN101253464B (ko)
CA (1) CA2620149C (ko)
IL (2) IL189137A (ko)
WO (1) WO2007027471A1 (ko)

Families Citing this family (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050227217A1 (en) * 2004-03-31 2005-10-13 Wilson Andrew D Template matching on interactive surface
US7394459B2 (en) 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7787706B2 (en) * 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7593593B2 (en) * 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US8643595B2 (en) * 2004-10-25 2014-02-04 Sipix Imaging, Inc. Electrophoretic display driving approaches
JP4612853B2 (ja) * 2005-03-29 2011-01-12 キヤノン株式会社 指示位置認識装置及びそれを有する情報入力装置
US10452207B2 (en) 2005-05-18 2019-10-22 Power2B, Inc. Displays and information input devices
US8610675B2 (en) 2007-03-14 2013-12-17 Power2B, Inc. Interactive devices
US7970870B2 (en) * 2005-06-24 2011-06-28 Microsoft Corporation Extending digital artifacts through an interactive surface
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
KR20140016390A (ko) 2005-09-08 2014-02-07 파워2비, 인크. 디스플레이들 및 정보입력장치들
US8060840B2 (en) 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface
TWI311205B (en) * 2006-04-28 2009-06-21 Benq Corporatio Optical system and projector utilizing the same
US8049688B2 (en) * 2006-07-07 2011-11-01 Playvision Technologies, Inc. Apparatus and method for creating a crowd-based visual display with pixels that move independently
US7683780B2 (en) * 2006-07-24 2010-03-23 Thingmagic, Inc. Methods and apparatus for RFID tag placement
RU2485573C2 (ru) * 2006-10-12 2013-06-20 Конинклейке Филипс Электроникс Н.В. Система и способ управления светом
US8212857B2 (en) * 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
US7979315B2 (en) * 2007-03-14 2011-07-12 Microsoft Corporation Virtual features of physical items
US8243013B1 (en) 2007-05-03 2012-08-14 Sipix Imaging, Inc. Driving bistable displays
US20080303780A1 (en) 2007-06-07 2008-12-11 Sipix Imaging, Inc. Driving methods and circuit for bi-stable displays
US20090015548A1 (en) * 2007-06-28 2009-01-15 Keiko Tazaki Image projection system
WO2009049272A2 (en) * 2007-10-10 2009-04-16 Gerard Dirk Smits Image projector with reflected light tracking
US9224342B2 (en) * 2007-10-12 2015-12-29 E Ink California, Llc Approach to adjust driving waveforms for a display device
US7834956B2 (en) * 2008-03-11 2010-11-16 Microsoft Corporation Photoluminescent backlighting of and infrared transmissive visible light barrier for light valve
US8462102B2 (en) * 2008-04-25 2013-06-11 Sipix Imaging, Inc. Driving methods for bistable displays
JP4954143B2 (ja) * 2008-06-02 2012-06-13 三菱電機株式会社 位置検出装置
JP5094566B2 (ja) * 2008-06-02 2012-12-12 三菱電機株式会社 映像表示システム
US7876424B2 (en) * 2008-08-20 2011-01-25 Microsoft Corporation Distance estimation based on image contrast
US8736751B2 (en) * 2008-08-26 2014-05-27 Empire Technology Development Llc Digital presenter for displaying image captured by camera with illumination system
FI20085794A0 (fi) * 2008-08-26 2008-08-26 Multitouch Oy Vuorovaikutteinen näyttölaite
FI20080534A0 (fi) * 2008-09-22 2008-09-22 Envault Corp Oy Turvallinen ja valikoidusti kiistettävissä oleva tiedostovarasto
US8558855B2 (en) * 2008-10-24 2013-10-15 Sipix Imaging, Inc. Driving methods for electrophoretic displays
US9019318B2 (en) * 2008-10-24 2015-04-28 E Ink California, Llc Driving methods for electrophoretic displays employing grey level waveforms
CN101446872B (zh) * 2008-12-31 2012-02-29 广东威创视讯科技股份有限公司 触摸定位的方法及装置
US9251736B2 (en) 2009-01-30 2016-02-02 E Ink California, Llc Multiple voltage level driving for electrophoretic displays
US20100194789A1 (en) * 2009-01-30 2010-08-05 Craig Lin Partial image update for electrophoretic displays
CN101819490A (zh) * 2009-02-27 2010-09-01 索尼公司 反射检测设备、显示设备、电子设备和反射检测方法
JP2010204994A (ja) * 2009-03-04 2010-09-16 Epson Imaging Devices Corp 光学式位置検出装置、位置検出機能付き表示装置、および電子機器
US20100237983A1 (en) * 2009-03-20 2010-09-23 Xerox Corporation System and method for using concealed infrared identifiers to control motion-detecting social computing devices
US20110256927A1 (en) 2009-03-25 2011-10-20 MEP Games Inc. Projection of interactive game environment
US9971458B2 (en) 2009-03-25 2018-05-15 Mep Tech, Inc. Projection of interactive environment
US20110165923A1 (en) * 2010-01-04 2011-07-07 Davis Mark L Electronic circle game system
US9460666B2 (en) 2009-05-11 2016-10-04 E Ink California, Llc Driving methods and waveforms for electrophoretic displays
US8947400B2 (en) * 2009-06-11 2015-02-03 Nokia Corporation Apparatus, methods and computer readable storage mediums for providing a user interface
CN101943973A (zh) * 2009-07-03 2011-01-12 北京汇冠新技术股份有限公司 一种交互式显示器
US8289300B2 (en) * 2009-07-17 2012-10-16 Microsoft Corporation Ambient correction in rolling image capture system
US8542198B2 (en) * 2009-08-24 2013-09-24 Xerox Corporation Multi-touch input actual-size display screen for scanned items
JP5493702B2 (ja) * 2009-10-26 2014-05-14 セイコーエプソン株式会社 位置検出機能付き投射型表示装置
JP5326989B2 (ja) * 2009-10-26 2013-10-30 セイコーエプソン株式会社 光学式位置検出装置および位置検出機能付き表示装置
US8576164B2 (en) 2009-10-26 2013-11-05 Sipix Imaging, Inc. Spatially combined waveforms for electrophoretic displays
KR101608254B1 (ko) 2009-11-16 2016-04-12 삼성디스플레이 주식회사 표시장치
US11049463B2 (en) * 2010-01-15 2021-06-29 E Ink California, Llc Driving methods with variable frame time
US8558786B2 (en) * 2010-01-20 2013-10-15 Sipix Imaging, Inc. Driving methods for electrophoretic displays
CN102667689B (zh) * 2010-02-09 2015-06-03 多点触控有限公司 交互式显示器
WO2011109402A2 (en) * 2010-03-01 2011-09-09 Gerard Dirk Smits Safety device for scanned projector and illumination systems
US9224338B2 (en) * 2010-03-08 2015-12-29 E Ink California, Llc Driving methods for electrophoretic displays
JP5408026B2 (ja) * 2010-04-28 2014-02-05 セイコーエプソン株式会社 位置検出機能付き機器
JP5589547B2 (ja) * 2010-05-13 2014-09-17 セイコーエプソン株式会社 光学式検出装置、表示装置及び電子機器
US9013394B2 (en) 2010-06-04 2015-04-21 E Ink California, Llc Driving method for electrophoretic displays
TW201201077A (en) * 2010-06-18 2012-01-01 Nlighten Trading Shanghai Co Ltd A light uniforming system of projected touch technology
WO2012054231A2 (en) 2010-10-04 2012-04-26 Gerard Dirk Smits System and method for 3-d projection and enhancements for interactivity
TWI598672B (zh) 2010-11-11 2017-09-11 希畢克斯幻像有限公司 電泳顯示器的驅動方法
US9111326B1 (en) 2010-12-21 2015-08-18 Rawles Llc Designation of zones of interest within an augmented reality environment
US8845107B1 (en) 2010-12-23 2014-09-30 Rawles Llc Characterization of a scene with structured light
US9134593B1 (en) 2010-12-23 2015-09-15 Amazon Technologies, Inc. Generation and modulation of non-visible structured light for augmented reality projection system
US8845110B1 (en) 2010-12-23 2014-09-30 Rawles Llc Powered augmented reality projection accessory display device
US8905551B1 (en) 2010-12-23 2014-12-09 Rawles Llc Unpowered augmented reality projection accessory display device
US9721386B1 (en) 2010-12-27 2017-08-01 Amazon Technologies, Inc. Integrated augmented reality environment
US9508194B1 (en) 2010-12-30 2016-11-29 Amazon Technologies, Inc. Utilizing content output devices in an augmented reality environment
US9607315B1 (en) * 2010-12-30 2017-03-28 Amazon Technologies, Inc. Complementing operation of display devices in an augmented reality environment
WO2012089894A1 (en) * 2010-12-31 2012-07-05 Multitouch Oy Interactive display
US9201185B2 (en) 2011-02-04 2015-12-01 Microsoft Technology Licensing, Llc Directional backlighting for display panels
US8665244B2 (en) * 2011-02-22 2014-03-04 Microsoft Corporation Optical touch detection
US9560314B2 (en) 2011-06-14 2017-01-31 Microsoft Technology Licensing, Llc Interactive and shared surfaces
US8928735B2 (en) 2011-06-14 2015-01-06 Microsoft Corporation Combined lighting, projection, and image capture without video feedback
US9118782B1 (en) 2011-09-19 2015-08-25 Amazon Technologies, Inc. Optical interference mitigation
TW201327326A (zh) * 2011-12-30 2013-07-01 Walsin Lihwa Corp 輸入偵測投影裝置及其輸入偵測方法
GB2513498A (en) * 2012-01-20 2014-10-29 Light Blue Optics Ltd Touch sensitive image display devices
US9354748B2 (en) 2012-02-13 2016-05-31 Microsoft Technology Licensing, Llc Optical stylus interaction
US9870066B2 (en) 2012-03-02 2018-01-16 Microsoft Technology Licensing, Llc Method of manufacturing an input device
US8873227B2 (en) 2012-03-02 2014-10-28 Microsoft Corporation Flexible hinge support layer
US9158383B2 (en) 2012-03-02 2015-10-13 Microsoft Technology Licensing, Llc Force concentrator
US9075566B2 (en) 2012-03-02 2015-07-07 Microsoft Technoogy Licensing, LLC Flexible hinge spine
US9324188B1 (en) 2012-04-30 2016-04-26 Dr Systems, Inc. Manipulation of 3D medical objects
US20130300590A1 (en) 2012-05-14 2013-11-14 Paul Henry Dietz Audio Feedback
US8947353B2 (en) 2012-06-12 2015-02-03 Microsoft Corporation Photosensor array gesture detection
US9256089B2 (en) * 2012-06-15 2016-02-09 Microsoft Technology Licensing, Llc Object-detecting backlight unit
US9317109B2 (en) 2012-07-12 2016-04-19 Mep Tech, Inc. Interactive image projection accessory
US8964379B2 (en) 2012-08-20 2015-02-24 Microsoft Corporation Switchable magnetic lock
US8711370B1 (en) 2012-10-04 2014-04-29 Gerard Dirk Smits Scanning optical positioning system with spatially triangulating receivers
US8971568B1 (en) 2012-10-08 2015-03-03 Gerard Dirk Smits Method, apparatus, and manufacture for document writing and annotation with virtual ink
US9625995B2 (en) * 2013-03-15 2017-04-18 Leap Motion, Inc. Identifying an object in a field of view
WO2014198626A1 (en) 2013-06-13 2014-12-18 Basf Se Detector for optically detecting an orientation of at least one object
CN109521397B (zh) 2013-06-13 2023-03-28 巴斯夫欧洲公司 用于光学地检测至少一个对象的检测器
US20140370980A1 (en) * 2013-06-17 2014-12-18 Bally Gaming, Inc. Electronic gaming displays, gaming tables including electronic gaming displays and related assemblies, systems and methods
US9778546B2 (en) 2013-08-15 2017-10-03 Mep Tech, Inc. Projector for projecting visible and non-visible images
CN103425357A (zh) * 2013-09-04 2013-12-04 北京汇冠新技术股份有限公司 一种光学触摸屏的控制系统
US10726760B2 (en) 2013-10-07 2020-07-28 E Ink California, Llc Driving methods to produce a mixed color state for an electrophoretic display
TWI550332B (zh) 2013-10-07 2016-09-21 電子墨水加利福尼亞有限責任公司 用於彩色顯示裝置的驅動方法
US10380931B2 (en) 2013-10-07 2019-08-13 E Ink California, Llc Driving methods for color display device
CN103729096A (zh) * 2013-12-25 2014-04-16 京东方科技集团股份有限公司 交互识别系统以及显示装置
KR20160102411A (ko) * 2013-12-27 2016-08-30 소니 주식회사 표시 제어 장치, 표시 제어 방법 및 프로그램
JP6398248B2 (ja) 2014-01-21 2018-10-03 セイコーエプソン株式会社 位置検出システム、及び、位置検出システムの制御方法
US10120420B2 (en) 2014-03-21 2018-11-06 Microsoft Technology Licensing, Llc Lockable display and techniques enabling use of lockable displays
US9810913B2 (en) 2014-03-28 2017-11-07 Gerard Dirk Smits Smart head-mounted projection system
CN106461388A (zh) * 2014-06-16 2017-02-22 巴斯夫欧洲公司 用于确定至少一个对象的位置的探测器
CN106662636B (zh) 2014-07-08 2020-12-25 巴斯夫欧洲公司 用于确定至少一个对象的位置的检测器
US10324733B2 (en) 2014-07-30 2019-06-18 Microsoft Technology Licensing, Llc Shutdown notifications
US9377533B2 (en) 2014-08-11 2016-06-28 Gerard Dirk Smits Three-dimensional triangulation and time-of-flight based tracking systems and methods
US9652082B1 (en) * 2014-08-20 2017-05-16 Amazon Technologies, Inc. Space efficient electronic device component configurations
JP6637980B2 (ja) 2014-12-09 2020-01-29 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se 光学検出器
CN107438775B (zh) 2015-01-30 2022-01-21 特里纳米克斯股份有限公司 用于至少一个对象的光学检测的检测器
US10043282B2 (en) 2015-04-13 2018-08-07 Gerard Dirk Smits Machine vision for ego-motion, segmenting, and classifying objects
US10126636B1 (en) * 2015-06-18 2018-11-13 Steven Glenn Heppler Image projection system for a drum
WO2017012986A1 (en) 2015-07-17 2017-01-26 Trinamix Gmbh Detector for optically detecting at least one object
JP6755316B2 (ja) 2015-09-14 2020-09-16 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング 少なくとも1つの物体の少なくとも1つの画像を記録するカメラ
JP6623636B2 (ja) * 2015-09-16 2019-12-25 カシオ計算機株式会社 位置検出装置およびプロジェクタ
WO2017106875A1 (en) 2015-12-18 2017-06-22 Gerard Dirk Smits Real time position sensing of objects
US9813673B2 (en) 2016-01-20 2017-11-07 Gerard Dirk Smits Holographic video capture and telepresence system
TWI653563B (zh) * 2016-05-24 2019-03-11 仁寶電腦工業股份有限公司 投影觸控的圖像選取方法
EP3491675B1 (en) 2016-07-29 2022-11-16 trinamiX GmbH Optical sensor and detector for optical detection
WO2018077870A1 (en) 2016-10-25 2018-05-03 Trinamix Gmbh Nfrared optical detector with integrated filter
US11428787B2 (en) 2016-10-25 2022-08-30 Trinamix Gmbh Detector for an optical detection of at least one object
EP3532863A4 (en) 2016-10-31 2020-06-03 Gerard Dirk Smits FAST SCAN LIDAR WITH DYNAMIC VOXEL PROBE
US10062262B2 (en) * 2016-11-16 2018-08-28 The Nielsen Company (Us), Llc People metering enhanced with light projection prompting for audience measurement
KR102452770B1 (ko) 2016-11-17 2022-10-12 트리나미엑스 게엠베하 적어도 하나의 대상체를 광학적으로 검출하기 위한 검출기
US11860292B2 (en) 2016-11-17 2024-01-02 Trinamix Gmbh Detector and methods for authenticating at least one object
CN110226184B (zh) 2016-12-27 2023-07-14 杰拉德·迪尔克·施密茨 用于机器感知的系统和方法
WO2018193045A1 (en) 2017-04-20 2018-10-25 Trinamix Gmbh Optical detector
WO2018209096A2 (en) 2017-05-10 2018-11-15 Gerard Dirk Smits Scan mirror systems and methods
KR102568462B1 (ko) 2017-06-26 2023-08-21 트리나미엑스 게엠베하 적어도 하나의 대상체의 위치를 결정하는 검출기
US10591605B2 (en) 2017-10-19 2020-03-17 Gerard Dirk Smits Methods and systems for navigating a vehicle including a novel fiducial marker system
WO2019148214A1 (en) 2018-01-29 2019-08-01 Gerard Dirk Smits Hyper-resolved, high bandwidth scanned lidar systems
US11756330B2 (en) * 2018-09-29 2023-09-12 Boe Technology Group Co., Ltd. Biometric sensor, display apparatus, and method for detecting biometric information
CN109376616B (zh) * 2018-09-29 2021-08-17 京东方科技集团股份有限公司 指纹识别器件、其指纹识别方法及显示装置
US11372320B2 (en) 2020-02-27 2022-06-28 Gerard Dirk Smits High resolution scanning of remote objects with fast sweeping laser beams and signal recovery by twitchy pixel array

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001350586A (ja) 2000-06-09 2001-12-21 Keio Gijuku 位置入力装置
US6840627B2 (en) 2003-01-21 2005-01-11 Hewlett-Packard Development Company, L.P. Interactive display device
WO2005057399A2 (en) 2003-12-09 2005-06-23 Reactrix Systems, Inc. Self-contained interactive video display system
WO2005057921A2 (en) 2003-12-09 2005-06-23 Reactrix Systems, Inc. Self-contained interactive video display system

Family Cites Families (171)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4586817A (en) 1984-02-27 1986-05-06 Rca Corporation Method for determining the MTF of a viewing window
US4972093A (en) 1987-10-09 1990-11-20 Pressco Inc. Inspection lighting system
US4896029A (en) * 1988-04-08 1990-01-23 United Parcel Service Of America, Inc. Polygonal information encoding article, process and system
JP2692863B2 (ja) 1988-06-24 1997-12-17 株式会社東芝 無線電話装置
US4992650A (en) 1990-03-29 1991-02-12 International Business Machines Corporation Method and apparatus for barcode recognition in a digital image
AU8096391A (en) * 1990-05-23 1991-12-10 Brian M. Mann Computer aided design system utilizing large surface image
US5153418A (en) * 1990-10-30 1992-10-06 Omniplanar, Inc. Multiple resolution machine readable symbols
ATE180911T1 (de) * 1991-07-11 1999-06-15 United Parcel Service Inc System und verfahren zur erfassung eines optischen zieles
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5319214A (en) 1992-04-06 1994-06-07 The United States Of America As Represented By The Secretary Of The Army Infrared image projector utilizing a deformable mirror device spatial light modulator
US5821930A (en) 1992-08-23 1998-10-13 U S West, Inc. Method and system for generating a working window in a computer system
US7084859B1 (en) 1992-09-18 2006-08-01 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US5515452A (en) 1992-12-31 1996-05-07 Electroglas, Inc. Optical character recognition illumination method and system
US5461417A (en) 1993-02-16 1995-10-24 Northeast Robotics, Inc. Continuous diffuse illumination method and apparatus
US5436639A (en) 1993-03-16 1995-07-25 Hitachi, Ltd. Information processing system
US5526177A (en) 1994-02-14 1996-06-11 Mobi Corporation Dual-view, immersible periscope
US5541419A (en) 1994-03-21 1996-07-30 Intermec Corporation Symbology reader wth reduced specular reflection
ATE169754T1 (de) * 1994-06-07 1998-08-15 United Parcel Service Inc Verfahren und gerät zu dekodierung von zweidimensionalen zeichen im raumbereich
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
JP3416268B2 (ja) 1994-06-30 2003-06-16 キヤノン株式会社 画像認識装置及びその方法
US5835692A (en) 1994-11-21 1998-11-10 International Business Machines Corporation System and method for providing mapping notation in interactive video displays
US5900863A (en) 1995-03-16 1999-05-04 Kabushiki Kaisha Toshiba Method and apparatus for controlling computer without touching input device
US5831601A (en) 1995-06-07 1998-11-03 Nview Corporation Stylus position sensing and digital camera with a digital micromirror device
US5920688A (en) 1995-11-13 1999-07-06 International Business Machines Corporation Method and operating system for manipulating the orientation of an output image of a data processing system
US6750877B2 (en) 1995-12-13 2004-06-15 Immersion Corporation Controlling haptic feedback for enhancing navigation in a graphical environment
GB9603330D0 (en) * 1996-02-16 1996-04-17 Thomson Training & Simulation A method and system for determining the point of contact of an object with a screen
US6061091A (en) 1996-05-30 2000-05-09 Agfa Gevaert N.V. Detection of and correction for specular reflections in digital image acquisition
US5909501A (en) * 1996-09-09 1999-06-01 Arete Associates Systems and methods with identity verification by comparison and interpretation of skin patterns such as fingerprints
JP3321053B2 (ja) 1996-10-18 2002-09-03 株式会社東芝 情報入力装置及び情報入力方法及び補正データ生成装置
GB9622556D0 (en) 1996-10-30 1997-01-08 Philips Electronics Nv Cursor control with user feedback mechanism
FR2756077B1 (fr) 1996-11-19 1999-01-29 Opto System Ecran tactile et dispositif de visualisation utilisant cet ecran tactile
JP2815045B2 (ja) * 1996-12-16 1998-10-27 日本電気株式会社 画像特徴抽出装置,画像特徴解析装置,および画像照合システム
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6266061B1 (en) 1997-01-22 2001-07-24 Kabushiki Kaisha Toshiba User interface apparatus and operation range presenting method
US5942762A (en) 1997-01-29 1999-08-24 Accu-Sort Systems, Inc. CCD scanner having improved specular reflection discrimination
US6088612A (en) 1997-04-04 2000-07-11 Medtech Research Corporation Method and apparatus for reflective glare removal in digital photography useful in cervical cancer detection
JP3968477B2 (ja) 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
JP4296607B2 (ja) * 1997-08-06 2009-07-15 ソニー株式会社 情報入出力装置及び情報入出力方法
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6201601B1 (en) 1997-09-19 2001-03-13 Kla-Tencor Corporation Sample inspection system
US20040057045A1 (en) 2000-12-21 2004-03-25 Mehdi Vaez-Iravani Sample inspection system
JP3794180B2 (ja) 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
US6088019A (en) 1998-06-23 2000-07-11 Immersion Corporation Low cost force feedback device with actuator for non-primary axis
US5940076A (en) 1997-12-01 1999-08-17 Motorola, Inc. Graphical user interface for an electronic device and method therefor
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP2938420B2 (ja) 1998-01-30 1999-08-23 インターナショナル・ビジネス・マシーンズ・コーポレイション ファンクション選択方法及び装置、ファンクションを選択するための制御プログラムを格納した記憶媒体、オブジェクトの操作方法及び装置、オブジェクトを操作するための制御プログラムを格納した記憶媒体、複合アイコンを格納した記憶媒体
US5973315A (en) 1998-02-18 1999-10-26 Litton Systems, Inc. Multi-functional day/night observation, ranging, and sighting device with active optical target acquisition and method of its operation
US6154214A (en) 1998-03-20 2000-11-28 Nuvomedia, Inc. Display orientation features for hand-held content display device
US6225620B1 (en) 1998-03-31 2001-05-01 Key Technology, Inc. Peach pit detection apparatus and method
US6448987B1 (en) 1998-04-03 2002-09-10 Intertainer, Inc. Graphic user interface for a digital content delivery system using circular menus
US6269172B1 (en) 1998-04-13 2001-07-31 Compaq Computer Corporation Method for tracking the motion of a 3-D figure
US6111565A (en) 1998-05-14 2000-08-29 Virtual Ink Corp. Stylus for use with transcription system
US6400836B2 (en) * 1998-05-15 2002-06-04 International Business Machines Corporation Combined fingerprint acquisition and control device
US6956963B2 (en) 1998-07-08 2005-10-18 Ismeca Europe Semiconductor Sa Imaging for a machine-vision system
US7268774B2 (en) 1998-08-18 2007-09-11 Candledragon, Inc. Tracking motion of a writing instrument
US6088482A (en) 1998-10-22 2000-07-11 Symbol Technologies, Inc. Techniques for reading two dimensional code, including maxicode
JP2000148375A (ja) * 1998-11-11 2000-05-26 Seiko Epson Corp 入力システム及び投射型表示システム
JP4043128B2 (ja) 1999-02-24 2008-02-06 富士通株式会社 光走査型タッチパネル
DE19917660A1 (de) 1999-04-19 2000-11-02 Deutsch Zentr Luft & Raumfahrt Verfahren und Eingabeeinrichtung zum Steuern der Lage eines in einer virtuellen Realität graphisch darzustellenden Objekts
US6633338B1 (en) 1999-04-27 2003-10-14 Gsi Lumonics, Inc. Programmable illuminator for vision system
US6522395B1 (en) 1999-04-30 2003-02-18 Canesta, Inc. Noise reduction techniques suitable for three-dimensional information acquirable with CMOS-compatible image sensor ICS
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6788411B1 (en) 1999-07-08 2004-09-07 Ppt Vision, Inc. Method and apparatus for adjusting illumination angle
US6433907B1 (en) * 1999-08-05 2002-08-13 Microvision, Inc. Scanned display with plurality of scanning assemblies
US6529183B1 (en) 1999-09-13 2003-03-04 Interval Research Corp. Manual interface combining continuous and discrete capabilities
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
US6710770B2 (en) 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
GB2356996A (en) 1999-12-03 2001-06-06 Hewlett Packard Co Improvements to digital cameras
JP2001183994A (ja) 1999-12-27 2001-07-06 Sony Corp 画像表示装置
JP2001282445A (ja) 2000-03-31 2001-10-12 Ricoh Co Ltd 座標入力/検出装置および情報表示入力装置
EP1143372B1 (en) * 2000-04-06 2006-03-22 Seiko Epson Corporation Method of and apparatus for reading a two-dimensional bar code symbol and data storage medium
US7859519B2 (en) * 2000-05-01 2010-12-28 Tulbert David J Human-machine interface
JP2001337978A (ja) 2000-05-26 2001-12-07 Takashi Mine デジタル情報入力システム
US6690363B2 (en) 2000-06-19 2004-02-10 Next Holdings Limited Touch panel display system
US8287374B2 (en) * 2000-07-07 2012-10-16 Pryor Timothy R Reconfigurable control displays for games, toys, and other applications
US6812907B1 (en) * 2000-07-19 2004-11-02 Hewlett-Packard Development Company, L.P. Segmented electronic display
JP3423676B2 (ja) * 2000-07-19 2003-07-07 キヤノン株式会社 仮想対象物操作装置および仮想対象物操作方法
US7161578B1 (en) 2000-08-02 2007-01-09 Logitech Europe S.A. Universal presentation device
US6714221B1 (en) 2000-08-03 2004-03-30 Apple Computer, Inc. Depicting and setting scroll amount
US6791530B2 (en) 2000-08-29 2004-09-14 Mitsubishi Electric Research Laboratories, Inc. Circular graphical user interfaces
US7327376B2 (en) 2000-08-29 2008-02-05 Mitsubishi Electric Research Laboratories, Inc. Multi-user collaborative graphical user interfaces
US7009704B1 (en) 2000-10-26 2006-03-07 Kla-Tencor Technologies Corporation Overlay error detection
US6788813B2 (en) 2000-10-27 2004-09-07 Sony Corporation System and method for effectively performing a white balance operation
US7095401B2 (en) 2000-11-02 2006-08-22 Siemens Corporate Research, Inc. System and method for gesture interface
US7128266B2 (en) 2003-11-13 2006-10-31 Metrologic Instruments. Inc. Hand-supportable digital imaging-based bar code symbol reader supporting narrow-area and wide-area modes of illumination and image capture
JP2002232849A (ja) * 2000-11-30 2002-08-16 Ricoh Co Ltd インターフェース装置
US6781069B2 (en) 2000-12-27 2004-08-24 Hewlett-Packard Development Company, L.P. Method and apparatus for virtual interaction with physical documents
US6600475B2 (en) 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US6925611B2 (en) 2001-01-31 2005-08-02 Microsoft Corporation Navigational interface for mobile and wearable computers
US6520648B2 (en) 2001-02-06 2003-02-18 Infocus Corporation Lamp power pulse modulation in color sequential projection displays
US6895104B2 (en) 2001-02-16 2005-05-17 Sac Technologies, Inc. Image identification system
GB2372391A (en) 2001-02-16 2002-08-21 Hewlett Packard Co Removal of specular reflection
WO2002073514A2 (en) 2001-03-08 2002-09-19 Moore North America, Inc. Method and apparatus for reducing specular reflection from a scannable surface
US6888960B2 (en) 2001-03-28 2005-05-03 Nec Corporation Fast optimal linear approximation of the images of variably illuminated solid objects for recognition
US6804396B2 (en) 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
GB2375676A (en) 2001-05-17 2002-11-20 Hewlett Packard Co Reducing the effects of specular reflections appearing in an image
US6959102B2 (en) 2001-05-29 2005-10-25 International Business Machines Corporation Method for increasing the signal-to-noise in IR-based eye gaze trackers
JP2002352229A (ja) 2001-05-30 2002-12-06 Mitsubishi Electric Corp 顔部位検出装置
US6639594B2 (en) 2001-06-03 2003-10-28 Microsoft Corporation View-dependent image synthesis
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
JP4104545B2 (ja) 2001-07-03 2008-06-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 対話型ディスプレイ及びメッセージを表示する方法
US6478432B1 (en) 2001-07-13 2002-11-12 Chad D. Dyner Dynamically generated interactive real imaging device
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
US7058217B2 (en) 2001-09-28 2006-06-06 Nec Laboratories America, Inc. Broadened-specular reflection and linear subspaces for object recognition
US6663244B1 (en) 2001-12-14 2003-12-16 Infocus Corporation Illumination field blending for use in subtitle projection systems
US20040005920A1 (en) 2002-02-05 2004-01-08 Mindplay Llc Method, apparatus, and article for reading identifying information from, for example, stacks of chips
AU2003217587A1 (en) 2002-02-15 2003-09-09 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7006080B2 (en) * 2002-02-19 2006-02-28 Palm, Inc. Display system
US7305115B2 (en) 2002-02-22 2007-12-04 Siemens Energy And Automation, Inc. Method and system for improving ability of a machine vision system to discriminate features of a target
JP2003258189A (ja) * 2002-03-01 2003-09-12 Toshiba Corp 半導体装置及びその製造方法
US6813016B2 (en) 2002-03-15 2004-11-02 Ppt Vision, Inc. Co-planarity and top-down examination method and optical module for electronic leaded components
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7006128B2 (en) 2002-05-30 2006-02-28 Siemens Corporate Research, Inc. Object detection for sudden illumination changes using order consistency
JP2004259247A (ja) 2002-06-21 2004-09-16 Mitsubishi Electric Research Laboratories Inc マルチユーザコラボラティブ円形グラフィカルユーザインタフェース
US20040001113A1 (en) 2002-06-28 2004-01-01 John Zipperer Method and apparatus for spline-based trajectory classification, gesture detection and localization
AU2003262746A1 (en) 2002-08-20 2004-03-11 Fusionarc, Inc. Method of multiple algorithm processing of biometric data
US7120280B2 (en) 2002-09-27 2006-10-10 Symbol Technologies, Inc. Fingerprint template generation, verification and identification system
US20060034492A1 (en) 2002-10-30 2006-02-16 Roy Siegel Hand recognition system
US7390092B2 (en) 2002-11-08 2008-06-24 Belliveau Richard S Image projection lighting devices with visible and infrared imaging
WO2004079658A1 (ja) 2003-03-07 2004-09-16 Nippon Telegraph And Telephone Corporation 生体画像照合装置およびその照合方法
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
JP2004304718A (ja) 2003-04-01 2004-10-28 Nara Institute Of Science & Technology 近接領域画像抽出装置及び近接領域画像抽出方法
JP2004319364A (ja) 2003-04-18 2004-11-11 Alps Electric Co Ltd 照明装置および液晶表示装置
US7372977B2 (en) 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
JP4517601B2 (ja) * 2003-07-09 2010-08-04 ソニー株式会社 投射型画像表示装置
EP1510911A3 (en) 2003-08-28 2006-03-22 Sony Corporation Information processing apparatus, information processing method, information processing program and storage medium containing information processing program
US20050122306A1 (en) 2003-10-29 2005-06-09 E Ink Corporation Electro-optic displays with single edge addressing and removable driver circuitry
JP2007515640A (ja) 2003-12-19 2007-06-14 データカラー ホールディング アーゲー デジタルカメラを有する分光光度計
US7077236B2 (en) * 2003-12-31 2006-07-18 Lear Corporation Articulating vehicle speaker assembly
KR100588042B1 (ko) 2004-01-14 2006-06-09 한국과학기술연구원 인터액티브 프레젠테이션 시스템
JP4095040B2 (ja) * 2004-02-12 2008-06-04 株式会社日立製作所 テーブル型情報端末の表示方法
JP4220408B2 (ja) * 2004-02-13 2009-02-04 株式会社日立製作所 テーブル型情報端末
WO2005084209A2 (en) 2004-02-27 2005-09-15 University Of Florida Research Foundation, Inc. Interactive virtual characters for training including medical diagnosis training
US20050212753A1 (en) 2004-03-23 2005-09-29 Marvit David L Motion controlled remote controller
US7204428B2 (en) 2004-03-31 2007-04-17 Microsoft Corporation Identification of object on interactive display surface by identifying coded pattern
US20050227217A1 (en) 2004-03-31 2005-10-13 Wilson Andrew D Template matching on interactive surface
US7379562B2 (en) 2004-03-31 2008-05-27 Microsoft Corporation Determining connectedness and offset of 3D objects relative to an interactive surface
EP1743277A4 (en) 2004-04-15 2011-07-06 Gesturetek Inc MONITORING OF BI-MANUAL MOVEMENTS
EP2408193A3 (en) 2004-04-16 2014-01-15 James A. Aman Visible and non-visible light sensing camera for videoing and object tracking
US7310085B2 (en) 2004-04-22 2007-12-18 International Business Machines Corporation User interactive computer controlled display system enabling a user remote from a display screen to make interactive selections on the display screen with a laser beam projected onto the display screen
US7394459B2 (en) 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7397464B1 (en) 2004-04-30 2008-07-08 Microsoft Corporation Associating application states with a physical object
US7492357B2 (en) 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US7467380B2 (en) 2004-05-05 2008-12-16 Microsoft Corporation Invoking applications with virtual objects on an interactive display
US7404146B2 (en) 2004-05-27 2008-07-22 Agere Systems Inc. Input device for portable handset
US7787706B2 (en) 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7593593B2 (en) 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US7168813B2 (en) 2004-06-17 2007-01-30 Microsoft Corporation Mediacube
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
JP2006031941A (ja) 2004-07-12 2006-02-02 Sharp Corp 面状光源ユニット
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7724242B2 (en) 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
US8560972B2 (en) 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US7204420B2 (en) 2004-08-31 2007-04-17 Symbol Technologies, Inc. Scanner and method for eliminating specular reflection
US7576725B2 (en) 2004-10-19 2009-08-18 Microsoft Corporation Using clear-coded, see-through objects to manipulate virtual objects
US8137195B2 (en) 2004-11-23 2012-03-20 Hillcrest Laboratories, Inc. Semantic gaming and application transformation
US7398927B2 (en) 2005-01-26 2008-07-15 Datalogic Scanning, Inc. Data reader and methods for imaging targets subject to specular reflection
US20060202974A1 (en) 2005-03-10 2006-09-14 Jeffrey Thielman Surface
US7826687B2 (en) 2005-03-18 2010-11-02 The Invention Science Fund I, Llc Including contextual information with a formed expression
US7499027B2 (en) 2005-04-29 2009-03-03 Microsoft Corporation Using a light pointer for input on an interactive display surface
US7525538B2 (en) 2005-06-28 2009-04-28 Microsoft Corporation Using same optics to image, illuminate, and project
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US7828527B2 (en) 2005-09-13 2010-11-09 Illinois Tool Works Inc. Paint circulating system and method
US20070063981A1 (en) 2005-09-16 2007-03-22 Galyean Tinsley A Iii System and method for providing an interactive interface
KR101314929B1 (ko) 2005-10-27 2013-10-04 지트로닉스 코포레이션 반도체 구조에서 변형 및 활성 도펀트의 광반사율에 의한특성 기술 방법
US8060840B2 (en) 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface
US7630002B2 (en) 2007-01-05 2009-12-08 Microsoft Corporation Specular reflection reduction using multiple cameras
US7515143B2 (en) 2006-02-28 2009-04-07 Microsoft Corporation Uniform illumination of interactive display panel
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
US8212857B2 (en) 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
US9171454B2 (en) 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001350586A (ja) 2000-06-09 2001-12-21 Keio Gijuku 位置入力装置
US6840627B2 (en) 2003-01-21 2005-01-11 Hewlett-Packard Development Company, L.P. Interactive display device
WO2005057399A2 (en) 2003-12-09 2005-06-23 Reactrix Systems, Inc. Self-contained interactive video display system
WO2005057921A2 (en) 2003-12-09 2005-06-23 Reactrix Systems, Inc. Self-contained interactive video display system

Also Published As

Publication number Publication date
JP2009506457A (ja) 2009-02-12
EP1920310A4 (en) 2011-11-02
JP4955684B2 (ja) 2012-06-20
CA2620149C (en) 2013-04-30
KR20080038176A (ko) 2008-05-02
US20070046625A1 (en) 2007-03-01
IL189137A0 (en) 2008-08-07
US8519952B2 (en) 2013-08-27
WO2007027471A1 (en) 2007-03-08
CN101253464A (zh) 2008-08-27
IL189137A (en) 2013-06-27
IL226731A0 (en) 2013-07-31
CA2620149A1 (en) 2007-03-08
US20110181551A1 (en) 2011-07-28
EP1920310A1 (en) 2008-05-14
US7911444B2 (en) 2011-03-22
CN101253464B (zh) 2012-04-18

Similar Documents

Publication Publication Date Title
KR101298384B1 (ko) 상호작용형 디스플레이의 표면을 위한 입력 방법
US7593593B2 (en) Method and system for reducing effects of undesired signals in an infrared imaging system
KR101247095B1 (ko) 인터랙티브 디스플레이 조명 및 개체 검출 방법과 인터랙티브 디스플레이 시스템
US7787706B2 (en) Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US8060840B2 (en) Orientation free user interface
RU2579952C2 (ru) Система и способ мультисенсорного взаимодействия и подсветки на основе камеры
JP2012508913A (ja) 一体型タッチセンシングディスプレー装置およびその製造方法
US20060091288A1 (en) Method and system for cancellation of ambient light using light frequency
JP2005236421A (ja) 画像表示システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160720

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170719

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee