KR20170129947A - 인터랙티브 프로젝터 및 인터랙티브 프로젝션 시스템 - Google Patents

인터랙티브 프로젝터 및 인터랙티브 프로젝션 시스템 Download PDF

Info

Publication number
KR20170129947A
KR20170129947A KR1020177030896A KR20177030896A KR20170129947A KR 20170129947 A KR20170129947 A KR 20170129947A KR 1020177030896 A KR1020177030896 A KR 1020177030896A KR 20177030896 A KR20177030896 A KR 20177030896A KR 20170129947 A KR20170129947 A KR 20170129947A
Authority
KR
South Korea
Prior art keywords
camera
projection screen
light
projection
screen
Prior art date
Application number
KR1020177030896A
Other languages
English (en)
Inventor
톨모드 뉼스타드
구드문 오케 슈렛테모엔
위스틴 담하우
신지 구보타
Original Assignee
세이코 엡슨 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세이코 엡슨 가부시키가이샤 filed Critical 세이코 엡슨 가부시키가이샤
Publication of KR20170129947A publication Critical patent/KR20170129947A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • G03B21/56Projection screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)
  • Projection Apparatus (AREA)

Abstract

지시체의 선단과 스크린의 사이의 거리의 검출 정밀도를 향상시킨다.  
인터랙티브 프로젝터는, 투사부와, 복수대의 카메라와, 복수대의 카메라에 의해 촬상된 상기 지시체를 포함하는 복수의 화상에 기초하여 투사 화면에 대한 지시체의 3차원 위치를 검출하는 위치 검출부를 구비한다. 상기 투사 화면으로부터 떨어지는 방향을 Z 방향이라고 정의했을 때, 상기 제2 카메라는, 상기 Z 방향에 대해서는 상기 제1 카메라보다도 상기 투사 화면에 가까운 위치에 배치되어 있다.

Description

인터랙티브 프로젝터 및 인터랙티브 프로젝션 시스템{INTERACTIVE PROJECTOR AND INTERATIVE PROJECTOR SYSTEM}
본 발명은, 투사 화면(projected screen)에 대한 유저(user)의 지시체에 의한 지시를 수취하는 것이 가능한 인터랙티브 프로젝터(interactive projector) 및, 그의 시스템에 관한 것이다.
특허문헌 1에는, 투사 화면을 스크린에 투사함과 함께, 손가락 등의 대상물(object)을 포함하는 화상을 카메라로 촬상하고, 이 촬상 화상을 이용하여 대상물의 위치를 검출하는 것이 가능한 투사형 표시 장치(프로젝터)가 개시되어 있다. 손가락 등의 대상물은, 투사 화면에 대하여 지시를 행하기 위한 지시체로서 이용된다. 즉, 프로젝터는, 대상물의 선단이 스크린에 접하고 있을 때에 투사 화면에 대하여 묘화(rendering) 등의 소정의 지시가 입력되고 있는 것으로 인식하고, 그 지시에 따라서 투사 화면을 재묘화한다. 따라서, 유저는, 투사 화면을 유저 인터페이스로서 이용하여, 각종의 지시를 입력하는 것이 가능하다. 이와 같이, 스크린상의 투사 화면을 입력 가능 유저 인터페이스로서 이용할 수 있는 타입의 프로젝터를, 「인터랙티브 프로젝터」라고 부른다. 또한, 투사 화면에 대하여 지시를 행하기 위해 이용되는 대상물을 「지시체(pointing element)」라고 부른다.
일본공개특허공보 2012-150636호
전형적인 인터랙티브 프로젝터에서는, 지시체의 선단이 스크린에 접하고 있는지 아닌지에 따라서, 지시체에 의해 지시가 이루어지고 있는지 아닌지를 판정한다. 따라서, 지시체의 선단과 스크린의 사이의 거리의 검출이 중요하다. 그러나, 종래 기술에서는, 지시체의 선단과 스크린의 사이의 거리의 검출 정밀도가 반드시 충분하지는 않아, 검출 정밀도의 향상이 요망되고 있었다.
본 발명은, 전술의 과제의 적어도 일부를 해결하기 위해 이루어진 것으로, 이하의 형태 또는 적용예로서 실현하는 것이 가능하다.
(1) 본 발명의 일 형태에 의하면, 투사 화면에 대한 유저의 지시체에 의한 지시를 수취하는 것이 가능한 인터랙티브 프로젝터가 제공된다. 이 인터랙티브 프로젝터는, 스크린면상에 상기 투사 화면을 투사하는 투사부와, 상기 투사 화면의 영역을 촬상하는 제1 카메라 및 제2 카메라를 포함하는 복수대의 카메라와, 상기 복수대의 카메라에 의해 촬상된 상기 지시체를 포함하는 복수의 화상에 기초하여, 상기 투사 화면에 대한 상기 지시체의 3차원 위치를 검출하는 위치 검출부를 구비한다. 상기 투사 화면으로부터 떨어지는 방향을 Z 방향이라고 정의했을 때, 상기 제2 카메라는, 상기 Z 방향에 대해서는 상기 제1 카메라보다도 상기 투사 화면에 가까운 위치에 배치되어 있다.
이 인터랙티브 프로젝터에 의하면, 투사 화면에 보다 가까운 위치에 있는 제2 카메라로 촬상된 화상은, 제1 카메라로 촬상된 화상에 비해, 투사 화면의 법선 방향에 대한 해상도가 보다 높아져, 지시체의 투사 화면으로부터의 거리를 보다 정밀도 좋게 결정할 수 있다.
(2) 상기 인터랙티브 프로젝터에 있어서, 상기 제1 카메라가 제1 방향을 향하는 제1 광축을 갖고, 상기 제2 카메라가 제2 방향을 향하는 제2 광축을 갖고, 상기 제1 방향과 상기 제2 방향이 모두 상기 투사 화면의 영역을 통과하는 방향임과 함께, 상기 Z 방향 및 상기 Z 방향에 수직인 방향 중 어느 쪽으로부터도 기울어진 방향인 것으로 해도 좋다.
이 구성에 의하면, 지시체의 투사 화면으로부터의 거리를 보다 정밀도 좋게 결정할 수 있다.
(3) 상기 인터랙티브 프로젝터에 있어서, 상기 제1 방향과 상기 제2 방향은 서로 평행인 것으로 해도 좋다.
이 구성에 의하면, 지시체의 3차원 위치를 더욱 정밀도 좋게 결정할 수 있다.
(4) 상기 인터랙티브 프로젝터에 있어서, 상기 제1 방향과 상기 제2 방향은, 상기 Z 방향과 이루는 각도가 50∼70도의 범위 내에 있는 것으로 해도 좋다.
이 구성에 의하면, 지시체의 3차원 위치를 더욱 정밀도 좋게 결정할 수 있다.
(5) 상기 인터랙티브 프로젝터에 있어서, 상기 투사 화면상에서 서로 직교함과 함께 상기 Z 방향에 수직인 2개의 방향을 X 방향 및 Y 방향이라고 정의하고, +Y 방향을 상방향이라고 부르고 -Y 방향을 하방향이라고 부름과 함께 상기 투사 화면이 상기 인터랙티브 프로젝터보다도 하방의 위치에 투사되는 것이라고 정의했을 때, 상기 제2 카메라는, (ⅰ) 상기 Y 방향에 대해서는 상기 제1 카메라보다도 상기 상방향으로 어긋난 위치에 배치되어 있음과 함께, (ⅱ) 상기 제1 카메라보다도 상기 투사 화면의 하단으로부터의 거리가 가까운 위치에 배치되어 있는 것으로 해도 좋다.
이 구성에 의하면, 제2 카메라가 제1 카메라보다도 투사 화면의 하단으로부터의 거리가 가깝기 때문에, 제2 카메라에 있어서의 Z 좌표의 해상도가 제1 카메라보다도 높은 상태를 유지한 채, 제2 카메라를 상방향에 설치할 수 있다. 이 결과, 제2 카메라로 촬영한 화상에 있어서, 투사 화면의 상단 부근과 하단 부근에 있어서의 Y 방향 배율의 차이가 작아지기 때문에, 3차원 위치의 검출 정밀도를 높일 수 있다.
본 발명은, 여러 가지의 형태로 실현하는 것이 가능하고, 예를 들면, 스크린 및 자발광 지시체 중 한쪽 또는 양쪽과 인터랙티브 프로젝터를 포함하는 시스템, 인터랙티브 프로젝터의 제어 방법 또는 제어 장치, 그들 방법 또는 장치의 기능을 실현하기 위한 컴퓨터 프로그램, 그 컴퓨터 프로그램을 기록한 일시적이 아닌 기록 매체(non-transitory storage medium) 등의 여러 가지 형태로 실현할 수 있다.
도 1은 인터랙티브 프로젝션 시스템의 사시도이다.
도 2는 인터랙티브 프로젝션 시스템의 측면도 및 정면도이다.
도 3은 프로젝터와 자발광 지시체의 내부 구성을 나타내는 블록도이다.
도 4는 자발광 지시체와 비발광 지시체를 이용한 조작의 모양을 나타내는 설명도이다.
도 5는 2대의 카메라의 배치와 방향을 나타내는 설명도이다.
도 6은 카메라의 가상적인 배치예를 나타내는 설명도이다.
도 7은 2대의 카메라의 다른 배치를 나타내는 설명도이다.
(발명을 실시하기 위한 형태)
(A. 시스템의 개요)
도 1은, 본 발명의 일 실시 형태에 있어서의 인터랙티브 프로젝션 시스템(900)의 사시도이다. 이 시스템(900)은, 인터랙티브 프로젝터(100)와, 스크린판(920)과, 자발광 지시체(70)를 갖고 있다. 스크린판(920)의 전면(front surface)은, 투사 스크린면(SS)(projection Screen Surface)으로서 이용된다. 프로젝터(100)는, 지지 부재(910)에 의해 스크린판(920)의 전방 또한 상방에 고정되어 있다. 또한, 도 1에서는 투사 스크린면(SS)을 연직으로 배치하고 있지만, 투사 스크린면(SS)을 수평으로 배치하여 이 시스템(900)을 사용하는 것도 가능하다.
프로젝터(100)는, 투사 스크린면(SS)상에 투사 화면(PS)(Projected Screen)을 투사한다. 투사 화면(PS)은, 통상은, 프로젝터(100) 내에서 묘화된 화상을 포함하고 있다. 프로젝터(100) 내에서 묘화된 화상이 없는 경우에는, 프로젝터(100)로부터 투사 화면(PS)에 빛이 조사되어, 백색 화상이 표시된다. 본 명세서에 있어서, 「투사 스크린면(SS)」(또는 「스크린면(SS)」)이란, 화상이 투사되는 부재의 표면을 의미한다. 또한, 「투사 화면(PS)」이란, 프로젝터(100)에 의해 투사 스크린면(SS)상에 투사된 화상의 영역을 의미한다. 통상은, 투사 스크린면(SS)의 일부에 투사 화면(PS)이 투사된다.
자발광 지시체(70)는, 발광 가능한 선단부(71)와, 사용자가 보유지지(保持)하는 축부(72)와, 축부(72)에 설치된 버튼 스위치(73)를 갖는 펜형(pen type)의 지시체이다. 자발광 지시체(70)의 구성이나 기능에 대해서는 후술한다. 이 시스템(900)에서는, 1개 또는 복수의 자발광 지시체(70)와 함께, 1개 또는 복수의 비(非)발광 지시체(80)(비발광의 펜이나 손가락 등)를 이용 가능하다.
도 2(A)는, 인터랙티브 프로젝션 시스템(900)의 측면도이고, 도 2(B)는 그 정면도이다. 본 명세서에서는, 스크린면(SS)의 좌우를 따른 방향을 X 방향이라고 정의하고, 스크린면(SS)의 상하를 따른 방향을 Y 방향이라고 정의하고, 스크린면(SS)의 법선을 따른 방향을 Z 방향이라고 정의하고 있다. 또한, 편의상, X 방향을 「좌우 방향」이라고도 부르고, Y 방향을 「상하 방향」이라고도 부르고, Z 방향을 「전후 방향」이라고도 부른다. 또한, Y 방향(상하 방향) 중, 프로젝터(100)로부터 보아 투사 화면(PS)이 존재하는 방향을 「하방향」이라고 부른다. 또한, 도 2(A)에서는, 도시의 편의상, 스크린판(920) 중 투사 화면(PS)의 범위에 해칭을 붙이고 있다.
프로젝터(100)는, 투사 화면(PS)을 스크린면(SS)상에 투사하는 투사 렌즈(210)와, 투사 화면(PS)의 영역을 촬상하는 제1 카메라(310) 및 제2 카메라(320)와, 지시체(자발광 지시체(70) 및 비발광 지시체(80))에 검출광을 조명하기 위한 검출광 조사부(410)를 갖고 있다. 검출광으로서는, 예를 들면 근적외광이 사용된다. 2대의 카메라(310, 320)는, 검출광의 파장을 포함하는 파장 영역의 빛을 수광하여 촬상하는 제1 촬상 기능을 적어도 갖고 있다. 2대의 카메라(310, 320) 중 적어도 한쪽은, 추가로, 가시광을 포함하는 빛을 수광하여 촬상하는 제2 촬상 기능을 갖고, 이들 2개의 촬상 기능을 전환 가능하게 구성되어 있는 것이 바람직하다. 예를 들면, 2대의 카메라(310, 320)는, 가시광을 차단하여 근적외광만을 통과시키는 근적외 필터를 렌즈의 앞에 배치하거나 렌즈의 앞으로부터 후퇴시키거나 하는 것이 가능한 근적외 필터 전환 기구(도시하지 않음)를 각각 구비하는 것이 바람직하다. 2대의 카메라(310, 320)의 배치나 방향에 대해서는 추가로 후술한다.
도 2(B)의 예는, 인터랙티브 프로젝션 시스템(900)이 화이트 보드 모드에서 동작하고 있는 모양을 나타내고 있다. 화이트 보드 모드는, 자발광 지시체(70)나 비발광 지시체(80)를 이용하여 투사 화면(PS)상에 유저가 임의로 묘화할 수 있는 모드이다. 스크린면(SS)상에는, 툴 박스(TB)를 포함하는 투사 화면(PS)이 투사되어 있다. 이 툴 박스(TB)는, 처리를 원래대로 되돌리는 취소 버튼(UDB)과, 마우스 포인터를 선택하는 포인터 버튼(PTB)과, 묘화용의 펜 툴을 선택하는 펜 버튼(PEB)과, 묘화된 화상을 소거하는 지우개 툴을 선택하는 지우개 버튼(ERB)과, 화면을 다음으로 진행시키거나 앞으로 되돌리거나 하는 전방/후방 버튼(FRB)을 포함하고 있다. 유저는, 지시체를 이용하여 이들 버튼을 클릭함으로써, 그 버튼에 따른 처리를 행하거나, 툴을 선택하거나 하는 것이 가능하다. 또한, 시스템(900)의 기동 직후는, 마우스 포인터가 디폴트 툴(default tool)로서 선택되도록 해도 좋다. 도 2(B)의 예에서는, 유저가 펜 툴을 선택한 후, 자발광 지시체(70)의 선단부(71)를 스크린면(SS)에 접한 상태에서 투사 화면(PS) 내에서 이동시킴으로써, 투사 화면(PS) 내에 선이 묘화되어 가는 모양이 그려져 있다. 이 선의 묘화는, 프로젝터(100)의 내부의 투사 화상 작성부(후술)에 의해 행해진다.
또한, 인터랙티브 프로젝션 시스템(900)은, 화이트 보드 모드 이외의 다른 모드에서도 동작 가능하다. 예를 들면, 이 시스템(900)은, 퍼스널 컴퓨터(도시하지 않음)로부터 통신 회선을 통하여 전송된 데이터의 화상을 투사 화면(PS)에 표시하는 PC 인터랙티브 모드에서도 동작 가능하다. PC 인터랙티브 모드에 있어서는, 예를 들면 표 계산 소프트웨어 등의 데이터의 화상이 표시되고, 그 화상 내에 표시된 각종의 툴이나 아이콘을 이용하여 데이터의 입력, 작성, 수정 등을 행하는 것이 가능해진다.
도 3은, 인터랙티브 프로젝터(100)와 자발광 지시체(70)의 내부 구성을 나타내는 블록도이다. 프로젝터(100)는, 제어부(700)와, 투사부(200)와, 투사 화상 생성부(500)와, 위치 검출부(600)와, 촬상부(300)와, 검출광 조사부(410)와, 신호광 송신부(430)를 갖고 있다.
제어부(700)는, 프로젝터(100) 내부의 각 부의 제어를 행한다. 또한, 제어부(700)는, 위치 검출부(600)에서 검출된 지시체(자발광 지시체(70)나 비발광 지시체(80))에 의해 투사 화면(PS)상에서 행해진 지시의 내용을 판정함과 함께, 그 지시의 내용에 따라 투사 화상을 작성 또는 변경하는 것을 투사 화상 생성부(500)에 지령한다.
투사 화상 생성부(500)는, 투사 화상을 기억하는 투사 화상 메모리(510)를 갖고 있고, 투사부(200)에 의해 스크린면(SS)상에 투사되는 투사 화상을 생성하는 기능을 갖는다. 투사 화상 생성부(500)는, 추가로, 투사 화면(PS)(도 2(B))의 사다리꼴 변형을 보정하는 키스톤 보정부(keystone correction unit)로서의 기능을 갖는 것이 바람직하다.
투사부(200)는, 투사 화상 생성부(500)에서 생성된 투사 화상을 스크린면(SS)상에 투사하는 기능을 갖는다. 투사부(200)는, 도 2에서 설명한 투사 렌즈(210)의 외에, 광 변조부(220)와, 광원(230)을 갖는다. 광 변조부(220)는, 투사 화상 메모리(510)로부터 부여되는 투사 화상 데이터에 따라서 광원(230)으로부터의 빛을 변조함으로써 투사 화상광(IML)을 형성한다. 이 투사 화상광(IML)은, 전형적으로는, RGB의 3색 가시광을 포함하는 컬러 화상광으로, 투사 렌즈(210)에 의해 스크린면(SS)상에 투사된다. 또한, 광원(230)으로서는, 초고압 수은 램프 등의 광원 램프의 외에, 발광 다이오드나 레이저 다이오드 등의 여러 가지의 광원을 채용 가능하다. 또한, 광 변조부(220)로서는, 투과형 또는 반사형의 액정 패널이나 디지털 미러 디바이스 등을 채용 가능하고, 색광별로 복수의 변조부(220)를 구비한 구성으로 해도 좋다.
검출광 조사부(410)는, 지시체(자발광 지시체(70) 및 비발광 지시체(80))의 선단부를 검출하기 위한 조사 검출광(IDL)을 스크린면(SS)과 그 전방의 공간에 걸쳐 조사한다. 조사 검출광(IDL)으로서는, 예를 들면 근적외광이 사용된다. 검출광 조사부(410)는, 카메라(310, 320)의 촬상 타이밍을 포함하는 소정의 기간에만 점등하고, 다른 기간에서는 소등한다. 혹은, 검출광 조사부(410)는, 시스템(900)의 동작 중은 항상 점등 상태로 유지되도록 해도 좋다.
신호광 송신부(430)는, 자발광 지시체(70)에 의해 수신되는 장치 신호광(ASL)을 송신하는 기능을 갖는다. 장치 신호광(ASL)은, 동기용의 근적외광 신호로서, 프로젝터(100)의 신호광 송신부(430)로부터 자발광 지시체(70)에 대하여 정기적으로 발해진다. 자발광 지시체(70)의 선단 발광부(77)는, 장치 신호광(ASL)에 동기하여, 미리 정해진 발광 패턴(발광 시퀀스)을 갖는 근적외광인 지시체 신호광(PSL)(후술)을 발한다. 또한, 촬상부(300)의 카메라(310, 320)는, 지시체(자발광 지시체(70) 및 비발광 지시체(80))의 위치 검출을 행할 때에, 장치 신호광(ASL)에 동기한 소정의 타이밍에서 촬상을 실행한다.
촬상부(300)는, 도 2에서 설명한 제1 카메라(310)와 제2 카메라(320)를 갖고 있다. 전술한 바와 같이, 2대의 카메라(310, 320)는, 검출광의 파장을 포함하는 파장 영역의 빛을 수광하여 촬상하는 기능을 갖는다. 도 3의 예에서는, 검출광 조사부(410)에 의해 조사된 조사 검출광(IDL)이 지시체(자발광 지시체(70) 및 비발광 지시체(80))에서 반사되고, 그 반사 검출광(RDL)이 2대의 카메라(310, 320)에 의해 수광되어 촬상되는 모양이 그려져 있다. 2대의 카메라(310, 320)는, 추가로, 자발광 지시체(70)의 선단 발광부(77)로부터 발해지는 근적외광인 지시체 신호광(PSL)도 수광하여 촬상한다. 2대의 카메라(310, 320)의 촬상은, 검출광 조사부(410)로부터 발해지는 조사 검출광(IDL)이 온(ON) 상태(발광 상태)인 제1 기간과, 조사 검출광(IDL)이 오프(OFF) 상태(비발광 상태)인 제2 기간의 양쪽에서 실행된다. 위치 검출부(600)는, 이들 2종류의 기간에 있어서의 화상을 비교함으로써, 화상 내에 포함되는 개개의 지시체가, 자발광 지시체(70)와 비발광 지시체(80) 중 어느 것인지를 판정하는 것이 가능하다.
또한, 2대의 카메라(310, 320) 중 적어도 한쪽은, 근적외광을 포함하는 빛을 이용하여 촬상하는 기능에 더하여, 가시광을 포함하는 빛을 이용하여 촬상하는 기능을 갖는 것이 바람직하다. 이렇게 하면, 스크린면(SS)상에 투사된 투사 화면(PS)을 그 카메라로 촬상하고, 그 화상을 이용하여 투사 화상 생성부(500)가 키스톤 보정을 실행하는 것이 가능하다. 1대 이상의 카메라를 이용한 키스톤 보정의 방법은 주지이기 때문에, 여기에서는 그 설명은 생략한다.
위치 검출부(600)는, 2대의 카메라(310, 320)로 촬상된 화상을 이용하여, 삼각 측량을 이용하여 지시체(자발광 지시체(70)나 비발광 지시체(80))의 선단부의 3차원 위치를 결정하는 기능을 갖는다. 이때, 위치 검출부(600)는, 자발광 지시체(70)의 발광 패턴을 이용하여, 화상 내의 개개의 지시체가 자발광 지시체(70)와 비발광 지시체(80) 중 어느 것인지에 대해서도 판정한다.
자발광 지시체(70)에는, 버튼 스위치(73)의 외에, 신호광 수신부(74)와, 제어부(75)와, 선단 스위치(76)와, 선단 발광부(77)가 설치되어 있다. 신호광 수신부(74)는, 프로젝터(100)의 신호광 송신부(430)로부터 발해진 장치 신호광(ASL)을 수신하는 기능을 갖는다. 선단 스위치(76)는, 자발광 지시체(70)의 선단부(71)가 눌리면 온 상태가 되고, 선단부(71)가 해방되면 오프 상태가 되는 스위치이다. 선단 스위치(76)는, 통상은 오프 상태에 있고, 자발광 지시체(70)의 선단부(71)가 스크린면(SS)에 접촉하면 그 접촉압에 의해 온 상태가 된다. 선단 스위치(76)가 오프 상태일 때에는, 제어부(75)는, 선단 스위치(76)가 오프 상태인 것을 나타내는 특정의 제1 발광 패턴으로 선단 발광부(77)를 발광시킴으로써, 제1 발광 패턴을 갖는 지시체 신호광(PSL)을 발한다. 한편, 선단 스위치(76)가 온 상태가 되면, 제어부(75)는, 선단 스위치(76)가 온 상태인 것을 나타내는 특정의 제2 발광 패턴으로 선단 발광부(77)를 발광시킴으로써, 제2 발광 패턴을 갖는 지시체 신호광(PSL)을 발한다. 이들 제1 발광 패턴과 제2 발광 패턴은, 서로 상이하기 때문에, 위치 검출부(600)는, 2대의 카메라(310, 320)로 촬상된 화상을 분석함으로써, 선단 스위치(76)가 온 상태인지 오프 상태인지를 식별하는 것이 가능하다.
전술과 같이, 본 실시 형태에서는, 자발광 지시체(70)의 선단부(71)가 스크린면(SS)에 접하고 있는지 아닌지의 접촉 판정을, 선단 스위치(76)의 온/오프에 따라서 행하고 있다. 그런데, 자발광 지시체(70)의 선단부(71)의 3차원 위치는, 2대의 카메라(310, 320)로 촬상된 화상을 이용한 삼각 측량에 의해 구할 수 있기 때문에, 이 3차원 위치를 이용하여 자발광 지시체(70)의 선단부(71)의 접촉 판정을 실행하는 것도 가능하다. 단, 삼각 측량에 의한 Z 좌표(스크린면(SS)의 법선 방향의 좌표)의 검출 정밀도는, 반드시 높지는 않은 경우가 있다. 따라서, 선단 스위치(76)의 온/오프에 따라서 접촉 판정을 행하도록 하면, 접촉 판정을 보다 정밀도 좋게 실행할 수 있는 점에서 바람직하다.
자발광 지시체(70)의 버튼 스위치(73)는, 선단 스위치(76)와 동일한 기능을 갖는다. 따라서, 제어부(75)는, 유저에 의해 버튼 스위치(73)가 눌린 상태에서는 상기 제2 발광 패턴으로 선단 발광부(77)를 발광시키고, 버튼 스위치(73)가 눌려 있지 않은 상태에서는 상기 제1 발광 패턴으로 선단 발광부(77)를 발광시킨다. 환언하면, 제어부(75)는, 선단 스위치(76)와 버튼 스위치(73) 중 적어도 한쪽이 온인 상태에서는 상기 제2 발광 패턴으로 선단 발광부(77)를 발광시키고, 선단 스위치(76)와 버튼 스위치(73)의 양쪽이 오프인 상태에서는 상기 제1 발광 패턴으로 선단 발광부(77)를 발광시킨다.
단, 버튼 스위치(73)에 대하여 선단 스위치(76)와 상이한 기능을 할당하도록 해도 좋다. 예를 들면, 버튼 스위치(73)에 대하여 마우스의 오른쪽 클릭 버튼과 동일한 기능을 할당한 경우에는, 유저가 버튼 스위치(73)를 누르면, 오른쪽 클릭의 지시가 프로젝터(100)의 제어부(700)로 전달되고, 그 지시에 따른 처리가 실행된다. 이와 같이, 버튼 스위치(73)에 대하여 선단 스위치(76)와 상이한 기능을 할당한 경우에는, 선단 발광부(77)는, 선단 스위치(76)의 온/오프 상태 및 버튼 스위치(73)의 온/오프 상태에 따라서, 서로 상이한 4개의 발광 패턴으로 발광한다. 이 경우에는, 자발광 지시체(70)는, 선단 스위치(76)와 버튼 스위치(73)의 온/오프 상태의 4개의 조합을 구별하면서, 프로젝터(100)로 전달하는 것이 가능하다.
도 4는, 자발광 지시체(70)와 비발광 지시체(80)를 이용한 조작의 모양을 나타내는 설명도이다. 이 예에서는, 자발광 지시체(70)의 선단부(71)와 비발광 지시체(80)의 선단부(81)는 모두 스크린면(SS)으로부터 떨어져 있다. 자발광 지시체(70)의 선단부(71)의 XY 좌표(X71, Y71)는, 툴 박스(TB)의 지우개 버튼(ERB)의 위에 있다. 또한, 여기에서는, 자발광 지시체(70)의 선단부(71)의 기능을 나타내는 툴로서 마우스 포인터(PT)가 선택되어 있고, 마우스 포인터(PT)의 선단(OP71)이 지우개 버튼(ERB)의 위에 존재하도록, 마우스 포인터(PT)가 투사 화면(PS)에 묘화되어 있다. 전술한 바와 같이, 자발광 지시체(70)의 선단부(71)의 3차원 위치는, 2대의 카메라(310, 320)로 촬상된 화상을 이용한 삼각 측량으로 결정된다. 따라서, 투사 화면(PS)상에 있어서, 삼각 측량으로 결정된 선단부(71)의 3차원 좌표(X71, Y71, Z71) 중 XY 좌표(X71, Y71)의 위치에 마우스 포인터(PT)의 선단에 있는 조작 포인트(OP71)가 배치되도록 마우스 포인터(PT)가 묘화된다. 즉, 마우스 포인터(PT)의 선단(OP71)은, 자발광 지시체(70)의 선단부(71)의 3차원 좌표(X71, Y71, Z71) 중 XY 좌표(X71, Y71)에 배치되고, 이 위치에 있어서 유저의 지시가 행해진다. 예를 들면, 유저는, 이 상태에서 자발광 지시체(70)의 버튼 스위치(73)를 누름으로써, 지우개 툴을 선택하는 것이 가능하다. 이와 같이, 본 실시 형태에서는, 자발광 지시체(70)가 스크린면(SS)으로부터 이간한 상태에 있는 경우에도, 버튼 스위치(73)를 누름으로써, 선단부(71)의 XY 좌표(X71, Y71)에 배치되는 조작 포인트(OP71)에 있어서의 투사 화면(PS)의 내용에 따른 지시를 프로젝터(100)에 부여하는 것이 가능하다.
도 4(B)에서는, 또한, 비발광 지시체(80)의 선단부(81)의 기능을 나타내는 툴로서 펜 툴(PE)이 선택되어 있고, 펜 툴(PE)이 투사 화면(PS)에 묘화되어 있다. 전술한 바와 같이, 비발광 지시체(80)의 선단부(81)의 3차원 위치도, 2대의 카메라(310, 320)로 촬상된 화상을 이용한 삼각 측량으로 결정된다. 따라서, 투사 화면(PS)상에 있어서, 삼각 측량으로 결정된 선단부(81)의 3차원 좌표(X81, Y81, Z81) 중 XY 좌표(X81, Y81)의 위치에 펜 툴(PE)의 선단에 있는 조작 포인트(OP81)가 배치되도록 펜 툴(PE)이 묘화된다. 단, 비발광 지시체(80)를 이용하여 유저가 지시를 프로젝터(100)로 부여할 때에는, 비발광 지시체(80)의 선단부(81)를 투사 화면(PS)상에 접촉시킨 상태에서 그 지시(묘화나 툴의 선택 등)가 행해진다.
도 4의 예에서는, 지시체(자발광 지시체(70)나 비발광 지시체(80))의 선단부가 투사 화면(PS)으로부터 떨어져 있는 경우에도, 개개의 지시체에 의해 선택된 툴(마우스 포인터(PT)나 펜 툴(PE))이 투사 화면(PS)에 묘화되어 표시된다. 따라서, 유저가 지시체의 선단부를 투사 화면(PS)에 접촉하고 있지 않는 경우에도, 그 지시체에 의해 어느 툴이 선택되어 있는지를 이해하기 쉽고, 조작이 용이하다는 이점이 있다. 또한, 툴의 조작 포인트(OP)가 지시체의 선단부의 3차원 좌표 중 XY 좌표의 위치에 배치되도록 그 툴이 묘화되기 때문에, 유저가, 이용 중인 툴의 위치를 적절히 인식할 수 있다는 이점이 있다.
또한, 이 인터랙티브 프로젝션 시스템(900)은, 복수의 자발광 지시체(70)를 동시에 이용 가능하게 구성되어 있어도 좋다. 이 경우에는, 전술한 지시체 신호광(PSL)의 발광 패턴은, 복수의 자발광 지시체(70)를 식별할 수 있는 고유의 발광 패턴인 것이 바람직하다. 보다 구체적으로 말하면, N개(N은 2 이상의 정수)의 자발광 지시체(70)를 동시에 이용 가능한 경우에는, 지시체 신호광(PSL)의 발광 패턴은, N개의 자발광 지시체(70)를 구별할 수 있는 것인 것이 바람직하다. 또한, 1조(組)의 발광 패턴에 복수회의 단위 발광 기간이 포함되어 있는 경우에, 1회의 단위 발광 기간에서는, 발광과 비발광의 2값을 표현할 수 있다. 여기에서, 1회의 단위 발광 기간은, 자발광 지시체(70)의 선단 발광부(77)가, 온/오프의 1비트(1-bit)의 정보를 표현하는 기간에 상당한다. 1조의 발광 패턴이 M개(M은 2 이상의 정수)의 단위 발광 기간으로 구성되는 경우에는, 1조의 발광 패턴에 의해 2M개의 상태를 구별할 수 있다. 따라서, 1조의 발광 패턴을 구성하는 단위 발광 기간의 수 M은, 다음식을 만족하도록 설정되는 것이 바람직하다.
N×Q≤2M    …(1)
여기에서, Q는 자발광 지시체(70)의 스위치(73, 76)로 구별되는 상태의 수이고, 본 실시 형태의 예에서는 Q=2 또는 Q=4이다. 예를 들면, Q=4인 경우에는, N=2일 때에는 M을 3 이상의 정수로 설정하고, N=3∼4일 때에는 M을 4 이상의 정수로 설정하는 것이 바람직하다. 이때, 위치 검출부(600)(또는 제어부(700))가 N개의 자발광 지시체(70) 및, 각 자발광 지시체(70)의 스위치(73, 76)의 상태를 식별할 때에는, 1조의 발광 패턴의 M개의 단위 발광 기간에 있어서 각 카메라(310, 320)로 각각 촬상된 M매의 화상을 이용하여 그 식별을 실행한다. 또한, 이 M비트의 발광 패턴은, 조사 검출광(IDL)을 오프의 상태로 유지한 상태에서 지시체 신호광(PSL)을 온 또는 오프로 설정한 패턴이고, 카메라(310, 320)로 촬상되는 화상에는 비발광 지시체(80)가 찍히지 않는다. 그래서, 비발광 지시체(80)의 위치를 검출하기 위해 이용하는 화상을 촬상하기 위해, 조사 검출광(IDL)을 온 상태로 한 1비트의 단위 발광 기간을 더욱 추가하는 것이 바람직하다. 단, 위치 검출용의 단위 발광 기간에서는, 지시체 신호광(PSL)은 온/오프 중 어느 것이라도 좋다. 이 위치 검출용의 단위 발광 기간에서 얻어진 화상은, 자발광 지시체(70)의 위치 검출에도 이용하는 것이 가능하다.
도 3에 그려져 있는 5종류의 신호광의 구체예를 정리하면 이하와 같다.
(1) 투사 화상광(IML): 스크린면(SS)에 투사 화면(PS)을 투사하기 위해, 투사 렌즈(210)에 의해 스크린면(SS)상에 투사되는 화상광(가시광)이다.
(2) 조사 검출광(IDL): 지시체(자발광 지시체(70) 및 비발광 지시체(80))의 선단부를 검출하기 위해, 검출광 조사부(410)에 의해 스크린면(SS)과 그 전방의 공간에 걸쳐 조사되는 근적외광이다.
(3) 반사 검출광(RDL): 조사 검출광(IDL)으로서 조사된 근적외광 중, 지시체(자발광 지시체(70) 및 비발광 지시체(80))에 의해 반사되고, 2대의 카메라(310, 320)에 의해 수광되는 근적외광이다.
(4) 장치 신호광(ASL): 프로젝터(100)와 자발광 지시체(70)의 동기를 취하기 위해, 프로젝터(100)의 신호광 송신부(430)로부터 정기적으로 발해지는 근적외광이다.
(5) 지시체 신호광(PSL): 장치 신호광(ASL)에 동기한 타이밍에서, 자발광 지시체(70)의 선단 발광부(77)로부터 발해지는 근적외광이다. 지시체 신호광(PSL)의 발광 패턴은, 자발광 지시체(70)의 스위치(73, 76)의 온/오프 상태에 따라서 변경된다. 또한, 복수의 자발광 지시체(70)를 식별하는 고유의 발광 패턴을 갖는다.
본 실시 형태에 있어서, 자발광 지시체(70)와 비발광 지시체(80)의 선단부의 위치 검출 및, 자발광 지시체(70)와 비발광 지시체(80)에 의해 지시되는 내용의 판별은, 각각 이하와 같이 실행된다.
<자발광 지시체(70)의 위치 검출 방법 및 지시 내용의 판별 방법의 개요>
자발광 지시체(70)의 선단부(71)의 3차원 위치(X71, Y71, Z71)는, 위치 검출부(600)가, 2대의 카메라(310, 320)에 의해 촬상된 화상을 이용하여 삼각 측량에 따라 결정한다. 이때, 자발광 지시체(70)인지 아닌지는, 소정의 복수의 타이밍에서 촬상된 화상에 선단 발광부(77)의 발광 패턴이 나타나고 있는지 아닌지를 판단함으로써 인식 가능하다. 또한, 자발광 지시체(70)의 선단부(71)가 스크린면(SS)에 접촉하고 있는지 아닌지(즉 선단 스위치(76)가 온인지 아닌지)에 대해서도, 상기 복수의 타이밍에서 촬상된 화상에 있어서의 선단 발광부(77)의 발광 패턴을 이용하여 판별 가능하다. 위치 검출부(600)는, 추가로, 자발광 지시체(70)의 스위치(73, 76)의 온/오프 상태 및, 선단부(71)의 XY 좌표(X71, Y71)에 있어서의 투사 스크린면(SS)의 내용에 따라서, 그 지시 내용을 판별하는 것이 가능하다. 예를 들면, 도 4(B)에 예시한 바와 같이, 선단부(71)의 XY 좌표(X71, Y71)의 위치가 툴 박스(TB) 내의 어느 하나의 버튼의 위에 있는 상태에서 선단 스위치(76)가 온이 된 경우에는, 그 버튼의 툴이 선택된다. 또한, 도 2(B)에 예시한 바와 같이, 선단부(71)의 XY 좌표(X71, Y71)가 투사 화면(PS) 내의 툴 박스(TB) 이외의 위치에 있으면, 선택된 툴에 의한 처리(예를 들면 묘화)가 선택된다. 제어부(700)는, 자발광 지시체(70)의 선단부(71)의 XY 좌표(X71, Y71)를 이용하여, 미리 선택되어 있는 포인터나 마크가 투사 화면(PS) 내의 위치(X71, Y71)에 배치되도록, 그 포인터나 마크를 투사 화상 생성부(500)에 묘화시킨다. 또한, 제어부(700)는, 자발광 지시체(70)에 의해 지시된 내용에 따른 처리를 실행하여, 투사 화상 생성부(500)에 그 처리 결과를 포함하는 화상을 묘화시킨다.
<비발광 지시체(80)의 위치 검출 방법 및 지시 내용의 판별 방법의 개요>
비발광 지시체(80)의 선단부(81)의 3차원 위치(X81, Y81, Z81)도, 2대의 카메라(310, 320)에 의해 촬상된 화상을 이용하여, 삼각 측량에 따라 결정된다. 이때, 비발광 지시체(80)인지 아닌지는, 소정의 복수의 타이밍에서 촬상된 화상에 자발광 지시체(70)의 발광 패턴이 나타나고 있는지 아닌지를 판단함으로써 인식 가능하다. 또한, 2대의 카메라(310, 320)에 의해 촬상된 2매의 화상에 있어서의 비발광 지시체(80)의 선단부(81)의 위치는, 템플릿 매칭이나 특징 추출 등의 주지의 기술을 이용하여 결정할 수 있다. 예를 들면, 템플릿 매칭(template matching)에 의해 손가락인 비발광 지시체(80)의 선단부(81)를 인식하는 경우에는, 손가락에 관한 복수의 템플릿을 미리 준비해 두고, 2대의 카메라(310, 320)에 의해 촬상된 화상에 있어서, 이들 템플릿에 적합한 부분을 검색함으로써 손가락의 선단부(81)를 인식하는 것이 가능하다. 또한, 비발광 지시체(80)의 선단부(81)가 스크린면(SS)에 접하고 있는지 아닌지는, 삼각 측량으로 결정한 선단부(81)의 Z 좌표값과, 스크린면(SS)의 표면의 Z 좌표값의 차가 미소한 허용차 이하인지 아닌지, 즉, 선단부(81)가 스크린면(SS)의 표면에 충분히 가까운지 아닌지에 따라서 결정 가능하다. 이 허용차로서는, 예를 들면, 2㎜∼6㎜ 정도의 작은 값을 사용하는 것이 바람직하다. 또한, 위치 검출부(600)는, 비발광 지시체(80)의 선단부(81)가 스크린면(SS)에 접하고 있다고 판정한 경우에는, 그 접촉 위치에 있어서의 투사 스크린면(SS)의 내용에 따라서 그 지시 내용을 판별한다. 제어부(700)는, 위치 검출부(600)에서 검출된 비발광 지시체(80)의 선단의 XY 좌표(X81, Y81)를 이용하여, 미리 선택되어 있는 포인터나 마크가 투사 화면(PS) 내의 위치(X81, Y81)에 배치되도록, 그 포인터나 마크를 투사 화상 생성부(500)에 묘화시킨다. 또한, 제어부(700)는, 비발광 지시체(80)에 의해 지시된 내용에 따른 처리를 실행하여, 투사 화상 생성부(500)에 그 처리 결과를 포함하는 화상을 묘화시킨다.
(B. 카메라의 바람직한 배치 및 방향)
도 5(A)는, 2대의 카메라(310, 320)의 배치와 방향을 나타내는 설명도이다. 이 도면은, 각 카메라(310, 320)의 카메라 기준 위치(O1, O2)를 통과하는 YZ 평면상의 배치를 나타내고 있다. 제1 카메라(310)는, 제2 카메라(320)보다도 스크린면(SS)으로부터의 수직 거리(Z 방향의 거리)가 보다 큰 위치에 배치되어 있다. 여기에서는, 2대의 카메라(310, 320)와 스크린면(SS)의 배치를 이하와 같이 모델화하고 있다.
(1) 화상면(MP1, MP2): 각 카메라의 결상면(image formation surface)이다. 현실의 카메라에서는, 화상면(MP1, MP2)은 이미지 센서의 수광면(light receiving surface)에 상당한다.
(2) 카메라 기준 위치(O1, O2): 각 카메라의 기준 좌표 위치이다. 도 5의 모델에서는, 제1 카메라(310)에 있어서, 3차원 공간 내의 임의의 물점에 대응하는 화상면(MP1)상의 상은, 그 물점과 카메라 기준 위치(O1)를 연결한 직선과, 화상면(MP1)과의 교점의 위치에 형성된다. 제2 카메라(320)도 동일하다. 현실의 카메라에서는, 카메라 기준 위치(O1, O2)는, 그 카메라의 렌즈의 거의 중심에 있는 집광 위치에 상당한다. 또한, 현실의 카메라에서는, 렌즈의 중심은 화상면(MP1, MP2)의 전방에 있다. 단, 도 5(A)와 같이 화상면(MP1, MP2)이 카메라 기준 위치(O1, O2)(렌즈의 중심)의 전방에 있는 것이라고 해도, 현실의 카메라와 등가이다.
(3) 광축(V1, V2): 각 카메라의 광학계의 광축으로서, 화상면(MP1, MP2)과 직교하고 있다. 광축 방향에 평행한 단위 벡터를 「광축 벡터」라고도 부른다. 제1 카메라(310)의 광축(V1)의 방향은, Z 방향 및 Y 방향 중 어느 쪽으로부터도 기울어져 있고, 투사 화면(PS)의 영역을 통과하도록, 비스듬한 하방을 향하는 방향이다. 제2 카메라(320)의 광축(V2)도 동일하게, 투사 화면(PS)의 Z 방향 및 Y 방향 중 어느 쪽으로부터도 기울어져 있고, 투사 화면(PS)의 영역을 통과하도록, 비스듬한 하방을 향하는 방향이다. 또한, 도 5(A)의 예에서는, 2개의 광축(V1, V2)은 서로 평행하지만, 평행하지 않아도 좋다.
(4) 화각(2θ1, 2θ2): 각 카메라의 화각이다. 광축(V1, V2)의 방향과 화각(2θ1, 2θ2)의 크기는, 각각의 카메라(310, 320)가 투사 화면(PS)의 전체를 촬상할 수 있도록 설정된다. 2개의 카메라(310, 320)의 화각(2θ1, 2θ2)은 동일해도 좋고, 상이해도 좋다.
(5) 투사 화면(PS)의 법선(NV): 투사 화면(PS)(즉 스크린면(SS))에 대한 법선이다. 법선 방향에 평행한 단위 벡터를 「법선 벡터」또는 「투사 화면 법선 벡터」라고도 부른다. 또한, 투사 화면(PS)이나 스크린면(SS)이 평면이 아닌, 곡면인 경우도 생각된다. 이 경우에는, 투사 화면(PS)의 기하학적 중심에 있어서의 법선을 「투사 화면(PS)의 법선(NV)」이라고 정의한다.
도 5(A)에서는, 비발광 지시체(80)의 선단부(81)가, 투사 화면(PS)으로부터 거리(δZ)만큼 이간한 상태가 그려져 있다. 전술한 바와 같이, 비발광 지시체(80)의 선단부(81)의 3차원 위치는, 2대의 카메라(310, 320)로 촬상된 화상을 이용한 삼각 측량에 의해 결정된다. 종래 기술에서도 설명한 바와 같이, 인터랙티브 프로젝션 시스템(900)에서는, 비발광 지시체(80)의 선단부(81)와 스크린면(SS)의 Z 방향의 거리(δZ)를 정밀도 좋게 검출하는 것이 요망되고 있다. 그래서, 본 실시 형태에서는, 2대의 카메라(310, 320)의 배치와 방향을 고안함으로써, 비발광 지시체(80)의 선단부(81)와 스크린면(SS)의 사이의 Z 방향의 거리(δZ)의 검출 정밀도를 향상시키고 있다. 또한, Z 방향의 거리(δZ)의 검출 정밀도를, 「Z 좌표의 해상도」라고도 부른다.
또한, 카메라(310, 320)에 의한 Z 좌표의 해상도는, 투사 화면(PS)의 하단(PSb)에서 가장 낮고, 투사 화면(PS)의 상단(PSt)에서 가장 높고, 투사 화면(PS)의 중심(PSc)에서는 그들의 중간이다. 이 이유는, 투사 화면(PS)의 하단(PSb)이, 카메라(310, 320)로부터 가장 멀기 때문이다. 실제로는, Z 좌표의 해상도가 가장 낮은 위치(「최악 위치」라고 부름)는, 도 4(B)에 있어서, 투사 화면(PS)의 하변의 좌우의 단부 부근의 위치이다. 단, 도 5(A)와 같이, 각 카메라(310, 320)의 카메라 기준 위치(O1, O2)를 각각 통과하는 YZ 평면상에서 Z 좌표의 해상도를 검토해 두면, 최악 위치에 있어서의 Z 좌표의 해상도도 이에 비례하기 때문에, 실용상은 충분하다. 또한, 도 5(A)에 있어서의 투사 화면(PS)의 하단(PSb)은, 투사 화면(PS)의 4변 중 하변과, 제1 카메라(310)의 카메라 기준 위치(O1)(즉 렌즈 중심)를 통과하는 제1 YZ 평면이 교차하는 제1 교점에 상당한다. 제2 카메라(320)에 대해서도 동일하게, 도 5(A)에 있어서의 투사 화면(PS)의 하단(PSb)은, 투사 화면(PS)의 하변과, 제2 카메라(320)의 카메라 기준 위치(O2)(즉 렌즈 중심)를 통과하는 제2 YZ 평면이 교차하는 제2 교점에 상당한다.
도 5(A)에 있어서, 제2 카메라(320)는, 제1 카메라(310)보다도 투사 화면(PS)으로부터의 수직 거리(Z 방향의 거리)가 보다 작은 위치에 배치되어 있다. 또한, 2대의 카메라(310, 320)는, Y 방향의 위치가 동일한(투사 화면(PS)으로부터의 높이가 동일한) 위치에 배치되어 있다. 또한, 2대의 카메라(310, 320)의 광축(V1, V2)은 서로 평행하다.
도 5(B)는, 2개의 카메라(310, 320)의 광축 벡터(V1, V2)와 투사 화면 법선 벡터(NV)의 관계를 나타내고 있다. 광축 벡터(V1, V2)는, 투사 화면 법선 벡터(NV)로부터 비스듬하게 기울어져 있고, 광축 벡터(V1, V2)의 각각과, 투사 화면 법선 벡터(NV)가 이루는 각(θ1N, θ2N)은 90°보다도 작다. 투사 화면 법선 벡터(NV)는 Z 방향을 향하고 있기 때문에, 이들 각도(θ1N, θ2N)는, 광축(V1, V2)의 방향과 Z 방향이 이루는 각도에 상당한다. 이들 각도(θ1N, θ2N)는, 0°를 초과 90° 미만의 범위로 하는 것이 가능하지만, 50°∼70°의 범위 내의 값으로 하는 것이 바람직하다. 이에 대해서는 추가로 후술한다. 이하에 설명하는 바와 같이, 본 실시 형태에서는, 제2 카메라(320)를 제1 카메라(310)보다도 투사 화면(PS)에 가까운 위치에 배치함으로써, Z 좌표의 해상도를 높이고 있다.
도 6은, 카메라의 가상적인 배치예를 나타내고 있다. 여기에서는, 가상적으로, 카메라를, 투사 화면(PS)의 중심(PSc)을 중심으로 하는 원호 형상의 궤적(CRC)을 따른 3개의 카메라 위치(CMa, CMb, CMc)로 설정한 모양을 나타내고 있다. 또한, 3개의 카메라 위치(CMa∼CMc)에 있어서의 카메라의 광축(Va∼Vc)은 모두 투사 화면(PS)의 중심(PSc)을 향하는 방향으로 설정하고 있다. 여기에서, 투사 화면(PS)의 중심(PSc)에 있어서의 Z 방향의 거리(δZ)에 대해서, 3개의 카메라 위치(CMa∼CMc)에 있어서의 상(images)의 크기를 생각한다. 가장 하방의 카메라 위치(CMc)에서는, 광축(Vc)이 Z 방향에 거의 평행하게 되어 있기 때문에, Z 방향의 상의 사이즈는 매우 작다. 한편, 가장 높은 위치에 있고 투사 화면(PS)에 가장 가까운 카메라 위치(CMa)에서는 Z 방향의 상의 사이즈가 가장 크고, 중간의 높이에 있는 카메라 위치(CMb)에서는 Z 방향의 상의 사이즈는 중간 정도의 크기이다. 따라서, 투사 화면(PS)에 가장 가까운 카메라 위치(CMa)에서는, 다른 카메라 위치(CMb, CMc)에 비해 Z 좌표의 해상도가 가장 높다.
도 5(A)에 나타낸 제2 카메라(320)의 위치는, 도 6의 카메라 위치(CMa)에 가깝기 때문에, 도 6의 다른 카메라 위치(CMb, CMc)에 카메라를 설치한 경우보다도 Z 좌표의 해상도가 높아진다. 또한, 제1 카메라(310)는, 도 6의 중간의 높이의 카메라 위치(CMb)로부터 더욱 상방으로 이동한 위치에 배치되어 있다. 이 제1 카메라(310)의 위치에서는, 카메라에서 투사 화면(PS)까지의 거리가 카메라 위치(CMb)보다도 증대한다. 따라서, 도 5(A)의 제1 카메라(310)는, 도 6의 카메라 위치(CMb)보다도 더욱 Z 좌표의 해상도가 낮아진다. 이와 같이, 제2 카메라(320)를 제1 카메라(310)보다도 투사 화면(PS)에 가까운 위치에 배치함으로써, Z 좌표의 해상도를 높이는 것이 가능하다.
또한, 제2 카메라(320)에 대해서는, 그 광축(V2)의 각도(θ2N)(도 5(B))를 작게 할수록(Z 방향으로 접근할수록), 화상면(MP2)상에 있어서의 Z 방향의 거리(δZ)의 상이 커지기 때문에, Z 좌표의 해상도가 높아진다. 단, 각도(θ2N)를 과도하게 작게 하면, 화상면(MP2)상에 있어서의 투사 화면(PS)의 Y 방향의 상의 폭이 과도하게 작아져 버리기 때문에, Y 좌표의 해상도가 저하한다. 이들 점에서 Z 좌표와 Y 좌표의 해상도의 균형을 고려하면, 제2 카메라(320)의 광축(V2)의 각도(θ2N)를 50°∼70°의 범위 내의 값으로 하는 것이 바람직하고, 60°∼70°의 범위로 하는 것이 특히 바람직하다.
제1 카메라(310)에 대해서는, 그 광축(V1)의 각도(θ1N)의 차이에 의한 Z 좌표의 해상도의 변화는, 제2 카메라(320)에 비해 작다. 또한, 제1 카메라(310)는, 제2 카메라(320)보다도 Y 좌표에 대해서 보다 높은 해상도가 얻어진다. 한편, 제2 카메라(320)는, 제1 카메라(310)보다도 Z 방향에 대해서 보다 높은 해상도가 얻어진다. X 좌표의 해상도는, 2개의 카메라(310, 320)에서 거의 동일한 정도이다. 2개의 카메라(310, 320)의 광축(V1, V2)의 각도(θ1N, θ2N)는, 이들 점을 종합적으로 고려하여, Y 좌표와 Z 좌표의 해상도의 균형이 좋은 범위로 각각 설정하는 것이 바람직하다. 구체적으로는, 이들의 각도(θ1N, θ2N)를, 모두 50°∼70°의 범위 내의 값으로 하는 것이 바람직하고, 60°∼70°의 범위로 하는 것이 특히 바람직하다. 또한, 제1 카메라(310)의 광축(V1)을 제2 카메라(320)의 광축(V2)에 평행하게 설정하면, 삼각 측량에 있어서의 좌표 변환의 계산을 간략화할 수 있어, 지시체의 3차원 위치를 더욱 정밀도 좋게 결정할 수 있는 점에서 더욱 바람직하다.
이와 같이, 본 실시 형태에서는, 제2 카메라(320)를 제1 카메라(310)보다도 투사 화면(PS)에 가까운 위치에 배치함으로써, Z 좌표의 해상도를 높임과 함께 Y 좌표에 대해서도 충분히 높은 해상도를 얻는 것이 가능하다. 또한, 2대의 카메라(310, 320)의 X 방향에 따른 위치(X 좌표)는, 동일해도 좋고, 상이해도 좋다.
또한, 본 실시 형태에서는, 추가로, 2대의 카메라(310, 320)의 광축(V1, V2)의 방향을, 투사 화면(PS)의 영역을 통과하는 바와 같은 비스듬한 하방향을 향함으로써, Z 좌표의 해상도를 더욱 높이고 있다. 또한, 「투사 화면(PS)의 영역을 통과하는 바와 같은 비스듬한 하방향」이란, Z 방향 및 Z 방향에 수직인 방향(Z 방향에 수직인 임의의 방향) 중 어느 쪽으로부터도 기울어진 방향에 상당한다.
도 7은, 카메라의 다른 배치예를 나타내고 있다. 이는, 제2 카메라(320)를 제1 카메라(310)보다도 상방으로 이동시킨 것이고, 다른 구성이나 방향은 도 5(A)와 동일하다. 제2 카메라(320)를 상방으로 이동시킨 이유는, 제2 카메라(320)에 있어서의 Y 방향 배율의 변화를 작게 하기 위함이다. 즉, 도 5(A)의 배치에서는, 제2 카메라(320)가 투사 화면(PS)에 꽤 가깝기 때문에, 투사 화면(PS)의 상단(PSt)은 제2 카메라(320)에 매우 가깝고, 한편, 투사 화면(PS)의 하단(PSb)은 제2 카메라(320)로부터 꽤 멀다. 따라서, 제2 카메라(320)의 상에 있어서, 투사 화면(PS)의 상단(PSt) 부근에 있어서의 Y 방향 배율은 꽤 크고, 반대로, 투사 화면(PS)의 하단(PSb) 부근에 있어서의 Y 방향 배율은 꽤 작다. 이와 같이, 제2 카메라(320)에 있어서 투사 화면(PS)의 상단(PSt) 부근과 하단(PSb) 부근에 있어서의 Y 방향 배율의 차이가 큰 경우에는, 삼각 측량에 의한 Y 좌표의 검출 정밀도가 저하할 가능성이 있다. 그래서, 도 7과 같이, 제2 카메라(320)의 위치를 제1 카메라(310)보다도 상방으로 이동시킴으로써, 제2 카메라(320)의 상에 있어서 투사 화면(PS)의 하단(PSb) 부근에 있어서의 Y 방향 배율의 차이를 작게 할 수 있기 때문에, 3차원 위치의 검출 정밀도를 높일 수 있다. 단, 이 경우에도, 제2 카메라(320)의 위치는, 제1 카메라(310)보다도 투사 화면(PS)의 하단(PSb)으로부터의 거리가 가까운 위치에 배치하는 것이 바람직하다. 이렇게 하면, 제2 카메라(320)에 있어서의 Z 좌표의 해상도가 제1 카메라(310)보다도 높은 상태를 유지할 수 있어, Z 좌표의 해상도를 높게 유지하는 것이 가능하다.
·변형예:
또한, 이 발명은 상기의 실시예나 실시 형태에 한정되는 것이 아니고, 그 요지를 일탈하지 않는 범위에 있어서 여러 가지의 실시 형태에 있어서 실시하는 것이 가능하고, 예를 들면 다음과 같은 변형도 가능하다.
·변형예 1:
상기 실시 형태에서는, 촬상부(300)가 2대의 카메라(310, 320)를 갖고 있는 것으로 했지만, 촬상부(300)는 3대 이상의 카메라를 갖고 있어도 좋다. 후자의 경우에는, m대(m은 3 이상의 정수)의 카메라로 촬상된 m개의 화상에 기초하여, 3차원 좌표(X, Y, Z)가 결정된다. 예를 들면, m개의 화상으로부터 2개의 화상을 임의로 선택하여 얻어지는 mC2개의 조합을 이용하여 각각 3차원 좌표를 구하고, 그들의 평균값을 이용하여 최종적인 3차원 좌표를 결정해도 좋다. 이렇게 하면, 3차원 좌표의 검출 정밀도를 더욱 높이는 것이 가능하다.
·변형예 2:
상기 실시 형태에서는, 인터랙티브 프로젝션 시스템(900)이 화이트 보드 모드와 PC 인터랙티브 모드에서 동작 가능한 것으로 했지만, 이들 중 한쪽의 모드에서만 동작하도록 시스템이 구성되어 있어도 좋다. 또한, 인터랙티브 프로젝션 시스템(900)은, 이들 2개의 모드 이외의 다른 모드에서만 동작하도록 구성되어 있어도 좋고, 또한, 이들 2개의 모드를 포함하는 복수의 모드에서 동작 가능하게 구성되어 있어도 좋다.
·변형예 3:
상기 실시 형태에서는, 도 3에 나타낸 조사 검출광(IDL)과, 반사 검출광(RDL)과, 장치 신호광(ASL)과, 지시체 신호광(PSL)이 모두 근적외광인 것으로 했지만, 이들 중 일부 또는 전부를 근적외광 이외의 빛으로 해도 좋다.
·변형예 4:
상기 실시 형태에서는, 투사 화면이 평면 형상의 스크린판(920)에 투사되는 것으로 하고 있었지만, 투사 화면이 곡면 형상의 스크린에 투사되는 것으로 해도 좋다. 이 경우에도, 2대의 카메라로 촬상된 화상을 이용하고, 삼각 측량을 이용하여 지시체의 선단부의 3차원 위치를 결정할 수 있기 때문에, 지시체의 선단부와 투사 화면의 위치 관계를 결정하는 것이 가능하다.
이상, 몇 가지의 실시예에 기초하여 본 발명의 실시 형태에 대해서 설명해 왔지만, 상기한 발명의 실시 형태는, 본 발명의 이해를 용이하게 하기 위한 것이고, 본 발명을 한정하는 것은 아니다. 본 발명은, 그 취지 그리고 특허 청구의 범위를 일탈하는 일 없이, 변경, 개량될 수 있음과 함께, 본 발명에는 그 등가물이 포함되는 것은 물론이다.
70 : 자발광 지시체
71 : 선단부
72 : 축부
73 : 버튼 스위치
74 : 신호광 수신부
75 : 제어부
76 : 선단 스위치
77 : 선단 발광부
80 : 비발광 지시체
81 : 선단부
100 : 인터랙티브 프로젝터
200 : 투사부
210 : 투사 렌즈
220 : 광 변조부
230 : 광원
300 : 촬상부
310 : 제1 카메라
320 : 제2 카메라
410 : 검출광 조사부
430 : 신호광 송신부
500 : 투사 화상 생성부
510 : 투사 화상 메모리
600 : 위치 검출부
700 : 제어부
900 : 인터랙티브 프로젝션 시스템
910 : 지지 부재
920 : 스크린판

Claims (6)

  1. 투사 화면에 대한 유저의 지시체에 의한 지시를 수취하는 것이 가능한 인터랙티브 프로젝터로서,
    스크린면상에 상기 투사 화면을 투사하는 투사부와,
    상기 투사 화면의 영역을 촬상하는 제1 카메라 및 제2 카메라를 포함하는 복수대의 카메라와,
    상기 복수대의 카메라에 의해 촬상된 상기 지시체를 포함하는 복수의 화상에 기초하여, 상기 투사 화면에 대한 상기 지시체의 3차원 위치를 검출하는 위치 검출부를 구비하고,
    상기 투사 화면으로부터 떨어지는 방향을 Z 방향이라고 정의했을 때,
    상기 제2 카메라는, 상기 Z 방향에 대해서는 상기 제1 카메라보다도 상기 투사 화면에 가까운 위치에 배치되어 있는 인터랙티브 프로젝터.
  2. 제1항에 있어서,
    상기 제1 카메라가 제1 방향을 향하는 제1 광축을 갖고, 상기 제2 카메라가 제2 방향을 향하는 제2 광축을 갖고, 상기 제1 방향과 상기 제2 방향이 모두 상기 투사 화면의 영역을 통과하는 방향임과 함께, 상기 Z 방향 및 상기 Z 방향에 수직인 방향 중 어느 쪽으로부터도 기울어진 방향인 인터랙티브 프로젝터.
  3. 제2항에 있어서,
    상기 제1 방향과 상기 제2 방향은 서로 평행인 인터랙티브 프로젝터.
  4. 제2항 또는 제3항에 있어서,
    상기 제1 방향과 상기 제2 방향은, 상기 Z 방향과 이루는 각도가 50∼70도의 범위 내에 있는 인터랙티브 프로젝터.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 투사 화면상에서 서로 직교함과 함께 상기 Z 방향에 수직인 2개의 방향을 X 방향 및 Y 방향이라고 정의하고, +Y 방향을 상방향이라고 부르고 -Y 방향을 하방향이라고 부름과 함께 상기 투사 화면이 상기 인터랙티브 프로젝터보다도 하방의 위치에 투사되는 것이라고 정의했을 때,
    상기 제2 카메라는,
    (ⅰ) 상기 Y 방향에 대해서는 상기 제1 카메라보다도 상기 상방향으로 어긋난 위치에 배치되어 있음과 함께,
    (ⅱ) 상기 제1 카메라보다도 상기 투사 화면의 하단으로부터의 거리가 가까운 위치에 배치되어 있는 인터랙티브 프로젝터.
  6. 인터랙티브 프로젝팅 시스템으로서,
    제1항 내지 제5항 중 어느 한 항에 기재된 인터랙티브 프로젝터와,
    상기 투사 화면이 투사되는 스크린면을 갖는 스크린을 구비하는 인터랙티브 프로젝팅 시스템.
KR1020177030896A 2015-03-27 2016-03-16 인터랙티브 프로젝터 및 인터랙티브 프로젝션 시스템 KR20170129947A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015065633A JP6477130B2 (ja) 2015-03-27 2015-03-27 インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
JPJP-P-2015-065633 2015-03-27
PCT/JP2016/001520 WO2016157786A1 (ja) 2015-03-27 2016-03-16 インタラクティブプロジェクター及びインタラクティブプロジェクションシステム

Publications (1)

Publication Number Publication Date
KR20170129947A true KR20170129947A (ko) 2017-11-27

Family

ID=57004515

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177030896A KR20170129947A (ko) 2015-03-27 2016-03-16 인터랙티브 프로젝터 및 인터랙티브 프로젝션 시스템

Country Status (7)

Country Link
US (1) US10534448B2 (ko)
EP (1) EP3276465A4 (ko)
JP (1) JP6477130B2 (ko)
KR (1) KR20170129947A (ko)
CN (1) CN107407994B (ko)
TW (1) TW201636783A (ko)
WO (1) WO2016157786A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10346992B2 (en) * 2014-07-30 2019-07-09 Sony Corporation Information processing apparatus, information processing method, and program
US10121236B2 (en) * 2016-10-26 2018-11-06 Himax Technologies Limited Automatic alignment apparatus and associated method
JP2018085552A (ja) * 2016-11-21 2018-05-31 セイコーエプソン株式会社 プロジェクターシステム
JP7035555B2 (ja) * 2018-01-23 2022-03-15 セイコーエプソン株式会社 教示装置、及びシステム
CN111837096A (zh) * 2018-03-23 2020-10-27 株式会社和冠 三维位置指示器及三维位置检测系统
TWI745992B (zh) * 2020-06-04 2021-11-11 宏芯科技股份有限公司 用於虛擬觸控之投影裝置及其方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2874710B2 (ja) * 1996-02-26 1999-03-24 日本電気株式会社 三次元位置計測装置
US6710770B2 (en) * 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
JP2003036142A (ja) * 2001-07-24 2003-02-07 Hitachi Ltd プレゼンテーションシステム、およびプレゼンテーション方法
CN1926497A (zh) * 2003-12-09 2007-03-07 雷阿卡特瑞克斯系统公司 自主交互式视频显示系统
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
JP2008261755A (ja) * 2007-04-12 2008-10-30 Canon Inc 情報処理装置、情報処理方法
TW200935272A (en) * 2007-12-03 2009-08-16 Tse-Hsien Yeh Sensing apparatus and operating method thereof
CN101446745B (zh) * 2008-12-18 2010-11-17 清华大学深圳研究生院 一种具有交互功能的投影系统
GB2466497B (en) * 2008-12-24 2011-09-14 Light Blue Optics Ltd Touch sensitive holographic displays
JP2011153889A (ja) * 2010-01-27 2011-08-11 Seiko Epson Corp Memsの製造方法及び熱型光検出器の製造方法並びに熱型光検出器、熱型光検出装置及び電子機器
JP2011180712A (ja) * 2010-02-26 2011-09-15 Sanyo Electric Co Ltd 投写型映像表示装置
JP2012150636A (ja) 2011-01-19 2012-08-09 Seiko Epson Corp 投写型表示装置及び情報処理システム
CA2844105A1 (en) 2011-08-31 2013-03-07 Smart Technologies Ulc Detecting pointing gestures in a three-dimensional graphical user interface
JP5793038B2 (ja) * 2011-09-13 2015-10-14 キヤノン株式会社 投射型画像表示装置
DE102011119082A1 (de) * 2011-11-21 2013-05-23 Übi UG (haftungsbeschränkt) Vorrichtungsanordnung zur Schaffung eines interaktiven Bildschirms aus einem Bildschirm
JP6049334B2 (ja) * 2012-07-12 2016-12-21 キヤノン株式会社 検出装置、検出方法及びプログラム
CN103150020A (zh) * 2013-03-14 2013-06-12 上海电机学院 一种三维指控操作方法及系统
FR3004249B1 (fr) * 2013-04-09 2016-01-22 Vit Systeme d'acquisition d'images tridimensionnelles
CN103632334B (zh) * 2013-11-13 2017-02-08 华南理工大学 一种基于平行光轴结构摄像机的无穷远图像对齐方法
JP5888393B2 (ja) 2014-11-12 2016-03-22 セイコーエプソン株式会社 位置検出システム、表示システム及び情報処理システム
JP6459706B2 (ja) * 2015-03-27 2019-01-30 セイコーエプソン株式会社 インタラクティブプロジェクター及びインタラクティブプロジェクションシステム

Also Published As

Publication number Publication date
EP3276465A1 (en) 2018-01-31
US20180067567A1 (en) 2018-03-08
WO2016157786A1 (ja) 2016-10-06
JP6477130B2 (ja) 2019-03-06
JP2016186672A (ja) 2016-10-27
CN107407994A (zh) 2017-11-28
EP3276465A4 (en) 2018-11-07
CN107407994B (zh) 2020-12-25
US10534448B2 (en) 2020-01-14
TW201636783A (zh) 2016-10-16

Similar Documents

Publication Publication Date Title
JP6477131B2 (ja) インタラクティブプロジェクター,インタラクティブプロジェクションシステム,およびインタラクティブプロジェクターの制御方法
KR20170129947A (ko) 인터랙티브 프로젝터 및 인터랙티브 프로젝션 시스템
US10133366B2 (en) Interactive projector and interactive projection system
JP6623812B2 (ja) 位置検出装置、及び、そのコントラスト調整方法
US10831288B2 (en) Projector, projection system, and detection light radiator
US11073949B2 (en) Display method, display device, and interactive projector configured to receive an operation to an operation surface by a hand of a user
KR20170129948A (ko) 인터랙티브 프로젝터, 인터랙티브 프로젝션 시스템 및, 인터랙티브 프로젝터의 제어 방법
JP6459706B2 (ja) インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
US10551972B2 (en) Interactive projector and method of controlling interactive projector
JP6503828B2 (ja) インタラクティブプロジェクションシステム,指示体,およびインタラクティブプロジェクションシステムの制御方法
JP6451446B2 (ja) インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
JP6690271B2 (ja) 位置検出システム、位置検出装置、および位置検出方法
JP2017033222A (ja) インタラクティブプロジェクター及びそのz座標の補正方法
JP2016186679A (ja) インタラクティブプロジェクターおよびインタラクティブプロジェクターの制御方法
JP2019106105A (ja) インタラクティブプロジェクションシステム、インタラクティブプロジェクター、インタラクティブプロジェクターの制御方法

Legal Events

Date Code Title Description
A201 Request for examination
WITB Written withdrawal of application