JP6477131B2 - インタラクティブプロジェクター,インタラクティブプロジェクションシステム,およびインタラクティブプロジェクターの制御方法 - Google Patents
インタラクティブプロジェクター,インタラクティブプロジェクションシステム,およびインタラクティブプロジェクターの制御方法 Download PDFInfo
- Publication number
- JP6477131B2 JP6477131B2 JP2015065669A JP2015065669A JP6477131B2 JP 6477131 B2 JP6477131 B2 JP 6477131B2 JP 2015065669 A JP2015065669 A JP 2015065669A JP 2015065669 A JP2015065669 A JP 2015065669A JP 6477131 B2 JP6477131 B2 JP 6477131B2
- Authority
- JP
- Japan
- Prior art keywords
- indicator
- light
- projection screen
- self
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03542—Light pens for emitting or receiving light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
- G06F3/0383—Signal control means within the pointing device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Position Input By Displaying (AREA)
- Projection Apparatus (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
このインタラクティブプロジェクターでは、自発光指示体と非発光指示体とで、異なる方法で指示体の投写画面への接触を検出している。自発光指示体の投写画面への接触の検出は、発光パターンに基づいて実行されるので、指示体の投写画面への接触の検出精度を向上させることができる。
この構成によれば、例えば、検出光として近赤外光を用いて、容易に、精度よく非発光指示体を検出することができる。また、インタラクティブプロジェクターが検出光照射部を備えることにより、プロジェクターによって、検出光の照射タイミングを、カメラによる撮像タイミングに関連づけて、容易に制御することができる。
この構成によれば、検出光が間欠的に照射されるため、検出光の照射有無に対応する画像に基づいて、容易に自発光指示体と非発光指示体とを判別することができる。
図1は、本発明の一実施形態におけるインタラクティブプロジェクションシステム900の斜視図である。このシステム900は、インタラクティブプロジェクター100と、スクリーン板920と、自発光指示体70とを有している。スクリーン板920の前面は、投写スクリーン面SS(projection Screen Surface)として利用される。プロジェクター100は、支持部材910によってスクリーン板920の前方かつ上方に固定されている。なお、図1では投写スクリーン面SSを鉛直に配置しているが、投写スクリーン面SSを水平に配置してこのシステム900を使用することも可能である。
N×Q≦2M …(1)
ここで、Qは自発光指示体70のスイッチ73,76で区別される状態の数であり、本実施形態の例ではQ=2又はQ=4である。例えば、Q=4の場合には、N=2のときにはMを3以上の整数に設定し、N=2〜4のときにはMを4以上の整数に設定することが好ましい。このとき、位置検出部600(又は制御部700)がN個の自発光指示体70と非発光指示体80、及び、各自発光指示体70のスイッチ73,76の状態を識別する際には、1組の発光パターンのM個の単位発光期間において各カメラ310,320でそれぞれ撮像されたM枚の画像を用いてその識別を実行する。なお、このMビットの発光パターンは、照射検出光IDLをオフの状態に維持した状態で指示体信号光PSLをオン又はオフに設定したパターンであり、カメラ310,320で撮像される画像には非発光指示体80が写らない。そこで、非発光指示体80の位置を検出するために用いる画像を撮像するために、照射検出光IDLをオン状態とした1ビットの単位発光期間を更に追加することが好ましい。但し、位置検出用の単位発光期間では、指示体信号光PSLはオン/オフのいずれでも良い。この位置検出用の単位発光期間で得られた画像は、自発光指示体70の位置検出にも利用することが可能である。
(1)投写画像光IML:スクリーン面SSに投写画面PSを投写するために、投写レンズ210によってスクリーン面SS上に投写される画像光(可視光)である。
(2)照射検出光IDL: 指示体780(自発光指示体70及び非発光指示体80)の先端部を検出するために、検出光照射部410によってスクリーン面SSとその前方の空間にわたって照射される近赤外光である。
(3)反射検出光RDL:照射検出光IDLとして照射された近赤外光のうち、指示体780(自発光指示体70及び非発光指示体80)によって反射され、2台のカメラ310,320によって受光される近赤外光である。
(4)装置信号光ASL:プロジェクター100と自発光指示体70との同期をとるために、プロジェクター100の信号光送信部430から定期的に発せられる近赤外光である。
(5)指示体信号光PSL:装置信号光ASLに同期したタイミングで、自発光指示体70の先端発光部77から発せられる近赤外光である。指示体信号光PSLの発光パターンは、自発光指示体70のスイッチ73,76のオン/オフ状態に応じて変更される。また、複数の自発光指示体70を識別する固有の発光パターンを有する。
図5は、プロジェクターおよび指示体の発光タイミングを示すタイミングチャートである。本実施形態におけるインタラクティブプロジェクションシステム900では、図5に示すシーケンスに従って、指示体780(自発光指示体70,非発光指示体80)の位置検出および接触検出(指示体780の先端のスクリーン面SSへの接触の検出)が行われる。図5に示すシーケンスは、第1サイクルCY1〜第4サイクルCY4の4つのサイクルを備え、各サイクルは、第1フェーズPH1〜第4フェーズPH4の4つのフェーズを備える。すなわち、本シーケンスでは、第1フェーズPH1から第4フェーズPH4を4回繰り返すことによって、複数の自発光指示体70と非発光指示体80とを区別して位置を特定すると共に、複数の自発光指示体70を区別して接触を検出することができる。1つのフェーズが前述した単位発光期間に相当する。図5では、自発光指示体70としてペン1,ペン2を用いた例を示している。ペン1のペンIDは「10」、ペン2のペンIDは「01」である。これに、ボタンスイッチフラグ(OFF=「0」,ON=「1」)、および接触フラグ(非接触=「0」,接触=「1」)を加えたものを、上記した発光パターン(発光ID)としている。自発光指示体70は、第3フェーズPH3において、設定された発光IDに従って発光する。なお、撮像部300のカメラ310,320は、装置信号光ASLに同期して、第2フェースPH2,第3フェーズPH3,第4フェーズPH4において、撮像を実行する。図5では、ボタンスイッチフラグが「0」、接触フラグが「0」の場合を図示している。
図6は、プロジェクターおよび指示体の発光タイミングの他の例を示すタイミングチャートである。図6に示すシーケンスは、1サイクルが第1フェーズPH1〜第5フェーズPH5の5つのフェーズを備える。この例では、第1フェーズPH1から第5フェーズPH5を1回実行することによって、複数の自発光指示体70と非発光指示体80とを区別して位置を特定すると共に、複数の自発光指示体70を区別して接触を検出することができる。この例では、自発光指示体70が上記の例におけるボタンスイッチ73を備えない構成を示す。図6では、自発光指示体70としてペン21,ペン22を用いた例を示している。ペン21のペンIDは「10」、ペン22のペンIDは「11」である。これに、接触フラグ(非接触=「0」,接触=「1」)を加えたものを、上記した発光パターン(発光ID)としている。自発光指示体70は、第2フェーズPH2〜第4フェーズPH4において、設定された発光IDに従って発光する。撮像部300のカメラ310,320は、装置信号光ASLに同期して、第2フェーズPH2〜第5フェーズPH5において、撮像を実行する。図6では、接触フラグが「0」の場合を図示している。
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
上記実施形態では、自発光指示体70が発する指示体信号光PSLの発光パターン(発光ID)として4ビットの発光IDを例示したが、指示体信号光PSLの発光パターンは上記実施形態に限定されず、複数の自発光指示体70を識別して、接触/非接触を判定可能に構成されればよい。また、上記実施形態において、指示体780の位置検出および接触判定は、図5に示すシーケンスに従って撮像された画像に基づいて実行されているが、図5に示すシーケンスに限定されない。例えば、第4フェーズPH4を省略してもよい。
上記実施形態では、撮像部300が2台のカメラ310,320を有しているものとしたが、撮像部300は3台以上のカメラを有していてもよい。後者の場合には、m台(mは3以上の整数)のカメラで撮像されたm個の画像に基づいて、三次元座標(X,Y,Z)が決定される。例えば、m個の画像から2個の画像を任意に選択して得られるmC2個の組み合わせを用いてそれぞれ三次元座標を求め、それらの平均値を用いて最終的な三次元座標を決定しても良い。こうすれば、三次元座標の検出精度を更に高めることが可能である。
上記実施形態では、インタラクティブプロジェクションシステム900がホワイトボードモードとPCインタラクティブモードとで動作可能であるものとしたが、これらのうちの一方のモードのみで動作するようにシステムが構成されていても良い。また、インタラクティブプロジェクションシステム900は、これら2つのモード以外の他のモードのみで動作するように構成されていても良く、更に、これら2つのモードを含む複数のモードで動作可能に構成されていてもよい。
上記実施形態では、図3に示した照射検出光IDLと、反射検出光RDLと、装置信号光ASLと、指示体信号光PSLとがすべて近赤外光であるものとしたが、これらのうちの一部又は全部を近赤外光以外の光としてもよい。
上記実施形態では、投写画面が平面状のスクリーン板920に投写されるものとしていたが、投写画面が曲面状のスクリーンに投写されるものとしても良い。この場合にも、2台のカメラで撮像された画像を用い、三角測量を利用して指示体の先端部の三次元位置を決定できるので、指示体の先端部と投写画面の位置関係を決定することが可能である。
上記実施形態では、インタラクティブプロジェクター100が検出光照射部410を備える構成を例示したが、検出光照射部410を備えない構成にしてもよい。インタラクティブプロジェクター100が検出光照射部410を備えない場合、非発光指示体80の先端を検出するための照射検出光をスクリーン面SSとその前方の空間にわたって照射する構成を、支持部材910等が備えてもよい。また、2台のカメラ310,320の両方を、可視光を含む光を受光して撮像する撮像機能を有する構成とし、非発光指示体80の先端を、可視光を含む光を受光して撮像した撮像画像に基づいて検出する構成にしてもよい。
71…先端部
72…軸部
73…ボタンスイッチ
74…信号光受信部
75…制御部
76…先端スイッチ
77…先端発光部
80…非発光指示体
81…先端部
100…インタラクティブプロジェクター
200…投写部
210…投写レンズ
220…光変調部
230…光源
300…撮像部
310…第1カメラ
320…第2カメラ
410…検出光照射部
430…信号光送信部
500…投写画像生成部
510…投写画像メモリー
600…位置検出部
700…制御部
900…インタラクティブプロジェクションシステム
910…支持部材
920…スクリーン板
Claims (5)
- 投写画面に対するユーザーの指示体による指示を受け取ることが可能なインタラクティブプロジェクターであって、
前記指示体として、前記投写画面への接触時と非接触時とで異なる発光パターンで指示体信号光を発光する発光部を備える自発光指示体と、前記発光部を備えない非発光指示体との両方を同時に使用可能であり、
前記インタラクティブプロジェクターは、
スクリーン面上に前記投写画面を投写する投写部と、
前記投写画面の領域を撮像する第1カメラ及び第2カメラを含む複数台のカメラと、
前記複数台のカメラによって撮像された前記指示体を含む複数の画像に基づいて、前記投写画面に対する前記指示体の3次元位置を検出する位置検出部と、
前記指示体の前記投写画面への接触を検出する接触検出部と、
を備え、
前記接触検出部は、
前記自発光指示体の前記投写画面への接触は、前記発光パターンに基づいて検出し、
前記非発光指示体の前記投写画面への接触は、前記位置検出部によって検出された前記3次元位置に基づいて検出する、インタラクティブプロジェクター。 - 請求項1に記載のインタラクティブプロジェクターにおいて、
前記非発光指示体の検出に用いる検出光を前記投写画面に向けて照射する検出光照射部をさらに備え、
前記複数台のカメラは、前記指示体信号光および前記検出光の波長を含む波長領域の光を受光して前記投写画面の領域を撮像する、
インタラクティブプロジェクター。 - 請求項2に記載のインタラクティブプロジェクターにおいて、
前記検出光照射部は、
前記検出光を間欠的に前記投写画面に向けて照射し、
前記位置検出部は、
前記検出光が照射される第1の期間に撮像された第1の画像と、前記検出光が照射されない第2の期間に撮像された第2の画像と、に基づいて、前記自発光指示体と前記非発光指示体とを判別する、
インタラクティブプロジェクター。 - インタラクティブプロジェクションシステムであって、
請求項1から請求項3のいずれか一項に記載のインタラクティブプロジェクターと、
前記投写画面が投写されるスクリーン面を有するスクリーンと、
前記投写画面への接触時と非接触時とで異なる発光パターンで指示体信号光を発光する発光部を備える自発光指示体と、を備えるインタラクティブプロジェクションシステム。 - 投写画面に対するユーザーの指示体による指示を受け取ることが可能なインタラクティブプロジェクターの制御方法であって、
前記インタラクティブプロジェクターは、前記指示体として、前記投写画面への接触時と非接触時とで異なる発光パターンで指示体信号光を発光する発光部を備える自発光指示体と、前記発光部を備えない非発光指示体との両方を同時に使用可能であり、
スクリーン面上に前記投写画面を投写し、
第1カメラ及び第2カメラを含む複数台のカメラによって前記投写画面の領域を撮像し、
前記複数台のカメラによって撮像された前記指示体を含む複数の画像に基づいて、前記投写画面に対する前記指示体の3次元位置を検出し、
前記自発光指示体の前記投写画面への接触を、前記発光パターンに基づいて検出し、
前記非発光指示体の前記投写画面への接触を、前記指示体の前記3次元位置に基づいて検出する、インタラクティブプロジェクターの制御方法。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015065669A JP6477131B2 (ja) | 2015-03-27 | 2015-03-27 | インタラクティブプロジェクター,インタラクティブプロジェクションシステム,およびインタラクティブプロジェクターの制御方法 |
CN201680012869.5A CN107430465B (zh) | 2015-03-27 | 2016-03-18 | 交互式投影仪、交互式投影系统和交互式投影仪的控制方法 |
EP16771700.8A EP3276466A4 (en) | 2015-03-27 | 2016-03-18 | Interactive projector, interactive projection system, and method for controlling interactive projector |
PCT/JP2016/001606 WO2016157807A1 (ja) | 2015-03-27 | 2016-03-18 | インタラクティブプロジェクター,インタラクティブプロジェクションシステム,およびインタラクティブプロジェクターの制御方法 |
KR1020177027896A KR20170122259A (ko) | 2015-03-27 | 2016-03-18 | 인터랙티브 프로젝터, 인터랙티브 프로젝션 시스템 및, 인터랙티브 프로젝터의 제어 방법 |
US15/559,365 US10275097B2 (en) | 2015-03-27 | 2016-03-18 | Interactive projector, interactive projection system, and interactive projector control method |
TW105109279A TW201636786A (zh) | 2015-03-27 | 2016-03-24 | 互動式投影機、互動式投影系統及互動式投影機之控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015065669A JP6477131B2 (ja) | 2015-03-27 | 2015-03-27 | インタラクティブプロジェクター,インタラクティブプロジェクションシステム,およびインタラクティブプロジェクターの制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016186676A JP2016186676A (ja) | 2016-10-27 |
JP2016186676A5 JP2016186676A5 (ja) | 2018-04-12 |
JP6477131B2 true JP6477131B2 (ja) | 2019-03-06 |
Family
ID=57006658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015065669A Expired - Fee Related JP6477131B2 (ja) | 2015-03-27 | 2015-03-27 | インタラクティブプロジェクター,インタラクティブプロジェクションシステム,およびインタラクティブプロジェクターの制御方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US10275097B2 (ja) |
EP (1) | EP3276466A4 (ja) |
JP (1) | JP6477131B2 (ja) |
KR (1) | KR20170122259A (ja) |
CN (1) | CN107430465B (ja) |
TW (1) | TW201636786A (ja) |
WO (1) | WO2016157807A1 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10296142B2 (en) * | 2015-12-22 | 2019-05-21 | Ricoh Company, Ltd. | Information display device, system, and recording medium |
KR101989998B1 (ko) * | 2016-11-09 | 2019-06-17 | (주)이즈커뮤니케이션즈 | 가상의 터치 스크린이 구현되는 컴퓨터 입력 시스템 |
WO2018116462A1 (ja) * | 2016-12-22 | 2018-06-28 | Necディスプレイソリューションズ株式会社 | カメラ装置、電子黒板システム及び描画信号生成方法 |
JP6733566B2 (ja) * | 2017-01-25 | 2020-08-05 | 富士通株式会社 | 情報処理方法、情報処理システム、及び光学装置 |
WO2018147782A1 (en) * | 2017-02-07 | 2018-08-16 | Flatfrog Laboratories Ab | Improved stylus button control |
CN117311543A (zh) | 2017-09-01 | 2023-12-29 | 平蛙实验室股份公司 | 触摸感测设备 |
JP6935713B2 (ja) * | 2017-09-27 | 2021-09-15 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム及び位置検出装置の制御方法 |
JP7124375B2 (ja) | 2018-03-26 | 2022-08-24 | セイコーエプソン株式会社 | 電子ペン、表示システムおよび電子ペンの制御方法 |
JP2019174513A (ja) * | 2018-03-27 | 2019-10-10 | セイコーエプソン株式会社 | 表示装置、及び、表示装置の制御方法 |
JP7014009B2 (ja) * | 2018-03-29 | 2022-02-01 | セイコーエプソン株式会社 | 操作デバイス、位置検出システム及び操作デバイスの制御方法 |
JP6787363B2 (ja) * | 2018-05-10 | 2020-11-18 | セイコーエプソン株式会社 | 操作デバイス、位置検出システム及び操作デバイスの制御方法 |
US10983553B2 (en) * | 2018-08-24 | 2021-04-20 | Synaptics Incorporated | System and method for synchronizing sensing signals of integrated circuit chips |
CN112889016A (zh) | 2018-10-20 | 2021-06-01 | 平蛙实验室股份公司 | 用于触摸敏感装置的框架及其工具 |
JP7251095B2 (ja) * | 2018-10-22 | 2023-04-04 | セイコーエプソン株式会社 | 位置検出装置、表示装置、表示システム、及び、位置検出方法 |
JP7251094B2 (ja) | 2018-10-22 | 2023-04-04 | セイコーエプソン株式会社 | 位置検出装置、表示システム、及び、位置検出方法 |
JP2020135593A (ja) * | 2019-02-22 | 2020-08-31 | セイコーエプソン株式会社 | 指示体、指示体の制御方法、及びインタラクティブシステム |
WO2020183519A1 (ja) * | 2019-03-08 | 2020-09-17 | Necディスプレイソリューションズ株式会社 | 情報処理装置、情報処理方法、プログラム、表示システム、表示方法及び電子筆記具 |
JP7283958B2 (ja) | 2019-04-11 | 2023-05-30 | 株式会社ソニー・インタラクティブエンタテインメント | 複数のマーカを備えたデバイス |
JP2020177283A (ja) | 2019-04-15 | 2020-10-29 | 株式会社ソニー・インタラクティブエンタテインメント | 複数のマーカを備えたデバイス |
JP7288792B2 (ja) * | 2019-04-24 | 2023-06-08 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置およびデバイス情報導出方法 |
JP2021026609A (ja) | 2019-08-07 | 2021-02-22 | セイコーエプソン株式会社 | プロジェクションシステム、位置検出システム、及び位置検出システムの制御方法 |
KR102216804B1 (ko) * | 2019-11-15 | 2021-02-17 | (주)이즈커뮤니케이션즈 | 정보 기기에 정보를 입력하는 정보 입력 장치 |
CN114730228A (zh) | 2019-11-25 | 2022-07-08 | 平蛙实验室股份公司 | 一种触摸感应设备 |
JP2023512682A (ja) | 2020-02-10 | 2023-03-28 | フラットフロッグ ラボラトリーズ アーベー | 改良型タッチ検知装置 |
JP7338659B2 (ja) * | 2021-03-30 | 2023-09-05 | セイコーエプソン株式会社 | 指示体の検出方法及びプロジェクションシステム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5914783A (en) * | 1997-03-24 | 1999-06-22 | Mistubishi Electric Information Technology Center America, Inc. | Method and apparatus for detecting the location of a light source |
US6275214B1 (en) * | 1999-07-06 | 2001-08-14 | Karl C. Hansen | Computer presentation system and method with optical tracking of wireless pointer |
US6710770B2 (en) * | 2000-02-11 | 2004-03-23 | Canesta, Inc. | Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device |
CN1459705A (zh) * | 2002-05-23 | 2003-12-03 | 高启烈 | 具有光学位置侦测的触碰面板装置 |
US20030234346A1 (en) | 2002-06-21 | 2003-12-25 | Chi-Lei Kao | Touch panel apparatus with optical detection for location |
NO323926B1 (no) | 2004-11-12 | 2007-07-23 | New Index As | Visuelt system samt styringsobjekt og apparat til bruk i systemet. |
GB2486445B (en) * | 2010-12-14 | 2013-08-14 | Epson Norway Res And Dev As | Camera-based multi-touch interaction apparatus system and method |
CN102566827A (zh) * | 2010-12-30 | 2012-07-11 | 株式会社理光 | 虚拟触摸屏系统中对象检测方法和系统 |
JP2012150636A (ja) | 2011-01-19 | 2012-08-09 | Seiko Epson Corp | 投写型表示装置及び情報処理システム |
CN102841733B (zh) * | 2011-06-24 | 2015-02-18 | 株式会社理光 | 虚拟触摸屏系统以及自动切换交互模式的方法 |
JP6141596B2 (ja) * | 2011-12-27 | 2017-06-07 | セイコーエプソン株式会社 | 表示装置、表示システム及び表示装置のデータ供給方法 |
US9904414B2 (en) | 2012-12-10 | 2018-02-27 | Seiko Epson Corporation | Display device, and method of controlling display device |
JP6244627B2 (ja) | 2013-01-09 | 2017-12-13 | セイコーエプソン株式会社 | 画像表示装置、プロジェクター、および画像表示装置の制御方法 |
JP6286846B2 (ja) * | 2013-03-25 | 2018-03-07 | セイコーエプソン株式会社 | プロジェクター、指示体、インタラクティブシステムおよび制御方法 |
JP5888393B2 (ja) * | 2014-11-12 | 2016-03-22 | セイコーエプソン株式会社 | 位置検出システム、表示システム及び情報処理システム |
-
2015
- 2015-03-27 JP JP2015065669A patent/JP6477131B2/ja not_active Expired - Fee Related
-
2016
- 2016-03-18 WO PCT/JP2016/001606 patent/WO2016157807A1/ja active Application Filing
- 2016-03-18 US US15/559,365 patent/US10275097B2/en active Active
- 2016-03-18 KR KR1020177027896A patent/KR20170122259A/ko active Search and Examination
- 2016-03-18 EP EP16771700.8A patent/EP3276466A4/en not_active Withdrawn
- 2016-03-18 CN CN201680012869.5A patent/CN107430465B/zh active Active
- 2016-03-24 TW TW105109279A patent/TW201636786A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
WO2016157807A1 (ja) | 2016-10-06 |
EP3276466A1 (en) | 2018-01-31 |
US10275097B2 (en) | 2019-04-30 |
KR20170122259A (ko) | 2017-11-03 |
CN107430465B (zh) | 2020-06-09 |
CN107430465A (zh) | 2017-12-01 |
EP3276466A4 (en) | 2018-10-17 |
TW201636786A (zh) | 2016-10-16 |
JP2016186676A (ja) | 2016-10-27 |
US20180074654A1 (en) | 2018-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6477131B2 (ja) | インタラクティブプロジェクター,インタラクティブプロジェクションシステム,およびインタラクティブプロジェクターの制御方法 | |
CN107094247B (zh) | 位置检测装置及其对比度调整方法 | |
US10133366B2 (en) | Interactive projector and interactive projection system | |
JP6477130B2 (ja) | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム | |
JP2018072495A (ja) | プロジェクター、プロジェクションシステム及び検出光照射装置 | |
CN107407995B (zh) | 交互式投影仪、交互式投影系统以及交互式投影仪的控制方法 | |
JP6485160B2 (ja) | インタラクティブプロジェクター、及び、インタラクティブプロジェクターの制御方法 | |
JP6459706B2 (ja) | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム | |
JP6503828B2 (ja) | インタラクティブプロジェクションシステム,指示体,およびインタラクティブプロジェクションシステムの制御方法 | |
JP6451446B2 (ja) | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム | |
JP6690271B2 (ja) | 位置検出システム、位置検出装置、および位置検出方法 | |
US9958958B2 (en) | Interactive projector and method of controlling interactive projector | |
JP6690272B2 (ja) | 位置検出システム、自発光指示体、および固有情報取得方法 | |
JP2016186679A (ja) | インタラクティブプロジェクターおよびインタラクティブプロジェクターの制御方法 | |
JP2016186680A (ja) | インタラクティブプロジェクターおよびインタラクティブプロジェクターの制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180301 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190121 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6477131 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |