JP2016186670A - インタラクティブプロジェクター及びインタラクティブプロジェクションシステム - Google Patents
インタラクティブプロジェクター及びインタラクティブプロジェクションシステム Download PDFInfo
- Publication number
- JP2016186670A JP2016186670A JP2015065630A JP2015065630A JP2016186670A JP 2016186670 A JP2016186670 A JP 2016186670A JP 2015065630 A JP2015065630 A JP 2015065630A JP 2015065630 A JP2015065630 A JP 2015065630A JP 2016186670 A JP2016186670 A JP 2016186670A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- projection screen
- indicator
- optical axis
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 47
- 239000013598 vector Substances 0.000 claims abstract description 80
- 230000003287 optical effect Effects 0.000 claims abstract description 60
- 238000001514 detection method Methods 0.000 claims abstract description 55
- 230000006870 function Effects 0.000 description 20
- 238000003384 imaging method Methods 0.000 description 15
- 238000000034 method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Position Input By Displaying (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Projection Apparatus (AREA)
Abstract
【解決手段】インタラクティブプロジェクターは、投写部と;複数台のカメラと;複数台のカメラによって撮像された前記指示体を含む複数の画像に基づいて投写画面に対する指示体の3次元位置を検出する位置検出部と、を備える。また、投写画面の法線方向を示す単位ベクトルを投写画面法線ベクトルと定義し、第1カメラの光軸の方向を示す単位ベクトルを第1光軸ベクトルと定義し、第2カメラの光軸の方向を示す単位ベクトルを第2光軸ベクトルと定義したとき、第1カメラ及び第2カメラは、第1光軸ベクトルと投写画面法線ベクトルとの内積の絶対値よりも、第2光軸ベクトルと投写画面法線ベクトルとの内積の絶対値が小さくなるように配置されている。
【選択図】図5
Description
このインタラクティブプロジェクターによれば、第2カメラで撮像された画像は、第1カメラで撮像された画像に比べて、投写画面の法線方向に対する解像度がより高くなるので、指示体の投写画面からの距離をより精度良く決定できる。
互いに前記Y方向に対向する前記投写画面の2辺のうちでより下方側にある下辺と、前記第1カメラのレンズ中心を通る第1のYZ平面とが交わる点を第1交点と定義し、前記第1カメラのレンズ中心と前記第1交点とを結ぶ直線と前記第1カメラの光軸とがなす角度を第1角度と定義し、
前記投写画面の前記下辺と、前記第2カメラのレンズ中心を通る第2のYZ平面とが交わる点を第2交点と定義し、前記第2カメラのレンズ中心と前記第2交点とを結ぶ直線と前記第2カメラの光軸とがなす角を第2角度と定義したとき、
前記第2角度が前記第1角度よりも大きくなるように前記第1カメラ及び前記第2カメラが配置されているものとしてもよい。
この構成によれば、投写画面近傍における指示体の投写画面からの距離を更に精度良く決定できる。
この構成によれば、投写画面近傍における指示体の投写画面からの距離を更に精度良く決定できる。
この構成によれば、投写画面近傍における指示体の投写画面からの距離を更に精度良く決定できる。
この構成によれば、指示体の投写画面からの距離を更に精度良く決定できる。
図1は、本発明の一実施形態におけるインタラクティブプロジェクションシステム900の斜視図である。このシステム900は、インタラクティブプロジェクター100と、スクリーン板920と、自発光指示体70とを有している。スクリーン板920の前面は、投写スクリーン面SS(projection Screen Surface)として利用される。プロジェクター100は、支持部材910によってスクリーン板920の前方かつ上方に固定されている。なお、図1では投写スクリーン面SSを鉛直に配置しているが、投写スクリーン面SSを水平に配置してこのシステム900を使用することも可能である。
N×Q≦2M …(1)
ここで、Qは自発光指示体70のスイッチ73,76で区別される状態の数であり、本実施形態の例ではQ=2又はQ=4である。例えば、Q=4の場合には、N=2のときにはMを3以上の整数に設定し、N=3〜4のときにはMを4以上の整数に設定することが好ましい。このとき、位置検出部600(又は制御部700)がN個の自発光指示体70、及び、各自発光指示体70のスイッチ73,76の状態を識別する際には、1組の発光パターンのM個の単位発光期間において各カメラ310,320でそれぞれ撮像されたM枚の画像を用いてその識別を実行する。なお、このMビットの発光パターンは、照射検出光IDLをオフの状態に維持した状態で指示体信号光PSLをオン又はオフに設定したパターンであり、カメラ310,320で撮像される画像には非発光指示体80が写らない。そこで、非発光指示体80の位置を検出するために用いる画像を撮像するために、照射検出光IDLをオン状態とした1ビットの単位発光期間を更に追加することが好ましい。但し、位置検出用の単位発光期間では、指示体信号光PSLはオン/オフのいずれでも良い。この位置検出用の単位発光期間で得られた画像は、自発光指示体70の位置検出にも利用することが可能である。
(1)投写画像光IML:スクリーン面SSに投写画面PSを投写するために、投写レンズ210によってスクリーン面SS上に投写される画像光(可視光)である。
(2)照射検出光IDL: 指示体(自発光指示体70及び非発光指示体80)の先端部を検出するために、検出光照射部410によってスクリーン面SSとその前方の空間にわたって照射される近赤外光である。
(3)反射検出光RDL:照射検出光IDLとして照射された近赤外光のうち、指示体(自発光指示体70及び非発光指示体80)によって反射され、2台のカメラ310,320によって受光される近赤外光である。
(4)装置信号光ASL:プロジェクター100と自発光指示体70との同期をとるために、プロジェクター100の信号光送信部430から定期的に発せられる近赤外光である。
(5)指示体信号光PSL:装置信号光ASLに同期したタイミングで、自発光指示体70の先端発光部77から発せられる近赤外光である。指示体信号光PSLの発光パターンは、自発光指示体70のスイッチ73,76のオン/オフ状態に応じて変更される。また、複数の自発光指示体70を識別する固有の発光パターンを有する。
自発光指示体70の先端部71の三次元位置(X71,Y71,Z71)は、位置検出部600が、2台のカメラ310,320により撮像された画像を用いて三角測量に従って決定する。この際、自発光指示体70であるか否かは、所定の複数のタイミングで撮像された画像に先端発光部77の発光パターンが現れているか否かを判断することによって認識可能である。また、自発光指示体70の先端部71がスクリーン面SSに接触しているか否か(すなわち先端スイッチ76がオンか否か)についても、上記複数のタイミングで撮像された画像における先端発光部77の発光パターンを用いて判別可能である。位置検出部600は、更に、自発光指示体70のスイッチ73,76のオン/オフ状態、及び、先端部71のXY座標(X71,Y71)における投写スクリーン面SSの内容に応じて、その指示内容を判別することが可能である。例えば、図4(B)に例示したように、先端部71のXY座標(X71,Y71)の位置がツールボックスTB内のいずれかのボタンの上にある状態で先端スイッチ76がオンになった場合には、そのボタンのツールが選択される。また、図2(B)に例示したように、先端部71のXY座標(X71,Y71)が投写画面PS内のツールボックスTB以外の位置にあれば、選択されたツールによる処理(例えば描画)が選択される。制御部700は、自発光指示体70の先端部71のXY座標(X71,Y71)を利用し、予め選択されているポインターやマークが投写画面PS内の位置(X71,Y71)に配置されるように、そのポインターやマークを投写画像生成部500に描画させる。また、制御部700は、自発光指示体70によって指示された内容に従った処理を実行して、投写画像生成部500にその処理結果を含む画像を描画させる。
非発光指示体80の先端部81の三次元位置(X81,Y81,Z81)も、2台のカメラ310,320により撮像された画像を用いて、三角測量に従って決定される。この際、非発光指示体80であるか否かは、所定の複数のタイミングで撮像された画像に自発光指示体70の発光パターンが現れているか否かを判断することによって認識可能である。なお、2台のカメラ310,320により撮像された2枚の画像における非発光指示体80の先端部81の位置は、テンプレートマッチングや特徴抽出等の周知の技術を利用して決定することができる。例えば、テンプレートマッチングによって指である非発光指示体80の先端部81を認識する場合には、指に関する複数のテンプレートを予め準備しておき、2台のカメラ310,320により撮像された画像において、これらのテンプレートに適合する部分を検索することによって指の先端部81を認識することが可能である。また、非発光指示体80の先端部81がスクリーン面SSに接しているか否かは、三角測量で決定した先端部81のZ座標値と、スクリーン面SSの表面のZ座標値との差が微小な許容差以下か否か、すなわち、先端部81がスクリーン面SSの表面に十分に近いか否かに応じて決定可能である。この許容差としては、例えば、2mm〜6mm程度の小さな値を使用することが好ましい。また、位置検出部600は、非発光指示体80の先端部81がスクリーン面SSに接していると判定した場合には、その接触位置における投写スクリーン面SSの内容に応じてその指示内容を判別する。制御部700は、位置検出部600で検出された非発光指示体80の先端のXY座標(X81,Y81)を利用し、予め選択されているポインターやマークが投写画面PS内の位置(X81,Y81)に配置されるように、そのポインターやマークを投写画像生成部500に描画させる。また、制御部700は、非発光指示体80によって指示された内容に従った処理を実行して、投写画像生成部500にその処理結果を含む画像を描画させる。
図5(A)は、2台のカメラ310,320の配置と向きを示す説明図である。この図は、各カメラ310,320のカメラ基準位置O1,O2を通るYZ平面上の配置を示している。第1カメラ310は、第2カメラ320よりもスクリーン面SSからの垂直距離(Z方向の距離)がより大きな位置に配置されている。ここでは、2台のカメラ310,320とスクリーン面SSの配置を以下のようにモデル化している。
(1)画像面MP1,MP2:各カメラの結像面である。現実のカメラでは、画像面MP1,MP2はイメージセンサの受光面に相当する。
(2)カメラ基準位置O1,O2:各カメラの基準座標位置である。図5のモデルでは、第1カメラ310において、三次元空間内の任意の物点に対応する画像面MP1上の像は、その物点とカメラ基準位置O1とを結んだ直線と、画像面MP1との交点の位置に形成される。第2カメラ320も同様である。現実のカメラでは、カメラ基準位置O1,O2は、そのカメラのレンズのほぼ中心にある集光位置に相当する。また、現実のカメラでは、レンズの中心は画像面MP1,MP2の前方にある。但し、図5(A)のように画像面MP1,MP2がカメラ基準位置O1,O2(レンズの中心)の前方にあるものとしても、現実のカメラと等価である。
(3)光軸V1,V2:各カメラの光学系の光軸であり、画像面MP1,MP2と直交している。光軸方向に平行な単位ベクトルを「光軸ベクトル」とも呼ぶ。図5(A)の例では、第1カメラ310の光軸V1は投写画面PSの法線NVから斜めに傾いており、第2カメラ320の光軸V2は投写画面PSの法線NVにほぼ直交している。
(4)画角2θ1,2θ2:各カメラの画角である。光軸V1,V2の向きと画角2θ1,2θ2の大きさは、それぞれのカメラ310,320が投写画面PSの全体を撮像できるように設定される。2つのカメラ310,320の画角2θ1,2θ2は等しくてもよく、異なっていてもよい。
(5)投写画面PSの法線NV:投写画面PS(すなわちスクリーン面SS)に対する法線である。法線方向に平行な単位ベクトルを「法線ベクトル」又は「投写画面法線ベクトル」とも呼ぶ。なお、投写画面PSやスクリーン面SSが平面ではなく、曲面である場合も考えられる。この場合には、投写画面PSの幾何学的中心における法線を「投写画面PSの法線NV」と定義する。
|V1・NV|=|V1|・|NV|cosθ1N>0 …(2a)
|V2・NV|=|V2|・|NV|cosθ2N=0 …(2b)
L1<L2 …(3a)
L2=(δZ・δM/d) …(3b)
ここで、δMは各カメラにおける画像面MP1,MP2とカメラ基準位置O1,O2との間の距離、dはカメラ基準位置O1,O2と投写画面PSの下端PSbとの間のY方向の距離である。ここでは、2つのカメラ310,320に関するδMの値は等しいと仮定する。また、2つのカメラ310,320のカメラ基準位置O1,O2のY座標も等しいものと仮定する。
図7は、図6に比べてZ座標の解像度が低い第1カメラ310cの配置例を示している。この図は、第1カメラ310cの光軸V1cが距離δZの中央を通過するように、カメラ基準位置O1を中心として図6の第1カメラ310を回転させた図である。第2カメラ320の配置及び向きは図6と同じである。仮に、カメラ基準位置O1を中心として第1カメラ310cを様々な方向に向けた場合を想定しても、カメラ基準位置O1から距離δZを見込む角度θagは変わらない。このとき、第1カメラ310cにおける距離δZの像の大きさが最も小さくなるのは、図7のように、その光軸V1cが距離δZの中央を通過するように第1カメラ310cの向きを設定した場合である。この理由は、図7の状態は、距離δZを見込む角度θagによってカメラ310cの画像面MP1が切り取られる大きさ(すなわち距離δZの像の大きさ)が最も小さくなるからである。
θ1b<θ2b …(4)
図9は、他の実施形態における2台のカメラ310,320の配置を示す説明図である。図9(A),(B)は図2(A),(B)に対応する図であるが、第2カメラ320の位置が図2(A),(B)とは異なっている。すなわち、図9(A),(B)の例では、第2カメラ320の位置は、第1カメラ310とYZ座標が同じであり、X座標のみが異なる。なお、図9(A)では第2カメラ320は投写レンズ210で隠されているので図示を省略している。
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
上記実施形態では、撮像部300が2台のカメラ310,320を有しているものとしたが、撮像部300は3台以上のカメラを有していてもよい。後者の場合には、m台(mは3以上の整数)のカメラで撮像されたm個の画像に基づいて、三次元座標(X,Y,Z)が決定される。例えば、m個の画像から2個の画像を任意に選択して得られるmC2個の組み合わせを用いてそれぞれ三次元座標を求め、それらの平均値を用いて最終的な三次元座標を決定しても良い。こうすれば、三次元座標の検出精度を更に高めることが可能である。
上記実施形態では、インタラクティブプロジェクションシステム900がホワイトボードモードとPCインタラクティブモードとで動作可能であるものとしたが、これらのうちの一方のモードのみで動作するようにシステムが構成されていても良い。また、インタラクティブプロジェクションシステム900は、これら2つのモード以外の他のモードのみで動作するように構成されていても良く、更に、これら2つのモードを含む複数のモードで動作可能に構成されていてもよい。
上記実施形態では、図3に示した照射検出光IDLと、反射検出光RDLと、装置信号光ASLと、指示体信号光PSLとがすべて近赤外光であるものとしたが、これらのうちの一部又は全部を近赤外光以外の光としてもよい。
上記実施形態では、投写画面が平面状のスクリーン板920に投写されるものとしていたが、投写画面が曲面状のスクリーンに投写されるものとしても良い。この場合にも、2台のカメラで撮像された画像を用い、三角測量を利用して指示体の先端部の三次元位置を決定できるので、指示体の先端部と投写画面の位置関係を決定することが可能である。
71…先端部
72…軸部
73…ボタンスイッチ
74…信号光受信部
75…制御部
76…先端スイッチ
77…先端発光部
80…非発光指示体
81…先端部
100…インタラクティブプロジェクター
200…投写部
210…投写レンズ
220…光変調部
230…光源
300…撮像部
310…第1カメラ
320…第2カメラ
410…検出光照射部
430…信号光送信部
500…投写画像生成部
510…投写画像メモリー
600…位置検出部
700…制御部
900…インタラクティブプロジェクションシステム
910…支持部材
920…スクリーン板
Claims (6)
- 投写画面に対するユーザーの指示体による指示を受け取ることが可能なインタラクティブプロジェクターであって、
スクリーン面上に前記投写画面を投写する投写部と、
前記投写画面の領域を撮像する第1カメラ及び第2カメラを含む複数台のカメラと、
前記複数台のカメラによって撮像された前記指示体を含む複数の画像に基づいて、前記投写画面に対する前記指示体の3次元位置を検出する位置検出部と、
を備え、
前記投写画面の法線方向を示す単位ベクトルを投写画面法線ベクトルと定義し、前記第1カメラの光軸の方向を示す単位ベクトルを第1光軸ベクトルと定義し、前記第2カメラの光軸の方向を示す単位ベクトルを第2光軸ベクトルと定義したとき、
前記第1カメラ及び前記第2カメラは、前記第1光軸ベクトルと前記投写画面法線ベクトルとの内積の絶対値よりも、前記第2光軸ベクトルと前記投写画面法線ベクトルとの内積の絶対値が小さくなるように配置されている、インタラクティブプロジェクター。 - 請求項1に記載のインタラクティブプロジェクターであって、
前記投写画面上で互いに直交する2つの方向をX方向及びY方向と定義し、+Y方向を上方向と呼び−Y方向を下方向と呼ぶとともに前記投写画面が前記インタラクティブプロジェクターよりも下方の位置に投写されるものと定義し、前記X方向及び前記Y方向に垂直な方向をZ方向と定義し、
互いに前記Y方向に対向する前記投写画面の2辺のうちでより下方側にある下辺と、前記第1カメラのレンズ中心を通る第1のYZ平面とが交わる点を第1交点と定義し、前記第1カメラのレンズ中心と前記第1交点とを結ぶ直線と前記第1カメラの光軸とがなす角度を第1角度と定義し、
前記投写画面の前記下辺と、前記第2カメラのレンズ中心を通る第2のYZ平面とが交わる点を第2交点と定義し、前記第2カメラのレンズ中心と前記第2交点とを結ぶ直線と前記第2カメラの光軸とがなす角を第2角度と定義したとき、
前記第2角度が前記第1角度よりも大きくなるように前記第1カメラ及び前記第2カメラが配置されている、インタラクティブプロジェクター。 - 請求項1又は2に記載のインタラクティブプロジェクターであって、
前記第2カメラは、前記投写画面からの垂直距離が前記第1カメラよりも小さい位置に配置されている、インタラクティブプロジェクター。 - 請求項3に記載のインタラクティブプロジェクターであって、
前記第2カメラは、前記投写画面の中心から前記投写画面の法線方向に垂直な方向に測った距離が、前記第1カメラよりも小さな位置に配置されている、インタラクティブプロジェクター。 - 請求項1〜4のいずれか一項に記載のインタラクティブプロジェクターであって、
前記第2光軸ベクトルと前記投写画面法線ベクトルとのなす角度は90°±10°の範囲である、インタラクティブプロジェクター。 - インタラクティブプロジェクティングシステムであって、
請求項1〜5のいずれか一項に記載のインタラクティブプロジェクターと、
前記投写画面が投写されるスクリーン面を有するスクリーンと、
を備えるインタラクティブプロジェクティングシステム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015065630A JP6459706B2 (ja) | 2015-03-27 | 2015-03-27 | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム |
US15/079,008 US9582084B2 (en) | 2015-03-27 | 2016-03-23 | Interactive projector and interactive projection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015065630A JP6459706B2 (ja) | 2015-03-27 | 2015-03-27 | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016186670A true JP2016186670A (ja) | 2016-10-27 |
JP6459706B2 JP6459706B2 (ja) | 2019-01-30 |
Family
ID=56976543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015065630A Expired - Fee Related JP6459706B2 (ja) | 2015-03-27 | 2015-03-27 | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9582084B2 (ja) |
JP (1) | JP6459706B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6477130B2 (ja) * | 2015-03-27 | 2019-03-06 | セイコーエプソン株式会社 | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム |
US10936089B2 (en) * | 2017-11-08 | 2021-03-02 | Hewlett-Packard Development Company, L.P. | Determining locations of electro-optical pens |
DE102018206676B4 (de) | 2018-04-30 | 2021-11-04 | Deutsche Bahn Aktiengesellschaft | Verfahren zur Interaktion einer Zeigevorrichtung mit einem auf einer Projektionsfläche eines virtuellen Desktops angeordneten Zielpunkts |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003288156A (ja) * | 2002-03-28 | 2003-10-10 | Minolta Co Ltd | 入力装置 |
US20090014468A1 (en) * | 2007-07-03 | 2009-01-15 | Byers Bruce E | Fluid delivery system and method |
JP2012003724A (ja) * | 2010-06-21 | 2012-01-05 | Nippon Telegr & Teleph Corp <Ntt> | 三次元指先位置検出方法、三次元指先位置検出装置、及びプログラム |
JP2012150636A (ja) * | 2011-01-19 | 2012-08-09 | Seiko Epson Corp | 投写型表示装置及び情報処理システム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2874710B2 (ja) * | 1996-02-26 | 1999-03-24 | 日本電気株式会社 | 三次元位置計測装置 |
CA2350527C (en) * | 1999-12-24 | 2008-02-05 | Matsushita Electric Industrial Co., Ltd. | Projector |
US20020122117A1 (en) * | 2000-12-26 | 2002-09-05 | Masamichi Nakagawa | Camera device, camera system and image processing method |
JP2005033703A (ja) * | 2003-07-11 | 2005-02-03 | Seiko Epson Corp | 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法 |
JP2009139246A (ja) * | 2007-12-07 | 2009-06-25 | Honda Motor Co Ltd | 画像処理装置、画像処理方法、画像処理プログラムおよび位置検出装置並びにそれを備えた移動体 |
JP5494427B2 (ja) * | 2010-11-12 | 2014-05-14 | 富士通株式会社 | 画像処理プログラムおよび画像処理装置 |
WO2013027628A1 (ja) * | 2011-08-24 | 2013-02-28 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9769443B2 (en) * | 2014-12-11 | 2017-09-19 | Texas Instruments Incorporated | Camera-assisted two dimensional keystone correction |
-
2015
- 2015-03-27 JP JP2015065630A patent/JP6459706B2/ja not_active Expired - Fee Related
-
2016
- 2016-03-23 US US15/079,008 patent/US9582084B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003288156A (ja) * | 2002-03-28 | 2003-10-10 | Minolta Co Ltd | 入力装置 |
US20090014468A1 (en) * | 2007-07-03 | 2009-01-15 | Byers Bruce E | Fluid delivery system and method |
JP2012003724A (ja) * | 2010-06-21 | 2012-01-05 | Nippon Telegr & Teleph Corp <Ntt> | 三次元指先位置検出方法、三次元指先位置検出装置、及びプログラム |
JP2012150636A (ja) * | 2011-01-19 | 2012-08-09 | Seiko Epson Corp | 投写型表示装置及び情報処理システム |
Also Published As
Publication number | Publication date |
---|---|
US20160286190A1 (en) | 2016-09-29 |
US9582084B2 (en) | 2017-02-28 |
JP6459706B2 (ja) | 2019-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6477131B2 (ja) | インタラクティブプロジェクター,インタラクティブプロジェクションシステム,およびインタラクティブプロジェクターの制御方法 | |
JP6477130B2 (ja) | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム | |
US10133366B2 (en) | Interactive projector and interactive projection system | |
JP2017146753A (ja) | 位置検出装置、及び、そのコントラスト調整方法 | |
US11073949B2 (en) | Display method, display device, and interactive projector configured to receive an operation to an operation surface by a hand of a user | |
CN107407995B (zh) | 交互式投影仪、交互式投影系统以及交互式投影仪的控制方法 | |
JP6459706B2 (ja) | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム | |
US10551972B2 (en) | Interactive projector and method of controlling interactive projector | |
JP6503828B2 (ja) | インタラクティブプロジェクションシステム,指示体,およびインタラクティブプロジェクションシステムの制御方法 | |
JP6451446B2 (ja) | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム | |
JP6690271B2 (ja) | 位置検出システム、位置検出装置、および位置検出方法 | |
JP6569361B2 (ja) | インタラクティブプロジェクター及びそのz座標の補正方法 | |
JP2017027424A (ja) | インタラクティブプロジェクター及びその設置状態検出方法 | |
JP2016186678A (ja) | インタラクティブプロジェクターおよびインタラクティブプロジェクターの制御方法 | |
JP2016186679A (ja) | インタラクティブプロジェクターおよびインタラクティブプロジェクターの制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6459706 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |