JP2017181540A - プロジェクターおよび制御方法 - Google Patents

プロジェクターおよび制御方法 Download PDF

Info

Publication number
JP2017181540A
JP2017181540A JP2016063326A JP2016063326A JP2017181540A JP 2017181540 A JP2017181540 A JP 2017181540A JP 2016063326 A JP2016063326 A JP 2016063326A JP 2016063326 A JP2016063326 A JP 2016063326A JP 2017181540 A JP2017181540 A JP 2017181540A
Authority
JP
Japan
Prior art keywords
indicator
inclination
detection
projection
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016063326A
Other languages
English (en)
Other versions
JP6750269B2 (ja
Inventor
慎吾 吉田
Shingo Yoshida
慎吾 吉田
尊洋 阿野
Takahiro Ano
尊洋 阿野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016063326A priority Critical patent/JP6750269B2/ja
Publication of JP2017181540A publication Critical patent/JP2017181540A/ja
Application granted granted Critical
Publication of JP6750269B2 publication Critical patent/JP6750269B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】指示された位置と検知光を反射する位置とのずれを算出する。【解決手段】プロジェクター1は、投写面SCに画像を投写する投写手段11と、指示体20を検知するための検知光を投写面SCに沿って照射する照射手段12と、指示体20によって反射された検知光の位置である第1位置を検知する位置検知手段13と、投写面SCに対する指示体20の傾きを検知する傾き検知手段14と、位置検知手段13により検知された第1位置と傾き検知手段14により検知された傾きから、指示体20の特定部位の位置である第2位置と第1位置とのずれを算出する算出手段15とを有する。【選択図】図1

Description

本発明は、投写面上における指示体の位置に応じた処理を行うプロジェクターに関する。
投写面に沿ってレーザー光等の検知光を照射し、指示体により反射された検知光によって投写面上の指示体の位置を検知する技術が知られている(例えば特許文献1)。
特開2015−184696号公報
検知光は投写面からある高さ離れた位置に照射されており、指示体が投写面を指示する角度によっては、指示された位置と検知光を反射する位置とがずれる場合があった。
これに対し本発明は、指示された位置と検知光を反射する位置とのずれを算出する技術に関する。
本発明は、投写面に画像を投写する投写手段と、検知光を前記投写面に沿って照射する照射手段と、指示体によって反射された前記検知光の位置である第1位置を検知する位置検知手段と、前記投写面に対する前記指示体の傾きを検知する傾き検知手段と、前記位置検知手段により検知された前記第1位置および前記傾き検知手段により検知された前記傾きから、前記指示体の特定部位の位置である第2位置と前記第1位置とのずれを算出する算出手段とを有するプロジェクターを提供する。
このプロジェクターによれば、指示された位置と検知光を反射する位置とのずれを算出することができる。
このプロジェクターは、前記投写面上の特定点を前記指示体により複数の角度から指示するようユーザーに促す特定画像を前記投写手段に投写させ、前記特定画像が投写された状態で前記指示体が前記特定点を指示しているときに、前記位置検知手段に当該指示体の位置を検知させ、かつ前記傾き検知手段に当該指示体の傾きを検知させ、前記特定点、前記位置検知手段により検知された前記指示体の位置、および前記傾き検知手段により検知された前記指示体の傾きを記録したテーブルを記憶手段に記憶する処理を実行する制御手段を有してもよい。
このプロジェクターによれば、指示された位置と検知光を反射する位置とのずれを記録したテーブルを生成することができる。
前記指示体は、自身の傾きを検知するセンサーを有し、前記傾き検知手段は、前記指示体から当該指示体の傾きを示す情報を取得してもよい。
このプロジェクターによれば、指示体から傾きを取得することができる。
また、本発明は、投写面に画像を投写するステップと、検知光を前記投写面に沿って照射するステップと、指示体によって反射された前記検知光の位置である第1位置を検知するステップと、前記投写面に対する前記指示体の傾きを検知するステップと、前記第1位置および前記検知された前記傾きから、前記指示体の特定部位の位置である第2位置と前記第1位置とのずれを算出するステップとを有するプロジェクターの制御方法を提供する。
この制御方法によれば、指示された位置と検知光を反射する位置とのずれを算出することができる。
一実施形態に係るプロジェクター1の機能構成を例示する図。 プロジェクター1のハードウェア構成を例示する図。 検知光の概要を示す図。 検知光の概要を示す図。 ペン21の構成を例示する図。 一実施形態に係る補正テーブルの生成処理を例示するフローチャート。 キャリブレーション用画像を例示する図。 特定位置と検知位置とのずれを例示する図。 生成された補正テーブルを例示する図。 検知位置の補正処理を例示するフローチャート。
1.構成
図1は、一実施形態に係るプロジェクター1の機能構成を例示する図である。プロジェクター1は、投写面SCに画像を投写しつつ、投写面SC上の指示体20の位置を検知し、検知した位置に応じた処理を行う。指示体20は、ペン状の物体またはユーザーの指である。この例で、プロジェクター1は、指示体20の位置を補正する機能を有する。
プロジェクター1は、投写手段11、照射手段12、位置検知手段13、傾き検知手段14、算出手段15、記憶手段16、および制御手段17を有する。投写手段11は、投写面SCに画像を投写する。照射手段12は、指示体20を検知するための光(以下「検知光」という)を投写面SCに沿って照射する。位置検知手段13は、指示体20によって反射された検知光の位置である第1位置を検知する。傾き検知手段14は、投写面SCに対する指示体20の傾きを検知する。算出手段15は、位置検知手段13により検知された第1位置および傾き検知手段14により検知された傾きから、指示体20の特定部位(例えば先端)の位置である第2位置と第1位置とのずれを算出する。
記憶手段16は、指示体20により指示された位置を補正するためのテーブル(以下「補正テーブル」という)等、各種のデータを記憶する。制御手段17は、補正テーブルを生成するための処理を実行する。この処理は、(1)投写面SC上の特定点を指示体20により複数の角度から指示するようユーザーに促す特定画像(以下「キャリブレーション用画像」という)を投写手段11に投写させ、(2)キャリブレーション用画像が投写された状態で指示体20が特定点を指示しているときに、位置検知手段13に指示体20の位置を検知させ、かつ傾き検知手段14に指示体20の傾きを検知させ、(3)特定点、位置検知手段13により検知された指示体20の位置、および傾き検知手段14により検知された指示体20の傾きを記録した補正テーブルを記憶手段16に記憶する処理である。
図2は、プロジェクター1のハードウェア構成を例示する図である。プロジェクター1は、CPU(Central Processing Unit)100、ROM(Read Only Memory)101、RAM(Random Access Memory)102、IF部104、画像処理回路105、投写ユニット106、操作パネル107、カメラ108、および光照射部109を有する。
CPU100は、プロジェクター1の各部を制御する制御装置である。ROM101は、各種プログラムおよびデータを記憶した不揮発性の記憶装置である。ROM101には、後述する基準しきい値や補正値が記憶されている。RAM102は、データを記憶する揮発性の記憶装置であり、CPU100が処理を実行する際のワークエリアとして機能する。
IF部104は、外部装置と信号またはデータのやりとりを仲介するインターフェースである。IF部104は、外部装置と信号またはデータのやりとりをするための端子(例えば、VGA端子、USB端子、有線LANインターフェース、S端子、RCA端子、HDMI(High-Definition Multimedia Interface:登録商標)端子、マイクロフォン端子など)および無線LANインターフェースを含む。これらの端子は、映像入力端子に加え、映像出力端子を含んでもよい。IF部104は、異なる複数の映像供給装置から映像信号の入力を受け付けてもよい。
画像処理回路105は、入力された映像信号(以下「入力映像信号」という)に所定の画像処理(例えばサイズ変更、台形補正等)を施す。
投写ユニット106は、画像処理が施された映像信号に従って、投写面SCに画像を投写する。投写ユニット106は、光源、光変調器、および光学系(いずれも図示略)を有する。光源は、高圧水銀ランプ、ハロゲンランプ、もしくはメタルハライドランプなどのランプ、またはLED(Light Emitting Diode)もしくはレーザーダイオードなどの固体光源、およびこれらの駆動回路を含む。光変調器は、光源から照射された光を映像信号に応じて変調する装置であり、例えば液晶パネルまたはDMD(Digital Mirror Device)、およびこれらの駆動回路を有する。なお、液晶パネルは、透過型および反射型のいずれの方式であってもよい。光学系は、光変調器により変調された光を投写面SCに投写する素子などで構成されており、例えばミラー、レンズ、およびプリズムを有する。光源および光変調器は色成分毎に設けられていてもよい。
操作パネル107は、ユーザーがプロジェクター1に対し指示を入力するための入力装置であり、例えば、キーパッド、ボタン、またはタッチパネルを含む。
カメラ108は、指示体の位置を特定するためのカメラである。この例で、プロジェクター1は、ユーザーの指に加え、専用の電子ペンを指示体として検知することができる。電子ペンは、ペン先に設けられた発光体(例えば赤外線発光ダイオード)、圧力センサー、および制御回路(いずれも図示略)を有する。圧力センサーによりペン先が物体(投写面等)に触れたことが検知されると、制御回路は、所定の発光パターンで発光体を発光させる。または、ペン先が物体に触れたことが検知されると、制御回路は、ペン先が物体に触れる前後で、発光パターンを変化させるようにしてもよい。CPU100は、カメラ108が撮影した画像から指示体の位置を検知(特定)する。CPU100は、例えば発光パターンの違いまたは発光波長の違いにより、複数の指示体を区別することができる。
光照射部109は、ユーザーの指を検知するための検知光を照射する。検知光としては例えば赤外線のレーザー光が用いられる。光照射部109は、投写面SCを覆うようにカーテン状にレーザー光を照射する。光照射部109は、いわゆるライトカーテンユニットである。光照射部109は、レーザー光を発する発光素子と、レーザー光を平面状に拡散するための光学部材を有する。なお、光照射部109は、他の要素とは独立した筐体に収められており、プロジェクター1の本体とは有線または無線で通信する。
図3および図4は、検知光の概要を示す図である。ここでは指示体20の一例としてユーザーの指Fが示されている。図3は、投写面SCを正面から見た模式図である。検知光Lは光照射部109から放射状に照射され、投写面SCを覆っている。図4は、投写面SCを断面方向から見た模式図である。検知光Lは投写面SCから少し(例えば数mm)離れた高さで、投写面SCに沿って照射されている。ユーザーの指Fが投写面SCに近づくと検知光が指Fで反射される。この反射光をカメラ108で捕らえることにより、指の位置が検知される。
再び図2を参照する。この例で、CPU100がROM101に記憶されているプログラムを実行することにより、図1に示す機能がプロジェクター1に実装される。投写ユニット106は、投写手段11の一例である。光照射部109は、照射手段12の一例である。CPU100は、位置検知手段13、傾き検知手段14、算出手段15、および制御手段17の一例である。ROM101およびRAM102は、記憶手段16の一例である。
図5は、ペン21の構成を例示する図である。ペン21は指示体20の一例である。ペン21は、ジャイロセンサー211および送信部212を有する。ジャイロセンサー211は、ペン21の傾きを検知するセンサーの一例である。送信部212は、ジャイロセンサー211により検知された傾きを示す情報をプロジェクター1に送信する。なおペン21は、カメラ108に関して説明した自発光式の電子ペンとは異なり、自らは発光しないペンである。
2.動作
2−1.補正テーブルの生成
図6は、一実施形態に係る補正テーブルの生成処理を例示するフローチャートである。図6のフローは、例えば、ユーザーにより補正テーブルの生成または更新(キャリブレーションまたは校正)が指示されたことを契機として開始される。ここでは指示体20としてペン21が用いられる例を説明する。
ステップS11において、CPU100は、投写ユニット106にキャリブレーション用画像を投写させる。キャリブレーション用画像のデータは例えばROM101に記憶されている。なおこのとき、検知光も照射される。
図7は、キャリブレーション用画像を例示する図である。キャリブレーション用画像は、画像オブジェクトO1〜O4を含む。画像オブジェクトO1は、特定位置を示すものである。画像オブジェクトO2は、特定位置をペン21により複数の角度から指示するようユーザーに促すものである。画像オブジェクトO3は、ペン21の位置および傾きを取得するタイミングを指示するためのものである。画像オブジェクトO4は、キャリブレーションの終了を指示するためのものである。
キャリブレーション用画像を見たユーザーは、ペン21を手にとり、投写面SCに対しある角度でペン21のペン先(特定部位の一例)を画像オブジェクトO1にタッチする。ペン先をタッチした状態で、ユーザーは、別の手で画像オブジェクトO3をタッチし、ペン21の位置および傾きを指示する。さらにユーザーは、投写面SCに対し別の角度でペン先を画像オブジェクトO1にタッチする。ペン先をタッチした状態で、ユーザーは、別の手で再び画像オブジェクトO3をタッチし、ペン21の位置および傾きを指示する。
再び図6を参照する。ステップS12において、CPU100は、ペン21の位置および傾きの取得が指示されたか判断する。ペン21の位置および傾きの取得が指示されたか否かは、画像オブジェクトO3に相当する位置が指示されたか否かにより判断される。ペン21の位置および傾きの取得が指示されていないと判断された場合(S12:NO)、CPU100は、ペン21の位置および傾きの取得が指示されるまで待機する。ペン21の位置および傾きの取得が指示されたと判断された場合(S12:YES)、CPU100は、処理をステップS13に移行する。
ステップS13において、CPU100はペン21の位置および傾きを取得する。ここでいう「ペン21の位置」とは、ペン21により反射された検知光の位置(以下「検知位置」という。第1位置の一例)をいう。CPU100は、カメラ108により撮影された画像からペン21の位置を取得する。また、CPU100は、IF部104を介してペン21から受信した信号からペン21の傾きを取得する。ペン21は自身の傾きを示す情報を所定のタイミングでプロジェクター1に送信しており、RAM102はこの情報を記憶している。CPU100は、RAM102からペン21の傾きを示す情報を取得する。なお、ステップS13は、指示体によって反射された検知光の位置である第1位置を検知するステップおよび投写面に対する指示体の傾きを検知するステップの一例である。
ステップS14において、CPU100は、特定位置と検知位置とのずれを算出する。データ上では、投写されている画像における特定点の位置は既知であるので、CPU100は、キャリブレーション用画像のデータから特定位置を特定する。あるいは、CPU100は、カメラ108により撮影された画像から、投写面SCにおける特定点の位置を特定してもよい。なお、特定位置はペン21のペン先の位置とほぼ同じであると考えられる。
図8は、特定位置と検知位置とのずれを例示する図である。図8は、投写面SCに平行な断面を示す模式図である。投写面SCは二次元平面であるので、特定位置と検知位置とのずれは二次元のベクトルとして定義できるが、ここでは説明を簡単にするため、ある特定の方向における一次元のずれのみを議論する。
この例で、ペン21は角度α1で投写面SCにタッチしている。このとき、特定位置P0に対し検知位置P1が得られている。角度α1のときの検知位置P1と特定位置P0とのずれΔP(α1)は、
ΔP(α1)=P1−P0 …(1)
である。一般には、角度αnのときの検知位置Pnと特定位置P0とのずれΔP(αn)は、
ΔP(αn)=Pn−P0 …(2)
である。
再び図6を参照する。ステップS15において、CPU100は、式(2)により算出されたずれΔP(αn)をRAM102に記憶する。
ステップS16において、CPU100は、キャリブレーションの終了が指示されたか判断する。キャリブレーションの終了が指示されたか否かは、画像オブジェクトO4に相当する位置が指示されたか否かにより判断される。キャリブレーションの終了が指示されていないと判断された場合(S16:NO)、CPU100は、処理をステップS12に移行する。キャリブレーションの終了が指示されたと判断された場合(S16:YES)、CPU100は、処理をステップS17に移行する。
ステップS17において、CPU100は、RAM102に記憶されているずれΔP(αn)を統合して補正テーブルを生成する。CPU100は、生成された補正テーブルをROM101に記憶する。既に補正テーブルが記憶されている場合、CPU100はこれを上書きする。補正テーブルを記憶すると、CPU100は、図6のフローを終了する。
図9は、生成された補正テーブルを例示する図である。例えば、角度が0°の場合には、ΔP(0°)=0であり、角度が+45°の場合には、ΔP(+45°)=+50であり、角度が−45°の場合には、ΔP(−45°)=−50である。この例によれば、種々の角度に対応するずれΔP(αn)を得ることができる。
2−2.検知位置の補正
図10は、検知位置の補正処理を例示するフローチャートである。図10のフローは、例えば、ペン21の位置に応じた処理の開始がユーザーにより指示されたことを契機として開始される。ペン21の位置に応じた処理は、例えば、ペン21の位置の軌跡に応じた画像オブジェクトの描画処理である。なお以下においては、補正前後の検知位置を区別するため、補正前の検知位置および補正後の検知位置を、それぞれ、「補正前検知位置」および「補正後検知位置」という。
ステップS21において、CPU100は、ペン21の位置および傾きを検知する。ここで検知されるのは、補正前検知位置である。具体的には、CPU100は、カメラ108により撮影された画像からペン21の位置を検知する。また、CPU100は、IF部104を介してペン21から受信した信号からペン21の傾きを取得する。
ステップS22において、CPU100は、ペン21の位置を補正する。具体的には、CPU100は、ROM101に記憶されている補正テーブルから、ペン21の傾きαに対応するずれΔP(α)を読み出す。CPU100は、ステップS21において得られた補正前検知位置から、ずれΔP(α)を減算することによって補正後検知位置を得る。
ステップS21〜S22の処理は、所定のタイミングで繰り返し実行される。この例によれば、ペン21のペン先によりタッチされた位置をより正確に検知することができる。
3.変形例
本発明は上述の実施形態に限定されるものではなく種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
指示体20の傾きを検知する方法は実施形態で例示したものに限定されない。例えば、指示体20の傾きはカメラにより撮影された画像から検知されてもよい。この場合、プロジェクター1は、指示体20の傾きを検知するためのカメラを有する。このカメラは、例えば、カメラ108とは別の位置に設けられている。一例として、プロジェクター1が投写面SCの上に設置されている場合に、このカメラは投写面SCの横に設けられている。CPU100は、このカメラにより撮影された画像から指示体20の外形を特定し、投写面SCに帯する傾きを算出する。ずれを二次元のベクトルとして得るために、傾きを検知するためのカメラを2台以上設け、それぞれ異なる位置から投写面SCを撮影する。傾きをより正確に得るためには2台のカメラの位置は離れていることが好ましい(例えば投写面SCの上辺のそばと右辺のそば)が、例えばステレオカメラが用いられてもよい。この例によれば、ユーザーの指のように、自身の傾きを検知する機能を有さない指示体においても検知位置を補正することができる。
投写面SCは二次元の平面であるが、ずれの補正は特定の方向においてのみ、つまり一次元で行われてもよい。例えば指示体20の傾きが特定の方向(例えば縦方向)においてのみ発生しやすいことが分かっているような場合は、この手法も有用である。
図1に例示した機能を実現するためのプロジェクター1のハードウェア構成は、図3に例示したものに限定されない。要求される機能を実現できるものであれば、プロジェクター1はどのようなハードウェア構成を有していてもよい。例えば、プロジェクター1は、光照射部109を内蔵していてもよい。あるいは、プロジェクター1は、指示体の位置検知専用のプロセッサーを有していてもよい。
1…プロジェクター、11…投写手段、12…照射手段、13…位置検知手段、14…傾き検知手段、15…算出手段、16…記憶手段、17…制御手段、20…指示体、21…ペン、100…CPU、101…ROM、102…RAM、104…IF部、105…画像処理回路、106…投写ユニット、107…操作パネル、108…カメラ、109…光照射部

Claims (4)

  1. 投写面に画像を投写する投写手段と、
    検知光を前記投写面に沿って照射する照射手段と、
    指示体によって反射された前記検知光の位置である第1位置を検知する位置検知手段と、
    前記投写面に対する前記指示体の傾きを検知する傾き検知手段と、
    前記位置検知手段により検知された前記第1位置および前記傾き検知手段により検知された前記傾きから、前記指示体の特定部位の位置である第2位置と前記第1位置とのずれを算出する算出手段と
    を有するプロジェクター。
  2. 前記投写面上の特定点を前記指示体により複数の角度から指示するようユーザーに促す特定画像を前記投写手段に投写させ、
    前記特定画像が投写された状態で前記指示体が前記特定点を指示しているときに、前記位置検知手段に当該指示体の位置を検知させ、かつ前記傾き検知手段に当該指示体の傾きを検知させ、
    前記特定点、前記位置検知手段により検知された前記指示体の位置、および前記傾き検知手段により検知された前記指示体の傾きを記録したテーブルを記憶手段に記憶する
    処理を実行する制御手段を有する
    ことを特徴とする請求項1に記載のプロジェクター。
  3. 前記指示体は、前記指示体の傾きを検知するセンサーを有し、
    前記傾き検知手段は、前記指示体から前記指示体の傾きを示す情報を取得する
    ことを特徴とする請求項1または2に記載のプロジェクター。
  4. 投写面に画像を投写するステップと、
    検知光を前記投写面に沿って照射するステップと、
    指示体によって反射された前記検知光の位置である第1位置を検知するステップと、
    前記投写面に対する前記指示体の傾きを検知するステップと、
    前記第1位置および前記検知された前記傾きから、前記指示体の特定部位の位置である第2位置と前記第1位置とのずれを算出するステップと
    を有するプロジェクターの制御方法。
JP2016063326A 2016-03-28 2016-03-28 プロジェクターおよび制御方法 Active JP6750269B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016063326A JP6750269B2 (ja) 2016-03-28 2016-03-28 プロジェクターおよび制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016063326A JP6750269B2 (ja) 2016-03-28 2016-03-28 プロジェクターおよび制御方法

Publications (2)

Publication Number Publication Date
JP2017181540A true JP2017181540A (ja) 2017-10-05
JP6750269B2 JP6750269B2 (ja) 2020-09-02

Family

ID=60006981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016063326A Active JP6750269B2 (ja) 2016-03-28 2016-03-28 プロジェクターおよび制御方法

Country Status (1)

Country Link
JP (1) JP6750269B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019078845A (ja) * 2017-10-23 2019-05-23 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
WO2022009645A1 (ja) * 2020-07-09 2022-01-13 ソニーグループ株式会社 情報処理装置、情報処理方法
JP7240766B1 (ja) 2021-11-11 2023-03-16 Trouvez合同会社 非接触入力装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019078845A (ja) * 2017-10-23 2019-05-23 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
WO2022009645A1 (ja) * 2020-07-09 2022-01-13 ソニーグループ株式会社 情報処理装置、情報処理方法
JP7240766B1 (ja) 2021-11-11 2023-03-16 Trouvez合同会社 非接触入力装置
JP2023071396A (ja) * 2021-11-11 2023-05-23 Trouvez合同会社 非接触入力装置

Also Published As

Publication number Publication date
JP6750269B2 (ja) 2020-09-02

Similar Documents

Publication Publication Date Title
JP6398248B2 (ja) 位置検出システム、及び、位置検出システムの制御方法
JP6307972B2 (ja) 反射体、調整方法、及び位置検出装置
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
JP2015158887A5 (ja)
JP6417690B2 (ja) プロジェクター、表示装置、及び、プロジェクターの制御方法
CN110308825B (zh) 显示装置以及显示装置的控制方法
JP6349838B2 (ja) 位置検出装置、位置検出システム、及び、位置検出装置の制御方法
JP6387644B2 (ja) 位置検出装置、位置検出システム、及び、位置検出方法
JP6326895B2 (ja) 位置検出装置、位置検出システム、及び、位置検出装置の制御方法
JP6375660B2 (ja) 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法
JP6750269B2 (ja) プロジェクターおよび制御方法
JP6562124B2 (ja) 位置検出システム、及び、位置検出システムの制御方法
JP2015158885A5 (ja)
US9733728B2 (en) Position detecting device and position detecting method
JP6350175B2 (ja) 位置検出装置、プロジェクター、及び、位置検出方法
JP2018164251A (ja) 画像表示装置およびその制御方法
JP6569259B2 (ja) 位置検出装置、表示装置、位置検出方法、及び、表示方法
JP6291911B2 (ja) 位置検出装置、及び、位置検出方法
JP6291912B2 (ja) 位置検出装置、及び、位置検出方法
JP6340860B2 (ja) 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法
JP2010112990A (ja) プロジェクタ
JP2017134730A (ja) プロジェクターおよび位置検知方法
JP6337558B2 (ja) 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法
JP2015158884A5 (ja)
JP2010217756A (ja) プロジェクタ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200421

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200727

R150 Certificate of patent or registration of utility model

Ref document number: 6750269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150