JP6439398B2 - プロジェクター、及び、プロジェクターの制御方法 - Google Patents
プロジェクター、及び、プロジェクターの制御方法 Download PDFInfo
- Publication number
- JP6439398B2 JP6439398B2 JP2014231011A JP2014231011A JP6439398B2 JP 6439398 B2 JP6439398 B2 JP 6439398B2 JP 2014231011 A JP2014231011 A JP 2014231011A JP 2014231011 A JP2014231011 A JP 2014231011A JP 6439398 B2 JP6439398 B2 JP 6439398B2
- Authority
- JP
- Japan
- Prior art keywords
- indicator
- unit
- operator
- movement
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 110
- 238000001514 detection method Methods 0.000 claims description 170
- 230000008569 process Effects 0.000 claims description 93
- 238000003384 imaging method Methods 0.000 claims description 31
- 230000033001 locomotion Effects 0.000 claims description 28
- 239000000284 extract Substances 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 57
- 230000005540 biological transmission Effects 0.000 description 23
- 238000007726 management method Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 17
- 230000003287 optical effect Effects 0.000 description 16
- 239000004973 liquid crystal related substance Substances 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 210000000746 body region Anatomy 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000003331 infrared imaging Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000037237 body shape Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明によれば、プロジェクターにおいて操作者に応じてジェスチャー操作の処理を実行できるので、操作性を向上させることができる。
本発明によれば、操作者の位置に応じて処理を実行するので、操作者が移動する必要がなくなり、操作性をさらに向上させることができる。
本発明によれば、操作用画像を操作するために操作者が位置を移動する必要がなくなり、操作性をさらに向上させることができる。
本発明によれば、例えば、指示体による操作が、他の操作者のジェスチャー操作によって無効にされないようにすることができる。
本発明によれば、例えば、指示体による操作が、他の操作者のジェスチャー操作によって無効にされることをより確実に防ぐことができる。
本発明によれば、操作性を向上させることができる。
プロジェクター100は、スクリーンSC(操作面)の直上又は斜め上方に設置され、斜め下方のスクリーンSCに向けて画像を投射する。スクリーンSCは、壁面に固定され、又は床面に立設された平板又は幕である。本発明は、この例に限定されず、壁面をスクリーンSCとして使用することも可能である。この場合、スクリーンSCとして使用される壁面の上部にプロジェクター100を取り付けるとよい。
プロジェクター100は、外部の装置に接続されるインターフェイスとして、I/F(インターフェイス)部11及び画像I/F(インターフェイス)部12を備える。I/F部11及び画像I/F部12は、有線接続用のコネクターを備え、このコネクターに対応するインターフェイス回路を備えていてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェイスを備えていてもよい。有線接続用のコネクター及びインターフェイス回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェイスとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI(登録商標)インターフェイス等の画像データ用のインターフェイスを用いることもできる。画像I/F部12は、音声データが入力されるインターフェイスを備えてもよい。
画像I/F部12は、デジタル画像データが入力されるインターフェイスである。本実施形態のプロジェクター100は、画像I/F部12を介して入力されるデジタル画像データに基づき画像を投射する。なお、プロジェクター100は、アナログ画像信号に基づき画像を投射する機能を備えていてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェイスと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
画像処理部40は、フレームメモリー41に接続されている。画像処理部40は、画像入力I/F12から入力される画像データをフレームメモリー41に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー41から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
リモコン受光部18は、プロジェクター100の操作者が使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター100の外装筐体に設けられ、各種スイッチ及びインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター100の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
撮影部51は、赤外光による撮影と、可視光による撮影とをそれぞれ実行できる。具体的には、赤外光を撮影する赤外用撮像素子、可視光を撮影する可視光用撮像素子、赤外用撮像素子のインターフェイス回路、及び可視光用撮像素子のインターフェイス回路を備えた構成とすることができる。また、1つの撮像素子により可視光と赤外光との撮影を行う構成であってもよい。また、例えば、撮影部51に、撮像素子に入射する光の一部を遮るフィルターを設け、撮像素子に赤外光を受光させる場合に、主に赤外領域の光を透過するフィルターを撮像素子の前に配置させてもよい。撮像素子には、CCD、CMOSのいずれを用いることも可能であり、また、他の素子を用いることもできる。
また、対象検出部54は、検出した第2の指示体80の領域から手指の先端(指先)を特定し、特定した手指の先端の位置を指示位置として検出する。対象検出部54は、第2の指示体80の指示位置の座標を、撮影画像のデータにおける座標で算出する。
また、対象検出部54は、検出した第2の指示体80とスクリーンSCとの距離を検出する。対象検出部54は、検出した手指の先端と、スクリーンSCとの距離を撮影画像のデータに基づいて判定する。例えば、対象検出部54は、撮影画像のデータから指の画像と、指の影の画像とを検出して、検出した画像の間の距離に基づいて、手指の先端とスクリーンSCとの距離を求める。
また、対象検出部54は、撮影画像のデータから複数の人物領域を検出した場合には、各人物領域について、第2の指示体80の領域と、第2の指示体80の指示位置の座標とを検出し、検出した第2の指示体80とスクリーンSCとの距離を算出する。
また、対象検出部54は、第1の指示体70の先端部71がスクリーンSCに接触しているか否かを判定して、先端部71がスクリーンSCに接触しているか否かを示すタッチ情報を生成する。第1の指示体70の先端部71がスクリーンSCに接触しているか否かの判定方法についても後述する。
また、対象検出部54は、複数の第1の指示体70が使用される場合に、複数の第1の指示体70が発する赤外光の像の各々の像を、異なる第1の指示体70の像として区別する。対象検出部54による複数の第1の指示体70が発する赤外光の像の区別の方法については後述する。座標算出部55は、各第1の指示体70の指示位置の座標に、各第1の指示体70を識別する識別情報を付与して制御部30に出力する。
また、座標算出部55は、第1の指示体70により指示された指示位置の座標と、指示体情報と、タッチ情報と、識別情報とを制御部30に出力する。指示体情報は、指示位置の座標が第1の指示体70により指示された座標であることを示す情報である。タッチ情報は、第1の指示体70の先端部71がスクリーンSCに接触しているか否かを示す情報である。識別情報は、第1の指示体70が複数使用された場合に、各第1の指示体70を識別する情報である。座標算出部55は、第1の指示体70が1つだけ使用される場合にも、指示位置の座標、指示体情報及びタッチ情報に識別情報を付加して、制御部30に出力する。
電源部76は、電源として乾電池又は二次電池を有し、制御部73、送受信部74及び操作スイッチ75の各部に電力を供給する。第1の指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
制御部30は、第1の指示体70による操作を検出する場合に、撮影制御部53を制御して、送信部52から同期用の信号を送信させる。すなわち、撮影制御部53は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。送信部52が周期的に発する赤外光が、位置検出部50と第1の指示体70とを同期させる同期信号として機能する。
一方、制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター100の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された第1の指示体70に固有の点灯パターンで送受信部74の光源を点灯(発光)させる。また、制御部73は、操作スイッチ75の操作状態に応じて、送受信部74の点灯パターンを切り替える。このため、プロジェクター100の対象検出部54は、複数の撮影画像のデータに基づいて、第1の指示体70の操作状態、すなわち先端部71がスクリーンSCに押しつけられているか否かを判定できる。
また、制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。つまり、送信部52は、第1の指示体70に対し、同期用の赤外線信号を周期的に送信し、第1の指示体70は、送信部52が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
第1の指示体70の点灯パターンは、第1の指示体70の個体毎に固有のパターン、又は複数の第1の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。この場合、対象検出部54は、撮影画像のデータに複数の第1の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる第1の指示体70の像として区別できる。
また、投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
また、人物検出部32は、撮影画像の人物領域から顔領域を除いた領域を人体領域とし、この人体領域から特徴量を算出する。人物検出部32は、人体領域から操作者の身体の部位、例えば、肩、手、足等を認識し、例えば、脚の長さ、腕の長さ、身長、体型等を、予め設定された条件で計測して数値化し、特徴量を求める。また、人物検出部32は、撮影画像のデータの人物領域から服の色や、髪の色を検出して、特徴量としてもよい。
操作者IDは、操作者を識別する識別情報である。操作者名は、操作者IDの示す操作者の氏名であり、操作者がリモコン又は操作パネル19を操作してプロジェクター100に入力する。
特徴量は、操作者IDの示す操作者の特徴量である。この特徴量は、例えば、操作者の撮影画像から検出される特徴量である。プロジェクター100は、動作モードとして学習モードを有している。プロジェクター100の制御部30は、学習モードに設定されると、例えば、スクリーンSCに人の形をしたシルエット画像を表示させて、スクリーンSCの前の、操作者の立ち位置を指定する。制御部30は、撮影制御部53を制御して、立ち位置に立った操作者を撮影し、操作者の撮影画像のデータから特徴量を算出する。制御部30は、特徴量を算出すると、操作者IDを新規に生成し、生成した操作者IDに、操作者名及び特徴量を対応付けてジェスチャー管理テーブル63に登録する。撮影画像のデータから特徴量を算出する方法は、上述した通りであるため説明を省略する。
ここで、ジェスチャー操作として使用されるジェスチャー(動き)の内容は、記憶部60の記憶するジェスチャーパターン辞書に事前に登録したジェスチャーを使用してもよい。また、操作者が創作したジェスチャーをジェスチャーパターン辞書に登録してもよい。この場合、操作者が、撮影部51の撮影範囲において、登録するジェスチャーの動きを実行し、撮影部51が撮影を行い、制御部30が撮影画像から操作者の動作について動作特徴(例えば、動きベクトル)を抽出する。そして、制御部30が抽出した動作特徴を、記憶部60が記憶するジェスチャーパターン辞書に登録する。
また、パターン番号が示すジェスチャー操作が検出された場合に実行する処理の設定は、操作者が、拡大、縮小、消去、分割等の事前に用意された処理の中から、リモコン又は操作パネル19を操作して選択する。
また、撮影画像のデータには、スクリーンSCと、撮影範囲内に存在する操作者とが写る。人物検出部32は、撮影画像のデータから人物領域とスクリーンSCとを検出し、撮影画像の垂直方向における、人物領域の中心座標とスクリーンとの距離を算出する。人物検出部32は、スクリーンSCから人物領域の中心座標までの距離を、操作者の垂直方向における位置情報とする。
また、人物検出部32は、撮影画像に複数の人物が写っており、位置検出部50から、複数の人物領域の範囲情報が入力された場合には、各人物領域について操作者の位置を特定して、位置情報を算出する。人物検出部32は、算出した操作者の位置情報を、操作者IDに対応付けて操作履歴テーブル62に登録する。
また、検出制御部35は、実行処理判定部34から入力されるコマンドや、座標等に基づいて、予め設定された処理を実行する。例えば、検出制御部35は、実行処理判定部34から入力される座標に基づいて、画像処理部40により図形を描画させ、描画した図形を画像I/F部12に入力される入力画像に重畳して投射させる処理を行う。また、検出制御部35は、取得した座標をI/F部11に接続されたPC等の外部の装置に出力してもよい。この場合、検出制御部35は、取得した座標を、I/F部11に接続された外部の装置のオペレーティングシステムにおいて、座標入力デバイスの入力として認識されるデータフォーマットに変換して出力してもよい。例えば、I/F部11にWindows(登録商標)オペレーティングシステムで動作するPCが接続された場合、オペレーティングシステムにおいてHID(Human Interface Device)の入力データとして処理されるデータを出力する。また、検出制御部35は、座標のデータとともに、第1の指示体70の操作位置であるか第2の指示体80の操作位置であるかを識別するデータ、及び操作スイッチ75の操作状態を示すデータを出力してもよい。
まず、検出部33は、位置検出部50及び人物検出部32からデータセットを入力する(ステップS1)。データセットは、第1データセットと第2データセットとを含む。第1データセットは、位置検出部50が検出した指示位置の座標が、第1の指示体70の指示位置の座標である場合に、検出部33に入力されるデータである。第1データセットには、指示位置の座標、指示体情報、タッチ情報及び識別情報が含まれる。また、第2データセットは、位置検出部50が検出した指示位置の座標が、第2の指示体80の指示位置の座標である場合に、検出部33に入力されるデータである。第2データセットには、位置検出部50から入力される指示位置の座標、指示体情報、距離情報及び人物領域の範囲情報が含まれる。
検出部33は、入力されたデータセットが第1データセットである場合、まず、タッチ情報により、第1の指示体70がスクリーンSCに接触しているか否かを判定する。検出部33は、タッチ情報により、スクリーンSCに接触していないと判定される場合、今回入力された第1データセットを、無効なデータとしてメモリーには記憶させない。
次に、検出部33は、第1データセットに含まれる識別情報を参照して、今回入力された第1データセットの識別情報と同一の識別情報を対応付けた指示位置の座標が、メモリーに既に記憶されているか否かを判定する。検出部33は、識別情報が同一の指示位置の座標が、メモリーに記憶済みである場合、メモリーに記憶済みの指示位置の座標に対応付けて、今回入力された第1データセットの指示位置の座標を記憶させる。すなわち、検出部33は、同一の第1の指示体70による指示位置の座標を、対応付けてメモリーに記憶させる。
また、検出部33は、今回入力された第1データセットの識別情報と同一の識別情報を対応付けた指示位置の座標がメモリーに記憶されていない場合、今回入力された第1データセットの指示位置の座標を、他の指示位置の座標に対応付けることなく記憶させる。
検出部33は、スクリーンSCと第2の指示体80との距離に基づいて、今回入力された第2データセットが、以下の2つのグループのうちのどちらのグループに属するかを判定する。第1グループは、スクリーンSCに接した第2の指示体80により指示位置を指示されたグループである。第2グループは、第2の指示体80がスクリーンSCには接しておらず、第2の指示体80とスクリーンSCとの距離が予め設定された距離以内にあるグループである。
検出部33は、同一の操作者により入力された指示位置の座標がメモリーに記憶されていると判定すると、今回入力された第2データセットの指示位置の座標と、メモリーに記憶済みの指示位置の座標とが同一グループに属しているか否かを判定する。検出部33は、同一のグループに属すると判定すると、記憶済みの指示位置の座標に対応付けて、今回入力された第2データセットの指示位置の座標をメモリーに記憶させる。また、検出部33は、同一のグループには属さないと判定すると、今回入力された第2データセットの指示位置の座標を、メモリーに記憶済みの他の指示位置の座標に対応付けることなく記憶させる。すなわち、検出部33は、同一の操作者により指示された指示位置の座標であっても、第2の指示体80がスクリーンSCに接している場合の指示位置と、第2の指示体80がスクリーンSCに接していない場合の指示位置とを区別してメモリーに記憶させる。
検出部33は、第2の指示体80の指示位置の軌跡データと、記憶部60のジェスチャーパターン辞書に登録されたジェスチャーの動作パターンとを比較して、ジェスチャーを検出する。検出部33は、第2の指示体80の指示位置の軌跡データから、第2の指示体80の動作特徴(例えば、動きベクトル)を抽出する。そして、検出部33は、抽出した第2の指示体80の動作特徴を、ジェスチャーパターン辞書に登録されているジェスチャーの動作パターンと比較してジェスチャーを検出する。
なお、検出部33は、第1の指示体70による操作を検出した場合、操作情報及び軌跡データを対応付ける操作者IDを判定する。検出部33は、操作履歴テーブル62に登録された人物領域の範囲情報を参照して、操作情報及び軌跡データを対応付ける操作者IDを判定する。例えば、検出部33は、第1の指示体70による操作を検出した軌跡データの示す座標がどの人物領域に含まれるか、又はどの人物領域に最も近いかに基づいて、操作情報及び軌跡データを対応付ける操作者IDを判定する。
また、ジェスチャー操作により、操作用画像85の表示位置を、例えば、操作者の掌の位置等、操作者の近くに移動させることができる。従って、操作用画像85が離れた位置に表示されている場合に、操作用画像85の位置まで歩いて行く必要がなくなり、利便性を向上させることができる。
実行処理判定部34は、ジェスチャー操作が検出され(ステップS5/YES)、検出されたジェスチャー操作のパターン番号の通知を受けると、検出されたジェスチャー操作が、入力された操作を無効にする指示であるか否かを判定する(ステップS10)。ジェスチャー操作が操作を無効にする指示ではない場合(ステップS10/NO)、実行処理判定部34は、ジェスチャー操作に対応する処理の実行を指示するコマンドを検出制御部35に出力する(ステップS11)。
なお、この処理フローでは、ジェスチャー操作に対応する処理として、第1の指示体70の操作を無効にする場合を例に説明したが、ジェスチャー操作に対応する処理は、これに限定されるものではない。例えば、第1の指示体70による操作が、図形や文字を描画する指示である場合に、ジェスチャー操作に対応する処理として、この第1の指示体70による操作により描画された図形や文字を拡大、縮小、回転する処理を行うこともできる。また、第1の指示体70による操作が、画像供給装置から供給される画像データに基づいてスクリーンSCに表示画像を表示する処理である場合に、ジェスチャー操作に対応する処理として、表示画像の拡大や、縮小、焦点の調整等を行うこともできる。また、ジェスチャー操作に対応する処理として、表示画像を分割する処理を行うこともできる。
また、図3に、ジェスチャー管理テーブル63を示したが、データの保存形式は、テーブル形式である必要はない。図4に示す操作履歴テーブル62についてもテーブル形式でデータを保存しておく必要はない。例えば、操作履歴情報は、操作者IDに、位置情報や、特徴量、操作情報、軌跡データ、日時情報が対応付けられている形式であればよい。
Claims (5)
- 投射面を含む範囲を撮影して撮影画像を形成する撮影部と、
前記撮影画像に基づいて指示体が前記投射面に接触しているか否かを判定し、前記指示体が前記投射面に接触している場合の前記指示体の動きと、前記指示体が前記投射面に接触していない場合の前記指示体の動きとを操作として検出する検出部と、
前記指示体による操作を行った操作者を前記撮影画像に基づいて特定する特定部と、
操作者ごとに、前記指示体の動きと、当該動きが検出された場合に実行する処理とを対応付けて記憶した記憶部と、
前記検出部が、前記投射面に接触した前記指示体の動きを検出した場合、前記検出部が検出した前記指示体の動きに対応した図形を前記投射面に描画させ、前記検出部が、前記投射面に接触していない前記指示体の動きを検出した場合、前記検出部が検出した前記指示体の動きと、前記特定部が特定した前記操作者に対応付けられた前記指示体の動きとが一致したときに、一致した前記指示体の動きに対応付けられた処理を実行する制御部と、
を備えること、を特徴とするプロジェクター。 - 前記特定部は、前記撮影画像に基づいて前記操作者の位置を特定し、
前記制御部は、前記検出部が検出した前記指示体の動きに対応した処理を実行する位置を、前記操作者の位置に応じて変更すること、を特徴とする請求項1記載のプロジェクター。 - 前記制御部は、前記検出部が検出した前記指示体の動きに対応付けられた処理が、前記投射面に投射された操作用画像の表示位置を変更する処理である場合に、前記指示体の動きに対応して前記操作用画像の表示位置を変更すること、を特徴とする請求項1又は2記載のプロジェクター。
- 前記制御部は、動作モードが学習モードである場合、前記撮影画像に撮影された操作者を特定する特徴量を抽出し、抽出した前記特徴量と、前記検出部が検出した前記指示体の動きとを対応付けて前記記憶部に記憶させること、を特徴とする請求項1から3のいずれか1項に記載のプロジェクター。
- 投射面を含む範囲を撮影部により撮影して撮影画像を形成するステップと、
前記撮影画像に基づいて指示体が前記投射面に接触しているか否かを判定し、前記指示体が前記投射面に接触している場合の前記指示体の動きと、前記指示体が前記投射面に接触していない場合の前記指示体の動きとを操作として検出するステップと、
前記指示体による操作を行った操作者を前記撮影画像に基づいて特定するステップと、
前記投射面に接触した前記指示体の動きが操作として検出された場合、検出された前記指示体の動きに対応した図形を前記投射面に描画させるステップと、
前記投射面に接触していない前記指示体の動きが操作として検出された場合、検出された前記指示体の動きと、特定された前記操作者に対応付けられた前記指示体の動きとが一致したときに、一致した前記指示体の動きに対応付けられた処理を実行するステップと、
を有すること、を特徴とするプロジェクターの制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014231011A JP6439398B2 (ja) | 2014-11-13 | 2014-11-13 | プロジェクター、及び、プロジェクターの制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014231011A JP6439398B2 (ja) | 2014-11-13 | 2014-11-13 | プロジェクター、及び、プロジェクターの制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016095647A JP2016095647A (ja) | 2016-05-26 |
JP6439398B2 true JP6439398B2 (ja) | 2018-12-19 |
Family
ID=56071864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014231011A Active JP6439398B2 (ja) | 2014-11-13 | 2014-11-13 | プロジェクター、及び、プロジェクターの制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6439398B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018008218A1 (ja) * | 2016-07-05 | 2018-01-11 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN107493495B (zh) * | 2017-08-14 | 2019-12-13 | 深圳市国华识别科技开发有限公司 | 交互位置确定方法、系统、存储介质和智能终端 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003025859A1 (fr) * | 2001-09-17 | 2003-03-27 | National Institute Of Advanced Industrial Science And Technology | Dispositif d'interface |
JP2011060110A (ja) * | 2009-09-11 | 2011-03-24 | Ricoh Co Ltd | データ処理装置、データ処理プログラム及び記録媒体 |
JP2012185630A (ja) * | 2011-03-04 | 2012-09-27 | Nikon Corp | 投影装置 |
CN102841733B (zh) * | 2011-06-24 | 2015-02-18 | 株式会社理光 | 虚拟触摸屏系统以及自动切换交互模式的方法 |
US20140152540A1 (en) * | 2012-12-04 | 2014-06-05 | Franck Franck | Gesture-based computer control |
-
2014
- 2014-11-13 JP JP2014231011A patent/JP6439398B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016095647A (ja) | 2016-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9645678B2 (en) | Display device, and method of controlling display device | |
US9830023B2 (en) | Image display apparatus and method of controlling image display apparatus | |
CN105468210B (zh) | 位置检测装置、投影仪以及位置检测方法 | |
JP2017182110A (ja) | 表示システム、表示装置、情報処理装置及び情報処理方法 | |
CN105468139B (zh) | 位置检测装置、投影仪以及位置检测方法 | |
JP2016189517A (ja) | 表示装置、表示装置の制御方法、書画カメラ、及び、書画カメラの制御方法 | |
JP6665415B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
US20150248174A1 (en) | Position detecting device and position detecting method | |
JP6439398B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
US20150279336A1 (en) | Bidirectional display method and bidirectional display device | |
JP2019061513A (ja) | 位置検出装置、位置検出システム及び位置検出装置の制御方法 | |
JP6569259B2 (ja) | 位置検出装置、表示装置、位置検出方法、及び、表示方法 | |
JP2012234149A (ja) | 映像投影装置 | |
JP2018132769A (ja) | 画像表示装置、及び、画像表示装置の制御方法 | |
JP6409517B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6255810B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP2018054880A (ja) | 表示装置、情報処理装置および情報処理方法 | |
US10078378B2 (en) | Position detection device, display device, method of controlling position detection device, and method controlling display device for discriminating a pointing element | |
JP2015219547A (ja) | 機器制御システム、機器制御プログラムおよび機器制御装置 | |
JP2015219546A (ja) | 機器制御システム、機器制御プログラムおよび機器制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171027 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6439398 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |