JP6409517B2 - 表示装置、及び、表示装置の制御方法 - Google Patents
表示装置、及び、表示装置の制御方法 Download PDFInfo
- Publication number
- JP6409517B2 JP6409517B2 JP2014231010A JP2014231010A JP6409517B2 JP 6409517 B2 JP6409517 B2 JP 6409517B2 JP 2014231010 A JP2014231010 A JP 2014231010A JP 2014231010 A JP2014231010 A JP 2014231010A JP 6409517 B2 JP6409517 B2 JP 6409517B2
- Authority
- JP
- Japan
- Prior art keywords
- indicator
- unit
- operator
- detection unit
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Position Input By Displaying (AREA)
Description
本発明によれば、複数の指示体により操作を行う場合の操作性を向上させることが可能となる。
本発明によれば、無効にする指示体の操作を選択することができる。
本発明によれば、第2の操作の操作者と第1の操作の操作者とが同一であれば、第2の指示体による第1の操作を無効にすることができる。また、第2の指示体による第1の操作が他の操作者によって無効にされることを防止することができる。
本発明によれば、予め設定された時間が経過するまでは、第1の操作が他の操作者によって無効にされることを防止することができる。また、予め設定された時間を経過した後は、第1の操作を行った操作者でなければ、第1の操作を無効にできない事態の発生を防止することができる。
本発明によれば、操作を行った操作者以外の操作者が、第2の指示体による操作を無効にする処理を、簡単な処理により実現することができる。
本発明によれば、複数の指示体により操作を行う場合の操作性を向上させることが可能となる。
プロジェクター100は、スクリーンSC(操作面)の直上又は斜め上方に設置され、斜め下方のスクリーンSCに向けて画像を投射する。スクリーンSCは、壁面に固定され、又は床面に立設された平板又は幕である。本発明は、この例に限定されず、壁面をスクリーンSCとして使用することも可能である。この場合、スクリーンSCとして使用される壁面の上部にプロジェクター100を取り付けるとよい。
プロジェクター100は、外部の装置に接続されるインターフェイスとして、I/F(インターフェイス)部11及び画像I/F(インターフェイス)部12を備える。I/F部11及び画像I/F部12は、有線接続用のコネクターを備え、このコネクターに対応するインターフェイス回路を備えていてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェイスを備えていてもよい。有線接続用のコネクター及びインターフェイス回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェイスとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI(登録商標)インターフェイス等の画像データ用のインターフェイスを用いることもできる。画像I/F部12は、音声データが入力されるインターフェイスを備えてもよい。
画像I/F部12は、デジタル画像データが入力されるインターフェイスである。本実施形態のプロジェクター100は、画像I/F部12を介して入力されるデジタル画像データに基づき画像を投射する。なお、プロジェクター100は、アナログ画像信号に基づき画像を投射する機能を備えていてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェイスと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
画像処理部40は、フレームメモリー41に接続されている。画像処理部40は、画像入力I/F12から入力される画像データをフレームメモリー41に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー41から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
リモコン受光部18は、プロジェクター100の操作者が使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター100の外装筐体に設けられ、各種スイッチ及びインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター100の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
また、対象検出部54は、検出した第2の指示体80の領域から手指の先端(指先)を特定し、特定した手指の先端の位置を指示位置として検出する。対象検出部54は、第2の指示体80の指示位置の座標を、撮影画像のデータにおける座標で算出する。
また、対象検出部54は、検出した第2の指示体80とスクリーンSCとの距離を検出する。対象検出部54は、検出した手指の先端と、スクリーンSCとの距離を撮影画像のデータに基づいて判定する。例えば、対象検出部54は、撮影画像のデータから指の画像と、指の影の画像とを検出して、検出した画像の間の距離に基づいて、手指の先端とスクリーンSCとの距離を求める。
また、対象検出部54は、撮影画像のデータから複数の人物領域を検出した場合には、各人物領域について、第2の指示体80の領域と、第2の指示体80の指示位置の座標とを検出し、検出した第2の指示体80とスクリーンSCとの距離を算出する。
また、対象検出部54は、第1の指示体70の先端部71がスクリーンSCに接触しているか否かを判定して、先端部71がスクリーンSCに接触しているか否かを示すタッチ情報を生成する。第1の指示体70の先端部71がスクリーンSCに接触しているか否かの判定方法についても後述する。
また、対象検出部54は、複数の第1の指示体70が使用される場合に、複数の第1の指示体70が発する赤外光の像の各々の像を、異なる第1の指示体70の像として区別する。対象検出部54による複数の第1の指示体70が発する赤外光の像の区別の方法については後述する。座標算出部55は、第1の指示体70のそれぞれが指示する指示位置の座標に、各第1の指示体70を識別する識別情報を付与して制御部30に出力する。
また、座標算出部55は、第1の指示体70により指示された指示位置の座標と、指示体情報と、タッチ情報と、識別情報とを制御部30に出力する。指示体情報は、指示位置の座標が第1の指示体70により指示された座標であることを示す情報である。タッチ情報は、第1の指示体70の先端部71がスクリーンSCに接触しているか否かを示す情報である。識別情報は、第1の指示体70が複数使用された場合に、各第1の指示体70を識別する情報である。座標算出部55は、第1の指示体70が1つだけ使用される場合にも、指示位置の座標、指示体情報及びタッチ情報に識別情報を付加して、制御部30に出力する。
電源部76は、電源として乾電池又は二次電池を有し、制御部73、送受信部74及び操作スイッチ75の各部に電力を供給する。第1の指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
制御部30は、第1の指示体70による操作を検出する場合に、撮影制御部53を制御して、送信部52から同期用の信号を送信させる。すなわち、撮影制御部53は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。送信部52が周期的に発する赤外光が、位置検出部50と第1の指示体70とを同期させる同期信号として機能する。
一方、制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター100の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された第1の指示体70に固有の点灯パターンで送受信部74の光源を点灯(発光)させる。また、制御部73は、操作スイッチ75の操作状態に応じて、送受信部74の点灯パターンを切り替える。このため、プロジェクター100の対象検出部54は、複数の撮影画像のデータに基づいて、第1の指示体70の操作状態、すなわち先端部71がスクリーンSCに押しつけられているか否かを判定できる。
また、制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。つまり、送信部52は、第1の指示体70に対し、同期用の赤外線信号を周期的に送信し、第1の指示体70は、送信部52が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
第1の指示体70の点灯パターンは、第1の指示体70の個体毎に固有のパターン、又は複数の第1の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。この場合、対象検出部54は、撮影画像のデータに複数の第1の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる第1の指示体70の像として区別できる。
また、投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
また、人物検出部32は、撮影画像の人物領域から顔領域を除いた領域を人体領域とし、この人体領域から特徴量を算出する。人物検出部32は、人体領域から操作者の身体の部位、例えば、肩、手、足等を認識し、例えば、脚の長さ、腕の長さ、身長、体型等を、予め設定された条件で計測して数値化し、特徴量を求める。また、人物検出部32は、撮影画像のデータの人物領域から服の色や、髪の色を検出して、特徴量としてもよい。
また、撮影画像のデータには、スクリーンSCと、撮影範囲内に存在する操作者とが写る。人物検出部32は、撮影画像のデータから人物領域とスクリーンSCとを検出し、撮影画像の垂直方向における、人物領域の中心座標とスクリーンとの距離を算出する。人物検出部32は、スクリーンSCから人物領域の中心座標までの距離を、操作者の垂直方向における位置情報とする。
また、人物検出部32は、撮影画像に複数の人物が写っており、位置検出部50から、複数の人物領域の範囲情報が入力された場合には、各人物領域について、操作者の位置を特定する。
操作者IDは、操作者を識別するIDである。人物検出部32は、撮影画像から新たな操作者(位置情報及び特徴量)を検出すると、検出した操作者に操作者IDを付与して、位置情報、人物領域の範囲及び特徴量と共に操作履歴テーブル62に登録する。新たな操作者とは、操作履歴テーブル62に登録済みの操作者とは特徴量が異なる操作者である。操作情報、軌跡データ及び日時情報は、後述する検出部33により生成され、検出部33により操作履歴テーブル62に登録される情報である。これらの情報の詳細については後述する。
人物検出部32は、今回の撮影画像から検出した操作者(以下、対象操作者という)の特徴量に一致する特徴量が操作履歴テーブル62に登録されている場合、対象操作者は、既に検出済みの操作者であると判定する。この場合、人物検出部32は、操作履歴テーブル62から特徴量が一致する操作者の位置情報を読み出して、読み出した位置情報と、今回の撮影画像から検出した位置情報とを比較する。人物検出部32は、対象操作者が前回の撮影画像から検出した位置から動いているか否かを判定する。位置情報に更新がある場合、人物検出部32は、操作履歴テーブル62の該当するセルに、今回の撮影画像から検出した位置情報及び人物領域の範囲情報を登録して更新する。
また、対象操作者の特徴量に一致する特徴量が操作履歴テーブル62に登録されていない場合、人物検出部32は、対象操作者が新たに検出された操作者であると判定する。
人物検出部32は、対象操作者に新たなID番号(操作者IDという)を付与し、位置情報、人物領域の範囲情報及び特徴量を操作履歴テーブル62に登録する。
また、検出部33は、例えば、第2の指示体80としての操作者の手指を、左から右、又は右から左に1回又は複数回振るジェスチャーを検出した場合に、検出したジェスチャーを無効指示と判定する。なお、検出部33は、例えば、スクリーンSCに、第1の指示体70によりバツ印等の予め設定された記号を描画する操作を検出した場合にも、この操作を無効指示と判定してもよい。
無効判定部34は、無効指示を行った操作者の操作履歴情報として、第2の指示体80による操作(第1の操作)、第1の指示体70による操作、無効指示を示す操作(第2の操作)の順に操作が検出されているか否かを判定する。無効判定部34は、前述の順に、操作が検出されている場合、処理モードが第1モードであるか、第2モードであるかを判定し、処理モードが第1モードであるか第2モードであるかによって、次のように処理を変える。まず、無効判定部34は、前述した順に操作が検出されている場合、第1モードであれば、第1の処理として、第2の指示体80による操作を無効にする。次に、無効判定部34は、前述した順に操作が検出されている場合、処理モードが第2モードであれば、第2の処理として第1の指示体70による操作を無効にする。
また、無効判定部34は、第2の指示体80による操作と、第1の指示体70による操作とが検出される間に、他の操作者による操作が検出されても、第1の処理では、第2の指示体80による操作を無効にするようにしてもよい。また、無効判定部34は、第2の処理では、第1の指示体70による操作を無効にするようにしてもよい。また、第1の指示体70による操作と、無効指示を示す操作とが検出される間に、他の操作者による操作が検出された場合も、無効判定部34は、第1の処理では第2の指示体80による操作を無効にしてもよい。また、無効判定部34は、第2の処理では第1の指示体70による操作を無効にするようにしてもよい。具体的には、操作履歴情報として、第2の指示体80による操作(第1の操作)、第1の指示体70による操作、無効指示を示す操作(第2の操作)の順に操作が検出されている場合に、制御部30は、操作履歴情報から第2の操作の操作者と第1の操作の操作者が同一であると判定すると第1の操作を無効にし、第2の操作の操作者と第1の操作の操作者が同一ではないと判定すると第1の操作を無効とはしないようにしてもよい。
また、検出制御部35は、無効判定部34から入力されるコマンド等に基づいて、予め設定された処理を実行する。例えば、検出制御部35は、無効判定部34から入力される描画コマンドや、描画位置を指定する座標に基づいて、画像処理部40により図形を描画させ、描画した図形を画像I/F部12に入力される入力画像に重畳して投射させる処理を行う。また、検出制御部35は、取得した座標をI/F部11に接続されたPC等の外部の装置に出力してもよい。この場合、検出制御部35は、取得した座標を、I/F部11に接続された外部の装置のオペレーティングシステムにおいて、座標入力デバイスの入力として認識されるデータフォーマットに変換して出力してもよい。例えば、I/F部11にWindows(登録商標)オペレーティングシステムで動作するPCが接続された場合、オペレーティングシステムにおいてHID(Human Interface Device)の入力データとして処理されるデータを出力する。また、検出制御部35は、座標のデータとともに、第1の指示体70の指示位置であるか第2の指示体80の指示位置であるかを識別するデータ、及び操作スイッチ75の操作状態を示すデータを出力してもよい。
まず、検出部33は、位置検出部50及び人物検出部32からデータセットを入力する(ステップS1)。データセットは、第1データセットと第2データセットとを含む。第1データセットは、位置検出部50が検出した指示位置の座標が、第1の指示体70の指示位置の座標である場合に、検出部33に入力されるデータである。第1データセットには、指示位置の座標、指示体情報、タッチ情報及び識別情報が含まれる。また、第2データセットは、位置検出部50が検出した指示位置の座標が、第2の指示体80の指示位置の座標である場合に、検出部33に入力されるデータである。第2データセットには、位置検出部50から入力される指示位置の座標、指示体情報、距離情報及び人物領域の範囲情報と、人物検出部32から入力される操作者の位置情報と、人物領域の範囲情報とが含まれる。検出部33は、位置検出部50から入力される人物領域の範囲情報と、人物検出部32から入力される人物領域の範囲情報とに基づいて、指示位置の座標と、操作者の位置情報とを対応付ける。すなわち、検出部33は、人物領域の範囲情報が同一の指示位置の座標と、操作者の位置情報とを対応付ける。
検出部33は、入力されたデータセットが第1データセットである場合、まず、タッチ情報により、第1の指示体70がスクリーンSCに接触しているか否かを判定する。検出部33は、タッチ情報により、第1の指示体70がスクリーンSCに接触していないと判定する場合、今回入力された第1データセットを、無効なデータとしてメモリーには記憶させない。
次に、検出部33は、第1データセットに含まれる識別情報を参照して、今回入力された第1データセットの識別情報と同一の識別情報を対応付けた指示位置の座標が、メモリーに既に記憶されているか否かを判定する。検出部33は、同一の識別情報に対応付けられた指示位置の座標がメモリーに記憶されている場合、このメモリーに記憶された指示位置の座標に対応付けて、今回入力された第1データセットの指示位置の座標をメモリーに記憶させる。すなわち、検出部33は、同一の第1の指示体70により指示された指示位置の座標を、メモリーに対応付けて記憶させる。
また、検出部33は、今回入力された第1データセットの識別情報と同一の識別情報を対応付けた指示位置の座標がメモリーに記憶されていない場合、今回入力された第1データセットの指示位置の座標を、他の指示位置の座標に対応付けることなく記憶させる。
検出部33は、同一の操作者により入力された指示位置の座標がメモリーに記憶されていると判定すると、今回入力された第2データセットの指示位置の座標と、メモリーに記憶済みの指示位置の座標とが同一グループに属しているか否かを判定する。検出部33は、同一のグループに属すると判定すると、記憶済みの指示位置の座標に対応付けて、今回入力された第2データセットの指示位置の座標をメモリーに記憶させる。また、検出部33は、同一のグループには属さないと判定すると、今回入力された第2データセットの指示位置の座標を、メモリーに記憶済みの他の指示位置の座標に対応付けることなく記憶させる。すなわち、検出部33は、同一の操作者により指示された指示位置の座標であっても、第2の指示体80がスクリーンSCに接している場合の指示位置と、第2の指示体80がスクリーンSCに接していない場合の指示位置とを区別してメモリーに記憶させる。
検出部33は、第2の指示体80の指示位置の軌跡データと、記憶部60のジェスチャーパターン辞書に登録されたジェスチャーの動作パターンとを比較して、ジェスチャーを検出する。検出部33は、第2の指示体80の指示位置の軌跡データから、第2の指示体80の動作特徴(例えば、動きベクトル)を抽出する。そして、検出部33は、抽出した第2の指示体80の動作特徴を、ジェスチャーパターン辞書に登録されているジェスチャーの動作パターンと比較してジェスチャーを検出する。
また、検出部33は、第2の指示体80の操作としてジェスチャーを検出した場合には、ジェスチャーの内容を示す操作情報と、軌跡データとを操作履歴テーブル62に登録する。この際、検出部33は、軌跡データの示す座標がどの人物領域に含まれるか、又はどの人物領域に最も近いかに基づいて、操作情報及び軌跡データを対応付ける操作者IDを判定する。また、検出部33は、操作情報及び軌跡データを登録した日時を日時情報として操作履歴テーブル62に登録する。
また、検出部33は、操作履歴テーブル62に操作情報、軌跡データ及び日時情報が登録されてから予め設定された時間を経過すると、これらの情報に対応付けられた操作者に関する情報を操作履歴テーブル62から削除する。操作者に関する情報には、操作者ID、位置情報、人物領域及び特徴量の情報が含まれる。
図6に、スクリーンSCと、このスクリーンSCに描画された文字とを示す。図6(A)には、「特許12345」、「特許67890」、「特許ABCDE」の文字が、スクリーンSCに3行で描画された状態を示す。図6(B)には、図6(A)に示す状態から、1行目の「特許12345」の文字が削除された状態を示す。この「特許12345」の文字は、第2の指示体80による操作により誤って削除されたとする。例えば、他の操作者との会話中に行ったジェスチャーを、プロジェクター100が、スクリーンSCに対する操作として誤検出してしまった場合である。図6(C)は、操作者が、第2の指示体80による誤った操作に気付かずに、「特許ABCDE」の文字の下に、「特許EFGHIJ」の文字を入力し、「特許EFGHIJ」の文字がスクリーンSCに描画された状態を示す。「特許EFGHIJ」の文字を入力した後に、操作者が1行目に描画した「特許12345」の文字を誤って削除してしまったことに気がつき、直前の操作を無効にするアンドゥ操作を行った場合、「特許EFGHIJ」が消去されてしまう。図6(D)には、アンドゥ操作によってスクリーンSCの表示から「特許EFGHIJ」が消去された状態を示す。
無効判定部34は、第2の指示体80により「特許12345」の文字を削除する操作が検出され、その後に、第1の指示体70により「特許EFGHIJ」の文字を入力する操作を検出した後に、無効指示を受け付けた場合、無効条件に該当すると判定する。この場合、無効判定部34は、第2の指示体80による操作である「特許12345」の文字を削除する操作を無効にする対象に選択する。
また、ステップS8の判定が否定判定である場合(ステップS8/NO)、無効判定部34は、処理モードが第2のモードであると判定し、第1の指示体70による操作を、無効にする操作に選択する(ステップS10)。無効判定部34は、無効にする操作を選択すると、選択した操作を無効にするコマンドを出力する(ステップS11)。例えば、無効にする操作が、スクリーンSCに描画された図形を消去する操作である場合、無効判定部34は、消去された図形を描画する描画コマンドと、図形の描画位置を示す座標情報とを検出制御部35に出力する。検出制御部35は、無効判定部34の指示に従い、画像処理部40に図形の描画を指示する。画像処理部40は、フレームメモリー41に展開された画像データに指示された図形を重畳させる。また、無効にする操作が、スクリーンSCに図形を描画する操作である場合、無効判定部34は、描画された図形を消去する消去コマンドと、消去する図形の位置を示す位置情報とを検出制御部35に出力する。検出制御部35は、無効判定部34の指示に従い、画像処理部40に図形の消去を指示する。画像処理部40は、検出制御部35の指示に従って、フレームメモリー41に展開された画像データの該当の指示位置に重畳された図形を消去する。
また、操作者に関する情報が対応付けられている場合(ステップS16/YES)、無効判定部34は、ステップS15で操作履歴情報を検出した操作の操作者と、ステップS13の無効指示の操作者とが同一の操作者であるか否かを判定する(ステップS18)。同一の操作者ではない場合(ステップS18/NO)、無効判定部34は、無効指示を入力しない(ステップS19)。すなわち、無効指示により指定された図形等は、スクリーンSCに表示された状態を維持する。また、操作者が同一である場合(ステップS18/YES)、無効判定部34は、図形等を無効にするコマンドと、消去する図形の位置を示す位置情報とを検出制御部35に出力する(ステップS17)。また、無効判定部34は、ステップS13の指示が、図形等を指定した無効指示ではない場合(ステップS13/NO)、操作に応じた処理の実行を指示するコマンドを検出制御部35に出力する(ステップS14)。
また、図3には、操作履歴情報を登録した操作履歴テーブル62を示したが、操作履歴情報は、操作者IDに、位置情報や、特徴量、操作情報、軌跡データ、日時情報が対応付けられている形式であればよい。
また、上記実施形態では、フロントプロジェクション型のプロジェクター100から画像が投射(表示)されるスクリーンSCに対して、ユーザーが第1の指示体70及び第2の指示体80による操作を行う態様について説明した。これ以外に、プロジェクター100以外の表示装置が表示する表示画面に対して指示操作を行う態様であってもよい。プロジェクター100以外の表示装置としては、リアプロジェクション(背面投射)型のプロジェクター、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイを用いることができる。また、表示装置としては、プラズマディスプレイ、CRT(陰極線管)ディスプレイ、SED(Surface-conduction Electron-emitter Display)等を用いることができる。
Claims (6)
- 第1の指示体による操作面に対する操作と、第2の指示体による前記操作面に対する操作とを検出する検出部と、
操作を無効にする指示を受け付ける制御部と、を備え、
前記制御部は、前記検出部が、前記第2の指示体による操作を検出し、その後、前記第1の指示体による操作を検出した後に、前記指示を受け付けた場合に、前記第2の指示体による前記操作を無効にすること、を特徴とする表示装置。 - 前記制御部は、第1の処理と第2の処理とを切り替えて実行し、
前記第1の処理は、前記検出部が、前記第2の指示体による操作を検出し、その後、前記第1の指示体による操作を検出した後に、前記指示を受け付けた場合に、前記第2の指示体による前記操作を無効にする処理であり、
前記第2の処理は、前記検出部が、前記第2の指示体による操作を検出し、その後、前記第1の指示体による操作を検出した後に、前記指示を受け付けた場合に、前記第1の指示体による前記操作を無効にする処理であること、を特徴とする請求項1記載の表示装置。 - 前記検出部は、前記第1の指示体による操作を、前記第1の指示体を操作する操作者に対応付けて検出し、また、前記第2の指示体による操作を、前記第2の指示体を操作する操作者に対応付けて検出し、
前記制御部は、前記検出部が、前記第2の指示体による第1の操作を検出し、その後、前記第1の指示体による操作を検出した後に、前記第2の指示体による第2の操作を検出し、前記第2の操作が前記指示を示す操作である場合に、
前記第2の操作の操作者と前記第1の操作の操作者とが同一であると判定すると、前記第1の操作を無効にし、
前記第2の操作の操作者と前記第1の操作の操作者とが同一ではないと判定すると、前記第1の操作を無効としない、
ことを特徴とする請求項1又は2記載の表示装置。 - 前記制御部は、前記検出部が前記第1の操作を検出してから予め設定された時間が経過するまでは、前記第2の操作の操作者と前記第1の操作の操作者とが同一である場合に、前記第1の操作を無効にし、
前記予め設定された時間が経過した後に、前記検出部が検出した前記第2の指示体による第3の操作が、前記第1の操作を無効にする指示を示す操作である場合、前記第3の操作の操作者と前記第1の操作の操作者とが同一でなくても、前記第1の操作を無効にすること、を特徴とする請求項3記載の表示装置。 - 前記検出部が検出した前記第2の指示体による操作と、前記操作を行った操作者とを対応付けた操作履歴情報を記憶する記憶部を備え、
前記制御部は、前記予め設定された時間が経過すると、前記操作履歴情報から、前記操作を行った操作者の情報を削除すること、を特徴とする請求項4記載の表示装置。 - 第1の指示体による操作面に対する操作と、第2の指示体による前記操作面に対する操作とを検出するステップと、
操作を無効にする指示を受け付けるステップと、を備え、
前記第2の指示体による操作を検出し、その後、前記第1の指示体による操作を検出した後に、前記指示を受け付けた場合に、前記第2の指示体による前記操作を無効にすること、を特徴とする表示装置の制御方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014231010A JP6409517B2 (ja) | 2014-11-13 | 2014-11-13 | 表示装置、及び、表示装置の制御方法 |
US15/522,426 US10353479B2 (en) | 2014-11-13 | 2015-11-05 | Display apparatus and display apparatus control method |
PCT/JP2015/005540 WO2016075905A1 (ja) | 2014-11-13 | 2015-11-05 | 表示装置、及び、表示装置の制御方法 |
EP15859257.6A EP3220248A4 (en) | 2014-11-13 | 2015-11-05 | Display device, and method of controlling display device |
CN201580059745.8A CN107077266B (zh) | 2014-11-13 | 2015-11-05 | 显示装置和显示装置的控制方法 |
TW104137068A TW201617812A (zh) | 2014-11-13 | 2015-11-10 | 顯示裝置及顯示裝置之控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014231010A JP6409517B2 (ja) | 2014-11-13 | 2014-11-13 | 表示装置、及び、表示装置の制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016095646A JP2016095646A (ja) | 2016-05-26 |
JP2016095646A5 JP2016095646A5 (ja) | 2017-12-14 |
JP6409517B2 true JP6409517B2 (ja) | 2018-10-24 |
Family
ID=55954009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014231010A Expired - Fee Related JP6409517B2 (ja) | 2014-11-13 | 2014-11-13 | 表示装置、及び、表示装置の制御方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10353479B2 (ja) |
EP (1) | EP3220248A4 (ja) |
JP (1) | JP6409517B2 (ja) |
CN (1) | CN107077266B (ja) |
TW (1) | TW201617812A (ja) |
WO (1) | WO2016075905A1 (ja) |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3758866B2 (ja) | 1998-12-01 | 2006-03-22 | 富士ゼロックス株式会社 | 座標入力装置 |
JP5372000B2 (ja) | 2007-10-11 | 2013-12-18 | エヌ−トリグ リミテッド | デジタイザのためのジェスチャ検出 |
JP4851547B2 (ja) | 2009-01-27 | 2012-01-11 | 株式会社エヌ・ティ・ティ・ドコモ | モード設定システム |
US20120293555A1 (en) * | 2010-01-15 | 2012-11-22 | Akihiro Okano | Information-processing device, method thereof and display device |
JP5024397B2 (ja) * | 2010-01-29 | 2012-09-12 | ブラザー工業株式会社 | 入力装置及び入力制御プログラム |
GB2486445B (en) * | 2010-12-14 | 2013-08-14 | Epson Norway Res And Dev As | Camera-based multi-touch interaction apparatus system and method |
US9244545B2 (en) * | 2010-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Touch and stylus discrimination and rejection for contact sensitive computing devices |
CN102707861B (zh) * | 2011-03-28 | 2014-09-03 | 联想(北京)有限公司 | 电子设备及其显示方法 |
JP5350437B2 (ja) | 2011-06-27 | 2013-11-27 | シャープ株式会社 | タッチセンサシステム |
TWI524224B (zh) | 2011-06-22 | 2016-03-01 | 夏普股份有限公司 | 觸控面板系統及電子機器 |
EP2853986B1 (en) * | 2012-05-22 | 2020-09-23 | Sony Corporation | Image processing device, image processing method, and program |
CN103809867A (zh) * | 2012-11-13 | 2014-05-21 | 联想(北京)有限公司 | 一种控制方法、装置及电子设备 |
JP6003566B2 (ja) * | 2012-11-19 | 2016-10-05 | コニカミノルタ株式会社 | オブジェクト操作装置及びオブジェクト操作制御プログラム |
KR102202899B1 (ko) * | 2013-09-02 | 2021-01-14 | 삼성전자 주식회사 | 복수의 어플리케이션 제공 방법 및 장치 |
-
2014
- 2014-11-13 JP JP2014231010A patent/JP6409517B2/ja not_active Expired - Fee Related
-
2015
- 2015-11-05 WO PCT/JP2015/005540 patent/WO2016075905A1/ja active Application Filing
- 2015-11-05 CN CN201580059745.8A patent/CN107077266B/zh active Active
- 2015-11-05 US US15/522,426 patent/US10353479B2/en active Active
- 2015-11-05 EP EP15859257.6A patent/EP3220248A4/en not_active Withdrawn
- 2015-11-10 TW TW104137068A patent/TW201617812A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
US20170315619A1 (en) | 2017-11-02 |
EP3220248A4 (en) | 2018-07-04 |
CN107077266A (zh) | 2017-08-18 |
US10353479B2 (en) | 2019-07-16 |
JP2016095646A (ja) | 2016-05-26 |
WO2016075905A1 (ja) | 2016-05-19 |
EP3220248A1 (en) | 2017-09-20 |
TW201617812A (zh) | 2016-05-16 |
CN107077266B (zh) | 2020-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6398248B2 (ja) | 位置検出システム、及び、位置検出システムの制御方法 | |
US9992466B2 (en) | Projector with calibration using a plurality of images | |
US20140168168A1 (en) | Display device, and method of controlling display device | |
US9830023B2 (en) | Image display apparatus and method of controlling image display apparatus | |
CN105468210B (zh) | 位置检测装置、投影仪以及位置检测方法 | |
JP2013140533A (ja) | 表示装置、プロジェクター、表示システム及びデバイスの切替方法 | |
JP6562124B2 (ja) | 位置検出システム、及び、位置検出システムの制御方法 | |
CN105468139B (zh) | 位置检测装置、投影仪以及位置检测方法 | |
CN108279774B (zh) | 区域标定的方法、装置、智能设备、系统及存储介质 | |
JP6439398B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
US20150279336A1 (en) | Bidirectional display method and bidirectional display device | |
JP6665415B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
JP2019061513A (ja) | 位置検出装置、位置検出システム及び位置検出装置の制御方法 | |
JP6409517B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
US10078378B2 (en) | Position detection device, display device, method of controlling position detection device, and method controlling display device for discriminating a pointing element | |
JP6255810B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP2014120023A (ja) | 表示装置、位置検出装置、及び、表示装置の制御方法 | |
JP2015219547A (ja) | 機器制御システム、機器制御プログラムおよび機器制御装置 | |
JP2016186693A (ja) | 表示装置、及び、表示装置の制御方法 | |
JP2015219546A (ja) | 機器制御システム、機器制御プログラムおよび機器制御装置 | |
JP2015219548A (ja) | 機器制御システム、機器制御プログラムおよび機器制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171101 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171101 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180828 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180910 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6409517 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |