JP2016188892A - プロジェクター、及び、プロジェクターの制御方法 - Google Patents
プロジェクター、及び、プロジェクターの制御方法 Download PDFInfo
- Publication number
- JP2016188892A JP2016188892A JP2015068094A JP2015068094A JP2016188892A JP 2016188892 A JP2016188892 A JP 2016188892A JP 2015068094 A JP2015068094 A JP 2015068094A JP 2015068094 A JP2015068094 A JP 2015068094A JP 2016188892 A JP2016188892 A JP 2016188892A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- unit
- indicator
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03542—Light pens for emitting or receiving light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/08—Arrangements within a display terminal for setting, manually or automatically, display parameters of the display terminal
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Projection Apparatus (AREA)
- Controls And Circuits For Display Device (AREA)
- Position Input By Displaying (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
【解決手段】プロジェクター100は、スクリーンSCにオブジェクト画像を含む投射画像を投射する投射部20と、投射画像が投射される領域のサイズを検出する投射サイズ検出部32と、スクリーンSCに対する指示体の操作を検出する検出部33と、検出部33により検出した指示体Sの操作が、オブジェクト画像を移動させる操作であった場合、画像投射領域のサイズに応じて、オブジェクト画像の移動量を異ならせる移動量調整部34と、を備える。
【選択図】図2
Description
また、近年、スクリーン等の投射面にGUI(Graphical User Interface)等のオブジェクトを投射するプロジェクターが広く普及している。そして、プロジェクターにより、オブジェクトを含む投射画像が投射される領域(投射画像の投射が可能な領域(画素の形成が可能な領域))のサイズは、プロジェクターと投射面との離間距離や、プロジェクターの投射光学系に関する設定等により、変化し、一定ではない。
本発明は、上述した事情に鑑みてなされたものであり、投射面に投射画像を投射するプロジェクターについて、投射画像が投射される領域のサイズが一定でないことに対応する処理を実行できるようにすることを目的とする。
本発明の構成によれば、プロジェクターは、投射画像が投射される領域のサイズが一定でないことに対応して、第1のオブジェクトを移動させる操作に基づいて第1のオブジェクトの位置を移動させるときの移動量を、当該サイズに対応した値とすることができる。
本発明の構成によれば、投射画像が投射される領域のサイズが大きいほど、同様の指示体の操作が行われたときの第1のオブジェクトの移動量を大きくすることができ、操作者(ユーザー)による第1のオブジェクトの移動時の作業が容易化する。
本発明の構成によれば、投射画像が投射される領域のサイズが大きいほど、同様の指示体の操作が行われたときの第1のオブジェクトの移動量を大きくすることができ、操作者(ユーザー)による第1のオブジェクトの移動時の作業が容易化する。
本発明の構成によれば、操作者が、第1のオブジェクトを移動させる意思をもって意図的に行った操作を、第1のオブジェクトを移動させる操作として半的できる。また、移動量調整部は、移動量係数を用いて、移動量の値を、画像投射領域のサイズに応じた適切な値とすることができる。
本発明の構成によれば、投射画像が投射される領域のサイズの検出について、ユーザーの作業が必要なく、ユーザーの利便性が向上する。
プロジェクター100は、スクリーンSC(投射面)の直上又は斜め上方に設置され、斜め下方のスクリーンSCに向けて画像(投射画像)を投射する。スクリーンSCは、壁面に固定され、又は床面に立設された平板又は幕である。本発明は、この例に限定されず、壁面をスクリーンSCとして使用することも可能である。この場合、スクリーンSCとして使用される壁面の上部にプロジェクター100を取り付けるとよい。
また、スクリーンSCに対する操作には、第1の指示体70又は第2の指示体80により、スクリーンSC上の一定の位置を指定(指示)する操作や、スクリーンSC上の異なる位置を連続して指示する操作が含まれる。
スクリーンSC上の一定の位置を指定(指示)する操作は、第1の指示体70又は第2の指示体80を、スクリーンSC上の一定の位置に一定時間接触させる操作である。
また、スクリーンSC上の異なる位置を連続して指示する操作は、第1の指示体70又は第2の指示体80をスクリーンSCに接触させながら動かして、文字や図形等を描く操作である。
プロジェクター100は、操作者が第1の指示体70又は第2の指示体80により行った操作を検出して、検出した操作をスクリーンSCの投射画像に反映させる。さらに、プロジェクター100は、指示位置を検出することによりポインティングデバイスとして動作し、スクリーンSC上の指示位置の座標を出力してもよい。また、この座標を用いて、プロジェクター100に対してGUI(Graphical User Interface)操作を行うこともできる。
プロジェクター100は、外部の装置に接続されるインターフェースとして、I/F(インターフェース)部11及び画像I/F(インターフェース)部12を備える。I/F部11及び画像I/F部12は、有線接続用のコネクターを備え、このコネクターに対応するインターフェース回路を備えていてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェースを備えていてもよい。有線接続用のコネクター及びインターフェース回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェースとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI(登録商標)インターフェース等の画像データ用のインターフェースを用いることもできる。画像I/F部12は、音声データが入力されるインターフェースを備えてもよい。
画像I/F部12は、デジタル画像データが入力されるインターフェースである。本実施形態のプロジェクター100は、画像I/F部12を介して入力されるデジタル画像データに基づき画像を投射する。なお、プロジェクター100は、アナログ画像信号に基づき画像を投射する機能を備えていてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェースと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
記憶部60は、制御部30が実行する制御プログラム61のほか、制御部30が処理するデータ、その他のデータを不揮発的に記憶する。
画像処理部40は、フレームメモリー41に接続されている。画像処理部40は、画像入力I/F12から入力される画像データをフレームメモリー41に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー41から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
リモコン受光部18は、プロジェクター100の操作者が使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター100の外装筐体に設けられ、各種スイッチ及びインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター100の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
以下、撮影部51が可視光で撮影した撮影画像のデータを「可視光撮影画像データ」といい、撮影部51が赤外光で撮影した撮影画像のデータを「赤外光撮影画像データ」という。
可視光撮影画像のデータには、撮影範囲に第1の指示体70が存在する場合は、第1の指示体70が写る。また、可視光撮影画像データには、撮影範囲に第2の指示体80としての操作者の手指が存在する場合は、第2の指示体80が写る。
また、赤外光撮影画像のデータには、第1の指示体70が発する赤外光の像が写る。
例えば、対象検出部54は、以下の方法で第2の指示体80を検出する。すなわち、対象検出部54は、可視光撮影画像データから、人物が写った人物領域を検出する。人物領域は、撮影画像において人物の像を含む領域である。対象検出部54による人物領域の検出は、一般的に知られた方法を用いることができる。例えば、対象検出部54は、入力された可視光撮影画像データのエッジを検出して、人の形状にマッチする領域を人物領域として検出する。また、対象検出部54は、色情報(輝度、色度等)が所定時間内に変化する領域を検出して、検出した領域のサイズが所定値以上のものや、検出した領域の経時的な移動範囲が所定範囲内のものを人物領域として検出してもよい。次いで、対象検出部54は、検出した人物領域から、予め定めた手指の形状や特徴に近い領域を、第2の指示体80の領域として検出する。対象検出部54が検出する操作者の手指は、1本又は複数本の指、手全体、又は指を含む手の一部のいずれであってもよい。
また、対象検出部54は、検出した第2の指示体80の領域から手指の先端(指先)を特定し、特定した手指の先端の位置を指示位置として検出する。対象検出部54は、第2の指示体80の指示位置の座標を、撮影画像のデータにおける座標で算出する。
なお、第2の指示体80の指示位置とスクリーンSCとの距離の検出方法は、例示した方法に限られない。例えば、スクリーンSCの表面に平行な光軸で、スクリーンSCの表面から所定の範囲を可視光により撮影する他の撮影部を設ける。そして、当該他の撮影部の撮影結果に基づく、撮影画像のデータを対象検出部54に出力する。対象検出部54は、入力された撮影画像のデータから上述した方法と同様の方法で、手指の先端の位置を指示位置として検出し、撮影画像のデータにおける検出した指示位置と、スクリーンSCの表面に対応する画像との離間量に基づいて、指示位置(手指の先端)とスクリーンSCとの距離を求める。
また、対象検出部54は、第1の指示体70の先端部71がスクリーンSCに接触しているか否かを判定して、先端部71がスクリーンSCに接触しているか否かを示すタッチ情報を生成する。第1の指示体70の先端部71がスクリーンSCに接触しているか否かの判定方法についても後述する。
また、座標算出部55は、第1の指示体70について、第1の指示体70の指示位置の座標と、対象検出部54が検出した第2の指示体80の指示位置とスクリーンSCとの距離を示す情報(以下、「第1離間距離情報」という。)と、タッチ情報と、を制御部30に出力する。
操作スイッチ75は、第1の指示体70の先端部71が接触しているか否かによってオン/オフが切り替わるスイッチである。
電源部76は、電源として乾電池又は二次電池を有し、制御部73、送受信部74及び操作スイッチ75の各部に電力を供給する。第1の指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
制御部30は、第1の指示体70による操作を検出する場合に、撮影制御部53を制御して、送信部52から同期用の信号を送信させる。すなわち、撮影制御部53は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。
一方、制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター100の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された第1の指示体70に固有の点灯パターンで送受信部74の光源を点灯(発光)させる。また、制御部73は、操作スイッチ75の操作状態に応じて、送受信部74の点灯パターンを切り替える。このため、プロジェクター100の対象検出部54は、複数の撮影画像のデータに基づいて、第1の指示体70の操作状態、すなわち先端部71がスクリーンSCに押しつけられているか否かを判定できる。
また、制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。つまり、送信部52は、第1の指示体70に対し、同期用の赤外線信号を周期的に送信し、第1の指示体70は、送信部52が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
第1の指示体70の点灯パターンは、第1の指示体70の個体毎に固有のパターン、又は複数の第1の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。この場合、対象検出部54は、撮影画像のデータに複数の第1の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる第1の指示体70の像として区別できる。
また、投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
すなわち、キャリブレーションにおいて、投射サイズ検出部32は、特定のパターン画像(以下、「特定パターン画像」という。)の画像データ(以下、「特定パターン画像データ」という。)を取得する。特定パターン画像データは、記憶部60の所定の記憶領域に事前に記憶される。次いで、投射サイズ検出部32は、取得した特定パターン画像データに基づいて画像処理部40を制御すると共に、光源駆動部45、光変調装置駆動部46、その他の機構を制御して、スクリーンSCに特定パターン画像を投射する。
特定パターン画像は、例えば、画素を形成可能な最大の領域(画像投射領域に対応する領域)の四隅に、四隅を示す所定の形状の画像を含む画像である。
なお、画像投射領域の上下方向の長さ、及び、画像投射領域の左右方向の長さとは、所定の単位で表すことが可能な物理的な長さを意味する。
また、検出部33は、第1の指示体70について、座標算出部55が出力した第1の指示体70の指示位置の座標と、第1離間距離情報(第2の指示体80の指示位置とスクリーンSCとの距離を示す情報)と、タッチ情報と、を取得する。検出部33は、取得した情報に基づいて、第1の指示体70により所定の操作が行われた場合、当該所定の操作が行われたことを検出する。例えば、検出部33は、所定の処理の実行を指示するアイコンを含むGUIが第1の指示体70により操作された場合、取得した情報に基づいて、そのことを検出する。
オブジェクト画像、移動ジェスチャーの態様、及び、移動ジェスチャーの検出方法については、後述する。
本実施形態において、オブジェクト画像とは、移動ジェスチャー(後述)により、スクリーンSCにおける表示位置を移動可能な画像のことをいう。例えば、プロジェクター100の機能により提供されるGUIや、外部の装置からI/F部11を介して入力される画像データに基づくウインドウ、第2の指示体80又は第1の指示体70によって操作者が描画した画像等であって、移動ジェスチャーによって表示位置を移動可能な画像が、オブジェクト画像に相当する。
そして、本実施形態に係るプロジェクター100では、画像投射領域に表示されたオブジェクト画像について、当該オブジェクト画像を指示体Sで接触し、スクリーンSCに指示体Sを接触させた状態を維持しつつ指示体Sを所定方向に移動させることにより、指示体Sの移動に応じてオブジェクト画像を移動させることができる。
上述した方法で、オブジェクト画像を移動させる場合、以下のような課題がある。すなわち、例えば、画像投射領域の左右の幅が、操作者が両手を広げて届く範囲の場合、操作者は、上述した方法で、画像投射領域の左右方向における一方の端部に位置するオブジェクト画像を、他方の端部に移動させることを容易にできる。一方、画像投射領域の左右の幅が、操作者が両手を広げて届く範囲よりも相当量大きい場合において、上述した方法で画像投射領域の左右方向における一方の端部に位置するオブジェクト画像を、他方の端部に移動させる場合、操作者が歩行しなければならない状況が生じ得、当該操作が操作者にとって容易ではない場合がある。
以上を踏まえ、プロジェクター100は、オブジェクト画像の移動に関し、以下の処理を実行する。
図3の処理の開始時点では、投射制御部31による画像処理部40の制御に基づいて、フレームメモリー41に、オブジェクト画像に対応する画像データが展開され、スクリーンSCの画像投射領域に、オブジェクト画像が表示された状態である。
図3に示すように、検出部33は、座標算出部55からの入力に基づいて、第1の指示体70が撮影部51の撮影範囲に存在する場合、第1の指示体70の指示位置の座標(以下、「第1指示位置座標」という。)、及び、第1離間距離情報を所定の周期で取得し、また、第2の指示体80が撮影部51の撮影範囲に存在する場合、第2の指示体80の指示位置(以下、「第2指示位置座標」という。)の座標、及び、第2離間距離情報を所定の周期で取得する(ステップSA1)。
図4において、軌道Kは、T1を始点とし、T2を終点とする移動ジェスチャーにおける指示体Sの指示位置の軌道を示す。また、軌道Kにおいて、軌道K1は、第1の移動において第1の方向H1へ向かって移動する指示体Sの指示位置の軌道を示し、軌道K2は、第2の移動において第2の方向H2へ向かって移動する指示体Sの指示位置の軌道を示す。
なお、以下の説明では、第1の移動から第2の移動へ移行する移行ポイント(図4ではP1)を起点として第1の方向に延びる仮想直線に対して、当該移行ポイントを起点として、スクリーンSCの面に直交する方向の角度が第1の角度(図4(A)では「θ1」。)内で、かつ、スクリーンSCの面に平行な方向の角度が第2の角度(図4(C)の例では「θ2」。)内で広がる三次元の所定の範囲の領域(図4において斜線で表す領域。)を「移動可能領域」という。
移動可能領域の大きさは、移行ポイントを起点として第1の方向に延びる仮想直線の長さ(図4では、L1)によって規定される。
そして、第2の移動と判定する条件は、移動ポイントを起点とする指示体Sの軌道について、スクリーンSCの面に直交する方向の角度が第1の角度内であり、スクリーンSCの面に平行な方向の角度が第2の角度内であることを条件とする。条件を満たさない場合は、検出部33は、第2の移動と判定しない。例えば、図4(A)で破線によって示す指示体Sの軌道K3は、スクリーンSCの面に直交する方向の角度が第1の角度(θ1)を超えているため、検出部33は、軌道K3について第2の移動と判定しない。
すなわち、操作者が、オブジェクト画像を後述する態様で移動させる意思をもって意図的に行ったジェスチャーを、移動ジェスチャーとして判定するためである。すなわち、移動ジェスチャーとして判定されるジェスチャーは、上述した第1の移動と第2の移動が連続する偶発的に生じにくい動作であり、指示体Sの軌道が移動可能領域の範囲内の場合に、第2の移動と判定することにより、ユーザーの意図的に行ったジェスチャーを移動ジェスチャーとして判定できる。また、移動ジェスチャーとして判定されるジェスチャーは、物理的な紙媒体を所定方向に移動させるときに行う動作を連想させるものであり、ユーザーは、移動ジェスチャーとして判定させるためにおこなうべき作業をイメージしやすい。
ステップSA2において、検出部33は、第2の指示体80について、第1の指示体70と同様の方法で、移動ジェスチャーが行われたか否かを判別する。
すなわち、移動量調整部34は、第2の移動における指示体Sの第1の方向における長さである指示体移動距離を取得する。
ここで、移動量調整部34は、第2の移動による指示体Sの指示位置の軌跡の終点が、移動可能領域を超える場合、換言すれば、第2の移動による指示体Sの指示位置の軌跡の第1の方向における長さが、移動可能領域の第1の方向における長さを上回る場合、移動可能領域の第1の方向における長さを、指示体移動距離の値とする。
例えば、図4(A)において、軌道K2は、第2の移動における指示体Sの指示位置の軌道であり、軌道K2の終点T2は、移動可能領域を超える。この場合、移動量調整部34は、移動可能距離の第1の方向における長さL1を、指示体移動距離の値とする。
また例えば、図4(A)において、2点鎖線で示す軌道K4は、その終点T3が、移動可能領域の範囲内にある。この場合、移動量調整部34は、軌道K4の第1の方向H1における長さL2を、指示体移動距離の値とする。
ステップSA3において、移動量調整部34は、上述した座標系における軌道線に基づいて、指示体移動距離の値を算出する。
ここで、記憶部60の所定の記憶領域には、画像投射領域のサイズ(画像投射領域の上下方向の長さと、画像投射領域の左右方向の長さとの組み合わせ)ごとに、サイズと、移動量係数とを対応付けて記憶するテーブルが事前に記憶される。また、投射サイズ検出部32がキャリブレーション時に検出した画像投射領域のサイズを示す情報は、記憶部60の所定の記録領域に記憶される。ステップSA4において、移動量調整部34は、記憶部60に記憶された画像投射領域のサイズを取得し、上述したテーブルを参照し、当該テーブルにおいて、取得した画像投射領域のサイズと対応付けられた移動量係数を取得する。
なお、上述したテーブルにおいて、画像投射領域のサイズが大きければ大きいほど、画像投射領域のサイズと対応付けられた移動量係数の値は大きい。移動量係数の使用方法、及び、画像投射領域のサイズと移動量係数との値が正の相関関係にあることの理由は、後述する。
なお、移動量係数を取得する方法は、上述した方法に限られない。例えば、画像投射領域のサイズを利用して、移動量係数を算出するための所定の数式が事前に設定され、移動量調整部34は、当該数式を用いて移動量係数を算出してもよい。
ここで、1のオブジェクト画像について移動ジェスチャー(第1の操作)が行われた場合、後に説明する処理により、移動量調整部34が算出する移動量(第2の移動量)分、当該移動ジェスチャーに係る第1の方向へ向かって、当該1のオブジェクト画像が移動する。
すなわち、移動量とは、移動ジェスチャーが行われてオブジェクト画像の移動が行われた場合に、移動前のオブジェクト画像の位置と、移動後のオブジェクト画像の位置との離間距離のことである。図5(A)の例では、図5(A1)に示すオブジェクト画像G1の位置と、図5(A2)に示すオブジェクト画像G1の位置との離間距離が、移動量に相当する。
(式) 移動量 = 指示体移動距離×移動量係数
同一の態様の移動ジェスチャーとは、移動ジェスチャーのそれぞれについて、第1の移動における指示体Sの指示位置の軌跡の方向である第1の方向と、第2の移動における指示体Sの指示位置の軌跡の方向である第2の方向とが一致し、また、指示体移動距離が一致することを意味する。
ステップSA6の処理の結果、移動ジェスチャーに対応して、オブジェクト画像の位置が、画像投射領域のサイズに対応する移動量分、移動する。
この構成によれば、プロジェクター100は、画像投射量領域のサイズが一定でないことに対応して、移動ジェスチャーに基づいてオブジェクト画像の位置を移動させるときの移動量を、画像投射領域のサイズに対応した値とすることができる。
また、移動量調整部34は、画像投射領域のサイズが大きいほど、同様の指示体Sの操作が行われた場合におけるオブジェクト画像の移動量を大きくする。
この構成によれば、画像投射領域のサイズが大きいほど、同一の態様で移動ジェスチャーが行われたときのオブジェクト画像の移動量を大きくすることができ、操作者によるオブジェクト画像の移動が容易化する。
そして、移動量調整部34は、指示体SがスクリーンSCに非接触の状態へ移行した後の指示体Sの移動距離(指示体移動距離)に、画像投射領域のサイズに応じた係数(移動量係数)を乗じてオブジェクト画像の移動量を算出する。
この構成によれば、操作者が、オブジェクト画像を移動させる意思をもって意図的に行ったジェスチャーを、移動ジェスチャーとして判定できる。また、移動ジェスチャーとして判定されるジェスチャーは、物理的な紙媒体を所定方向に移動させるときに行う動作を連想させるものであり、ユーザーにとって、移動ジェスチャーとして判定させるためにおこなうべき作業をイメージしやすい。また、移動量調整部34は、移動量係数を用いて、移動量の値を、画像投射領域のサイズに応じた適切な値とすることができる。
この構成によれば、画像投射領域のサイズの検出について、ユーザーの作業が必要なく、ユーザーの利便性が向上する。
また、上記実施形態では、フロントプロジェクション型のプロジェクター100から画像が投射(表示)されるスクリーンSCに対して、ユーザーが第1の指示体70及び第2の指示体80による操作を行う態様について説明した。これ以外に、プロジェクター100以外の表示装置が表示する表示画面に対して指示操作を行う態様であってもよい。プロジェクター100以外の表示装置としては、リアプロジェクション(背面投射)型のプロジェクター、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイを用いることができる。また、表示装置としては、プラズマディスプレイ、CRT(陰極線管)ディスプレイ、SED(Surface-conduction Electron-emitter Display)等を用いることができる。
Claims (6)
- 投射面に第1のオブジェクトを含む投射画像を投射する投射部と、
前記投射画像が投射される領域のサイズを検出する投射サイズ検出部と、
前記投射面に対する指示体の操作を検出する検出部と、
前記検出部により検出した前記指示体の操作が、前記第1のオブジェクトを移動させる操作であった場合、前記投射画像が投射される領域のサイズに応じて、前記第1のオブジェクトの移動量を異ならせる移動量調整部と、
を備えることを特徴とするプロジェクター。 - 前記移動量調整部は、
前記投射画像が投射される領域のサイズが第1のサイズの場合に前記第1のオブジェクトを移動させる第1の操作が行われた時の前記第1のオブジェクトの第1の移動量と、前記投射画像が投射される領域のサイズが前記第1のサイズよりも大きい第2のサイズの場合に前記第1の操作が行われた時の前記第1のオブジェクトの第2の移動量とでは、前記第2の移動量を大きくすることを特徴とする請求項1に記載のプロジェクター。 - 前記移動量調整部は、
前記投射画像が投射される領域のサイズが大きいほど、同様の前記指示体の操作が行われた場合における前記第1のオブジェクトの移動量を大きくすることを特徴とする請求項2に記載のプロジェクター。 - 前記第1のオブジェクトを移動させる操作は、
前記指示体が前記投射面に接触して移動する状態から非接触で移動する状態へ連続して移行する操作であり、
前記移動量調整部は、
前記指示体が前記投射面に非接触の状態へ移行した後の前記指示体の移動距離に、前記投射画像が投射される領域のサイズに応じた係数を乗じて前記第1のオブジェクトの移動量を算出することを特徴とする請求項1乃至3のいずれか1項に記載のプロジェクター。 - 前記投射面を撮影する撮影部を備え、
前記投射サイズ検出部は、
前記投射部により前記投射面に特定のパターン画像を投射させ、前記パターン画像が投射された前記投射面を前記撮影部により撮影させ、前記撮影部による撮影結果に基づいて、前記投射画像が投射される領域のサイズを検出することを特徴とする請求項1乃至4のいずれか1項に記載のプロジェクター。 - 投射面に第1のオブジェクトを含む投射画像を投射する投射部を備えるプロジェクターの制御方法であって、
前記投射画像が投射される領域のサイズを検出し、
前記投射面に対する指示体の操作を検出し、
検出した前記指示体の操作が、前記第1のオブジェクトを移動させる操作であった場合、前記投射画像が投射される領域のサイズに応じて、前記第1のオブジェクトの移動量を異ならせる
ことを特徴とするプロジェクターの制御方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015068094A JP6665415B2 (ja) | 2015-03-30 | 2015-03-30 | プロジェクター、及び、プロジェクターの制御方法 |
PCT/JP2016/001602 WO2016157804A1 (ja) | 2015-03-30 | 2016-03-18 | プロジェクター、及び、プロジェクターの制御方法 |
US15/560,380 US20180075821A1 (en) | 2015-03-30 | 2016-03-18 | Projector and method of controlling projector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015068094A JP6665415B2 (ja) | 2015-03-30 | 2015-03-30 | プロジェクター、及び、プロジェクターの制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016188892A true JP2016188892A (ja) | 2016-11-04 |
JP2016188892A5 JP2016188892A5 (ja) | 2018-04-26 |
JP6665415B2 JP6665415B2 (ja) | 2020-03-13 |
Family
ID=57004905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015068094A Active JP6665415B2 (ja) | 2015-03-30 | 2015-03-30 | プロジェクター、及び、プロジェクターの制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20180075821A1 (ja) |
JP (1) | JP6665415B2 (ja) |
WO (1) | WO2016157804A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019078845A (ja) * | 2017-10-23 | 2019-05-23 | セイコーエプソン株式会社 | プロジェクターおよびプロジェクターの制御方法 |
JP2019219662A (ja) * | 2019-07-03 | 2019-12-26 | 三菱電機インフォメーションシステムズ株式会社 | データ入力装置、データ入力方法及びデータ入力プログラム |
WO2022044386A1 (ja) * | 2020-08-28 | 2022-03-03 | 富士フイルム株式会社 | 制御装置、制御方法、制御プログラム、及び投影システム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003280813A (ja) * | 2002-03-25 | 2003-10-02 | Ejikun Giken:Kk | ポインティングデバイス、ポインタ制御装置、ポインタ制御方法及びその方法を記録した記録媒体 |
JP2005148661A (ja) * | 2003-11-19 | 2005-06-09 | Sony Corp | 情報処理装置、および情報処理方法 |
WO2010032402A1 (ja) * | 2008-09-16 | 2010-03-25 | パナソニック株式会社 | データ表示装置、集積回路、データ表示方法、データ表示プログラム及び記録媒体 |
JP2012220678A (ja) * | 2011-04-07 | 2012-11-12 | Seiko Epson Corp | カーソル表示システム |
JP2014029656A (ja) * | 2012-06-27 | 2014-02-13 | Soka Univ | 画像処理装置および画像処理方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7692625B2 (en) * | 2000-07-05 | 2010-04-06 | Smart Technologies Ulc | Camera-based touch system |
US20070013873A9 (en) * | 2004-04-29 | 2007-01-18 | Jacobson Joseph M | Low cost portable computing device |
KR20080040930A (ko) * | 2006-11-06 | 2008-05-09 | 삼성전자주식회사 | 컴퓨터 시스템 및 그 제어방법 |
US8297757B2 (en) * | 2008-10-29 | 2012-10-30 | Seiko Epson Corporation | Projector and projector control method |
JP5488306B2 (ja) * | 2010-07-29 | 2014-05-14 | 船井電機株式会社 | プロジェクタ |
US20120044140A1 (en) * | 2010-08-19 | 2012-02-23 | Sanyo Electric Co., Ltd. | Information display system and program, and optical input system, projection-type images and display apparatus |
US20150160741A1 (en) * | 2012-06-20 | 2015-06-11 | 3M Innovative Properties Company | Device allowing tool-free interactivity with a projected image |
JP2014089522A (ja) * | 2012-10-29 | 2014-05-15 | Kyocera Corp | 電子機器及び制御プログラム並びに電子機器の動作方法 |
US10394434B2 (en) * | 2013-02-22 | 2019-08-27 | Samsung Electronics Co., Ltd. | Apparatus and method for recognizing proximity motion using sensors |
US9785243B2 (en) * | 2014-01-30 | 2017-10-10 | Honeywell International Inc. | System and method for providing an ergonomic three-dimensional, gesture based, multimodal interface for use in flight deck applications |
-
2015
- 2015-03-30 JP JP2015068094A patent/JP6665415B2/ja active Active
-
2016
- 2016-03-18 WO PCT/JP2016/001602 patent/WO2016157804A1/ja active Application Filing
- 2016-03-18 US US15/560,380 patent/US20180075821A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003280813A (ja) * | 2002-03-25 | 2003-10-02 | Ejikun Giken:Kk | ポインティングデバイス、ポインタ制御装置、ポインタ制御方法及びその方法を記録した記録媒体 |
JP2005148661A (ja) * | 2003-11-19 | 2005-06-09 | Sony Corp | 情報処理装置、および情報処理方法 |
WO2010032402A1 (ja) * | 2008-09-16 | 2010-03-25 | パナソニック株式会社 | データ表示装置、集積回路、データ表示方法、データ表示プログラム及び記録媒体 |
JP2012220678A (ja) * | 2011-04-07 | 2012-11-12 | Seiko Epson Corp | カーソル表示システム |
JP2014029656A (ja) * | 2012-06-27 | 2014-02-13 | Soka Univ | 画像処理装置および画像処理方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019078845A (ja) * | 2017-10-23 | 2019-05-23 | セイコーエプソン株式会社 | プロジェクターおよびプロジェクターの制御方法 |
JP2019219662A (ja) * | 2019-07-03 | 2019-12-26 | 三菱電機インフォメーションシステムズ株式会社 | データ入力装置、データ入力方法及びデータ入力プログラム |
WO2022044386A1 (ja) * | 2020-08-28 | 2022-03-03 | 富士フイルム株式会社 | 制御装置、制御方法、制御プログラム、及び投影システム |
Also Published As
Publication number | Publication date |
---|---|
US20180075821A1 (en) | 2018-03-15 |
WO2016157804A1 (ja) | 2016-10-06 |
JP6665415B2 (ja) | 2020-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6064319B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
US10228611B2 (en) | Projector, projection system, and control method of projector | |
JP6387644B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出方法 | |
JP6349838B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 | |
JP6326895B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 | |
WO2016157803A1 (ja) | 表示装置、表示装置の制御方法、書画カメラ、及び、書画カメラの制御方法 | |
US9870073B2 (en) | Position detection device, projector, and position detection method | |
JP6051828B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
EP2916201B1 (en) | Position detecting device and position detecting method | |
WO2016157804A1 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
JP6405836B2 (ja) | 位置検出装置、プロジェクター、及び、位置検出方法 | |
JP6269801B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
JP6806220B2 (ja) | 電子デバイス、及び電子デバイスの制御方法 | |
US20150279336A1 (en) | Bidirectional display method and bidirectional display device | |
JP6634904B2 (ja) | 電子デバイス、及び電子デバイスの制御方法 | |
JP6439398B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
JP6988985B2 (ja) | 電子デバイス、及び電子デバイスの制御方法 | |
JP6111682B2 (ja) | 表示装置、および、表示装置の制御方法 | |
JP6255810B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6056447B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6145963B2 (ja) | プロジェクター、表示システム、及びプロジェクターの制御方法 | |
JP6524741B2 (ja) | 位置検出装置、表示装置、位置検出装置の制御方法、及び、表示装置の制御方法 | |
JP2015166922A (ja) | 位置検出装置、及び、位置検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180314 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190823 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6665415 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |