JP6409517B2 - 表示装置、及び、表示装置の制御方法 - Google Patents

表示装置、及び、表示装置の制御方法 Download PDF

Info

Publication number
JP6409517B2
JP6409517B2 JP2014231010A JP2014231010A JP6409517B2 JP 6409517 B2 JP6409517 B2 JP 6409517B2 JP 2014231010 A JP2014231010 A JP 2014231010A JP 2014231010 A JP2014231010 A JP 2014231010A JP 6409517 B2 JP6409517 B2 JP 6409517B2
Authority
JP
Japan
Prior art keywords
indicator
unit
operator
detection unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014231010A
Other languages
English (en)
Other versions
JP2016095646A (ja
JP2016095646A5 (ja
Inventor
康弘 本田
康弘 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2014231010A priority Critical patent/JP6409517B2/ja
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to CN201580059745.8A priority patent/CN107077266B/zh
Priority to US15/522,426 priority patent/US10353479B2/en
Priority to PCT/JP2015/005540 priority patent/WO2016075905A1/ja
Priority to EP15859257.6A priority patent/EP3220248A4/en
Priority to TW104137068A priority patent/TW201617812A/zh
Publication of JP2016095646A publication Critical patent/JP2016095646A/ja
Publication of JP2016095646A5 publication Critical patent/JP2016095646A5/ja
Application granted granted Critical
Publication of JP6409517B2 publication Critical patent/JP6409517B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、表示装置、及び、表示装置の制御方法に関する。
従来、指示体による操作を検出して、検出した操作に対応した画像を表示する装置が提案されている(例えば、特許文献1参照)。特許文献1には、2種類の指示手段による操作が可能な装置が開示されている。
特開2014−102628号公報
また、従来、一旦、入力された操作を取り消したい場合に、入力された操作を無効にするアンドゥ操作というものがある。ところが、複数の指示体による操作が可能な表示装置において、アンドゥ操作が入力された場合に、常にアンドゥ操作の直前に入力された操作を取り消すことが、操作者の意図に沿っているとは限らない。その一方で、例えば、アンドゥ操作を行うごとに、どの操作を無効にするのかを指定する方法は手間がかかる。
本発明は上記事情に鑑みてなされたものであり、複数の指示体により操作を行う場合の操作性を向上させることが可能な表示装置、及び、表示装置の制御方法を提供することを目的とする。
上記目的を達成するために、本発明の表示装置は、第1の指示体による操作面に対する操作と、第2の指示体による前記操作面に対する操作とを検出する検出部と、操作を無効にする指示を受け付ける制御部と、を備え、前記制御部は、前記検出部が、前記第2の指示体による操作を検出し、その後、前記第1の指示体による操作を検出した後に、前記指示を受け付けた場合に、前記第2の指示体による前記操作を無効にすることを特徴とする。
本発明によれば、複数の指示体により操作を行う場合の操作性を向上させることが可能となる。
また、本発明は、上記表示装置において、前記制御部は、第1の処理と第2の処理とを切り替えて実行し、前記第1の処理は、前記検出部が、前記第2の指示体による操作を検出し、その後、前記第1の指示体による操作を検出した後に、前記指示を受け付けた場合に、前記第2の指示体による前記操作を無効にする処理であり、前記第2の処理は、前記検出部が、前記第2の指示体による操作を検出し、その後、前記第1の指示体による操作を検出した後に、前記指示を受け付けた場合に、前記第1の指示体による前記操作を無効にする処理であることを特徴とする。
本発明によれば、無効にする指示体の操作を選択することができる。
また、本発明は、上記表示装置において、前記検出部は、前記第1の指示体による操作を、前記第1の指示体を操作する操作者に対応付けて検出し、また、前記第2の指示体による操作を、前記第2の指示体を操作する操作者に対応付けて検出し、前記制御部は、前記検出部が、前記第2の指示体による第1の操作を検出し、その後、前記第1の指示体による操作を検出した後に、前記第2の指示体による第2の操作を検出し、前記第2の操作が前記指示を示す操作である場合に、前記第2の操作の操作者と前記第1の操作の操作者とが同一であると判定すると、前記第1の操作を無効にし、前記第2の操作の操作者と前記第1の操作の操作者とが同一ではないと判定すると、前記第1の操作を無効としないことを特徴とする。
本発明によれば、第2の操作の操作者と第1の操作の操作者とが同一であれば、第2の指示体による第1の操作を無効にすることができる。また、第2の指示体による第1の操作が他の操作者によって無効にされることを防止することができる。
また、本発明は、上記表示装置において、前記制御部は、前記検出部が前記第1の操作を検出してから予め設定された時間が経過するまでは、前記第2の操作の操作者と前記第1の操作の操作者とが同一である場合に、前記第1の操作を無効にし、前記予め設定された時間が経過した後に、前記検出部が検出した前記第2の指示体による第3の操作が、前記第1の操作を無効にする指示を示す操作である場合、前記第3の操作の操作者と前記第1の操作の操作者とが同一でなくても、前記第1の操作を無効にすることを特徴とする。
本発明によれば、予め設定された時間が経過するまでは、第1の操作が他の操作者によって無効にされることを防止することができる。また、予め設定された時間を経過した後は、第1の操作を行った操作者でなければ、第1の操作を無効にできない事態の発生を防止することができる。
また、本発明は、上記表示装置において、前記検出部が検出した前記第2の指示体による操作と、前記操作を行った操作者とを対応付けた操作履歴情報を記憶する記憶部を備え、前記制御部は、前記予め設定された時間が経過すると、前記操作履歴情報から、前記操作を行った操作者の情報を削除することを特徴とする。
本発明によれば、操作を行った操作者以外の操作者が、第2の指示体による操作を無効にする処理を、簡単な処理により実現することができる。
本発明の表示装置の制御方法は、第1の指示体による操作面に対する操作と、第2の指示体による前記操作面に対する操作とを検出するステップと、操作を無効にする指示を受け付けるステップと、を備え、前記第2の指示体による操作を検出し、その後、前記第1の指示体による操作を検出した後に、前記指示を受け付けた場合に、前記第2の指示体による前記操作を無効にすることを特徴とする。
本発明によれば、複数の指示体により操作を行う場合の操作性を向上させることが可能となる。
プロジェクターの外観及び使用状態を示す図。 プロジェクター及び第1の指示体の機能ブロック図。 操作履歴テーブルを示す図。 制御部の処理手順を示すフローチャート。 制御部の処理手順を示すフローチャート。 指示が行われた場合のプロジェクターの動作の説明図。
図1は、プロジェクター100の設置状態を示す図である。
プロジェクター100は、スクリーンSC(操作面)の直上又は斜め上方に設置され、斜め下方のスクリーンSCに向けて画像を投射する。スクリーンSCは、壁面に固定され、又は床面に立設された平板又は幕である。本発明は、この例に限定されず、壁面をスクリーンSCとして使用することも可能である。この場合、スクリーンSCとして使用される壁面の上部にプロジェクター100を取り付けるとよい。
プロジェクター100は、PC(パーソナルコンピューター)、ビデオ再生装置、DVD再生装置、Blu−ray(登録商標) Disc(ブルーレイディスク)再生装置等の画像供給装置に接続される。プロジェクター100は、画像供給装置から供給されるアナログ画像信号又はデジタル画像データに基づいて、スクリーンSCに画像を投射する。また、プロジェクター100は、内蔵する記憶部60(図2)や外部接続される記憶媒体に記憶された画像データを読み出して、この画像データに基づきスクリーンSCに画像を表示してもよい。
プロジェクター100は、スクリーンSCに対する操作者の操作を検出する。スクリーンSCに対する操作には、ペン型の第1の指示体70、又は操作者の手指である第2の指示体80が利用される。また、スクリーンSCに対する操作には、第1の指示体70又は第2の指示体80により、スクリーンSC上の一定の位置を指定(指示)する操作や、スクリーンSC上の異なる位置を連続して指示する操作が含まれる。スクリーンSC上の一定の位置を指定(指示)する操作は、第1の指示体70又は第2の指示体80を、スクリーンSC上の一定の位置に一定時間接触させる操作である。また、スクリーンSC上の異なる位置を連続して指示する操作とは、第1の指示体70又は第2の指示体80をスクリーンSCに接触させながら動かして、文字や図形等を描く操作である。また、第2の指示体80によるスクリーンSCに対する操作には、ジェスチャー(動き)が含まれる。ジェスチャーは、第2の指示体80をスクリーンSCに接触させることなく、空中で記号や文字を描く操作や、ピンチアウト、ピンチインなどの操作が含まれる。
プロジェクター100は、操作者が第1の指示体70又は第2の指示体80により行った操作を検出して、検出した操作をスクリーンSCの表示画像に反映させる。さらに、プロジェクター100は、指示位置を検出することによりポインティングデバイスとして動作し、スクリーンSC上の指示位置の座標を出力してもよい。また、この座標を用いて、プロジェクター100に対してGUI(Graphical User Interface)操作を行うこともできる。
図2は、プロジェクター100の構成を示す構成図である。
プロジェクター100は、外部の装置に接続されるインターフェイスとして、I/F(インターフェイス)部11及び画像I/F(インターフェイス)部12を備える。I/F部11及び画像I/F部12は、有線接続用のコネクターを備え、このコネクターに対応するインターフェイス回路を備えていてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェイスを備えていてもよい。有線接続用のコネクター及びインターフェイス回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェイスとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI(登録商標)インターフェイス等の画像データ用のインターフェイスを用いることもできる。画像I/F部12は、音声データが入力されるインターフェイスを備えてもよい。
I/F部11は、PC等の外部の装置との間で各種データを送受信するインターフェイスである。I/F部11は、画像の投射に関するデータ、プロジェクター100の動作を設定するデータ等を入出力する。後述する制御部30は、I/F部11を介して外部の装置とデータを送受信する機能を有する。
画像I/F部12は、デジタル画像データが入力されるインターフェイスである。本実施形態のプロジェクター100は、画像I/F部12を介して入力されるデジタル画像データに基づき画像を投射する。なお、プロジェクター100は、アナログ画像信号に基づき画像を投射する機能を備えていてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェイスと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
プロジェクター100は、光学的な画像の形成を行う投射部20を備える。投射部20は、光源部21、光変調装置22及び投射光学系23を有する。光源部21は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)又はレーザー光源等からなる光源を備える。また、光源部21は、光源が発した光を光変調装置22に導くリフレクター及び補助リフレクターを備えていてもよい。さらに、プロジェクター100は、投射光の光学特性を高めるためのレンズ群(図示略)、偏光板、又は光源が発した光の光量を光変調装置22に至る経路上で低減させる調光素子等を備えていてもよい。
光変調装置22は、例えばRGBの三原色に対応した3枚の透過型液晶パネルを備え、この液晶パネルを透過する光を変調して画像光を生成する。光源部21からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射される。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系23に射出される。
投射光学系23は、光変調装置22により変調された画像光をスクリーンSC方向へ導き、スクリーンSC上に結像させるレンズ群を備える。また、投射光学系23は、スクリーンSCの表示画像の拡大・縮小及び焦点の調整を行うズーム機構、フォーカスの調整を行うフォーカス調整機構を備えていてもよい。プロジェクター100が短焦点型である場合、投射光学系23に、画像光をスクリーンSCに向けて反射する凹面鏡を備えていてもよい。
投射部20は、制御部30の制御に従って光源部21を点灯させる光源駆動部45、及び制御部30の制御に従って光変調装置22を動作させる光変調装置駆動部46に接続される。光源駆動部45は、光源部21の点灯、消灯の切り替えを行い、光源部21の光量を調整する機能を有していてもよい。
プロジェクター100は、投射部20が投射する画像を処理する画像処理系を備える。この画像処理系は、プロジェクター100を制御する制御部30、記憶部60、操作検出部17、画像処理部40、光源駆動部45及び光変調装置駆動部46を含む。また、画像処理部40にはフレームメモリー41が接続され、制御部30には位置検出部50が接続される。これらの各部を画像処理系に含めてもよい。
制御部30は、所定の制御プログラム61を実行することによりプロジェクター100の各部を制御する。記憶部60は、制御部30が実行する制御プログラム61、操作履歴テーブル62、及び制御部30が処理するデータを不揮発的に記憶する。操作履歴テーブル62の詳細については後述する。
画像処理部40は、制御部30の制御に従って、画像I/F部12を介して入力される画像データを処理し、光変調装置駆動部46に画像信号を出力する。画像処理部40が実行する処理は、3D(立体)画像と2D(平面)画像の判別処理や、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等である。画像処理部40は、制御部30により指定された処理を実行し、必要に応じて、制御部30から入力されるパラメーターを使用して処理を行う。また、上記のうち複数の処理を組み合わせて実行することも勿論可能である。
画像処理部40は、フレームメモリー41に接続されている。画像処理部40は、画像入力I/F12から入力される画像データをフレームメモリー41に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー41から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
操作検出部17は、入力デバイスとして機能するリモコン受光部18及び操作パネル19に接続され、リモコン受光部18及び操作パネル19を介した操作を検出する。
リモコン受光部18は、プロジェクター100の操作者が使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター100の外装筐体に設けられ、各種スイッチ及びインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター100の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
位置検出部50は、第1の指示体70及び第2の指示体80の少なくともいずれかによる指示位置を検出する。位置検出部50は、撮影部51、送信部52、撮影制御部53、対象検出部54及び座標算出部55の各部を備える。
撮影部51は、スクリーンSCとその周辺部とを含む範囲を撮影範囲として撮影した撮影画像を形成する。撮影部51は、赤外光による撮影と、可視光による撮影とをそれぞれ実行できる。具体的には、赤外光を撮影する赤外用撮像素子、可視光を撮影する可視光用撮像素子、赤外用撮像素子のインターフェイス回路、及び可視光用撮像素子のインターフェイス回路を備えた構成とすることができる。また、1つの撮像素子により可視光と赤外光との撮影を行う構成であってもよい。また、例えば、撮影部51に、撮像素子に入射する光の一部を遮るフィルターを設け、撮像素子に赤外光を受光させる場合に、主に赤外領域の光を透過するフィルターを撮像素子の前に配置させてもよい。撮像素子には、CCD、CMOSのいずれを用いることも可能であり、また、他の素子を用いることもできる。
撮影部51の赤外光による撮影時の撮影方向および撮影範囲(画角)は、投射光学系23と同じ方向、又は略同じ方向を向き、投射光学系23がスクリーンSC上に画像を投射する範囲をカバーする。同様に、撮影部51の可視光による撮影時の撮影方向及び撮影範囲は、投射光学系23と同じ方向、又は略同じ方向を向き、投射光学系23がスクリーンSC上に画像を投射する範囲をカバーする。撮影部51は、赤外光で撮影した撮影画像のデータ、及び可視光で撮影した撮影画像のデータをそれぞれ出力する。
撮影制御部53は、制御部30の制御に従って撮影部51を制御し、撮影部51に撮影を実行させる。撮影制御部53は、撮影部51の撮影画像のデータを取得して、対象検出部54に出力する。撮影部51が可視光で撮影した撮影画像のデータには、スクリーンSC、スクリーンSCに表示された表示画像、及び撮影範囲内に存在する操作者が写る。また、撮影部51が赤外光で撮影する撮影画像のデータには、第1の指示体70が発する赤外光の像が写る。
送信部52は、撮影制御部53の制御に従って、第1の指示体70に対して赤外線信号を送信する。送信部52は、赤外LED等の光源を有し、この光源を撮影制御部53の制御に従って点灯及び消灯させる。
対象検出部54には、撮影制御部53から撮影画像のデータが入力される。対象検出部54は、入力される撮影画像のデータから、人物が写った人物領域を検出する。人物領域は、撮影画像において人物の像を含む領域である。対象検出部54による人物領域の検出は、一般的に知られた方法を用いることができる。例えば、対象検出部54は、入力された撮影画像のデータのエッジを検出して、人の形状にマッチする領域を人物領域として検出する。また、対象検出部54は、色情報(輝度、色度等)が所定時間内に変化する領域を検出して、検出した領域のサイズが所定値以上のものや、検出した領域の経時的な移動範囲が所定範囲内のものを人物領域として検出してもよい。
また、対象検出部54は、撮影画像のデータの人物領域から、操作者の手指の画像を検出して第2の指示体80を検出する。対象検出部54は、人物領域から、予め定めた手指の形状や特徴に近い領域を、第2の指示体80の領域として検出する。対象検出部54が検出する操作者の手指は、1本又は複数本の指、手全体、又は指を含む手の一部のいずれであってもよい。
また、対象検出部54は、検出した第2の指示体80の領域から手指の先端(指先)を特定し、特定した手指の先端の位置を指示位置として検出する。対象検出部54は、第2の指示体80の指示位置の座標を、撮影画像のデータにおける座標で算出する。
また、対象検出部54は、検出した第2の指示体80とスクリーンSCとの距離を検出する。対象検出部54は、検出した手指の先端と、スクリーンSCとの距離を撮影画像のデータに基づいて判定する。例えば、対象検出部54は、撮影画像のデータから指の画像と、指の影の画像とを検出して、検出した画像の間の距離に基づいて、手指の先端とスクリーンSCとの距離を求める。
また、対象検出部54は、撮影画像のデータから複数の人物領域を検出した場合には、各人物領域について、第2の指示体80の領域と、第2の指示体80の指示位置の座標とを検出し、検出した第2の指示体80とスクリーンSCとの距離を算出する。
対象検出部54は、第1の指示体70の指示位置の座標を検出する。対象検出部54は、撮影部51が赤外光により撮影した撮影画像のデータに写った赤外光の像を検出して、撮影画像のデータにおける、第1の指示体70の指示位置の座標を検出する。撮影部51の撮影画像のデータから第1の指示体70を特定する方法の詳細については後述する。
また、対象検出部54は、第1の指示体70の先端部71がスクリーンSCに接触しているか否かを判定して、先端部71がスクリーンSCに接触しているか否かを示すタッチ情報を生成する。第1の指示体70の先端部71がスクリーンSCに接触しているか否かの判定方法についても後述する。
また、対象検出部54は、複数の第1の指示体70が使用される場合に、複数の第1の指示体70が発する赤外光の像の各々の像を、異なる第1の指示体70の像として区別する。対象検出部54による複数の第1の指示体70が発する赤外光の像の区別の方法については後述する。座標算出部55は、第1の指示体70のそれぞれが指示する指示位置の座標に、各第1の指示体70を識別する識別情報を付与して制御部30に出力する。
座標算出部55は、指示位置の座標を、スクリーンSCの表示画像における指示位置の座標に変換する。対象検出部54が検出する第1の指示体70及び第2の指示体80の指示位置の座標は、撮影画像のデータにおける座標である。座標算出部55は、対象検出部54が検出した指示位置の座標から、キャリブレーションの結果に基づいて、スクリーンSCの表示画像上に仮想的に設けられた座標軸における指示位置の座標を算出する。撮影画像のデータにおける座標は、プロジェクター100とスクリーンSCとの距離、投射光学系23におけるズーム率、プロジェクター100の設置角度、撮影部51とスクリーンSCとの距離等の様々な要素の影響を受ける。座標算出部55は、事前に実施されるキャリブレーションの結果に基づき、撮影画像のデータにおける指示位置の座標から、スクリーンSCの表示画像における指示位置の座標を算出する。キャリブレーションでは、所定のパターン画像を投射部20からスクリーンSCに投射して、表示されたパターン画像を撮影部51で撮影する。撮影部51の撮影したパターン画像に基づいて、撮影画像のデータにおける座標と、スクリーンSCの表示画像上の座標との対応関係(座標変換パラメーター)が導かれる。
座標算出部55は、第2の指示体80により指示された指示位置の座標と、指示体情報と、距離情報と、人物領域の範囲情報と、撮影画像のデータとを制御部30に出力する。指示体情報は、指示位置の座標が第2の指示体80により指示された座標であることを示す情報である。距離情報は、第2の指示体80とスクリーンSCとの距離を示す情報である。人物領域の範囲情報は、対象検出部54が指示位置の座標の算出に使用した範囲情報である。
また、座標算出部55は、第1の指示体70により指示された指示位置の座標と、指示体情報と、タッチ情報と、識別情報とを制御部30に出力する。指示体情報は、指示位置の座標が第1の指示体70により指示された座標であることを示す情報である。タッチ情報は、第1の指示体70の先端部71がスクリーンSCに接触しているか否かを示す情報である。識別情報は、第1の指示体70が複数使用された場合に、各第1の指示体70を識別する情報である。座標算出部55は、第1の指示体70が1つだけ使用される場合にも、指示位置の座標、指示体情報及びタッチ情報に識別情報を付加して、制御部30に出力する。
第1の指示体70は、制御部73、送受信部74、操作スイッチ75及び電源部76を備え、これらの各部は軸部72(図1)に収容される。制御部73は、送受信部74及び操作スイッチ75に接続され、操作スイッチ75のオン/オフ状態を検出する。送受信部74は、赤外LED等の光源と、赤外光を受光する受光素子とを備え、制御部73の制御に従って光源を点灯及び消灯させるとともに、受光素子の受光状態を示す信号を制御部73に出力する。
電源部76は、電源として乾電池又は二次電池を有し、制御部73、送受信部74及び操作スイッチ75の各部に電力を供給する。第1の指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
ここで、位置検出部50と第1の指示体70との相互の通信により、撮影部51の撮影画像のデータから第1の指示体70の指示位置を特定する方法について説明する。
制御部30は、第1の指示体70による操作を検出する場合に、撮影制御部53を制御して、送信部52から同期用の信号を送信させる。すなわち、撮影制御部53は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。送信部52が周期的に発する赤外光が、位置検出部50と第1の指示体70とを同期させる同期信号として機能する。
一方、制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター100の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された第1の指示体70に固有の点灯パターンで送受信部74の光源を点灯(発光)させる。また、制御部73は、操作スイッチ75の操作状態に応じて、送受信部74の点灯パターンを切り替える。このため、プロジェクター100の対象検出部54は、複数の撮影画像のデータに基づいて、第1の指示体70の操作状態、すなわち先端部71がスクリーンSCに押しつけられているか否かを判定できる。
また、制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。つまり、送信部52は、第1の指示体70に対し、同期用の赤外線信号を周期的に送信し、第1の指示体70は、送信部52が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
撮影制御部53は、撮影部51による撮影タイミングを、第1の指示体70が点灯するタイミングに合わせる制御を行う。この撮影タイミングは、撮影制御部53が送信部52を点灯させるタイミングに基づいて決定される。対象検出部54は、撮影部51の撮影画像のデータに第1の指示体70の光の像が写っているか否かにより、第1の指示体70が点灯するパターンを特定できる。対象検出部54は、複数の撮影画像のデータに基づいて、第1の指示体70の先端部71がスクリーンSCに押しつけられているか否かを判定して、タッチ情報を生成する。
第1の指示体70の点灯パターンは、第1の指示体70の個体毎に固有のパターン、又は複数の第1の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。この場合、対象検出部54は、撮影画像のデータに複数の第1の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる第1の指示体70の像として区別できる。
制御部30は、記憶部60に記憶された制御プログラム61を読み出して実行することにより投射制御部31、人物検出部32、検出部33、無効判定部34、検出制御部35の機能を実現し、プロジェクター100の各部を制御する。
投射制御部31は、操作検出部17から入力される操作データに基づいて、操作者がリモコンを操作して行った操作内容を取得する。投射制御部31は、操作者が行った操作に応じて画像処理部40、光源駆動部45及び光変調装置駆動部46を制御し、スクリーンSCに画像を投射させる。
また、投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
人物検出部32は、位置検出部50から入力される撮影画像のデータ及び人物領域の範囲情報に基づいて、撮影画像の人物領域から、予め定めた顔の形状や特徴に近い領域を顔領域として検出する。人物検出部32は、検出した顔領域から特徴量を算出する。ここでは、特徴量とは、撮影画像に写る人物に固有の値である。人物検出部32は、例えば、人物の顔領域の大きさ、人物の顔領域が撮影画像中に占める割合、目と眉の間隔、両目の間隔、目の縦方向の長さ及び横方向の幅等を、予め設定された条件で計測して数値化し、特徴量を求める。また、人物検出部32は、鼻の縦方向の長さ及び横方向の幅、口の横方向の幅、目と鼻の間隔、鼻と口の間隔、眼鏡の有無等を、予め設定された条件で計測して数値化し、特徴量を求めてもよい。
また、人物検出部32は、撮影画像の人物領域から顔領域を除いた領域を人体領域とし、この人体領域から特徴量を算出する。人物検出部32は、人体領域から操作者の身体の部位、例えば、肩、手、足等を認識し、例えば、脚の長さ、腕の長さ、身長、体型等を、予め設定された条件で計測して数値化し、特徴量を求める。また、人物検出部32は、撮影画像のデータの人物領域から服の色や、髪の色を検出して、特徴量としてもよい。
また、人物検出部32は、撮影画像のデータと、撮影画像における人物領域の範囲情報とに基づいて、操作者の位置を示す位置情報を算出する。例えば、人物検出部32は、撮影画像の水平方向における、人物領域の中心座標を算出し、算出した中心座標を操作者の水平方向における位置情報とする。
また、撮影画像のデータには、スクリーンSCと、撮影範囲内に存在する操作者とが写る。人物検出部32は、撮影画像のデータから人物領域とスクリーンSCとを検出し、撮影画像の垂直方向における、人物領域の中心座標とスクリーンとの距離を算出する。人物検出部32は、スクリーンSCから人物領域の中心座標までの距離を、操作者の垂直方向における位置情報とする。
また、人物検出部32は、撮影画像に複数の人物が写っており、位置検出部50から、複数の人物領域の範囲情報が入力された場合には、各人物領域について、操作者の位置を特定する。
図3に、操作履歴テーブル62を示す。操作履歴テーブル62には、操作履歴情報が登録される。操作履歴情報には、操作者ID、位置情報、人物領域の範囲、特徴量、操作情報、軌跡データ、日時情報等が含まれる。
操作者IDは、操作者を識別するIDである。人物検出部32は、撮影画像から新たな操作者(位置情報及び特徴量)を検出すると、検出した操作者に操作者IDを付与して、位置情報、人物領域の範囲及び特徴量と共に操作履歴テーブル62に登録する。新たな操作者とは、操作履歴テーブル62に登録済みの操作者とは特徴量が異なる操作者である。操作情報、軌跡データ及び日時情報は、後述する検出部33により生成され、検出部33により操作履歴テーブル62に登録される情報である。これらの情報の詳細については後述する。
人物検出部32は、今回の撮影画像から検出した操作者の特徴量と、操作履歴テーブル62に登録された各操作者の特徴量とを比較して、検出した操作者が既に検出済みの操作者であるか否かを判定する。
人物検出部32は、今回の撮影画像から検出した操作者(以下、対象操作者という)の特徴量に一致する特徴量が操作履歴テーブル62に登録されている場合、対象操作者は、既に検出済みの操作者であると判定する。この場合、人物検出部32は、操作履歴テーブル62から特徴量が一致する操作者の位置情報を読み出して、読み出した位置情報と、今回の撮影画像から検出した位置情報とを比較する。人物検出部32は、対象操作者が前回の撮影画像から検出した位置から動いているか否かを判定する。位置情報に更新がある場合、人物検出部32は、操作履歴テーブル62の該当するセルに、今回の撮影画像から検出した位置情報及び人物領域の範囲情報を登録して更新する。
また、対象操作者の特徴量に一致する特徴量が操作履歴テーブル62に登録されていない場合、人物検出部32は、対象操作者が新たに検出された操作者であると判定する。
人物検出部32は、対象操作者に新たなID番号(操作者IDという)を付与し、位置情報、人物領域の範囲情報及び特徴量を操作履歴テーブル62に登録する。
検出部33は、メモリー(図示略)を備え、第1の指示体70の操作面に対する操作、及び第2の指示体80の操作面に対する操作を検出する。操作には、スクリーンSC上の一定の位置を指定(指示)する操作や、スクリーンSC上の異なる位置を連続して指示する操作、ジェスチャー操作等が含まれる。
無効判定部34は、処理モードとして第1モードと第2モードとを備える。無効判定部34は、第1モードに設定された場合、第1の処理を実行する。また、無効判定部34は、第2モードに設定された場合、第2の処理を実行する。無効判定部34は、第1モードと第2モードとを切り替えて実行する。すなわち、第1の処理と第2の処理とは同時には実行されない。無効判定部34は、すでに入力された操作を無効にする指示(以下、無効指示という)が検出部33により検出されると、処理モードに応じて無効にする操作を判定し、判定した操作を無効にする。
また、検出部33は、例えば、第2の指示体80としての操作者の手指を、左から右、又は右から左に1回又は複数回振るジェスチャーを検出した場合に、検出したジェスチャーを無効指示と判定する。なお、検出部33は、例えば、スクリーンSCに、第1の指示体70によりバツ印等の予め設定された記号を描画する操作を検出した場合にも、この操作を無効指示と判定してもよい。
無効判定部34は、検出部33により無効指示が検出されると、この無効指示を行った操作者の操作履歴情報を参照する。
無効判定部34は、無効指示を行った操作者の操作履歴情報として、第2の指示体80による操作(第1の操作)、第1の指示体70による操作、無効指示を示す操作(第2の操作)の順に操作が検出されているか否かを判定する。無効判定部34は、前述の順に、操作が検出されている場合、処理モードが第1モードであるか、第2モードであるかを判定し、処理モードが第1モードであるか第2モードであるかによって、次のように処理を変える。まず、無効判定部34は、前述した順に操作が検出されている場合、第1モードであれば、第1の処理として、第2の指示体80による操作を無効にする。次に、無効判定部34は、前述した順に操作が検出されている場合、処理モードが第2モードであれば、第2の処理として第1の指示体70による操作を無効にする。
また、無効判定部34は、第2の指示体80による操作と、第1の指示体70による操作とが検出される間に、他の操作者による操作が検出されても、第1の処理では、第2の指示体80による操作を無効にするようにしてもよい。また、無効判定部34は、第2の処理では、第1の指示体70による操作を無効にするようにしてもよい。また、第1の指示体70による操作と、無効指示を示す操作とが検出される間に、他の操作者による操作が検出された場合も、無効判定部34は、第1の処理では第2の指示体80による操作を無効にしてもよい。また、無効判定部34は、第2の処理では第1の指示体70による操作を無効にするようにしてもよい。具体的には、操作履歴情報として、第2の指示体80による操作(第1の操作)、第1の指示体70による操作、無効指示を示す操作(第2の操作)の順に操作が検出されている場合に、制御部30は、操作履歴情報から第2の操作の操作者と第1の操作の操作者が同一であると判定すると第1の操作を無効にし、第2の操作の操作者と第1の操作の操作者が同一ではないと判定すると第1の操作を無効とはしないようにしてもよい。
検出制御部35は、位置検出部50を制御して、第1の指示体70及び第2の指示体80による指示位置の検出を実行させる。
また、検出制御部35は、無効判定部34から入力されるコマンド等に基づいて、予め設定された処理を実行する。例えば、検出制御部35は、無効判定部34から入力される描画コマンドや、描画位置を指定する座標に基づいて、画像処理部40により図形を描画させ、描画した図形を画像I/F部12に入力される入力画像に重畳して投射させる処理を行う。また、検出制御部35は、取得した座標をI/F部11に接続されたPC等の外部の装置に出力してもよい。この場合、検出制御部35は、取得した座標を、I/F部11に接続された外部の装置のオペレーティングシステムにおいて、座標入力デバイスの入力として認識されるデータフォーマットに変換して出力してもよい。例えば、I/F部11にWindows(登録商標)オペレーティングシステムで動作するPCが接続された場合、オペレーティングシステムにおいてHID(Human Interface Device)の入力データとして処理されるデータを出力する。また、検出制御部35は、座標のデータとともに、第1の指示体70の指示位置であるか第2の指示体80の指示位置であるかを識別するデータ、及び操作スイッチ75の操作状態を示すデータを出力してもよい。
図4及び図5は、検出部33及び無効判定部34の処理手順を示すフローチャートである。
まず、検出部33は、位置検出部50及び人物検出部32からデータセットを入力する(ステップS1)。データセットは、第1データセットと第2データセットとを含む。第1データセットは、位置検出部50が検出した指示位置の座標が、第1の指示体70の指示位置の座標である場合に、検出部33に入力されるデータである。第1データセットには、指示位置の座標、指示体情報、タッチ情報及び識別情報が含まれる。また、第2データセットは、位置検出部50が検出した指示位置の座標が、第2の指示体80の指示位置の座標である場合に、検出部33に入力されるデータである。第2データセットには、位置検出部50から入力される指示位置の座標、指示体情報、距離情報及び人物領域の範囲情報と、人物検出部32から入力される操作者の位置情報と、人物領域の範囲情報とが含まれる。検出部33は、位置検出部50から入力される人物領域の範囲情報と、人物検出部32から入力される人物領域の範囲情報とに基づいて、指示位置の座標と、操作者の位置情報とを対応付ける。すなわち、検出部33は、人物領域の範囲情報が同一の指示位置の座標と、操作者の位置情報とを対応付ける。
次に、検出部33は、位置検出部50から入力されたデータセットをメモリーに記憶させて、第1の指示体70及び第2の指示体80の少なくともいずれかによる指示位置の軌跡を示す軌跡データを作成する(ステップS2)。
検出部33は、入力されたデータセットが第1データセットである場合、まず、タッチ情報により、第1の指示体70がスクリーンSCに接触しているか否かを判定する。検出部33は、タッチ情報により、第1の指示体70がスクリーンSCに接触していないと判定する場合、今回入力された第1データセットを、無効なデータとしてメモリーには記憶させない。
次に、検出部33は、第1データセットに含まれる識別情報を参照して、今回入力された第1データセットの識別情報と同一の識別情報を対応付けた指示位置の座標が、メモリーに既に記憶されているか否かを判定する。検出部33は、同一の識別情報に対応付けられた指示位置の座標がメモリーに記憶されている場合、このメモリーに記憶された指示位置の座標に対応付けて、今回入力された第1データセットの指示位置の座標をメモリーに記憶させる。すなわち、検出部33は、同一の第1の指示体70により指示された指示位置の座標を、メモリーに対応付けて記憶させる。
また、検出部33は、今回入力された第1データセットの識別情報と同一の識別情報を対応付けた指示位置の座標がメモリーに記憶されていない場合、今回入力された第1データセットの指示位置の座標を、他の指示位置の座標に対応付けることなく記憶させる。
また、検出部33は、入力されたデータセットが第2データセットである場合、まず、第2データセットに含まれる距離情報を参照する。検出部33は、距離情報に基づいて、今回入力された第2データセットが以下の2つのグループのうちのどのグループに属するかを判定する。第1グループは、スクリーンSCに接した第2の指示体80により指示位置を指示されたグループである。第2グループは、第2の指示体80がスクリーンSCには接しておらず、第2の指示体80とスクリーンSCとの距離が予め設定された距離以内にあるグループである。
検出部33は、今回入力された第2データセットに含まれる位置情報が示す操作者の位置と同一の位置、又は位置情報が示す操作者の位置から予め設定された距離以内にある位置情報に対応付けられた指示位置の座標が、メモリーに記憶されているかを判定する。すなわち、検出部33は、操作者の位置情報に基づいて、今回入力された指示位置の座標を指示した操作者が過去に指示した指示位置の座標がメモリーに記憶されているか否かを判定する。なお、対象となる指示位置の座標は、第2の指示体80により指示された指示位置の座標である。
検出部33は、同一の操作者により入力された指示位置の座標がメモリーに記憶されていると判定すると、今回入力された第2データセットの指示位置の座標と、メモリーに記憶済みの指示位置の座標とが同一グループに属しているか否かを判定する。検出部33は、同一のグループに属すると判定すると、記憶済みの指示位置の座標に対応付けて、今回入力された第2データセットの指示位置の座標をメモリーに記憶させる。また、検出部33は、同一のグループには属さないと判定すると、今回入力された第2データセットの指示位置の座標を、メモリーに記憶済みの他の指示位置の座標に対応付けることなく記憶させる。すなわち、検出部33は、同一の操作者により指示された指示位置の座標であっても、第2の指示体80がスクリーンSCに接している場合の指示位置と、第2の指示体80がスクリーンSCに接していない場合の指示位置とを区別してメモリーに記憶させる。
次に、検出部33は、作成した指示位置の軌跡データに基づいて、第1の指示体70及び第2の指示体80の少なくともいずれかによる操作を検出する(ステップS3)。検出部33が検出する第1の指示体70、第2の指示体80による操作には、例えば、指示位置に図形を描画したり文字や記号を配置したりする操作、指示位置の軌跡データに沿って図形を描画する操作、描画した図形や文字又は記号を消去する操作等が含まれる。検出部33は、第1の指示体70の指示位置の座標から作成された軌跡データを用いて、例えば、図形を描画する操作等を検出する。また、検出部33は、第1グループに分類された指示位置の座標、すなわち、スクリーンSCに接する第2の指示体80の指示位置の座標から作成された軌跡データを用いて、例えば、描画したり文字や記号を配置する操作等を検出する。
また、検出部33が検出する第2の指示体80による操作には、ジェスチャーが含まれる。ジェスチャーには、例えば、スクリーンSCの表示画像を拡大又は縮小させる操作や、一旦入力した操作を無効にする操作等が含まれる。検出部33は、第2グループに分類された指示位置の座標、すなわち、スクリーンSCに接していない第2の指示体80の指示位置の座標から作成された軌跡データを用いて、第2の指示体80によるジェスチャーを検出する。
検出部33は、第2の指示体80の指示位置の軌跡データと、記憶部60のジェスチャーパターン辞書に登録されたジェスチャーの動作パターンとを比較して、ジェスチャーを検出する。検出部33は、第2の指示体80の指示位置の軌跡データから、第2の指示体80の動作特徴(例えば、動きベクトル)を抽出する。そして、検出部33は、抽出した第2の指示体80の動作特徴を、ジェスチャーパターン辞書に登録されているジェスチャーの動作パターンと比較してジェスチャーを検出する。
検出部33は、第1の指示体70及び第2の指示体80による操作を検出できない場合(ステップS3/NO)、ステップS1の処理に戻る。また、検出部33は、第1の指示体70による操作を検出した場合(ステップS3/YES)、検出した操作の内容を示す操作情報と、操作の検出に使用した軌跡データとを操作履歴テーブル62に登録する(ステップS4)。また、検出部33は、第2の指示体80による操作を検出した場合(ステップS3/YES)、検出した操作の内容を示す操作情報と、操作の検出に使用した軌跡データとを操作履歴テーブル62に登録する(ステップS4)。この際、検出部33は、操作履歴テーブル62に登録された人物領域の範囲情報を参照して、操作情報及び軌跡データを対応付ける操作者IDを判定する。例えば、検出部33は、軌跡データの示す座標がどの人物領域に含まれるか、又はどの人物領域に最も近いかに基づいて、操作情報及び軌跡データを対応付ける操作者IDを判定する。操作情報には、第1の指示体70による操作であるのか、第2の指示体80による操作であるのかを示す指示体情報も含まれる。また、検出部33は、操作情報及び軌跡データを操作履歴テーブル62に登録した日時を日時情報として操作履歴テーブル62に登録する。
また、検出部33は、第2の指示体80の操作としてジェスチャーを検出した場合には、ジェスチャーの内容を示す操作情報と、軌跡データとを操作履歴テーブル62に登録する。この際、検出部33は、軌跡データの示す座標がどの人物領域に含まれるか、又はどの人物領域に最も近いかに基づいて、操作情報及び軌跡データを対応付ける操作者IDを判定する。また、検出部33は、操作情報及び軌跡データを登録した日時を日時情報として操作履歴テーブル62に登録する。
また、検出部33は、操作履歴テーブル62に操作情報、軌跡データ及び日時情報が登録されてから予め設定された時間を経過すると、これらの情報に対応付けられた操作者に関する情報を操作履歴テーブル62から削除する。操作者に関する情報には、操作者ID、位置情報、人物領域及び特徴量の情報が含まれる。
次に、検出部33は、軌跡データに基づいて無効指示を検出したか否かを判定する(ステップS5)。検出した操作が無効判定ではない場合(ステップS5/NO)、検出部33は、検出した操作に応じた処理の実行を指示するコマンドを検出制御部35に出力する(ステップS12)。また、検出部33は、検出した操作が無効指示である場合(ステップS5/YES)、無効指示を検出した旨と、操作を検出した操作者の操作者IDとを無効判定部34に通知する。
無効判定部34は、無効指示を検出した旨の通知を検出部33から入力すると、操作履歴テーブル62から、この通知と共に入力された操作者IDの示す操作者の操作履歴情報を取得する(ステップS6)。無効判定部34は、操作者IDの示す操作者の操作履歴情報のうち、無効指示の1つ前に入力された操作履歴情報と、無効指示の2つ前に入力された操作履歴情報とを取得する。
次に、無効判定部34は、取得した操作履歴情報に基づいて、無効条件が成立するか否かを判定する(ステップS7)。無効判定部34は、第2の指示体80による操作、第1の指示体70による操作、無効指示の順に操作が検出され、これらの操作が同一の操作者により入力されている場合に、無効条件が成立していると判定する。無効判定部34は、ステップS7の判定が肯定判定である場合(ステップS7/YES)、現在の処理モードが第1のモードであるか否かを判定する(ステップS8)。肯定判定の場合(ステップS8/YES)、無効判定部34は、第2の指示体80による操作を、無効にする操作に選択する(ステップS9)。第1のモードでは、ペン等の第1の指示体70による操作と、操作者の手指である第2の指示体80による操作では、第1の指示体70による操作が正しい可能性が高いと判定して、第2の指示体80による操作を、無効にする操作に選択する。例えば、第2の指示体80である操作者の手指の動きが誤検出され、操作者が、第2の指示体80による操作が入力されたことに気付かずに第1の指示体70による操作を入力してしまった場合に、無効指示により第2の指示体80の操作を無効にすることができる。また、操作者の手指の動きを誤検出してしまう場合とは、例えば、操作者が気付かないうちに手指をスクリーンSCに接触させてしまった場合や、他の操作者との会話中に行ったジェスチャーを、スクリーンSCに対する操作として誤検出してしまう場合である。
図6は、指示が行われた場合のプロジェクター100の動作の説明図である。図6(A)〜図6(E)は、指示が行われた場合のスクリーンSCの表示状態を示す。第1の指示体70及び第2の指示体80による操作と、無効指示とに応じて、プロジェクター100は、スクリーンSCの表示状態を図6に示す矢印の通りに遷移させる。
図6に、スクリーンSCと、このスクリーンSCに描画された文字とを示す。図6(A)には、「特許12345」、「特許67890」、「特許ABCDE」の文字が、スクリーンSCに3行で描画された状態を示す。図6(B)には、図6(A)に示す状態から、1行目の「特許12345」の文字が削除された状態を示す。この「特許12345」の文字は、第2の指示体80による操作により誤って削除されたとする。例えば、他の操作者との会話中に行ったジェスチャーを、プロジェクター100が、スクリーンSCに対する操作として誤検出してしまった場合である。図6(C)は、操作者が、第2の指示体80による誤った操作に気付かずに、「特許ABCDE」の文字の下に、「特許EFGHIJ」の文字を入力し、「特許EFGHIJ」の文字がスクリーンSCに描画された状態を示す。「特許EFGHIJ」の文字を入力した後に、操作者が1行目に描画した「特許12345」の文字を誤って削除してしまったことに気がつき、直前の操作を無効にするアンドゥ操作を行った場合、「特許EFGHIJ」が消去されてしまう。図6(D)には、アンドゥ操作によってスクリーンSCの表示から「特許EFGHIJ」が消去された状態を示す。
図6(E)には、図6(C)に示す、誤った操作に気付かずに特許「ABCDE」の文字の下に、「特許EFGHIJ」の文字を入力した後に、本実施形態の第1モードでの無効指示がプロジェクター100に入力された場合のスクリーンSCの表示状態を示す。
無効判定部34は、第2の指示体80により「特許12345」の文字を削除する操作が検出され、その後に、第1の指示体70により「特許EFGHIJ」の文字を入力する操作を検出した後に、無効指示を受け付けた場合、無効条件に該当すると判定する。この場合、無効判定部34は、第2の指示体80による操作である「特許12345」の文字を削除する操作を無効にする対象に選択する。
また、ステップS8の判定が否定判定である場合(ステップS8/NO)、無効判定部34は、処理モードが第2のモードであると判定し、第1の指示体70による操作を、無効にする操作に選択する(ステップS10)。無効判定部34は、無効にする操作を選択すると、選択した操作を無効にするコマンドを出力する(ステップS11)。例えば、無効にする操作が、スクリーンSCに描画された図形を消去する操作である場合、無効判定部34は、消去された図形を描画する描画コマンドと、図形の描画位置を示す座標情報とを検出制御部35に出力する。検出制御部35は、無効判定部34の指示に従い、画像処理部40に図形の描画を指示する。画像処理部40は、フレームメモリー41に展開された画像データに指示された図形を重畳させる。また、無効にする操作が、スクリーンSCに図形を描画する操作である場合、無効判定部34は、描画された図形を消去する消去コマンドと、消去する図形の位置を示す位置情報とを検出制御部35に出力する。検出制御部35は、無効判定部34の指示に従い、画像処理部40に図形の消去を指示する。画像処理部40は、検出制御部35の指示に従って、フレームメモリー41に展開された画像データの該当の指示位置に重畳された図形を消去する。
また、ステップS7の判定が否定判定の場合(ステップS7/NO)、無効判定部34は、検出した操作(第3の操作)がスクリーンSCに描画された図形、文字又は記号(以下、図形等という)を指定した無効指示であるか否かを判定する(ステップS13)。例えば、スクリーンSCに描画された図形上に、バツ印等の予め設定された記号を描画する操作が検出された場合、無効判定部34は、図形等を指定した無効指示であると判定する。図形等を指定した無効指示であると判定すると(ステップS13/YES)、無効判定部34は、操作履歴テーブル62の軌跡データを参照する。無効判定部34は、操作履歴テーブル62の軌跡データを参照して、軌跡データに、消去指示により指定された図形等の描画位置が含まれる操作履歴情報を、対応する操作履歴情報として検出する(ステップS15)。対応する操作履歴情報とは、すなわち、無効指示により無効にされる図形等を描画した操作の情報である。次に、無効判定部34は、操作履歴テーブル62を参照して、操作履歴情報に、操作者に関する情報が対応付けられているか否かを判定する(ステップS16)。操作者に関する情報が対応付けられていない場合(ステップS16/NO)、無効判定部34は、指定された図形等を無効にするコマンドと、無効にする図形の位置を示す位置情報とを検出制御部35に出力する(ステップS17)。操作者に関する情報が対応付けられていない場合とは、例えば、操作履歴テーブル62に操作情報、軌跡データ及び日時情報が登録されてから予め設定された時間を経過してしまい、これらの情報に対応付けられた操作者に関する情報が操作履歴テーブル62から削除された場合等が含まれる。検出制御部35は、無効判定部34の指示に従い、画像処理部40に図形等を無効にする指示を出す。画像処理部40は、検出制御部35の指示に従って、フレームメモリー41に展開された画像データの該当の指示位置に重畳された図形等を消去する。
また、操作者に関する情報が対応付けられている場合(ステップS16/YES)、無効判定部34は、ステップS15で操作履歴情報を検出した操作の操作者と、ステップS13の無効指示の操作者とが同一の操作者であるか否かを判定する(ステップS18)。同一の操作者ではない場合(ステップS18/NO)、無効判定部34は、無効指示を入力しない(ステップS19)。すなわち、無効指示により指定された図形等は、スクリーンSCに表示された状態を維持する。また、操作者が同一である場合(ステップS18/YES)、無効判定部34は、図形等を無効にするコマンドと、消去する図形の位置を示す位置情報とを検出制御部35に出力する(ステップS17)。また、無効判定部34は、ステップS13の指示が、図形等を指定した無効指示ではない場合(ステップS13/NO)、操作に応じた処理の実行を指示するコマンドを検出制御部35に出力する(ステップS14)。
なお、上述したステップS2において、検出部33は、タッチ情報により第1の指示体70がスクリーンSCに接していると判定した場合、入力された第1データセットに含まれる指示位置の座標を操作として検出してもよい。この場合、検出部33は、指示位置の座標に、描画コマンドを付与して検出制御部35に出力してもよい。検出制御部35は、指示位置の座標に基づいて、画像処理部40に、フレームメモリー41に展開された画像データの該当の指示位置に文字や図形を描画させる。また、第2の指示体80の指示位置の座標のうち、第1グループに属する指示位置の座標についても同様である。
以上説明したように、本実施形態のプロジェクター100は、検出部33と、無効判定部34とを備える。検出部33は、第1の指示体70によるスクリーンSCに対する操作と、第2の指示体80によるスクリーンSCに対する操作とを検出する。無効判定部34は、操作を無効にする指示を受け付ける。無効判定部34は、検出部33が、第2の指示体80による操作を検出し、その後、第1の指示体70による操作を検出した後に、指示を受け付けた場合に、第2の指示体80による操作を無効にする。従って、複数の指示体(第1の指示体70及び第2の指示体80)により操作を行う場合の操作性を向上させることができる。
また、無効判定部34は、第1の処理と第2の処理とを切り替えて実行する。第1の処理は、検出部33が、第2の指示体80による操作を検出し、その後、第1の指示体70による操作を検出した後に、指示を受け付けた場合に、第2の指示体80による操作を無効にする処理である。また、第2の処理は、検出部33が、第2の指示体80による操作を検出し、その後、第1の指示体70による操作を検出した後に、指示を受け付けた場合に、第1の指示体70による操作を無効にする処理である。従って、無効にする指示体(第1の指示体70及び第2の指示体80)の操作を選択することができる。
また、検出部33は、第1の指示体70による操作を、第1の指示体70を操作する操作者に対応付けて検出し、また、第2の指示体80による操作を、第2の指示体80を操作する操作者に対応付けて検出する。無効判定部34は、検出部33が、第2の指示体80による第1の操作を検出し、その後、第1の指示体70による操作を検出した後に、第2の指示体80による第2の操作を検出し、第2の操作が指示を示す操作である場合に、第2の操作の操作者と第1の操作の操作者とが同一であると判定すると、第1の操作を無効にする。また、無効判定部34は、第2の操作の操作者と第1の操作の操作者とが同一ではないと判定すると、第1の操作を無効としない。従って、第2の操作の操作者と第1の操作の操作者とが同一であれば、第2の指示体80による第1の操作を無効にすることができる。また、第2の指示体80による第1の操作が他の操作者によって無効にされることを防止することができる。
また、無効判定部34は、検出部33が第1の操作を検出してから予め設定された時間が経過するまでは、第2の操作の操作者と第1の操作の操作者とが同一である場合に、第1の操作を無効にする。無効判定部34は、予め設定された時間が経過した後に、検出部33が検出した第2の指示体80による第3の操作が、第1の操作を無効にする指示を示す操作である場合、第3の操作の操作者と第1の操作の操作者とが同一でなくても、第1の操作を無効にする。従って、予め設定された時間が経過するまでは、第1の操作が他の操作者によって無効にされることを防止することができる。また、予め設定された時間を経過した後は、第1の操作を行った操作者でなければ、第1の操作を無効にできない事態の発生を防止することができる。
また、検出部33が検出した第2の指示体80による操作と、操作を行った操作者とを対応付けた操作履歴情報を記憶する記憶部60を備え、制御部140は、予め設定された時間が経過すると、操作履歴情報から、前記操作を行った操作者の情報を削除する。従って、操作を行った操作者以外の操作者が、第2の指示体80による操作を無効にする処理を、簡単な処理により実現することができる。
なお、上述した実施形態及び変形例は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、異なる態様として本発明を適用することも可能である。例えば、第1の指示体70はペン型の指示体に限らず、第2の指示体80は操作者の手指に限らない。例えば、第1の指示体70として、レーザーポインターや指示棒等を用いてもよく、その形状やサイズは限定されない。
また、図3には、操作履歴情報を登録した操作履歴テーブル62を示したが、操作履歴情報は、操作者IDに、位置情報や、特徴量、操作情報、軌跡データ、日時情報が対応付けられている形式であればよい。
また、上記実施形態では、位置検出部50は、撮影部51によりスクリーンSCを撮影して第1の指示体70及び第2の指示体80の位置を特定するものとしたが、本発明はこれに限定されない。例えば、撮影部51は、プロジェクター100の本体に設けられ、投射光学系23の投射方向を撮影するものに限定されない。撮影部51をプロジェクター100本体とは別体とした構成とし、撮影部51がスクリーンSCの側方や正面から撮影を行うものとしてもよい。
また、上記実施形態では、フロントプロジェクション型のプロジェクター100から画像が投射(表示)されるスクリーンSCに対して、ユーザーが第1の指示体70及び第2の指示体80による操作を行う態様について説明した。これ以外に、プロジェクター100以外の表示装置が表示する表示画面に対して指示操作を行う態様であってもよい。プロジェクター100以外の表示装置としては、リアプロジェクション(背面投射)型のプロジェクター、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイを用いることができる。また、表示装置としては、プラズマディスプレイ、CRT(陰極線管)ディスプレイ、SED(Surface-conduction Electron-emitter Display)等を用いることができる。
また、上記実施形態では、プロジェクター100から第1の指示体70に対し、送信部52が発する赤外線信号を用いて第1の指示体70に同期用の信号を送信する構成を説明したが、同期用の信号は赤外線信号に限定されない。例えば、電波通信や超音波無線通信により同期用の信号を送信する構成としてもよい。この構成は、電波通信や超音波無線通信により信号を送信する送信部52をプロジェクター100に設け、同様の受信部を第1の指示体70に設けることで実現できる。
また、上述した実施形態では、第1の指示体70の先端部71がスクリーンSCに押しつけられているか否かを、送受信部74の点灯パターンに基づいて判定する例を説明したが、本発明はこれに限定されない。例えば、第1の指示体70の先端部71がスクリーンSCに押しつけられているか否かを、第2の指示体80と同様に、撮影画像のデータから第1の指示体70の画像と、第1の指示体70の影の画像とを検出することで、判定してもよい。
また、上記実施形態では、光源が発した光を変調する光変調装置22として、RGBの各色に対応した3枚の透過型の液晶パネルを用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、3枚の反射型液晶パネルを用いた構成としてもよいし、1枚の液晶パネルとカラーホイールを組み合わせた方式を用いてもよい。また、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせたDMD方式等により構成してもよい。光変調装置として1枚のみの液晶パネル又はDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル及びDMD以外にも、光源が発した光を変調可能な光変調装置であれば問題なく採用できる。
また、図2に示したプロジェクター100の各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクター100の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
20…投射部、21…光源部、22…光変調装置、23…投射光学系、30…制御部、31…投射制御部、32…人物検出部、33…検出部、34…無効判定部(制御部)、35…検出制御部、40…画像処理部、50…位置検出部、51…撮影部、52…送信部、53…撮影制御部、54…対象検出部、55…座標算出部、60…記憶部、70…第1の指示体、80…第2の指示体、100…プロジェクター(表示装置)、SC…スクリーン(操作面)。

Claims (6)

  1. 第1の指示体による操作面に対する操作と、第2の指示体による前記操作面に対する操作とを検出する検出部と、
    操作を無効にする指示を受け付ける制御部と、を備え、
    前記制御部は、前記検出部が、前記第2の指示体による操作を検出し、その後、前記第1の指示体による操作を検出した後に、前記指示を受け付けた場合に、前記第2の指示体による前記操作を無効にすること、を特徴とする表示装置。
  2. 前記制御部は、第1の処理と第2の処理とを切り替えて実行し、
    前記第1の処理は、前記検出部が、前記第2の指示体による操作を検出し、その後、前記第1の指示体による操作を検出した後に、前記指示を受け付けた場合に、前記第2の指示体による前記操作を無効にする処理であり、
    前記第2の処理は、前記検出部が、前記第2の指示体による操作を検出し、その後、前記第1の指示体による操作を検出した後に、前記指示を受け付けた場合に、前記第1の指示体による前記操作を無効にする処理であること、を特徴とする請求項1記載の表示装置。
  3. 前記検出部は、前記第1の指示体による操作を、前記第1の指示体を操作する操作者に対応付けて検出し、また、前記第2の指示体による操作を、前記第2の指示体を操作する操作者に対応付けて検出し、
    前記制御部は、前記検出部が、前記第2の指示体による第1の操作を検出し、その後、前記第1の指示体による操作を検出した後に、前記第2の指示体による第2の操作を検出し、前記第2の操作が前記指示を示す操作である場合に、
    前記第2の操作の操作者と前記第1の操作の操作者とが同一であると判定すると、前記第1の操作を無効にし、
    前記第2の操作の操作者と前記第1の操作の操作者とが同一ではないと判定すると、前記第1の操作を無効としない、
    ことを特徴とする請求項1又は2記載の表示装置。
  4. 前記制御部は、前記検出部が前記第1の操作を検出してから予め設定された時間が経過するまでは、前記第2の操作の操作者と前記第1の操作の操作者とが同一である場合に、前記第1の操作を無効にし、
    前記予め設定された時間が経過した後に、前記検出部が検出した前記第2の指示体による第3の操作が、前記第1の操作を無効にする指示を示す操作である場合、前記第3の操作の操作者と前記第1の操作の操作者とが同一でなくても、前記第1の操作を無効にすること、を特徴とする請求項3記載の表示装置。
  5. 前記検出部が検出した前記第2の指示体による操作と、前記操作を行った操作者とを対応付けた操作履歴情報を記憶する記憶部を備え、
    前記制御部は、前記予め設定された時間が経過すると、前記操作履歴情報から、前記操作を行った操作者の情報を削除すること、を特徴とする請求項4記載の表示装置。
  6. 第1の指示体による操作面に対する操作と、第2の指示体による前記操作面に対する操作とを検出するステップと、
    操作を無効にする指示を受け付けるステップと、を備え、
    前記第2の指示体による操作を検出し、その後、前記第1の指示体による操作を検出した後に、前記指示を受け付けた場合に、前記第2の指示体による前記操作を無効にすること、を特徴とする表示装置の制御方法。
JP2014231010A 2014-11-13 2014-11-13 表示装置、及び、表示装置の制御方法 Expired - Fee Related JP6409517B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2014231010A JP6409517B2 (ja) 2014-11-13 2014-11-13 表示装置、及び、表示装置の制御方法
US15/522,426 US10353479B2 (en) 2014-11-13 2015-11-05 Display apparatus and display apparatus control method
PCT/JP2015/005540 WO2016075905A1 (ja) 2014-11-13 2015-11-05 表示装置、及び、表示装置の制御方法
EP15859257.6A EP3220248A4 (en) 2014-11-13 2015-11-05 Display device, and method of controlling display device
CN201580059745.8A CN107077266B (zh) 2014-11-13 2015-11-05 显示装置和显示装置的控制方法
TW104137068A TW201617812A (zh) 2014-11-13 2015-11-10 顯示裝置及顯示裝置之控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014231010A JP6409517B2 (ja) 2014-11-13 2014-11-13 表示装置、及び、表示装置の制御方法

Publications (3)

Publication Number Publication Date
JP2016095646A JP2016095646A (ja) 2016-05-26
JP2016095646A5 JP2016095646A5 (ja) 2017-12-14
JP6409517B2 true JP6409517B2 (ja) 2018-10-24

Family

ID=55954009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014231010A Expired - Fee Related JP6409517B2 (ja) 2014-11-13 2014-11-13 表示装置、及び、表示装置の制御方法

Country Status (6)

Country Link
US (1) US10353479B2 (ja)
EP (1) EP3220248A4 (ja)
JP (1) JP6409517B2 (ja)
CN (1) CN107077266B (ja)
TW (1) TW201617812A (ja)
WO (1) WO2016075905A1 (ja)

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3758866B2 (ja) 1998-12-01 2006-03-22 富士ゼロックス株式会社 座標入力装置
JP5372000B2 (ja) 2007-10-11 2013-12-18 エヌ−トリグ リミテッド デジタイザのためのジェスチャ検出
JP4851547B2 (ja) 2009-01-27 2012-01-11 株式会社エヌ・ティ・ティ・ドコモ モード設定システム
US20120293555A1 (en) * 2010-01-15 2012-11-22 Akihiro Okano Information-processing device, method thereof and display device
JP5024397B2 (ja) * 2010-01-29 2012-09-12 ブラザー工業株式会社 入力装置及び入力制御プログラム
GB2486445B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction apparatus system and method
US9244545B2 (en) * 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
CN102707861B (zh) * 2011-03-28 2014-09-03 联想(北京)有限公司 电子设备及其显示方法
JP5350437B2 (ja) 2011-06-27 2013-11-27 シャープ株式会社 タッチセンサシステム
TWI524224B (zh) 2011-06-22 2016-03-01 夏普股份有限公司 觸控面板系統及電子機器
EP2853986B1 (en) * 2012-05-22 2020-09-23 Sony Corporation Image processing device, image processing method, and program
CN103809867A (zh) * 2012-11-13 2014-05-21 联想(北京)有限公司 一种控制方法、装置及电子设备
JP6003566B2 (ja) * 2012-11-19 2016-10-05 コニカミノルタ株式会社 オブジェクト操作装置及びオブジェクト操作制御プログラム
KR102202899B1 (ko) * 2013-09-02 2021-01-14 삼성전자 주식회사 복수의 어플리케이션 제공 방법 및 장치

Also Published As

Publication number Publication date
US20170315619A1 (en) 2017-11-02
EP3220248A4 (en) 2018-07-04
CN107077266A (zh) 2017-08-18
US10353479B2 (en) 2019-07-16
JP2016095646A (ja) 2016-05-26
WO2016075905A1 (ja) 2016-05-19
EP3220248A1 (en) 2017-09-20
TW201617812A (zh) 2016-05-16
CN107077266B (zh) 2020-08-28

Similar Documents

Publication Publication Date Title
JP6398248B2 (ja) 位置検出システム、及び、位置検出システムの制御方法
US9992466B2 (en) Projector with calibration using a plurality of images
US20140168168A1 (en) Display device, and method of controlling display device
US9830023B2 (en) Image display apparatus and method of controlling image display apparatus
CN105468210B (zh) 位置检测装置、投影仪以及位置检测方法
JP2013140533A (ja) 表示装置、プロジェクター、表示システム及びデバイスの切替方法
JP6562124B2 (ja) 位置検出システム、及び、位置検出システムの制御方法
CN105468139B (zh) 位置检测装置、投影仪以及位置检测方法
CN108279774B (zh) 区域标定的方法、装置、智能设备、系统及存储介质
JP6439398B2 (ja) プロジェクター、及び、プロジェクターの制御方法
US20150279336A1 (en) Bidirectional display method and bidirectional display device
JP6665415B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP2019061513A (ja) 位置検出装置、位置検出システム及び位置検出装置の制御方法
JP6409517B2 (ja) 表示装置、及び、表示装置の制御方法
US10078378B2 (en) Position detection device, display device, method of controlling position detection device, and method controlling display device for discriminating a pointing element
JP6255810B2 (ja) 表示装置、及び、表示装置の制御方法
JP2014120023A (ja) 表示装置、位置検出装置、及び、表示装置の制御方法
JP2015219547A (ja) 機器制御システム、機器制御プログラムおよび機器制御装置
JP2016186693A (ja) 表示装置、及び、表示装置の制御方法
JP2015219546A (ja) 機器制御システム、機器制御プログラムおよび機器制御装置
JP2015219548A (ja) 機器制御システム、機器制御プログラムおよび機器制御装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180910

R150 Certificate of patent or registration of utility model

Ref document number: 6409517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees