JP6844159B2 - 表示装置、及び、表示装置の制御方法 - Google Patents

表示装置、及び、表示装置の制御方法 Download PDF

Info

Publication number
JP6844159B2
JP6844159B2 JP2016177223A JP2016177223A JP6844159B2 JP 6844159 B2 JP6844159 B2 JP 6844159B2 JP 2016177223 A JP2016177223 A JP 2016177223A JP 2016177223 A JP2016177223 A JP 2016177223A JP 6844159 B2 JP6844159 B2 JP 6844159B2
Authority
JP
Japan
Prior art keywords
display
image
unit
detected
operation detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016177223A
Other languages
English (en)
Other versions
JP2018045263A5 (ja
JP2018045263A (ja
Inventor
博行 市枝
博行 市枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016177223A priority Critical patent/JP6844159B2/ja
Priority to CN201710761788.1A priority patent/CN107817924B/zh
Priority to US15/695,518 priority patent/US10354428B2/en
Publication of JP2018045263A publication Critical patent/JP2018045263A/ja
Publication of JP2018045263A5 publication Critical patent/JP2018045263A5/ja
Application granted granted Critical
Publication of JP6844159B2 publication Critical patent/JP6844159B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示装置、及び、表示装置の制御方法に関する。
従来、操作検出に用いる操作アイコンを表示させ、操作アイコンに対する操作を検出して、対応する処理を実行する表示装置が知られている(例えば、特許文献1参照)。
特許文献1は、プロジェクターの投影画像に、操作アイコンを表示させ、投影画像を含む領域を撮影したカメラの撮影画像により、操作アイコンへの操作が検出されると、操作アイコンが選択されたものと判定し、操作アイコンに対応付けて設定された処理が実行される。
特開2012−104096号公報
しかしながら、特許文献1に記載のプロジェクターは、投影画像の内部に操作アイコンを重畳して表示しているため、投影画像の表示状態(明るさや色調等)、即ち操作アイコンの背景の表示状態によっては、操作アイコンに対する操作の検出に影響を及ぼし、検出精度が低下する場合が生じ得る。
本発明は、表示される検出画像に対する操作を高精度で検出でき、検出画像に関連する処理などを分かりやすく表示できるようにすることを目的とする。
上記課題を解決するために、本発明は、表示面に画像を表示する表示部と、入力される画像信号に基づく入力画像と、操作検出に用いる複数の検出画像とを前記表示部により前記表示面に表示させる表示制御部と、前記表示面に表示される複数の前記検出画像を撮像する撮像部と、前記撮像部の撮像画像に基づき、複数の前記検出画像のそれぞれに対する操作を検出する検出部と、前記検出部が操作を検出した前記検出画像に対応する処理を実行する処理部と、を備え、前記表示制御部は、前記表示面において前記入力画像の外側に複数の前記検出画像を表示させ、複数の前記検出画像のそれぞれに対応する複数の識別画像を、前記検出画像に対応する位置に表示させる。
本発明によれば、表示面に表示される複数の検出画像を撮像した撮像画像に基づいて、複数の検出画像のそれぞれに対する操作が検出され、検出された操作に対応する処理が実行される。ここで、複数の検出画像は、入力画像の外側に表示される。このため、検出画像に対する入力画像の影響を抑制することが可能となり、検出画像に対する操作を高精度で検出できる。また、複数の検出画像のそれぞれに対応する複数の識別画像が、検出画像に対応する位置に表示される。このため、複数の検出画像の表示が、入力画像の表示に与える影響を低減し、検出画像に関連する処理などを分かりやすく表示できる。
また、本発明は、前記表示制御部は、前記表示部により、同一の外観を有する複数の前記検出画像を表示させる。
本発明によれば、複数の検出画像として同一の外観を有する画像が表示されるので、操作を検出するための条件を共通化して、処理負荷を軽減できる。
また、本発明は、前記表示制御部は、前記表示部により、予め設定された背景色に重ねて前記検出画像を表示させる。
本発明によれば、検出画像が、予め設定された背景色に重ねて表示されるため、検出画像の視認性を高め、入力画像の表示と、検出画像の表示との区別を明確にできる。
また、本発明は、前記検出部が操作を検出した前記検出画像が複数である場合に、操作が検出された前記検出画像に対応して前記処理部が実行する処理の少なくとも一部が実行されない。
本発明によれば、操作が検出された検出画像が複数である場合、処理の少なくとも一部が実行されないため、誤った操作の検出によって誤った処理が実行されるのを防止できる。
また、本発明は、前記表示面において前記表示部が画像を表示する表示領域のサイズを検出するサイズ検出部を備え、前記表示制御部は、前記サイズ検出部が検出する前記表示領域のサイズに基づき、前記表示領域における前記検出画像の表示位置、前記検出画像の表示サイズ、及び複数の前記検出画像の表示間隔の少なくともいずれかを変更する。
本発明によれば、検出される表示領域のサイズに基づいて、検出画像の表示位置、表示サイズ、及び複数の検出画像の間隔の少なくともいずれかが変更されるので、検出画像を表示領域に適した表示位置、表示サイズ、表示間隔で表示できる。
また、本発明は、前記表示制御部は、前記検出部が操作を検出した前記検出画像に対応する識別画像の表示態様を変化させる。
本発明によれば、操作が検出された検出画像に対応する識別画像の表示態様が変化するので、ユーザーは、操作が検出された検出画像を他の検出画像と区別して認識することができる。
また、本発明は、前記表示制御部は、前記識別画像を前記検出画像の前記入力画像側に表示させる。
本発明によれば、識別画像が検出画像の入力画像側に表示される。従って、表示面の外側にいるユーザーが検出画像を操作する際に、ユーザーの手が識別画像に重なることがなくなり、識別画像の視認性が低下せずに済む。
また、本発明は、前記処理部は、前記表示部が表示するいずれかの前記検出画像の操作に応じて、前記表示面における前記入力画像に対する複数の前記検出画像の相対的な表示位置を変更する処理を実行する。
本発明によれば、検出画像を操作することで、入力画像に対する複数の検出画像の相対的な表示位置を変更できる。
また、本発明は、外部の装置に接続するインターフェイス部を備え、前記表示制御部は、前記インターフェイス部に前記外部の装置が接続された場合には、前記外部の装置が実行する処理に対応する前記検出画像を表示し、前記インターフェイス部に前記外部の装置が接続されていない場合には、前記外部の装置が実行する処理に対応する前記検出画像を表示しない。
本発明によれば、インターフェイス部に外部の装置が接続された場合には、外部の装置が実行する処理に対応する検出画像が表示され、インターフェイス部に外部の装置が接続されていない場合には、外部の装置が実行する処理に対応する検出画像が表示面に表示されない。つまり、無効な検出画像が表示されなくなるため、ユーザーの利便性が向上する。
また、本発明は、外部の装置に接続するインターフェイス部を備え、前記表示部が表示するいずれかの前記検出画像の操作に応じて前記処理部が実行する処理が、前記インターフェイス部に前記外部の装置が接続される場合と、接続されていない場合とで異なる処理である。
本発明によれば、外部の装置がインターフェイス部に接続された場合と、接続されていない場合とで、異なる処理が実行される。このため、インターフェイス部に外部の装置が接続された場合には、例えば、外部の装置が実行する処理に応じた処理を表示装置に実行させることができる。また、インターフェイス部に外部の装置が接続されていない場合には、表示装置が単独で実行する処理を表示装置に実行させることができる。
上記課題を解決するため、本発明は、表示面に画像を表示する表示装置の制御方法であって、前記表示面に、入力される画像信号に基づく入力画像と、操作検出に用いる複数の検出画像とを表示するステップと、前記表示面に表示した複数の前記検出画像を撮像するステップと、複数の前記検出画像を撮像した撮像画像に基づき、複数の前記検出画像のそれぞれに対する操作を検出するステップと、操作を検出した前記検出画像に対応する処理を実行するステップと、を有し、前記表示面において前記入力画像の外側に複数の前記検出画像を表示し、複数の前記検出画像のそれぞれに対応する複数の識別画像を前記検出画像に対応する位置に表示する。
本発明によれば、表示面に表示される複数の検出画像を撮像した撮像画像に基づいて、複数の検出画像のそれぞれに対する操作が検出され、検出された操作に対応する処理が実行される。ここで、複数の検出画像は、入力画像の外側に表示される。このため、検出画像に対する入力画像の影響を抑制することが可能となり、表示される検出画像に対する操作を高精度で検出できる。また、複数の検出画像のそれぞれに対応する複数の識別画像が、検出画像に対応する位置に表示される。このため、複数の検出画像の表示が、入力画像の表示に与える影響を低減し、検出画像に関連する処理などを分かりやすく表示できる。
プロジェクターの構成図。 第1パターン画像を示す図。 第2パターン画像を示す図。 制御部の動作を示すフローチャート。 投射領域の左端に操作検出領域を表示させた表示画像を示す図。 投射領域の右端に操作検出領域を表示させた表示画像を示す図。 第3パターン画像を示す図。 操作検出マーカーに対する操作の方法を示す図。 撮像画像データ上の座標と輝度との関係を示すグラフ。 室内灯が点灯された場合と、消灯された場合の撮像画像データの輝度の変化を示すグラフ。
以下、添付図面を参照して本発明の実施形態について説明する。
図1は、プロジェクター200の構成図である。
プロジェクター200は、画像供給装置100に接続され、画像供給装置100から供給される画像信号に基づき、投射対象に画像を投射する。また、プロジェクター200は、内蔵する記憶部260や外部接続される記憶媒体に記憶された画像データを読み出し、読み出した画像データに基づきスクリーンSCに画像を表示してもよい。
本実施形態では、スクリーンSCを投射対象とする。スクリーンSCは、本発明の「表示面」に相当する。スクリーンSCは平面又は幕で構成され、具体的形状は任意である。投射対象は、スクリーンSCのほかに、壁面、天井面、床面、ホワイトボードなどの一様な平面であってもよい。また、投射対象は、建物の外壁のように、平らでない面を投射対象にしてもよい。
また、プロジェクター200の使用態様は、スクリーンSCに対して正面から画像光を投射するフロントプロジェクション型の投射方法、及び、透過型のスクリーンSCの背面に画像光を投射する背面投射型の投射方法のいずれでもよい。
画像供給装置100には、例えばノート型PC(Personal Computer)、デスクトップ型PCやタブレット端末、スマートフォン、PDA(Personal Digital Assistant)等を用いることができる。また、画像供給装置100として、ビデオ再生装置、DVD(Digital Versatile Disk)プレーヤー、ブルーレイディスクプレーヤー、テレビチューナー装置、CATV(Cable television)のセットトップボックス、ビデオゲーム機等を用いてもよい。画像供給装置100は、画像信号を生成してプロジェクター200に供給する。なお、画像供給装置100がプロジェクター200に内蔵された構成とすることも可能である。
プロジェクター200は、外部の装置に接続されるインターフェイスとして、インターフェイス部(以下、I/F部と略記する)251及び画像インターフェイス部(以下、画像I/F部と略記する)253を備える。I/F部251及び画像I/F部253は、有線接続用のコネクターを備え、このコネクターに対応するインターフェイス回路を備える。また、I/F部251及び画像I/F部253は、無線通信インターフェイスを備えていてもよい。有線接続用のコネクター及びインターフェイス回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェイスとしては無線LANやBluetooth(登録商標)、Miracast(登録商標)、WiDi(登録商標)、AirPlay(登録商標)、UWB(Ultra Wide Band)等に準拠したものが挙げられる。また、画像I/F部253には、MHL(登録商標)、HDMI(登録商標)、DisplayPort等の画像データ用のインターフェイスであってもよい。また、画像I/F部253は、コネクターとしてVGA端子等のアナログ画像信号を入力可能なコネクターを備え、コネクターを介して入力されるアナログ画像信号をデジタルデータに変換するA/D変換回路を備えてもよい。さらに、画像I/F部253は、音声データが入力されるインターフェイスを備えてもよい。
I/F部251は、画像供給装置100との間で制御データ等の各種データを送受信するインターフェイスである。後述する制御部270は、I/F部251を介して外部の画像供給装置100とデータを送受信する機能を有する。
画像I/F部253は、画像供給装置100から送信される画像信号が入力されるインターフェイスである。画像I/F部253は、受信した画像信号を復調して画像データを抽出し、抽出した画像データを画像処理部255に出力する。画像データは、動画像データであってもよいし、静止画像データであってもよい。
図1には、I/F部251と、画像I/F部253とを同一の外部装置である画像供給装置100に接続した場合を示すが、I/F部251と、画像I/F部253とを異なる外部装置に接続してもよい。例えば、画像I/F部253は、画像を供給する画像供給装置100に接続し、I/F部251は、プロジェクター200を制御するパーソナルコンピューター等の制御装置に接続してもよい。なお、I/F部251及び画像I/F部253をそれぞれ複数備えた構成としてもよい。また、複数の画像I/F部253を備える構成において、複数の画像供給装置100から供給される複数の画像を、1つの画面内に同時に表示する態様としてもよい。
プロジェクター200は、光学的な画像の形成を行い、スクリーンSCに画像を投射する表示部210を備える。
表示部210は、光源部211、光変調部212及び投射光学系213を備える。
光源部211は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)又はレーザー光源等からなる光源を備える。また、光源部211は、光源が発した光を光変調部212に導くリフレクター及び補助リフレクターを備えていてもよい。さらに、光源部211は、投射光の光学特性を高めるためのレンズ群、偏光板、又は光源が発した光の光量を光変調部212に至る経路上で低減させる調光素子等(いずれも図示略)を備えていてもよい。
光源部211は、光源駆動部221により駆動される。光源駆動部221は、内部バス280に接続され、同じく内部バス280に接続された制御部270の制御により光源部211の光源を点灯及び消灯させる。
光変調部212は、例えば、RGBの三原色に対応した3枚の液晶パネルを備える。光源部211が発する光はRGBの3色の色光に分離され、それぞれ対応する液晶パネルに入射される。3枚の液晶パネルは、透過型の液晶パネルであり、透過する光を変調して画像光を生成する。各液晶パネルを通過して変調された画像光は、クロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系213に射出される。
光変調部212は、光変調部駆動部222により駆動される。光変調部駆動部222は、内部バス280に接続される。
光変調部駆動部222には、画像合成部259からR,G,Bの各原色に対応する重畳画像データが入力される。重畳画像データの詳細については後述する。光変調部駆動部222は、入力された重畳画像データを液晶パネルの動作に適したデータ信号に変換する。光変調部駆動部222は、変換したデータ信号に基づいて、各液晶パネルの各画素に電圧を印加し、各液晶パネルに画像を描画する。
投射光学系213は、光変調部212により変調された画像光をスクリーンSCに投射して、スクリーンSC上に結像させるレンズ群を備える。また、投射光学系213は、スクリーンSCに投射される画像を拡大又は縮小させるズーム機構や、フォーカスの調整を行うフォーカス調整機構を備えていてもよい。
プロジェクター200は、操作パネル231、リモコン受光部233及び入力処理部235を備える。操作パネル231及びリモコン受光部233は、内部バス280に接続された入力処理部235に接続される。
操作パネル231には、プロジェクター200を操作するための各種操作キーが設けられる。操作パネル231には、例えば、プロジェクター200の電源オン又は電源オフを指示するための電源キー、各種設定を行うためのメニューキー等が設けられる。入力処理部235は、操作キーが操作されると、操作されたキーに対応した操作信号を制御部270に出力する。
また、プロジェクター200は、ユーザーが使用するリモコン5を有する。リモコン5は各種のボタンを備えており、これらのボタンの操作に対応して赤外線信号を送信する。
リモコン受光部233は、リモコン5から送信される赤外線信号を受光する。入力処理部235は、リモコン受光部233が受光した赤外線信号をデコードして、リモコン5における操作内容を示す操作信号を生成し、制御部270に出力する。
プロジェクター200は、撮像部240を備える。撮像部240は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子(図示省略)を備え、被写体としてのスクリーンSCを撮像する。撮像部240の撮影方向は、投射光学系213と同じ方向、又は略同じ方向であり、撮像部240の撮影範囲は、投射光学系213がスクリーンSC上に画像を投射する範囲をカバーする。撮像部240は、可視光で撮影した撮像画像データを記憶部260に記憶する。
プロジェクター200は、画像処理系を備える。この画像処理系は、プロジェクター200の全体を統合的に制御する制御部270を中心に構成され、この他に、画像処理部255、フレームメモリー257、画像合成部259及び記憶部260を備える。制御部270、画像処理部255、画像合成部259及び記憶部260は、内部バス280によりデータ通信可能に相互に接続される。
画像処理部255は、画像I/F部253から入力される画像データをフレームメモリー257に展開して処理する。画像処理部255が行う処理には、例えば、解像度変換(スケーリング)処理又はリサイズ処理、歪み補正等の形状補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等が含まれる。画像処理部255は、制御部270により指定された処理を実行し、必要に応じて、制御部270から入力されるパラメーターを使用して処理を行う。また、画像処理部255は、上記のうち複数の処理を組み合わせて実行することも勿論可能である。画像処理部255は、処理が終了した画像データを画像合成部259に出力する。
画像合成部259は、画像処理部255から入力される画像データをフレームメモリー257に展開する。また、画像合成部259は、制御部270から描画データ(OSDデータ)が入力される場合には、制御部270の制御に従って、フレームメモリー257に展開された画像データに、入力される描画データを重畳する。描画データについては後述する。画像合成部259は、画像データに描画データが重畳されたデータをフレームメモリー257から読み出し、重畳画像データとして光変調部駆動部222に出力する。
記憶部260は、例えば、ハードディスク装置等の補助記憶装置である。記憶部260は、DRAM(Dynamic RAM)、大容量の情報の記憶が可能なフラッシュメモリー又はCD(Compact Disc)、DVD(Digital Versatile Disc)、BD(Blu-ray(登録商標) Disc)等の光ディスクで代替されてもよい。記憶部260は、制御部270が実行する制御プログラムや各種データを記憶する。また、記憶部260は、撮像部240が撮像した撮像画像データの他、後述する第1パターン画像310及び第2パターン画像320の画像データを記憶する。
また、記憶部260は、キャリブレーションデータ261を記憶する。
キャリブレーションデータ261は、プロジェクター200の出荷前に実行されるキャリブレーションによって得られるデータである。キャリブレーションデータ261は、投射した所定のパターン画像を撮像して得られる撮像画像データ上でのパターン画像の位置やサイズ等の情報(撮像位置情報)から、スクリーンSC上での投射領域のサイズを導くためのデータであり、投射光学系213に含まれるズームレンズのズーム比と、プロジェクター200からスクリーンSCまでの距離(設置距離)と、これらに応じて変化する撮像位置情報との関係を表す行列式である。キャリブレーションデータ261は、記憶部260に記憶される。なお、投射領域とは、プロジェクター200が投射する画像の全体がスクリーンSC上で占める領域を示す。
キャリブレーションでは、プロジェクター200の投射条件(ズーム比及び設置距離)を変更しながら、予め用意された2つの画像をスクリーンSCに投射する。また、予め用意された2つの画像には、図2に示す第1パターン画像310と、図3に示す第2パターン画像320とが含まれる。なお、第1パターン画像310及び第2パターン画像320は、予め記憶部260に記憶されている態様に限定されず、制御プログラムに従って都度生成する態様としてもよい。
図2は、スクリーンSC上の投射領域10に投射された第1パターン画像310を示す。
第1パターン画像310は、矩形の画像であり、第1領域311と第2領域312とを有する。第1領域311は、第1パターン画像310の中心部分に配置される矩形の領域である。本実施形態では、第1領域311として、白色の画像を用いる。また、第2領域312は、第1領域311を取り囲むように第1領域311の周囲に配置される領域である。本実施形態では、第2領域312として、黒色の画像を用いる。なお、本実施形態では、第1領域311が矩形の領域である場合を示したが、第1領域311の形状は矩形に限定されない。また、本実施形態では、第1領域311を白色の画像とし、第2領域312を黒色の画像とした場合を示すが、第1領域311及び第2領域312の色は、これらの色に限定されない。後述するように第1パターン画像310を撮像した撮像画像データと、第2パターン画像320を撮像した撮像画像データとの差分を求めることによって、撮像画像データ上での第1領域311の位置及び範囲が認識できる画像であればよい。
図3に、スクリーンSC上の投射領域10に投射された第2パターン画像320の一例を示す。第2パターン画像320は、黒色の矩形の画像であり、第2パターン画像320の画像サイズ及び縦横比は、第1パターン画像310と同一である。
制御部270は、第1パターン画像310及び第2パターン画像320の撮像画像データを生成すると、第1パターン画像310の撮像画像データと、第2パターン画像320の撮像画像データとの差分を算出する。また、制御部270は、算出した差分をしきい値と比較することで第1領域311を特定する。さらに、制御部270は、特定した第1領域311の4隅の点である4頂点の座標を求める。4頂点の座標は、撮像座標系での座標である。撮像座標系は、撮像部240が備える撮像素子の座標系である。撮像素子は、複数の受光素子を水平方向及び垂直方向に2次元に配置した構造を有する。撮像座標系は、受光素子を識別する水平方向及び垂直方向の座標を表す。
制御部270は、複数の投射条件(複数のズーム比及び複数の設置距離)にて4頂点の座標が求められると、求めた4頂点の座標と、投射条件との関係を表す行列式を導き、これをキャリブレーションデータ261として記憶部260に記憶させる。
また、記憶部260は、処理登録テーブル262を記憶する。
処理登録テーブル262には、後述する操作検出マーカー305を識別するための情報(マーカー識別情報)と、操作検出マーカー305が選択された場合にプロジェクター200が実行する処理を示す情報(処理情報)とを対応付けて記憶する。マーカー識別情報は、複数の操作検出マーカー305のそれぞれを識別するために、各操作検出マーカー305に個別に割り当てられた情報(例えば、番号)である。操作検出マーカー305は、描画データに基づいて表示される画像であり、本発明の「検出画像」に対応する。なお、処理登録テーブル262は、記憶部260に記憶させておく構成とする代わりに、制御プログラムによって生成するようにしてもよい。
制御部270は、ハードウェアとしてCPU、ROM及びRAM(いずれも図示略)を備える。ROMは、フラッシュROM等の不揮発性の記憶装置であり、制御プログラム及びデータを記憶する。RAMは、CPUのワークエリアを構成する。CPUは、ROMから読み出した制御プログラムをRAMに展開し、展開された制御プログラムを実行してプロジェクター200の各部を制御する。
制御部270は、機能ブロックとして、表示制御部271、操作検出部272及び処理実行制御部273を備える。これらの機能ブロックは、RAMに展開された制御プログラムを実行することで実現される。
表示制御部271は、プロジェクター200の各部を制御して、スクリーンSCに投射画像を表示させる。
具体的には、表示制御部271は、画像処理部255に、画像I/F部253が受信した画像データを処理させる。この際、表示制御部271は、画像処理部255の処理に必要なパラメーターを記憶部260から読み出し、画像処理部255に出力してもよい。
また、表示制御部271は、画像合成部259を制御して、画像合成部259に、画像データと描画データとを合成する処理を実行させる。また、表示制御部271は、光変調部駆動部222を制御して光変調部212の液晶パネルに画像を描画させる。さらに、表示制御部271は、光源駆動部221を制御して光源部211の光源を点灯させ、光源の輝度を調整させる。これにより、光源が発光して光変調部212が変調する画像光が投射光学系213によりスクリーンSCに投射される。
操作検出部272は、撮像部240が撮像する撮像画像データに基づいて、操作検出マーカー305に対する操作を検出する。本実施形態の操作検出部272は、操作検出マーカー305に対する操作として、操作検出マーカー305を選択する操作(以下、選択操作という)を検出する。
処理実行制御部273は、操作検出部272が操作を検出した操作検出マーカー305に対応付けられた処理をプロジェクター200に実行させる。
表示制御部271、操作検出部272及び処理実行制御部273の動作の詳細については図4を参照しながら説明する。表示制御部271は、本発明の「表示制御部、及びサイズ検出部」に相当し、操作検出部272は、本発明の「検出部」に相当する。また、処理実行制御部273は、本発明の「処理部」に相当する。
図4は、制御部270の動作を示すフローチャートである。
まず、表示制御部271は、リモコン5又は操作パネル231により操作検出マーカー305(図5参照)の表示要求を受け付けたか否かを判定する(ステップS1)。操作検出マーカー305は、ユーザーの操作を検出するための検出画像であり、画像供給装置100から供給される画像データに基づく画像(以下、入力画像という)と共にスクリーンSCに投射される。
図5は、スクリーンSCの投射領域10に投射される表示画像300の一例を示す図である。
表示画像300には、画像表示領域301と、操作検出領域302とが形成される。画像表示領域301は、投射領域10の大部分を占める領域であり、入力画像が表示される領域である。操作検出領域302は、投射領域10の端部に表示される領域である。すなわち、操作検出領域302は、画像表示領域301の外側に表示され、操作検出領域302に表示される操作検出マーカー305も画像表示領域301の外側に表示される。図5には、操作検出領域302を、投射領域10の左端に表示した場合を示すが、操作検出領域302の表示位置は、左端に限定されない。例えば、操作検出領域302が、投射領域10の右端に投射されるようにしてもよいし、投射領域10の上側の端部や下側の端部に投射されるようにしてもよい。
操作検出領域302には、複数の操作検出マーカー305と、複数のアイコン307とが表示される。アイコン307は、描画データに基づいて表示される画像であり、本発明の「識別画像」に相当する。
複数の操作検出マーカー305及び複数のアイコン307は、予め設定された背景色に重ねて表示される。本実施形態では、背景色として黒色が用いられる。操作検出領域302内で複数の操作検出マーカー305及び複数のアイコン307が黒色の背景色に重ねて表示されることで、画像表示領域301と、操作検出領域302との区別を明確にできる。
操作検出領域302に表示される操作検出マーカー305の数は任意である。すなわち、1つであってもよいし、複数であってもよい。図5には、操作検出領域302に、操作検出マーカー305A、305B、305C及び305Dの4つの操作検出マーカー305が縦に並んで表示される場合を示す。操作検出領域302に表示される操作検出マーカー305の数が増えるほど、プロジェクター200に実行させる処理の数が増加する。
また、操作検出領域302に複数の操作検出マーカー305を表示する場合、操作検出マーカー305を表す画像として、同一の外観を有する画像が用いられる。本実施形態では、操作検出マーカー305の画像として、同一形状、同一サイズ、同一模様(色調)の画像を用いる。複数の操作検出マーカー305を表す画像に同一サイズ、同一形状、同一模様(色調)の画像を用いることで、操作検出マーカー305に対する操作を検出する場合に用いるしきい値を共通化し、操作検出マーカー305に対する操作の検出が容易になる。
図5には、操作検出マーカー305A〜305Dを表す画像として、白色の円形の画像を用いた場合を示す。
また、操作検出領域302に表示される複数のアイコン307は、操作検出マーカー305に対応付けられた処理を示す図柄、絵柄、記号、文字などを表す画像である。図5には、複数のアイコン307として、アイコン307A、307B、307C及び307Dの4つが表示される場合を示す。
複数のアイコン307は、複数の操作検出マーカー305に対応する位置にそれぞれ表示される。より詳細には、アイコン307は、アイコン307が表示する処理を割り当てられた操作検出マーカー305の近傍で、操作検出マーカー305に重ならない位置に配置される。図5に示す例では、操作検出マーカー305Aの右側に、操作検出マーカー305Aに割り当てられた処理を示すアイコン307Aが表示される。同様に、操作検出マーカー305Bの右側にアイコン307Bが表示され、操作検出マーカー305Cの右側にアイコン307Cが表示され、操作検出マーカー305Dの右側にアイコン307Dが表示される。ここで、操作検出マーカー305の右側とは、画像表示領域301側(入力画像側)であり、表示画像300における内側である。
複数の操作検出マーカー305A〜305Dを表す画像の形状やサイズは共通であるため、ユーザーは、操作検出マーカー305の画像を見ただけでは、操作検出マーカー305A〜305Dに対応付けられた処理を認識することができない。このため、複数の操作検出マーカー305のそれぞれの近くに、各操作検出マーカー305に対応付けられた処理を示す複数のアイコン307を表示して、操作検出マーカー305に対応付けられた処理が認識できるようにする。
本実施形態では、プロジェクター200が操作検出マーカー305をスクリーンSCに表示し、表示された操作検出マーカー305を選択する操作を検出する。プロジェクター200は、操作検出マーカー305がユーザーにより選択されると、選択された操作検出マーカー305に対応付けられた処理を実行する。
例えば、図5に示す操作検出マーカー305Aには、操作検出マーカー305Aの操作に応じて、投射領域10における画像表示領域301に対する操作検出領域302の相対的な表示位置を変更する処理が割り当てられる。記憶部260が記憶する処理登録テーブル262には、操作検出マーカー305Aを表すマーカー識別情報と、実行する処理の内容を示す情報(処理情報)として表示位置の変更とが対応付けて登録される。
操作検出部272は、操作検出マーカー305Aが選択されたと判定する場合、選択された操作検出マーカー305Aのマーカー識別情報に基づき処理登録テーブル262を参照し、このマーカー識別情報に対応付けられた処理情報を取得して、処理実行制御部273に出力する。処理実行制御部273は、入力された処理情報に従って、処理を実行する。詳細には、処理実行制御部273は、光変調部212の液晶パネル上において、画像表示領域301に対する操作検出領域302の相対的な位置を変更する。図6には、操作検出マーカー305Aに対応付けられた処理を実行して、操作検出領域302の表示位置を、投射領域10の左端から右端に変更した場合を示す。この場合、アイコン307は、操作検出マーカー305の左側(内側)に表示される。また、右向きの矢印だったアイコン307Aの図柄は、左向きの矢印に変更される。なお、操作検出部272が処理登録テーブル262を参照して処理情報を取得し、この処理情報を処理実行制御部273に出力する代わりに、操作検出部272が処理実行制御部273にマーカー識別情報を出力し、処理実行制御部273が処理登録テーブル262を参照して処理情報を取得するようにしてもよい。
操作検出マーカー305に対応付けられる処理には、この他に、スクリーンSCへの画像の投射や音声の出力を停止させるAV(Audio Visual)ミュートの実行/解除や、ページアップ、ページダウン等の処理が含まれる。ページアップ、ページダウンの処理とは、プロジェクター200がスクリーンSCに投射する画像がプレゼンテーションソフトやワープロソフト、表計算ソフトによって生成されるドキュメントの画像である場合に、ドキュメントのページをダウン又はアップさせる処理である。なお、操作検出マーカー305に対応付けられる処理は、上記に限定されず、プロジェクター200や画像供給装置100が備える様々な機能を採用することができる。
表示制御部271は、ステップS1の判定が否定判定の場合(ステップS1/NO)、操作検出マーカー305を表示させる指示を受け付けるまで図4に示すフローチャートに従った処理の実行を待機し、他の処理を実行する。
また、表示制御部271は、ステップS1の判定が肯定判定の場合(ステップS1/YES)、投射条件を検出して投射領域10のサイズを推定するため、スクリーンSCに第1パターン画像310を表示させる(ステップS2)。表示制御部271は、記憶部260から第1パターン画像310の画像データを読み出し、読み出した画像データを画像合成部259に出力し、表示部210により第1パターン画像310をスクリーンSCに表示させる。
第1パターン画像310がスクリーンSCに投射されると、表示制御部271は、撮像画像が適切な露出となるように露出制御(露出の調整)を行ったうえで、撮像部240にスクリーンSC方向を撮像させ、撮像画像データを生成させる(ステップS3)。表示制御部271は、撮像部240により生成される撮像画像データを記憶部260に記憶させる。
次に、表示制御部271は、第2パターン画像320をスクリーンSCに表示させる(ステップS4)。第2パターン画像320がスクリーンSCに投射されると、表示制御部271は、第1パターン画像310を撮像したときと同じ露出で、撮像部240にスクリーンSC方向を撮像させ、撮像画像データを生成させる(ステップS5)。表示制御部271は、撮像部240により生成される撮像画像データを記憶部260に記憶させる。
次に、表示制御部271は、第1パターン画像310の撮像画像データと、第2パターン画像320の撮像画像データとの差分を算出して第1領域311を抽出し、第1領域311の4隅の4頂点の座標を特定する(ステップS6)。ここで特定される4頂点の座標は、撮像座標系での座標である。
次に、表示制御部271は、特定した4頂点の座標と、キャリブレーションデータ261とを用いて、スクリーンSC上での投射領域10のサイズを求める。本実施形態では、表示制御部271は、まず、特定した4頂点の座標に、キャリブレーションデータ261(行列式)を用いた演算を行い、投射条件である設置距離やズーム比を特定する(ステップS7)。
次に、表示制御部271は、特定した設置距離やズーム比に基づき、投射領域10のサイズ(以下、投射サイズ)を推定する(ステップS8)。例えば、所定の設置距離、所定のズーム比で、投射光学系213の光軸がスクリーンSCに垂直の場合の投射サイズ(基準投射サイズ)を記憶部260に予め記憶しておけば、投射光学系213の光軸がスクリーンSCに垂直の場合には、表示制御部271は、特定した設置距離やズーム比と基準投射サイズとを演算することによって投射サイズを算出することができる。また、記憶部260に、設置距離やズーム比に対応付けて、投射サイズの情報を記憶させておけば、表示制御部271は、特定した設置距離やズーム比に基づいて記憶部260を参照し、投射サイズを推定することもできる。なお、投射光学系213の光軸がスクリーンSCに垂直ではなく、それに起因して生じる台形歪みを補正する処理をしている場合には、補正処理を加味して投射サイズを算出すればよい。
投射サイズを推定すると、表示制御部271は、推定した投射サイズに基づいて、投射領域10での操作検出マーカー305の表示位置や表示サイズ、及び複数の操作検出マーカー305の表示間隔を決定する(ステップS9)。ここで決定する操作検出マーカー305の表示位置や表示サイズ、及び表示間隔は、後述のステップS13において操作検出マーカー305を表示させる予定の表示位置や表示サイズ、及び表示間隔である。ここで、表示位置とは、複数の操作検出マーカー305の全体の位置であり、表示サイズは、各操作検出マーカー305の大きさであり、表示間隔は、隣接する操作検出マーカー305の基準点(例えば、中心や重心等)間の距離である。例えば、記憶部260に、投射サイズに対応付けて操作検出マーカー305の表示位置や表示サイズ、及び表示間隔を設定した情報(設定情報)を記憶させておき、表示制御部271が、推定した投写サイズに対応する設定情報に基づいて、表示位置、表示サイズ、表示間隔を決定する。具体的には、投射サイズが大きい場合には、投射領域10の上側に手が届かない可能性があるため、投射サイズが大きいサイズである場合ほど、操作検出マーカー305を全体的に投射領域10の下側に表示させるような設定情報とすることができる。また、投射サイズが大きい場合ほど、操作検出マーカー305のサイズや間隔を小さくする設定情報とすることで、ユーザーにとって操作しやすい環境を実現することができる。なお、操作検出マーカー305等の表示位置、表示サイズ、表示間隔は、投射サイズが所定のしきい値以上か未満かに応じて2段階に切り替え可能な構成としてもよいし、投射サイズに応じて多段階(3段階以上)で変更可能な構成としてもよい。
表示制御部271は、投射サイズに対応した操作検出マーカー305の設定情報を記憶部260から取得すると、取得した設定情報に基づいて、第3パターン画像330を生成して、スクリーンSCに表示させる(ステップS10)。
図7は、第3パターン画像330の一例を示す図である。
第3パターン画像330は、スクリーンSCに投射する操作検出マーカー305の位置を特定するための画像である。第3パターン画像330には、位置検出パターン331が表示される。第3パターン画像330において位置検出パターン331の表示位置、表示サイズ、及び表示間隔は、ステップS9において決定された操作検出マーカー305の表示位置、表示サイズ、及び表示間隔に等しい。位置検出パターン331を表す画像は、第3パターン画像330を撮像した撮像画像データにおいて、位置検出パターン331の画像が特定可能な画像であればよく、その色調や、形状、サイズは任意である。例えば、位置検出パターン331は、操作検出マーカー305と同様に白色の円形であり、その重心位置が特定しやすくなるように、中心(重心)から周辺に向けて徐々に暗くなる輝度分布を有する画像とすることができる。なお、位置検出パターン331の画像が検出し易いように、位置検出パターン331のサイズを、記憶部260から取得した操作検出マーカー305のサイズよりも大きなサイズとしてもよい。
第3パターン画像330をスクリーンSCに表示すると、表示制御部271は、撮像部240にスクリーンSC方向を撮像させ、撮像画像データを生成させる(ステップS11)。表示制御部271は、撮像部240が撮像した撮像画像データを記憶部260に記憶させる。
次に、表示制御部271は、記憶部260から撮像画像データを読み出し、撮像画像データから位置検出パターン331の画像を検出する(ステップS12)。その後、表示制御部271は、検出した位置検出パターン331の重心位置を特定し、この位置を操作検出マーカー305に対する操作を検出する際の検出位置とする。なお、その後に表示される操作検出マーカー305は、その重心位置が位置検出パターン331の重心位置に一致するように表示される。
次に、表示制御部271は、決定した操作検出マーカー305の表示位置やサイズ等に基づいて、アイコン307を表示させる表示画像300上の表示位置やサイズ等を決定する。また、表示制御部271は、決定した操作検出マーカー305やアイコン307の表示位置やサイズに基づき、操作検出領域302のサイズや表示位置、及び画像表示領域301のサイズや表示位置を決定する。表示制御部271は、決定した情報を画像合成部259に出力する。
画像合成部259は、表示制御部271から入力される情報に基づいて、画像処理部255から入力される画像データや、操作検出マーカー305やアイコン307の画像データである描画データをフレームメモリー257に展開する。
すなわち、画像合成部259は、表示制御部271により決定されたフレームメモリー257上の位置に、画像処理部255から入力される画像データを展開する。また、画像合成部259は、表示制御部271により決定されたフレームメモリー257上の位置に、操作検出マーカー305やアイコン307の描画データを展開する。
画像合成部259は、フレームメモリー257に、画像データや、操作検出マーカー305やアイコン307の描画データを展開すると、展開したデータを読み出して重畳画像データとして光変調部駆動部222に出力する。光変調部駆動部222が、重畳画像データに基づいてデータ信号を生成し、液晶パネルにデータ信号に基づく画像を描画することで、光源部211から射出される光が変調され、表示画像300がスクリーンSCに表示される(ステップS13)。
表示画像300がスクリーンSCに投射されると、操作検出部272は、撮像部240が一定間隔で生成する撮像画像データに基づいて、操作検出マーカー305に対する操作を検出する(ステップS14)。
図8には、表示画像300に表示された操作検出マーカー305に対する操作の方法を示す図である。
ユーザーは、表示画像300の操作検出領域302に表示される複数の操作検出マーカー305の中から1つの操作検出マーカー305を選択し、選択した操作検出マーカー305の位置にユーザーの手や指を重ねる。
操作検出部272は、撮像部240の撮像画像データに基づいて、操作検出マーカー305にユーザーの手や指が重ねられたか否かを判定する。操作検出部272は、操作検出マーカー305にユーザーの手や指が重ねられたと判定した場合、操作検出マーカー305に対する操作がされたと判定する。
操作検出部272は、撮像部240からの撮像画像データが更新されるごとに、操作検出マーカー305の検出位置(位置検出パターン331及び操作検出マーカー305の重心位置)及びその近辺の領域の画素の画素値を抽出する。操作検出部272は、複数の撮像画像データから抽出した画素の画素値を比較して、操作検出マーカー305に対する操作を検出する。以下では、操作検出マーカー305の検出位置及びその近辺の領域を抽出領域という。なお、抽出領域に含まれる画素の数は複数に限られず、検出位置の1画素のみであってもよい。
図9は、撮像画像データ上の座標と輝度との関係を示すグラフである。
図9に実線で示す曲線31は、抽出領域の画素の輝度値を示す。また、図9に破線で示す曲線32は、ユーザーの手が重ねられた場合の抽出領域の画素の輝度値を示す。曲線31と曲線32とを比較すると明らかなように、ユーザーの手が操作検出マーカー305に重ねられると、抽出領域の画素の輝度値が低下する。
操作検出部272は、前回の撮像画像データから抽出した抽出領域の画素の画素値と、今回の撮像画像データから抽出した抽出領域の画素の画素値とを比較して、操作検出マーカー305が操作されたか否かを判定する。
例えば、操作検出部272は、抽出領域の画素のうち、検出位置の画素を今回の撮像画像データと、前回の撮像画像データとでそれぞれに求める。操作検出部272は、検出位置の画素の輝度値を比較して、操作検出マーカー305が操作されたか否かを判定してもよい。また、操作検出部272は、抽出領域の画素の輝度値の総和、又は平均値を前回撮像画像データと、今回の撮像画像データとのそれぞれで求める。操作検出部272は、求めた輝度値の総和又は平均値を比較して、操作検出マーカー305が操作されたか否かを判定してもよい。
また、操作検出部272は、撮像部240が順次更新する撮像画像データの中から、異なるタイミングで撮像された撮像画像データを比較して、操作検出マーカー305に対する操作を検出する。このとき、最新の撮像画像データと、直前に撮像された撮像画像データとを比較すると、ユーザーが手をゆっくりと動かした場合などに、撮像画像データ間の画素値の変化が小さくなるため、操作検出マーカー305にユーザーの手が重ねられたか否かの判定精度が低下する場合がある。このため、操作検出部272は、最新の撮像画像データと、数フレーム(例えば、5フレーム)前の撮像画像データとを比較することで操作を検出するようにしてもよい。
図10は、室内灯が点灯された場合と、消灯された場合の撮像画像データの輝度の変化を示すグラフである。
図10に示す曲線35〜37は、輝度値を露出値で除算した値の時間変化を示す。より詳細には、曲線35は、抽出領域の画素の画素値のうち、輝度が最大の画素の輝度値を、撮像部240の備える撮像素子の露出の明るさを示す露出値で除算した値の変化を示す。露出値は、露出、すなわち撮像素子に投影される露光量を数値で表したものであり、撮像部240の備えるレンズの絞り値(F値)とシャッター速度により決まる。輝度が最大の画素の輝度値を輝度値maxと表記し、輝度が最大の画素の輝度値maxを露出値で除算した値を、輝度値max/露出値と表記する。
また、曲線36は、操作検出マーカー305の周辺の黒色部の画素の輝度値を露出値で除算した値の変化を示す。黒色部の画素の輝度値を輝度値minと表記し、黒色部の画素の輝度値minを露出値で除算した値を、輝度値min/露出値と表記する。
また、図10に示す曲線37は、(輝度値max/露出値)と、(輝度値min/露出値)との差分示す。
また、図10に示す範囲「A」には、プロジェクター200が設置された室内の室内灯がオフされた場合の輝度値を露出値で除算した値の変化を示す。また、図10に示す範囲「B」には、室内灯がオンされた場合の輝度値を露出値で除算した値の変化を示す。
図10を参照すると明らかなように、室内灯がオン又はオフされた場合、曲線35及び曲線36の示す値は大きく変化する。しかし、(輝度値max/露出値)と、(輝度値min/露出値)との差分を示す曲線37の値は、撮像素子の露出が調整された後は、大きな変動を示さない。このため、操作検出マーカー305に対する操作が行われたか否かを判定する値として、(輝度値max/露出値)―(輝度値min/露出値)を用いることで、室内灯のオン、オフなどによる環境光の影響を低減することができる。
また、曲線35及び曲線36の示す値は、室内灯がオン又はオフされた場合、値が大きく変化する。このため、(輝度値max/露出値)又は(輝度値min/露出値)を予め設定されたしきい値と比較することで、室内灯等の環境光が変化したか否かを判定できる。
このため、表示制御部271は、(輝度値max/露出値)又は(輝度値min/露出値)の値に基づいて、露出制御を実行すべきか否かを判定してもよい。表示制御部271は、撮像部240が露出制御を実行すべきであると判定する場合、露出制御を実行するとともに、アイコン307の表示を、操作を受け付けることができない状態であることを示す表示に変更する。表示制御部271は、例えば、アイコン307の表示を点滅させたり、初期状態及び操作検出時とは別の色で表示させたり、アイコン307の図柄等を変更したりすることにより、操作検出マーカー305に対する操作ができない旨を報知する。
また、撮像部240が露出制御を実行すべきであるか否かの判定方法は、以下の方法であってもよい。すなわち、表示制御部271は、撮像部240が一定の時間間隔で更新する撮像画像データに基づいて、複数の操作検出マーカー305が所定時間継続して変化し続けたと判定した場合、又は、少なくとも1つ以上の操作検出マーカー305の画素の輝度値が所定時間継続して飽和し続けたと判定した場合、又は、複数の操作検出マーカー305の所定範囲内の画素の最大輝度値が所定の輝度範囲から外れたと判定した場合に、撮像部240の露出制御を実行すべきであると判定し、露出制御を実行する。
操作検出部272は、操作検出マーカー305に対する操作が検出されない場合(ステップS14/NO)、撮像部240が順次更新する撮像画像データを用いて操作検出マーカー305に対する操作を引き続き検出する。
また、操作検出部272は、操作検出マーカー305に対する操作が検出されたと判定する場合(ステップS14/YES)、複数の操作検出マーカー305に対する操作を検出したか否かを判定する(ステップS15)。操作検出部272は、複数の操作検出マーカー305に対する操作を検出した場合(ステップS15/YES)、検出した操作を無効と判断し、複数の操作検出マーカー305に対応した処理の実行制御を処理実行制御部273に行わせない。これにより、誤った操作の検出によって誤った処理が実行されるのを防止できる。なお、誤った処理の実行をより確実に防止するためには、複数の操作検出マーカー305に対する操作を検出してから、複数の操作検出マーカー305に対する操作が全て通常状態(非検出)に戻るまで、操作の無効を継続することが好ましい。
また、操作検出部272は、複数の操作検出マーカー305に対する操作を検出した場合に(ステップS15/YES)、一部の処理の実行を制限するようにしてもよい。例えば、複数の操作検出マーカー305に対する操作が検出された場合に、実行を許可する処理の情報を予め記憶部260に記憶させておく。操作検出部272は、操作が検出された複数の操作検出マーカー305が、記憶部260に記憶させた実行を許可された処理に対応付けられている場合には、処理の実行制御を処理実行制御部273に実施させる。
また、操作検出部272が、複数の操作検出マーカー305に対する操作を検出していないと判定する場合(ステップS15/NO)、表示制御部271は、所定の期間(例えば、0.3秒後から1.5秒後までの間)、操作を検出した操作検出マーカー305に対応するアイコン307の表示態様を変更する(ステップS16)。以下、操作を検出した操作検出マーカー305に対応するアイコン307を、対応アイコン307と表記する。例えば、表示制御部271は、対応アイコン307を所定の期間点滅させたり、対応アイコン307の色を、対応アイコン307以外のアイコン307の色とは異なる色に変更したり、対応アイコン307の図柄等を変更したりする。
次に、操作検出部272は、対応アイコン307の表示態様が変更される所定の期間の間に、操作を検出した操作検出マーカー305上に重ねられたユーザーの手又は指が、この操作検出マーカー305上から移動したか(離れたか)否かを判定する。操作検出部272は、この判定により操作を検出した操作検出マーカー305が選択されたか否かを判定する(ステップS17)。操作検出部272は、操作検出マーカー305上にユーザーの手が重ねられたか否かを判定した場合と同様に、撮像部240の撮像画像データにより、ユーザーの手又は指が、この操作検出マーカー305上から移動したか否かを判定する。操作検出部272は、ユーザーの手又は指が操作検出マーカー305上から移動したと判定すると、操作を検出した操作検出マーカー305が選択されたと判定する(ステップS17/YES)。また。操作検出部272は、ユーザーの手又は指が所定の期間の間に操作検出マーカー305上から移動しなかった場合、操作を検出した操作検出マーカー305が選択されなかったと判定する(ステップS17/NO)。操作を検出した操作検出マーカー305が選択されなかった場合、操作検出部272は、表示制御部271により対応するアイコンの表示状態を初期状態に戻してステップS14に戻り、撮像部240が順次更新する撮像画像データを用いて操作検出マーカー305に対する操作を引き続き検出する。
操作検出マーカー305が選択されたと判定した場合(ステップS17/YES)、操作検出部272は、記憶部260に記憶されている処理登録テーブル262を参照し、選択された操作検出マーカー305に対応付けられた処理情報を取得する。そして、操作検出部272は、取得した処理情報を処理実行制御部273に出力する。
処理実行制御部273は、操作検出部272から処理情報が入力されると、プロジェクター200の各部を制御して、選択された操作検出マーカー305に対応付けられた処理を実行する(ステップS18)。
操作検出マーカー305に対応付けられた処理を処理実行制御部273が実行すると、表示制御部271は、スクリーンSCへの表示画像300の表示が終了したか否かを判定する(ステップS19)。否定判定の場合(ステップS19/NO)、表示制御部271は、ステップS14に戻り、操作検出部272によって再度、操作検出マーカー305に対する操作を検出する。また、肯定判定の場合(ステップS19/YES)、表示制御部271は、この処理フローを終了させる。
上述のフローチャートでは、1つの操作検出マーカー305に、1つの処理を対応付けたが、1つの操作検出マーカー305に複数の処理を対応付けてもよい。例えば、操作検出部272は、予め設定された条件が成立する場合と、成立しない場合とで、操作検出マーカー305が選択された場合に実行する処理を切り替える。
例えば、処理登録テーブル262において、1つのマーカー識別情報に、I/F部251にPC等の制御装置(画像供給装置100)が接続された場合に実行する処理を示す処理情報と、I/F部251に制御装置が接続されていない場合に実行する処理を示す処理情報の両方を対応付け登録する。例えば、I/F部251に制御装置が接続されていない場合に実行する処理としては、AVミュート、フリーズ、ソース切り替え等、プロジェクター200が実行する処理が挙げられる。また、I/F部251に制御装置が接続された場合に実行する処理としては、ページアップ、ページダウン、全画面表示、全画面非表示等、制御装置が実行する処理が挙げられる。制御装置が実行する処理に対応する操作検出マーカー305が選択された場合には、処理実行制御部273は、当該処理を示す処理情報を制御装置に出力し、制御装置に当該処理を実行させる。
また、複数の操作検出マーカー305の一部をプロジェクター200が実行する処理に対応付け、他の一部の操作検出マーカー305をI/F部251に接続された制御装置が実行する処理に対応付けるとともに、表示制御部271は、制御装置が接続された状態では、プロジェクター200の処理に対応付けられた操作検出マーカー305と、制御装置の処理に対応付けられた操作検出マーカー305の双方を表示し、制御装置が接続されていない状態では、プロジェクター200の処理に対応付けられた操作検出マーカー305のみを表示して、制御装置の処理に対応付けられた操作検出マーカー305を表示しないようにしてもよい。この場合には、有効な操作検出マーカー305のみが表示されることになるため、ユーザーにとって利便性が向上する。
また、I/F部251や画像I/F部253に接続されている制御装置や画像供給装置100の種別を判別する判別部を制御部270内に設け、表示制御部271が、判別部の判別結果に基づいて、表示する操作検出マーカー305を変更して、接続されている制御装置や画像供給装置100に適した処理を選択できるようにしてもよい。
以上説明したように、本発明の表示装置及び表示装置の制御方法を適用した実施形態は、表示部210、表示制御部271、操作検出部272、撮像部240、処理実行制御部273を備える。
表示部210は、スクリーンSCに画像を表示する。撮像部240は、スクリーンSCに表示される複数の操作検出マーカー305を撮像する。
表示制御部271は、入力される画像信号に基づく入力画像と、操作検出に用いる複数の操作検出マーカー305とを表示部210によりスクリーンSCに表示させる。
操作検出部272は、撮像部240の撮像画像に基づき、複数の操作検出マーカー305のそれぞれに対する操作を検出する。
処理実行制御部273は、操作検出部272が操作を検出した操作検出マーカー305に対応する処理を実行させる。
また、表示制御部271は、スクリーンSCにおいて入力画像の外側に複数の操作検出マーカー305を表示させる。従って、操作検出マーカー305によって入力画像の一部を隠してしまうことがなくなるとともに、操作検出マーカー305に対する操作を検出する際に、入力画像の表示状態の影響を受けずに高精度で検出することができる。例えば、操作検出マーカー305を、入力画像に重畳して配置する場合には、操作検出マーカー305に合わせて露出調整した際に、入力画像の画素が飽和して操作検出マーカー305への操作の検出に影響を及ぼす恐れがあるが、本実施形態では、操作検出マーカー305を入力画像の外側に配置しているため、その恐れがない。
また、複数の操作検出マーカー305のそれぞれに対応する複数のアイコン307が、操作検出マーカー305に対応する位置に表示される。このため操作検出マーカー305に関連する処理などを分かりやすく表示できる。
また、表示制御部271は、表示部210により、同一の外観を有する複数の操作検出マーカー305を表示させる。
従って、複数の操作検出マーカー305として同一の外観を有する画像が表示されるので、操作を検出するための条件を共通化して、処理負荷を軽減できる。
また、表示制御部271は、表示部210により、予め設定された背景色に重ねて操作検出マーカー305を表示させる。
従って、操作検出マーカー305が、予め設定された背景色に重ねて表示されるため、操作検出マーカー305の視認性を高め、入力画像の表示と、操作検出マーカー305の表示との区別を明確にできる。
また、操作検出部272が操作を検出した操作検出マーカー305が複数である場合に、操作が検出された操作検出マーカー305に対応して処理実行制御部273が実行さセル処理の少なくとも一部が実行されない。
従って、操作が検出された操作検出マーカー305が複数である場合、処理の少なくとも一部が実行されないため、誤った操作の検出によって誤った処理が実行されるのを防止できる。
また、表示制御部271は、スクリーンSCにおいて表示部210が画像を表示する投射領域10のサイズを検出する。
表示制御部271は、検出した投射領域10のサイズに基づき、投射領域10における操作検出マーカー305の表示位置、操作検出マーカー305の表示サイズ、及び複数の操作検出マーカー305の表示間隔の少なくともいずれかを変更する。
従って、操作検出マーカー305を投射領域10に適した表示位置、表示サイズ、表示間隔で表示できる。
また、表示制御部271は、操作検出部272が操作を検出した操作検出マーカー305に対応するアイコン307の表示態様を変化させる。従って、操作が検出された操作検出マーカー305を他の操作検出マーカー305と区別して表示できる。
また、処理実行制御部273は、表示部210が表示するいずれかの操作検出マーカー305の操作に応じて、スクリーンSCにおける入力画像に対する複数の操作検出マーカー305の相対的な表示位置を変更する処理を実行する。
従って、操作検出マーカー305の操作により、入力画像に対する複数の操作検出マーカー305の相対的な表示位置を変更できる。
また、プロジェクター200は、外部の装置に接続するI/F部251を備える。
表示制御部271は、I/F部251に外部の装置が接続された場合には、外部の装置が実行する処理に対応する操作検出マーカー305を表示する。また、表示制御部271は、I/F部251に外部の装置が接続されていない場合には、外部の装置が実行する処理に対応する操作検出マーカー305を表示しない。
従って、操作検出領域302には、無効な操作検出マーカー305が表示されなくなるため、ユーザーの利便性が向上する。
また、プロジェクター200は、表示部210が表示するいずれかの操作検出マーカー305の操作に応じて処理実行制御部273が実行させる処理が、I/F部251に外部の装置が接続される場合と、接続されていない場合とで異なる。
従って、I/F部251に外部の装置が接続された場合には、例えば、外部の装置が実行する処理に応じた処理をプロジェクター200に実行させることができる。また、I/F部251に外部の装置が接続されていない場合には、プロジェクター200が単独で実行する処理を実行させることができる。
また、表示制御部271は、操作検出マーカー305の内側(入力画像側)にアイコン307を表示させる。
従って、投射領域10の外側にいるユーザーが操作検出マーカー305を操作する際に、ユーザーの手がアイコン307に重なることがなくなり、アイコン307の視認性が低下せずに済む。
上述した実施形態は、本発明の好適な実施の形態である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形実施が可能である。
例えば、上述した実施形態では、ステップS15にて複数の操作検出マーカー305に対する操作でないと判断された場合に、ステップS16にてアイコン307の表示態様を変更するようにしているが、いずれか1つの操作検出マーカー305への操作が検出された時点でアイコン307の表示態様を変更し、その後、複数の操作検出マーカー305への操作が検出された場合に、アイコン307の表示態様の変更を元に戻すようにしてもよい。
また、上述した実施形態では、光源が発した光を変調する光変調部212として、RGBの各色に対応した3枚の透過型の液晶パネルを用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、3枚の反射型液晶パネルを用いた構成としてもよいし、1枚の液晶パネルとカラーホイールを組み合わせた方式を用いてもよい。或いは、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせたDMD方式等により構成してもよい。光変調部として1枚のみの液晶パネル又はDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネルおよびDMD以外にも、光源が発した光を変調可能な光変調部212であれば問題なく採用できる。
また、図1に示したプロジェクター200の各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクター200の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
また、図4に示すフローチャートの処理単位は、プロジェクター200の制御部270の処理を理解容易にするために、主な処理内容に応じて分割したものであり、処理単位の分割の仕方や名称によって本発明が制限されることはない。また、制御部270の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
5…リモコン、10…投射領域、100…画像供給装置、200…プロジェクター、210…表示部、211…光源部、212…光変調部、213…投射光学系、221…光源駆動部、222…光変調部駆動部、231…操作パネル、233…リモコン受光部、235…入力処理部、240…撮像部、251…I/F部、253…画像I/F部、255…画像処理部、257…フレームメモリー、259…画像合成部、260…記憶部、261…キャリブレーションデータ、262…処理登録テーブル、270…制御部、271…表示制御部(サイズ検出部)、272…操作検出部(検出部)、273…処理実行制御部(処理部)、280…内部バス、301…画像表示領域、302…操作検出領域、305、305A、305B、305C、305D…操作検出マーカー(検出画像)、307、307A、307B、307C、307D…アイコン、310…第1パターン画像、311…第1領域、312…第2領域、320…第2パターン画像、330…第3パターン画像、331…位置検出パターン、SC…スクリーン(表示面)。

Claims (10)

  1. 表示面に画像を表示する表示部と、
    入力される画像信号に基づく入力画像と、操作検出に用いる複数の検出画像とを前記表示部により前記表示面に表示させる表示制御部と、
    前記表示面に表示される複数の前記検出画像を撮像する撮像部と、
    前記撮像部の撮像画像に基づき、複数の前記検出画像のそれぞれに対する操作を検出する検出部と、
    前記検出部が操作を検出した前記検出画像に対応する処理を実行する処理部と、を備え、
    前記表示制御部は、中心から周辺に向けて輝度分布を有する複数の位置検出画像を前記表示面に表示させ、前記撮像部の撮像画像から複数の前記位置検出画像の輝度分布を検出し、検出した複数の前記位置検出画像の前記輝度分布に基づいて複数の前記検出画像の表示位置を決定し、決定した表示位置に、複数の前記検出画像を表示させ、
    決定した複数の前記検出画像の表示位置は、前記表示面において前記入力画像の外側であり、
    複数の前記検出画像のそれぞれに対応する複数の識別画像を、前記検出画像に対応する位置に表示させる表示装置。
  2. 前記表示制御部は、前記表示部により、予め設定された背景色に重ねて前記検出画像を表示させる請求項記載の表示装置。
  3. 前記検出部が操作を検出した前記検出画像が複数である場合に、操作が検出された前記検出画像に対応して前記処理部が実行する処理の少なくとも一部が実行されない請求項1又は2記載の表示装置。
  4. 前記表示面において前記表示部が画像を表示する表示領域のサイズを検出するサイズ検出部を備え、
    前記表示制御部は、前記サイズ検出部が検出する前記表示領域のサイズに基づき、前記表示領域における前記検出画像の表示位置、前記検出画像の表示サイズ、及び複数の前記検出画像の表示間隔の少なくともいずれかを変更する請求項1からのいずれか1項に記載の表示装置。
  5. 前記表示制御部は、前記検出部が操作を検出した前記検出画像に対応する識別画像の表示態様を変化させる請求項1からのいずれか1項に記載の表示装置。
  6. 前記表示制御部は、前記識別画像を前記検出画像の前記入力画像側に表示させる請求項1からのいずれか1項に記載の表示装置。
  7. 前記処理部は、前記表示部が表示するいずれかの前記検出画像の操作に応じて、前記表示面における前記入力画像に対する複数の前記検出画像の相対的な表示位置を変更する処理を実行する請求項1からのいずれか1項に記載の表示装置。
  8. 外部の装置に接続するインターフェイス部を備え、
    前記表示制御部は、前記インターフェイス部に前記外部の装置が接続された場合には、前記外部の装置が実行する処理に対応する前記検出画像を表示し、前記インターフェイス部に前記外部の装置が接続されていない場合には、前記外部の装置が実行する処理に対応する前記検出画像を表示しない請求項1からのいずれか1項に記載の表示装置。
  9. 外部の装置に接続するインターフェイス部を備え、
    前記表示部が表示するいずれかの前記検出画像の操作に応じて前記処理部が実行する処理が、前記インターフェイス部に前記外部の装置が接続される場合と、接続されていない場合とで異なる処理である請求項1からのいずれか1項に記載の表示装置。
  10. 表示面に画像を表示する表示装置の制御方法であって、
    前記表示面に、入力される画像信号に基づく入力画像と、操作検出に用いる複数の検出画像とを表示するステップと、
    前記表示面に表示した複数の前記検出画像を撮像するステップと、
    複数の前記検出画像を撮像した撮像画像に基づき、複数の前記検出画像のそれぞれに対する操作を検出するステップと、
    操作を検出した前記検出画像に対応する処理を実行するステップと、を有し、
    前記表示するステップは、中心から周辺に向けて輝度分布を有する複数の位置検出画像を前記表示面に表示させ、前記撮像するステップにより撮像された撮像画像から複数の前記位置検出画像の輝度分布を検出し、検出した複数の前記位置検出画像の前記輝度分布に基づいて複数の前記検出画像の表示位置を決定し、決定した表示位置に、複数の前記検出画像を表示させ、
    決定した複数の前記検出画像の表示位置は、前記表示面において前記入力画像の外側であり、
    複数の前記検出画像のそれぞれに対応する複数の識別画像を、前記検出画像に対応する位置に表示させる表示装置の制御方法。
JP2016177223A 2016-09-12 2016-09-12 表示装置、及び、表示装置の制御方法 Active JP6844159B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016177223A JP6844159B2 (ja) 2016-09-12 2016-09-12 表示装置、及び、表示装置の制御方法
CN201710761788.1A CN107817924B (zh) 2016-09-12 2017-08-30 显示装置和显示装置的控制方法
US15/695,518 US10354428B2 (en) 2016-09-12 2017-09-05 Display device and method of controlling display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016177223A JP6844159B2 (ja) 2016-09-12 2016-09-12 表示装置、及び、表示装置の制御方法

Publications (3)

Publication Number Publication Date
JP2018045263A JP2018045263A (ja) 2018-03-22
JP2018045263A5 JP2018045263A5 (ja) 2019-09-05
JP6844159B2 true JP6844159B2 (ja) 2021-03-17

Family

ID=61560222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016177223A Active JP6844159B2 (ja) 2016-09-12 2016-09-12 表示装置、及び、表示装置の制御方法

Country Status (3)

Country Link
US (1) US10354428B2 (ja)
JP (1) JP6844159B2 (ja)
CN (1) CN107817924B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170076428A1 (en) * 2015-09-14 2017-03-16 Canon Kabushiki Kaisha Information processing apparatus
CN108600716A (zh) * 2018-05-17 2018-09-28 京东方科技集团股份有限公司 投影设备和系统、投影方法
JP7224799B2 (ja) * 2018-07-13 2023-02-20 キヤノン株式会社 画像投影装置、画像投影装置の制御方法、プログラム
US10848647B1 (en) * 2019-07-17 2020-11-24 Brendan Bellomo Composite environment filmmaking devices, systems, products and methods
CN110430408A (zh) * 2019-08-29 2019-11-08 北京小狗智能机器人技术有限公司 一种基于投影型显示设备的控制方法及装置
JP7251539B2 (ja) * 2020-12-10 2023-04-04 セイコーエプソン株式会社 プロジェクターの制御方法、プロジェクター、及び表示システム

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269012A (ja) * 1997-03-28 1998-10-09 Yazaki Corp タッチパネルコントローラ及びこれを用いた情報表示装置
US7937665B1 (en) * 2000-06-13 2011-05-03 National Instruments Corporation System and method for automatically generating a graphical program to implement a prototype
US20050024341A1 (en) * 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
JP2004212857A (ja) * 2003-01-08 2004-07-29 Pioneer Electronic Corp タッチパネル表示装置
JP2005141151A (ja) * 2003-11-10 2005-06-02 Seiko Epson Corp プロジェクタおよびプロジェクタの機能設定方法
US7873916B1 (en) * 2004-06-22 2011-01-18 Apple Inc. Color labeling in a graphical user interface
JP2006018374A (ja) * 2004-06-30 2006-01-19 Casio Comput Co Ltd プロジェクタ機能付き画像処理装置およびプログラム
CN101006415B (zh) * 2004-10-05 2010-08-18 株式会社尼康 具有投影仪装置的电子设备
US7502032B2 (en) * 2004-10-06 2009-03-10 Microsoft Corporation Integrating color discrimination assessment into operating system color selection
JP5201999B2 (ja) * 2006-02-03 2013-06-05 パナソニック株式会社 入力装置、及びその方法
JP5214223B2 (ja) * 2007-11-15 2013-06-19 船井電機株式会社 プロジェクタ
WO2009108123A1 (en) * 2008-02-29 2009-09-03 Nanyang Polytechnic Laser pointer based interactive display system and method thereof
JP4706769B2 (ja) * 2009-03-23 2011-06-22 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置
US20100259464A1 (en) * 2009-04-14 2010-10-14 Jae Young Chang Terminal and controlling method thereof
KR20110015308A (ko) * 2009-08-07 2011-02-15 삼성전자주식회사 디지털 영상 처리장치, 그 제어방법 및 이를 실행하기 위한 프로그램을 저장한 기록매체
JP5442393B2 (ja) * 2009-10-29 2014-03-12 日立コンシューマエレクトロニクス株式会社 表示装置
JP5244084B2 (ja) 2009-12-21 2013-07-24 パナソニック株式会社 表示制御システムおよび表示制御方法
CN102223508A (zh) * 2010-04-14 2011-10-19 鸿富锦精密工业(深圳)有限公司 前投影控制系统及方法
JP5304848B2 (ja) * 2010-10-14 2013-10-02 株式会社ニコン プロジェクタ
JP5085713B2 (ja) * 2010-10-22 2012-11-28 株式会社東芝 映像再生装置
JP5861324B2 (ja) * 2011-08-30 2016-02-16 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
KR101271996B1 (ko) * 2011-09-02 2013-06-05 엘지전자 주식회사 외부기기 리스트 제공방법 및 그를 이용한 영상 표시 기기
JP2013070303A (ja) * 2011-09-26 2013-04-18 Kddi Corp 画面への押圧で撮影が可能な撮影装置、撮影方法及びプログラム
JP6064319B2 (ja) * 2011-12-27 2017-01-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
US9299168B2 (en) * 2012-03-06 2016-03-29 Apple Inc. Context aware user interface for image editing
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
US9319483B2 (en) * 2012-11-13 2016-04-19 Karl Storz Imaging, Inc. Asynchronous open task for operating room control system
US9645678B2 (en) * 2012-12-18 2017-05-09 Seiko Epson Corporation Display device, and method of controlling display device
IN2014CN03231A (ja) * 2013-02-20 2015-08-14 Panasonic Corp
US9411432B2 (en) 2013-04-18 2016-08-09 Fuji Xerox Co., Ltd. Systems and methods for enabling gesture control based on detection of occlusion patterns
US9317171B2 (en) 2013-04-18 2016-04-19 Fuji Xerox Co., Ltd. Systems and methods for implementing and using gesture based user interface widgets with camera input
CN104346044A (zh) * 2013-08-06 2015-02-11 北京怡孚和融科技有限公司 拉幕式菜单控制方法
KR20150029451A (ko) * 2013-09-10 2015-03-18 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP6330292B2 (ja) * 2013-11-20 2018-05-30 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
JP6307852B2 (ja) * 2013-11-26 2018-04-11 セイコーエプソン株式会社 画像表示装置、及び、画像表示装置の制御方法
JP2015153363A (ja) * 2014-02-19 2015-08-24 セイコーエプソン株式会社 カーソル操作システム、画像生成装置及びカーソル操作方法
JP6394190B2 (ja) 2014-03-18 2018-09-26 富士ゼロックス株式会社 遮蔽パターン検出に基づくジェスチャ制御を可能とするシステムと方法
JP6488653B2 (ja) * 2014-11-07 2019-03-27 セイコーエプソン株式会社 表示装置、表示制御方法および表示システム
JP2017033044A (ja) 2015-07-28 2017-02-09 富士通株式会社 電力供給装置及び電力供給装置制御方法
JP2017033042A (ja) 2015-07-28 2017-02-09 株式会社東芝 利用者状態監視システム、および利用者状態監視方法
JP2017032782A (ja) 2015-07-31 2017-02-09 株式会社ジャパンディスプレイ 表示装置

Also Published As

Publication number Publication date
US20180075633A1 (en) 2018-03-15
US10354428B2 (en) 2019-07-16
CN107817924B (zh) 2022-08-09
CN107817924A (zh) 2018-03-20
JP2018045263A (ja) 2018-03-22

Similar Documents

Publication Publication Date Title
JP6844159B2 (ja) 表示装置、及び、表示装置の制御方法
US10681320B2 (en) Projection apparatus, method for controlling projection apparatus, and non-transitory storage medium
US10373589B2 (en) Display system, display device, controller, method of controlling display device, and program
US9554105B2 (en) Projection type image display apparatus and control method therefor
US10431131B2 (en) Projector and control method for projector
US9906762B2 (en) Communication apparatus, method of controlling communication apparatus, non-transitory computer-readable storage medium
JP6307852B2 (ja) 画像表示装置、及び、画像表示装置の制御方法
JP6343910B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP6834258B2 (ja) 表示装置、表示システム及び表示装置の制御方法
JP2013064827A (ja) 電子機器
US20150279336A1 (en) Bidirectional display method and bidirectional display device
US10847121B2 (en) Display apparatus and method for controlling display apparatus displaying image with superimposed mask
US20230080888A1 (en) Image display method and projector
JP2018132769A (ja) 画像表示装置、及び、画像表示装置の制御方法
JP2018142856A (ja) プロジェクター、及び、プロジェクターの制御方法
JP2008112035A (ja) プロジェクタ
US11778150B2 (en) Image supply device, display system, and method for direct display of second image
US10503322B2 (en) Projector and method of controlling projector
US20240040077A1 (en) Image output apparatus including a plurality of projection parts and control method thereof
US20240323327A1 (en) Projection system, projection method, non-transitory computer-readable storage medium storing projection program
JP2009251542A (ja) プロジェクタおよびその制御方法
JP6880899B2 (ja) 表示装置及び表示装置の制御方法
US20200145628A1 (en) Projection apparatus and correcting method of display image
JP2020004040A (ja) 投写装置、投写装置の制御方法、プログラムおよび記憶媒体
JP2017173402A (ja) プロジェクター及びプロジェクターの制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190725

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210208

R150 Certificate of patent or registration of utility model

Ref document number: 6844159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150