JP6631181B2 - 画像投射システム、プロジェクター、及び、画像投射システムの制御方法 - Google Patents

画像投射システム、プロジェクター、及び、画像投射システムの制御方法 Download PDF

Info

Publication number
JP6631181B2
JP6631181B2 JP2015222769A JP2015222769A JP6631181B2 JP 6631181 B2 JP6631181 B2 JP 6631181B2 JP 2015222769 A JP2015222769 A JP 2015222769A JP 2015222769 A JP2015222769 A JP 2015222769A JP 6631181 B2 JP6631181 B2 JP 6631181B2
Authority
JP
Japan
Prior art keywords
image
projection
unit
projector
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015222769A
Other languages
English (en)
Other versions
JP2017092795A (ja
Inventor
裕彦 木原
裕彦 木原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015222769A priority Critical patent/JP6631181B2/ja
Priority to CN201610978330.7A priority patent/CN107018391A/zh
Priority to US15/351,270 priority patent/US20170142379A1/en
Publication of JP2017092795A publication Critical patent/JP2017092795A/ja
Application granted granted Critical
Publication of JP6631181B2 publication Critical patent/JP6631181B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43637Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/315Modulator illumination systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、画像投射システム、プロジェクター、及び、画像投射システムの制御方法に関する。
従来、プロジェクターにより投射される投射画像を撮影して、投射画像の状態を操作する技術が知られている(例えば、特許文献1参照)。特許文献1は、マーカを含む画像を投映面に投映する投映装置と、投映面を撮影した撮影画像に基づいてマーカ位置を補正する補正情報を生成し、投映装置に送信する端末装置とを備える投映システムを開示する。
特開2013−192098号公報
しかしながら、特許文献1の構成では、端末装置を、投映面を適切に撮影可能な状態に保持する必要があった。このため、ユーザーが端末装置を用いて撮影する作業が煩雑となっていた。
本発明は、上述した事情に鑑みてなされたものであり、プロジェクターにより投射される投射画像の状態を、端末装置により操作する場合の操作性を向上させることを目的する。
かかる目的を達成するために、本発明の投射システムは、プロジェクターと端末装置とを備える画像投射システムであって、前記プロジェクターは、画像を投射する投射部と、前記投射部により投射される投射画像と、前記投射画像を移動可能な領域との対応を示す対応画像を生成する生成部と、前記生成部が生成した前記対応画像を前記端末装置に送信する送信部と、を備え、前記端末装置は、表示画面を有する表示部と、前記表示画面に対する操作を受け付ける操作部と、前記プロジェクターが送信する前記対応画像を前記表示画面に表示させ、前記対応画像の表示中に、前記操作部で受け付けた操作を示す操作データを前記プロジェクターに送信する制御部と、を備え、前記プロジェクターは、前記操作データが示す操作に応じて前記投射部を制御し、前記投射画像の投射位置を移動させる制御部を備えることを特徴とする。
本発明の構成によれば、端末装置の表示画面に、プロジェクターから送信される、投射画像と、投射画像を移動可能な領域との対応を示す対応画像が表示される。従って、端末装置において、プロジェクターから送信される対応画像を目視しながら操作を行うことができる。このため、プロジェクターにより投射される投射画像の状態を、端末装置により操作する場合の操作性を向上させることができる。
また、本発明は、上記構成の画像投射システムにおいて、前記プロジェクターは、前記投射画像を撮影する撮影部を備え、前記生成部は、前記撮影部の撮影画像に基づいて前記対応画像を生成することを特徴とする。
本発明の構成によれば、プロジェクターの撮影部により撮影された撮影画像に基づいて対応画像が生成される。プロジェクターの撮影部は、投射画像を一定の位置から撮影する。このため、一定の位置から撮影した撮影画像により投射画像と、投射画像を移動可能な領域との対応が示された画像を端末装置に表示させることができる。
また、本発明は、上記構成の画像投射システムにおいて、前記投射部は、投射レンズと、前記投射レンズをシフトさせて前記投射画像の投射位置を移動させるレンズシフト機構と、を備え、前記生成部は、前記レンズシフト機構が、前記投射レンズをシフトさせることで前記投射画像を移動可能な領域を示す前記対応画像を生成することを特徴とする。
本発明の構成によれば、レンズシフト機構により投射レンズを移動可能な領域を対応画像において表示することができる。
また、本発明は、上記構成の画像投射システムにおいて、前記投射部は、投射対象に画像を投射し、前記生成部は、前記投射画像、前記移動可能な領域、及び前記投射画像と前記移動可能な領域との位置関係を示す図形データを含み、前記撮影画像から前記投射画像に対応した部分を抽出して得られる抽出画像を前記図形データに合成した前記対応画像を生成することを特徴とする。
本発明の構成によれば、投射画像、移動可能な領域、及び投射画像と移動可能な領域との位置関係を示す対応画像を生成することができる。従って、端末装置に表示される対応画像から、投射画像と移動可能な領域との位置関係を認識することができる。
また、投射画像を撮影した撮影画像から、投射画像に対応した部分を抽出して対応画像に合成しているので、対応画像において、投射画像に対応する部分を明確に示すことができる。
本発明のプロジェクターは、画像を投射する投射部と、前記投射部により投射された投射画像と、前記投射画像を移動可能な領域との対応を示す対応画像を生成する生成部と、前記生成部が生成した前記対応画像を端末装置に送信する送信部と、前記端末装置が送信する操作データが示す操作に応じて前記投射部を制御し、前記投射画像の投射位置を移動させる制御部とを備えることを特徴とする。
本発明の構成によれば、端末装置の表示画面に、投射画像と、投射画像を移動可能な領域との対応を示す対応画像を表示させ、端末装置から送信されるデータが示す操作に応じて、投射画像の投射位置を移動させる。従って、端末装置に、端末装置での操作を補助する情報を表示させ、端末装置での操作性を高めることができる。
本発明の画像投射システムの制御方法は、プロジェクターと端末装置とを備える画像投射システムの制御方法であって、前記プロジェクターにおいて、画像を投射する投射部により投射された投射画像と、前記投射画像を移動可能な領域との対応を示す対応画像を生成するステップと、前記生成するステップで生成した前記対応画像を前記端末装置に送信するステップと、を有し、前記端末装置において、前記プロジェクターが送信する前記対応画像を表示画面に表示させるステップと、前記対応画像の表示中に、前記表示画面に対する操作を操作部で受け付けるステップと、受け付けた前記操作を示す操作データを前記プロジェクターに送信するステップと、を有し、前記プロジェクターにおいて、前記操作データが示す操作に応じて、前記投射画像の投射位置を移動させるステップを有することを特徴とする。
本発明の構成によれば、端末装置の表示画面に、プロジェクターから送信される、投射画像と、投射画像を移動可能な領域との対応を示す対応画像が表示される。従って、端末装置において、プロジェクターから送信される対応画像を目視しながら操作を行うことができる。このため、プロジェクターにより投射される投射画像の状態を、端末装置により操作する場合の操作性を向上させることができる。
画像投射システムの概略構成を示す図。 プロジェクター及び端末装置の構成を示すブロック図。 プロジェクター及び端末装置の動作を示すフローチャート。 プロジェクター及び端末装置の動作を示すフローチャート。 プロジェクター及び端末装置の動作を示すフローチャート。 プロジェクター及び端末装置の動作を示すフローチャート。 位置関係画像データを示す図。 端末装置の表示パネルに表示された合成画像を示す図。
以下、図面を参照しながら本発明の実施形態について説明する。
図1は、画像投射システム1の概略構成を示す図である。画像投射システム1は、プロジェクター100と、端末装置300とを備え、プロジェクター100と端末装置300とがインターネット等のネットワークNを介して相互にデータ通信可能に接続される。
プロジェクター100の設置状態は、投射対象としてのスクリーンSCの前方に床置きした床置き設置としてもよいし、天井から吊り下げた天吊り設置としてもよい。プロジェクター100を床置き設置した場合、床に設置した台の上にプロジェクター100を置く台置き設置としてもよい。また、プロジェクター100が画像を投射する対象は、スクリーンSCや、建物の壁面等の平らな投射面であってもよいし、建物や物体など、一様に平らではない物体であってもよい。本実施形態ではスクリーンSCに画像を投射する場合を例に挙げて説明する。
また、端末装置300は、例えば、スマートフォン、携帯電話、タブレットPC(Personal Computer)、PDA(Personal Digital Assistant)等の、携帯して利用可能な通信機器である。本実施形態では、端末装置300がスマートフォンである場合を例に挙げて説明する。端末装置300は、プロジェクター100と無線通信を行い、プロジェクター100に対し、例えば、プロジェクター100が投射する画像のスクリーンSC上での表示位置の変更を指示する。
プロジェクター100は、例えば、無線ルーター(図示略)を介してネットワークNに接続される。ネットワークNは、例えば、公衆回線網や専用線等により構成される通信網であって、インターネット等のオープンなネットワークであってもよいし、特定の装置がアクセス可能なクローズドなネットワークであってもよい。無線ルーターは、プロジェクター100と端末装置300との間のデータ通信を中継する。
端末装置300は、例えば、ネットワークNに接続された基地局(図示略)に、移動体通信回線を介して接続される。基地局は、プロジェクター100と端末装置300との間のデータ通信を中継する。
図2は、プロジェクター100及び端末装置300の構成を示すブロック図である。図2(A)はプロジェクター100の構成を示し、図2(B)は端末装置300の構成を示す。
まず、プロジェクター100の構成について説明する。プロジェクター100には、画像供給装置200が接続される。画像供給装置200は、プロジェクター100に画像信号を供給する装置である。プロジェクター100は、画像供給装置200から供給される画像信号、又は後述する記憶部170に事前に記憶された画像データに基づく画像をスクリーンSCに投射する。画像供給装置200には、例えば、ビデオ再生装置、DVD(Digital Versatile Disk)再生装置、テレビチューナー装置、CATV(Cable television)のセットトップボックス、ビデオゲーム装置等の映像出力装置、パーソナルコンピューター等が用いられる。
プロジェクター100は、画像入力部151を備える。画像入力部151は、ケーブルを接続するコネクター及びインターフェース回路(いずれも図示略)を備え、ケーブルを介して接続された画像供給装置200から供給される画像信号を入力する。画像供給装置200は、入力された画像信号を画像データに変換して画像処理部152に出力する。
画像入力部151が備えるインターフェースは、例えば、Ethernet(登録商標)、IEEE1394、USB等のデータ通信用のインターフェースであってもよい。また、画像入力部151のインターフェースは、MHL(登録商標)、HDMI(登録商標)、DisplayPort等の画像データ用のインターフェースであってもよい。
また、画像入力部151は、コネクターとして、アナログ映像信号が入力されるVGA端子や、デジタル映像データが入力されるDVI(Digital Visual Interface)端子を備える構成であってもよい。さらに、画像入力部151は、A/D変換回路を備え、VGA端子を介してアナログ映像信号が入力された場合、A/D変換回路によりアナログ映像信号を画像データに変換し、画像処理部152に出力する。
プロジェクター100は、光学的な画像の形成を行い、スクリーンSCに画像を投射(表示)する表示部110を備える。表示部110は、光源としての光源部111、光変調装置112及び投射光学系113を備える。
光源部111は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)又はレーザー光源等の光源を備える。また、光源部111は、光源が発した光を光変調装置112に導くリフレクター及び補助リフレクターを備えていてもよい。さらに、光源部111は、投射光の光学特性を高めるためのレンズ群、偏光板、又は光源が発した光の光量を光変調装置112に至る経路上で低減させる調光素子等(いずれも図示略)を備えていてもよい。
光源部111は、光源駆動部121により駆動される。光源駆動部121は、内部バス180に接続される。光源駆動部121は、制御部160の制御に従って、光源部111の光源を点灯及び消灯させる。
光変調装置112は、例えばRGBの三原色に対応した3枚の液晶パネルを備える。光源部111が発する光はRGBの3色の色光に分離され、対応する液晶パネルに入射される。3枚の液晶パネルは、透過型の液晶パネルであり、透過する光を変調して画像光を生成する。各液晶パネルを通過して変調された画像光は、クロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系113に射出される。
光変調装置112には、光変調装置112の液晶パネルを駆動する光変調装置駆動部122が接続される。光変調装置駆動部122は、内部バス180に接続される。
光変調装置駆動部122は、画像処理部152から入力される表示画像データ(後述する)に基づいてR,G,Bの画像信号をそれぞれに生成する。光変調装置駆動部122は、生成したR,G,Bの画像信号に基づいて、光変調装置112の対応する液晶パネルを駆動し、各液晶パネルに画像を描画する。
投射光学系113は、光変調装置112により変調された画像光を拡大投射する投射レンズ114を備える。投射レンズ114は、光変調装置112により変調された画像光を所望の倍率でスクリーンSCに投射するズームレンズである。
投射光学系113には、投射光学系駆動部(レンズシフト機構)123が接続される。投射光学系113及び投射光学系駆動部123は投射部125を構成する。投射光学系駆動部123は、内部バス180に接続される。投射光学系駆動部123は、制御部160の制御に従って、投射レンズ114の光軸に直交する面内で投射レンズ114を移動させ、スクリーンSCに投射される画像を上下左右方向に移動させるレンズシフト調整を行う。
プロジェクター100は、操作パネル131及び入力処理部133を備える。入力処理部133は、内部バス180に接続される。
ユーザーインターフェースとして機能する操作パネル131には、各種の操作キーや、液晶パネルにて構成された表示画面が表示される。入力処理部133は、操作パネル131に表示された操作キーが操作されると、操作されたキーに対応したデータを制御部160に出力する。また、入力処理部133は、制御部160の制御に従って、操作パネル131に各種画面を表示させる。
また、操作パネル131には、操作パネル131への接触を検出するタッチセンサーが重ね合わされて一体形成される。入力処理部133は、ユーザーの指等が接触した操作パネル131の位置を入力位置として検出し、検出した入力位置に対応したデータを制御部160に出力する。
また、プロジェクター100は、ユーザーが使用するリモコン5から送信される赤外線信号を受光するリモコン受光部132を備える。リモコン受光部132は、入力処理部133に接続される。
リモコン受光部132は、リモコン5から送信される赤外線信号を受光する。入力処理部133は、リモコン受光部132が受光した赤外線信号をデコードして、リモコン5における操作内容を示すデータを生成し、制御部160に出力する。
プロジェクター100は、無線通信部(送信部)137を備える。無線通信部137は、アンテナやRF(Radio Frequency)回路(いずれも図示略)等を備え、無線LAN(Local Area Network)により無線ルーターとの通信を行う。プロジェクター100から送信されるデータは、無線LAN、ネットワークN及び移動体通信回線を介して端末装置300に送信される。無線通信部137の無線通信方式は、無線LANに限られず、Bluetooth(登録商標)、UWB、赤外線通信等の近距離無線通信方式、又は移動体通信回線を利用した無線通信方式を採用できる。
プロジェクター100は、撮影部140を備える。
撮影部140は、撮像光学系、撮像素子、インターフェース回路等を有し、制御部160の制御に従って、投射光学系113の投射方向を撮影する。
撮影部140の撮影範囲、すなわち画角は、スクリーンSCとその周辺部とを含む範囲を撮影範囲とする画角である。撮影部140は、撮影した撮影画像データを制御部160に出力する。
プロジェクター100は、画像処理系を備える。画像処理系は、プロジェクター100の全体を統括的に制御する制御部160を中心に構成され、この他に、画像処理部152、フレームメモリー153及び記憶部170を備える。制御部160、画像処理部152及び記憶部170は、内部バス180に接続される。
画像処理部152は、制御部160の制御に従って、画像入力部151から入力される画像データをフレームメモリー153に展開する。画像処理部152は、フレームメモリー153に展開された画像データに対して、例えば、解像度変換(スケーリング)処理又はリサイズ処理、歪曲収差の補正、形状補正処理、デジタルズーム処理、画像の色合いや明るさの調整等の処理を行う。画像処理部152は、制御部160により指定された処理を実行し、必要に応じて、制御部160から入力されるパラメーターを使用して処理を行う。また、画像処理部152は、上記のうち複数の処理を組み合わせて実行することも勿論可能である。
画像処理部152は、処理後の画像データをフレームメモリー153から読み出し、表示画像データとして光変調装置駆動部122に出力する。
制御部160は、CPU、ROM及びRAM(いずれも図示略)等のハードウェアを備える。ROMは、フラッシュROM等の不揮発性の記憶装置であり、制御プログラムやデータを格納する。RAMは、CPUのワークエリアを構成する。CPUは、ROMや記憶部170から読み出した制御プログラムをRAMに展開し、RAMに展開された制御プログラムを実行してプロジェクター100の各部を制御する。
また、制御部160は、機能ブロックとして、投射制御部161と、撮影制御部162と、Webサーバー実行部163とを備える。Webサーバー実行部163は、記憶部170に記憶されたWebサーバー171を実行することで実現される機能部であり、合成画像生成部(生成部)164と、認証部165と、セッション管理部166とを備える。これらの機能ブロックは、ROMや記憶部170に記憶された制御プログラムをCPUが実行することで実現される。
投射制御部161は、投射光学系駆動部123を制御して、表示部110における画像の表示態様を調整し、スクリーンSCへの画像の投射を実行する。
具体的には、投射制御部161は、画像処理部152を制御して、画像入力部151より入力された画像データに対する画像処理を実施させる。この際、投射制御部161は、画像処理部152が処理に必要なパラメーターを記憶部170から読み出して、画像処理部152に出力してもよい。
また、投射制御部161は、光源駆動部121を制御して光源部111の光源を点灯させ、光源の輝度を調整させる。これにより、光源が発光し、光変調装置112が変調する画像光が投射光学系113によりスクリーンSCに投射される。また、投射制御部161は、レンズ移動量パラメーターに基づいて、投射光学系駆動部123を制御する。投射制御部161は、投射レンズ114のレンズ位置をレンズ移動量パラメーターにより管理している。レンズ移動量パラメーターには、投射レンズ114の垂直方向の移動量を示す垂直移動量パラメーターと、投射レンズ114の水平方向の移動量を示す水平移動量パラメーターとが含まれる。
撮影制御部162は、撮影部140に撮影を実行させ、撮影部140により撮影される撮影画像データを取得する。
Webサーバー実行部163は、記憶部170に記憶されたWebサーバー171を実行して、Webブラウザー306(図2(B)参照)等のクライアントソフトウェアからの要求に応じ、ネットワークNを通じてWebページを構成するHTMLデータ等のデータのやりとりを行う。
合成画像生成部164は、合成画像を生成する。合成画像の詳細については後述するが、端末装置300の操作によりプロジェクター100にレンズシフト調整を行わせる場合に、端末装置300の表示パネル(表示画面)303に表示させる画像である。
認証部165は、ログイン要求してきたユーザーを認証する。セッション管理部166は、認証部165にて認証に成功したユーザーのセッション情報を管理する。
記憶部170は、不揮発性の記憶装置であり、例えば、フラッシュメモリー、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)、HDD(Hard Disc Drive)などの記憶装置により実現される。記憶部170は、ワールドワイドWeb(WWW)において、データ送受信の機能を持った制御プログラムであるWebサーバー171を記憶する。また、記憶部170は、登録されたユーザーを認証する認証情報として、ユーザーのユーザーIDやパスワードを記憶する。さらに記憶部170は、プロジェクター100に設定されたIPアドレスや、表示部110によりスクリーンSCに投射させる画像データであるパターン画像データ(後述する)を記憶する。
次に、端末装置300の構成について説明する。
端末装置300は、移動体通信部301、表示部302、操作入力部(操作部)304、記憶部305及び制御部310を備える。
移動体通信部301は、LTE(Long Term Evolution)回線、3G回線等の移動体通信回線に接続し、基地局との間で無線通信を行う。移動体通信回線は、音声通話だけでなく、データ通信も可能な回線である。端末装置300から送信されたデータは、移動体通信回線、ネットワークN及び無線LANを介してプロジェクター100に送られる。
表示部302は、液晶ディスプレイ等の表示パネル(表示画面)303を備える。表示部302は、制御部310の制御に従い、表示パネル303に画像を表示させる。表示パネル303は、液晶ディスプレイに限られず、有機EL(electro-luminescence)ディスプレイであってもよい。
操作入力部304は、指やタッチペンの表示パネル303への接触を検出するタッチセンサーを備える。タッチセンサーの方式は、静電容量式や、超音波式、感圧式、抵抗膜式、光検知式等のいずれの方式であってもよく、表示パネル303と一体的に構成される。操作入力部304は、指示体が接触した表示パネル303の位置を特定し、特定した位置を示すデータ(座標データ)を制御部310に出力する。
また、操作入力部304は、表示部302の周囲に配置された複数の押しボタンキーを備える。操作入力部304は、押しボタンキーの押下操作を受け付け、受け付けた押しボタンキーに設定された操作を示すデータを制御部310に出力する。
記憶部305は、制御部310のCPUが実行するOS(Operating System)や、汎用のWebブラウザー306等のアプケーションプログラムを記憶する。また、記憶部305は、制御部310が処理するデータを不揮発的に記憶する。
制御部310は、ハードウェアとしてCPUや、ROM、RAMを備え、CPUが、ROMや記憶部305に記憶された制御プログラムをRAMに展開し、展開した制御プログラムを実行することで端末装置300の各部を制御する。制御部310は、記憶部305が記憶するWebブラウザー306を実行して、サーバーとして機能するプロジェクター100との間で、Webページを構成するHTMLデータ等のデータのやりとりを行う。
図3〜図6は、プロジェクター100及び端末装置300の動作を示すフローチャートである。
ユーザーは、端末装置300を操作して、Webブラウザー306を起動させる。Webブラウザー306を起動させる端末装置300の操作には、押しボタンキーの操作又は表示パネル303に対するタッチ操作が含まれる。端末装置300の制御部310は、Webブラウザー306を起動させる操作を受け付けるまで(ステップS1/NO)、待機する。また、制御部310は、Webブラウザー306を起動させる操作を受け付けると(ステップS1/YES)、Webブラウザー306を実行する(ステップS2)。
次に、ユーザーは、表示パネル303に表示されたWebブラウザー306の表示画面において、プロジェクター100のIPアドレスを入力する。プロジェクター100の制御部160は、IPアドレスの表示要求を操作パネル131又はリモコン5から受け付けた場合、プロジェクター100に設定されたIPアドレスを、操作パネル131に表示させてもよい。また、制御部160は、プロジェクター100のIPアドレスやIPアドレスに対応したURLを、プロジェクター100への接続情報として有するQRコード(登録商標)等の2次元コードをスクリーンSCに表示させてもよい。ユーザーは、端末装置300に搭載されたカメラ(図示略)により2次元コードを撮影する。端末装置300の制御部310は、カメラの撮影画像データから2次元コードを解析して接続情報を取り出し、端末装置300をプロジェクター100に接続させる。
次に、端末装置300の制御部310は、Webブラウザー306により表示される表示画面のアドレスバーに、IPアドレスが入力されたか否かを判定する(ステップS3)。IPアドレスの入力がない場合(ステップS3/NO)、制御部310は、IPアドレスが入力されるまで待機する。また、制御部310は、IPアドレスを受け付けると(ステップS3/YES)、受け付けたIPアドレスにより特定されるプロジェクター100(Webサーバー171)に、Webページのデータの取得要求を送信する(ステップS4)。
プロジェクター100のWebサーバー実行部163は、ネットワークNを介したWebページのデータの取得要求を受信するまで(ステップT1/NO)、待機する。
プロジェクター100のWebサーバー実行部163は、Webページのデータの取得要求を受信すると(ステップT1/YES)、ID及びパスワードを入力可能なWebページのデータを、Webページのデータの取得要求を受信した端末装置300に送信する(ステップT2)。
端末装置300は、プロジェクター100からネットワークNを介して送信されるWebページのデータを移動体通信部301で受信する。制御部310は、移動体通信部301により受信したWebページのデータを表示パネル303に表示させる(ステップS5)。
表示パネル303に表示されたWebページには、ID及びパスワードの入力欄が表示される。ユーザーは、押しボタンキーの操作やタッチ操作により、Webページに表示された入力欄に、ID及びパスワードを入力する。制御部310は、押しボタンキーの操作やタッチ操作により、ID及びパスワードが入力されたか否かを判定し(ステップS6)、入力がない場合には(ステップS6/NO)、入力があるまで待機する。また、制御部310は、ID及びパスワードを受け付けると(ステップS6/YES)、受け付けたID及びパスワードをプロジェクター100に送信する(ステップS7)。
プロジェクター100のWebサーバー実行部163は、端末装置300から送信されるID及びパスワードを受信するまで(ステップT3/NO)、処理を待機する。端末装置300から送信されるID及びパスワードを受信すると(ステップT3/YES)、Webサーバー実行部163は、受信したID及びパスワードが、記憶部170に記憶されたID及びパスワードと一致するか否かを判定し、ユーザー認証を行う(ステップT4)。受信したID及びパスワードと、記憶部170に記憶されたID及びパスワードとが一致しない場合、Webサーバー実行部163は、ユーザー認証失敗と判定する(ステップT5/NO)。この場合、Webサーバー実行部163は、端末装置300にログインエラーを通知し(ステップT6)、ユーザーに再度ID及びパスワードの入力を要求する。
端末装置300の制御部310は、プロジェクター100からログインエラーの通知を受信した場合、認証に失敗したと判定し(ステップS8/NO)、表示パネル303に、ログインエラーを表示させる(ステップS9)。この後、プロジェクター100のWebサーバー実行部163は、端末装置300から新たなID及びパスワードが送信されるまで待機し(ステップT3)、新たなID及びパスワードを受信すると(ステップT3/YES)、再度、ユーザー認証を行う(ステップT4)。Webサーバー実行部163は、ユーザー認証に失敗した場合(ステップT5/NO)、ログインエラーを端末装置300に通知するが(ステップT6)、事前に設定された回数、ユーザー認証に失敗している場合、ユーザー認証を中止して該当のユーザーが一定期間ログインできないように処理してもよい。
また、Webサーバー実行部163は、受信したID及びパスワードと、記憶部170に記憶されたID及びパスワードとが一致した場合、ユーザー認証に成功したと判定する(ステップT5/YES)。この場合、Webサーバー実行部163は、端末装置300を操作してプロジェクター100を制御することが可能な機能の一覧が表示されるWebページのデータを端末装置300に送信する(ステップT7)。端末装置300の制御部310は、認証に成功したと判定し(ステップS8/YES)、表示パネル303にWebページを表示させる(ステップS10)。このWebページには、例えば、レンズシフト調整や、画像の色や明るさの調整、スクリーンSCに投射される画像の形状補正等の機能が表示される。
ユーザーは、Webページが表示された表示パネル303上で、タッチ操作や押しボタンキーの操作により、レンズシフト調整の機能を選択する。
制御部310は、操作入力部304から入力されるデータに基づいて、操作を受け付けたか否かを判定する(ステップS11)。制御部310は、操作入力部304からデータの入力がない場合、操作を受け付けていないと判定して(ステップS11/NO)、データが入力されるまで待機する。制御部310は、操作入力部304からデータが入力され、操作を受け付けたと判定すると(ステップS11/YES)、受け付けた操作により選択された機能の実行を指示する指示コマンドを生成する(ステップS12)。制御部310は、移動体通信部301を制御して、生成した指示コマンドを無線通信によりプロジェクター100に送信する(ステップS13)。
プロジェクター100のWebサーバー実行部163は、端末装置300から送信される指示コマンドを無線通信部137により受信したか否かを判定する(ステップT8)。指示コマンドを受信していない場合(ステップT8/NO)、Webサーバー実行部163は、指示コマンドを受信するまで待機する。また、指示コマンドを受信した場合(ステップT8/YES)、Webサーバー実行部163は、受信した指示コマンドがレンズシフト調整の実行を指示するコマンドであるか否かを判定する(ステップT9)。レンズシフト調整の実行を指示するコマンドではない場合(ステップT9/NO)、Webサーバー実行部163は、受信した指示コマンドに対応した処理を実行(ステップT10)し、ステップT8の判定に戻る。
また、受信した指示コマンドがレンズシフト調整の実行を指示するコマンドである場合(ステップT9/YES)、制御部160は、合成画像生成部164により位置関係画像データを生成する(ステップT11)。
図7は、位置関係画像データを示す図である。
位置関係画像データは、レンズシフト可能領域(投射画像を移動可能な領域)と、投射領域との相対関係を示す画像データである。位置関係画像データには、レンズシフト可能領域を示す図形データ501と、レンズシフト可能領域内での投射領域のサイズや位置を示す図形データ502とが表示される。
レンズシフト可能領域は、レンズシフト調整によって投射レンズ114の光軸に直交する面内で投射レンズ114を移動させることにより、画像を投射可能な範囲を示す。投射領域は、投射レンズ114の現在のレンズ位置で、投射される画像の範囲を示す。また、以下では、プロジェクター100によりスクリーンSCに投射された画像を投射画像という。
合成画像生成部164は、レンズシフト調整処理が開始されると、まず、投射制御部161からレンズ移動量パラメーター(垂直移動量パラメーター及び水平移動量パラメーター)と、投射レンズ114のズーム倍率とを取得する。
合成画像生成部164は、取得した垂直移動量パラメーターの現在の値と、垂直移動量パラメーターがとり得る値の範囲とに基づいて、垂直方向における投射領域とレンズシフト可能領域との相対関係を判定する。また、合成画像生成部164は、水平移動量パラメーターの現在の値と、水平移動量パラメーターがとり得る値の範囲とに基づいて、水平方向における投射領域とレンズシフト可能領域との相対関係を判定する。また、合成画像生成部164は、取得したズーム倍率に基づいて、投射レンズ114の投射領域を判定する。合成画像生成部164は、判定したこれらの情報に基づいて、位置関係画像データを生成する。
次に、合成画像生成部164は、記憶部170からパターン画像データを読み出し、読み出したパターン画像データを画像処理部152に出力する。パターン画像データには、例えば、事前に設定された一定の色や模様の画像が形成されている。また、パターン画像データは、パターン画像データに基づく画像をスクリーンSCに投射して撮影部140により撮影した際に、撮影部140により撮影される撮影画像データからパターン画像データに基づく画像を特定することが可能な画像であればよい。なお、以下では、パターン画像データに基づく画像を、単にパターン画像という。
画像処理部152は、合成画像生成部164から入力されたパターン画像データを表示画像データとして光変調装置駆動部122に出力する。光変調装置駆動部122は、表示画像データに基づいてR,G,Bの画像信号をそれぞれに生成し、生成したこれらの画像信号に基づく画像(パターン画像)を光変調装置112の液晶パネルに描画する。光変調装置112の液晶パネルに描画されたパターン画像は、投射光学系113によりスクリーンSCに投射される(ステップT12)。
次に、撮影制御部162は、撮影部140を制御して、スクリーンSCとその周辺部分を含む範囲を撮影し、撮影画像データを生成する(ステップT13)。撮影部140は、生成した撮影画像データを制御部160に出力する。
合成画像生成部164は、撮影部140から送られた撮影画像データを入力し、入力した撮影画像データから、パターン画像が撮影された範囲(以下、パターン撮影画像(抽出画像)という)を特定する。そして、合成画像生成部164は、特定したパターン撮影画像を、位置関係画像データの投射領域を示す図形データ502に対応付ける形状変換のパラメーターを算出する(ステップT14)。
例えば、合成画像生成部164は、特定したパターン撮影画像の縦方向のサイズと、投射領域を示す図形データ502の縦方向のサイズとを比較して、パターン撮影画像のサイズが投射領域を示す図形データ502のサイズに一致、又はパターン撮影画像が投射領域を示す図形データ502内に納まるように変換するパラメーターを算出する。同様に、合成画像生成部164は、パターン撮影画像の横方向のサイズと、投射領域を示す図形データ502の横方向のサイズとを比較して、パターン撮影画像のサイズが投射領域を示す図形データ502のサイズに一致、又はパターン撮影画像が投射領域を示す図形データ502内に納まるように変換するパラメーターを算出する。
また、撮影画像データから特定したパターン撮影画像が矩形の画像ではなかった場合、パターン撮影画像の形状が矩形となるように形状補正をした後に、パラメーターを算出してもよい。
次に、合成画像生成部164は、生成した垂直方向及び水平方向のパラメーターを用いて撮影画像データを形状変換する(ステップT15)。そして、合成画像生成部164は、形状変換した撮影画像データを位置関係画像データに合成して、合成画像データ(対応画像)を生成する(ステップT16)。合成画像生成部164は、撮影画像データのうち、パターン撮影画像を位置関係画像データの投射領域を示す図形データ502内に合成する。また、合成画像生成部164は、パターン撮影画像以外の撮影画像データを、図形データ502の外側に合成して合成画像データを生成する。
なお、撮影画像データのサイズが、位置関係画像データの図形データ501よりも大きく、撮影画像データが図形データ501の外側にはみ出る場合には、はみ出した部分の撮影画像データを削除してもよい。
次に、合成画像生成部164は、無線通信部137を制御して、生成した合成画像データと、合成画像データにおける投射領域の範囲を示す座標データとを端末装置300に送信する(ステップT17)。座標データは、例えば、合成画像データの左上を原点とする座標系における座標を示すデータである。
端末装置300の制御部310は、プロジェクター100から送信されるデータを移動体通信部301により受信したか否かを判定する(ステップS14)。制御部310は、データを受信していない場合(ステップS14/NO)、データを受信するまで待機する(ステップS14)。また、制御部310は、データを受信した場合(ステップS14/YES)、受信したデータに合成画像データが含まれるか否かを判定する(ステップS15)。受信したデータに合成画像データが含まれていない場合(ステップS15/NO)、制御部310は、受信したデータに応じた処理を行い(ステップS16)、ステップS14の処理に戻る。
また、制御部310は、受信したデータに、合成画像データが含まれる場合(ステップS15/YES)、合成画像データを表示パネル303に表示させる(ステップS17)。合成画像データ(対応画像)を表示パネル303に表示させる動作には、端末装置300の制御部310が、合成画像データをリサイズ等の画像処理を行い、リサイズ処理後の合成画像データを表示パネル303に表示させる動作が含まれる。
制御部310は、例えば、受信した合成画像データの縦横比が、表示パネル303の縦横比と一致しない場合、合成画像データをリサイズ処理して、表示パネル303に表示させる。この際、制御部310は、投射領域の範囲を示す座標データに基づいて、リサイズ処理前の合成画像データにおけるレンズシフト可能領域と投射領域との相対関係が、リサイズ処理後の合成画像データにおいても維持されるようにする。
図8は、端末装置300の表示パネル303に表示された合成画像を示す図である。
合成画像には、レンズシフト可能領域を示す図形データ501と、投射領域を示す図形データ502とが表示される。投射領域を示す図形データ502の内部には、上述したパターン撮影画像が表示され、図形データ501と図形データ502との間には、パターン撮影画像以外の撮影画像データが表示される。
ユーザーは、スワイプ操作により、スクリーンSCにおける投射領域の位置の変更を指示する。スワイプ操作とは、指を表示パネル303に接触させた状態で滑らせる(移動させる)操作である。操作入力部304は、ユーザーの指の接触を検知した表示パネル303の位置(以下、第1位置という)と、指が表示パネル303から離れた表示パネル303の位置(すなわち、指の接触を最後に検出した位置、以下、第2位置という)とを示す座標(表示パネル303上の座標)を特定し、特定した座標データを制御部310に出力する。
制御部310は、操作入力部304からの入力に基づいて、操作を受け付けたか否かを判定する(ステップS18)。制御部310は、操作入力部304からのデータ入力がない場合、操作を受け付けていないと判定し(ステップS18/NO)、操作入力部304から信号を入力されるまで待機する。また、操作入力部304からデータを入力すると、制御部310は、操作を受け付けたと判定し(ステップS18/YES)、受け付けた操作がスワイプ操作であるか否かを入力されたデータに基づいて判定する(ステップS19)。
制御部310は、操作入力部304から第1位置及び第2位置の座標データが入力された場合には、受け付けた操作がスワイプ操作であると判定する(ステップS19/YES)。また、制御部310は、操作入力部304から入力されるデータが、第1位置及び第2位置を示す座標データ以外のデータである場合、受け付けた操作がスワイプ操作ではないと判定する(ステップS19/NO)。受け付けた操作がスワイプ操作ではない場合(ステップS19/NO)の処理については後述する。
受け付けた操作がスワイプ操作である場合(ステップS19/YES)、制御部310は、操作入力部304から入力される第1位置及び第2位置の座標データに基づいて、投射領域を移動させる移動方向及び移動量を決定する。制御部310は、第1位置の座標から、第2位置の座標に向かう方向を投射領域の移動方向として決定する(ステップS20)。また、制御部310は、第1位置と第2位置との距離を算出し、算出した距離に基づいて投射領域を移動させる移動量を決定する(ステップS20)。制御部310は、投射領域の移動方向及び移動量を決定すると、決定した移動方向及び移動量を示すデータ(操作データ)をプロジェクター100に送信する(ステップS21)。
制御部310は、移動方向及び移動量を示すデータをプロジェクター100に送信すると(ステップS21)、ステップS14の判定に戻り、プロジェクター100から送信されるデータを受信するまで待機する。
プロジェクター100は、端末装置300から送信されるデータを無線通信部137により受信したか否かを判定する(ステップT18)。データを受信していない場合(ステップT18/NO)、制御部160は、データを受信するまで待機する(ステップT18)。また、データを受信した場合(ステップT18/YES)、制御部160は、受信したデータが投射領域の移動方向及び移動量を示すデータであるか否かを判定する(ステップT19)。
受信したデータが投射領域の移動方向及び移動量を示すデータである場合(ステップT19/YES)、制御部160は、投射制御部(制御部)161により、入力したデータに基づいて、投射光学系駆動部123のステッピングモーターの回転方向及び回転量を制御する制御信号を生成する。投射制御部161は、生成した制御信号を投射光学系駆動部123に出力する。投射光学系駆動部123は、投射制御部161から入力される制御信号に従ってステッピングモーターを駆動し、投射レンズ114のレンズ位置を変更する(ステップT20)。これにより、スクリーンSCに投射される投射画像が、スワイプ操作に対応した方向に、対応した距離だけ移動する。
この後、プロジェクター100の制御部160は、図4に示すステップT11に戻り、現在の投射領域と、レンズシフト可能領域との相対関係を示す位置関係画像データの生成から再度行う。
また、端末装置300において、ステップS19の判定がスワイプ操作を示す操作ではないと判定されると(ステップS19/NO)、制御部310は、操作入力部304から入力されたデータが、レンズシフト調整を終了させる操作を示すデータであるか否かを判定する(ステップS22)。
制御部310は、入力されたデータが、レンズシフト調整を終了させる操作を示すデータではない場合(ステップS22/NO)、入力されたデータが示す操作に対応した処理を実行し(ステップS23)、ステップS18の判定に戻る。また、制御部310は、入力されたデータが、レンズシフト調整を終了させる操作を示すデータである場合(ステップS22/YES)、レンズシフト調整の終了を指示する終了コマンドを生成し、移動体通信部301によりプロジェクター100に送信する(ステップS24)。
プロジェクター100の制御部160は、ステップT19の判定において、受信したデータが投射領域の移動方向及び移動量を示すデータではないと判定した場合(ステップT19/NO)、受信したデータが終了コマンドであるか否かを判定する(ステップT21)。
受信したデータが終了コマンドではない場合(ステップT21/NO)、制御部160は、受信したデータに応じた処理を行い(ステップT22)、ステップT18の判定に戻り、端末装置300から送信されるデータを受信するまで待機する。また、受信したデータが終了コマンドである場合(ステップT21/YES)、制御部160は、レンズシフト調整の処理を終了させ、例えば、画像供給装置200から供給される画像信号を処理して、スクリーンSCに投射する画像投射モードに移行する。
以上のように画像投射システム1及び画像投射システム1の制御方法の実施形態では、プロジェクター100は、投射光学系113と、合成画像生成部164と、無線通信部137と、投射制御部161とを備える。
投射光学系113は、画像をスクリーンSCに投射する。合成画像生成部164は、投射光学系113により投射される投射画像と、投射画像を移動可能な領域との対応を示す合成画像を生成する。無線通信部137は、合成画像生成部164が生成した合成画像を端末装置300に送信する。投射制御部161は、端末装置300が送信するデータが示す操作に応じて投射光学系113を制御し、投射画像の投射位置を移動させる。
また、端末装置300は、表示パネル303を有する表示部302と、表示パネル303に対する操作を受け付ける操作入力部304と、制御部310とを備える。制御部310は、プロジェクター100が送信する画像を表示パネル303に表示させ、画像の表示中に、操作入力部304で受け付けた操作を示すデータをプロジェクター100に送信させる。
従って、端末装置300において、プロジェクターから送信される合成画像を目視しながら操作を行うことができる。このため、プロジェクター100により投射される投射画像の状態を、端末装置300により操作する場合の操作性を向上させることができる。
例えば、スクリーンSCを端末装置300により撮影し、撮影画像を端末装置300に表示させて操作を行う構成の場合、ユーザーは、スクリーンSCを適切に撮影できるように端末装置300を保持する必要があった。また、レンズシフト調整の場合、投射画像の投射位置の変化が認識できるように、一定の位置及び一定の角度で撮影することが好ましいが、ユーザーが端末装置300を手に持って投射画像を撮影する場合、一定の位置及び一定の角度での撮影は難しい。
これに対し本実施形態は、プロジェクター100に搭載された撮影部140により撮影を行うため、一定の位置及び一定の角度で投射画像を撮影することができる。このため投射画像の投射位置の変化を認識可能な合成画像を合成画像生成部164が生成することができる。
また、端末装置300においてユーザーの操作を受け付け、プロジェクター100が、端末装置300から送信された操作を示すデータに対応した処理を行うと、プロジェクター100により投射される投射画像の状態が変化する。このため、端末装置300により投射画像を撮影する構成の場合、ユーザーは、端末装置300において操作を行うたびに、端末装置300を、スクリーンSCを適切に撮影できるように保持し、投射画像を撮影する必要があった。
これに対し本実施形態は、プロジェクター100に搭載された撮影部140が投射画像を撮影し、撮影画像に基づいて生成した合成画像を端末装置300に送信する構成であるため、ユーザーは、端末装置300を、スクリーンSCを適切に撮影できるように保持する必要はない。
また、投射部125は、投射レンズ114と、投射レンズ114をシフトさせて投射画像の投射位置を移動させる投射光学系駆動部123とを備える。合成画像生成部164は、投射光学系駆動部123が、投射レンズ114をシフトさせることで投射画像を移動可能な領域を示す合成画像を生成する。従って、レンズシフト調整により投射レンズ114のレンズ位置を移動可能な領域を合成画像において表示することができる。
また、合成画像生成部164は、投射画像、レンズシフト可能領域、及び投射画像とレンズシフト可能領域との位置関係を示す合成画像を生成する。従って、端末装置300に表示される合成画像から、投射画像とレンズシフト可能領域との位置関係を把握することができる。
また、合成画像には、撮影画像データから投射画像に対応した部分を抽出して得られるパターン撮影画像を図形データ502に合成して合成画像を生成する。従って、合成画像において、投射画像に対応する部分を明確に示すことができる。
上述した実施形態は、本発明の好適な実施形態を示すものであり、本発明を限定するものではなく、本発明の要旨を逸脱しない範囲内において種々の変形実施が可能である。
例えば、上述した実施形態では、スクリーンSCにおける投射領域の位置の変更を、端末装置300の表示パネル303に対するスワイプ操作によって行っていたが、押しボタンキー等の操作により、投射領域の移動方向及び移動距離を指定してもよい。
また、上述した実施形態では、端末装置300の制御部310がWebブラウザー306を実行し、プロジェクター100は、Webブラウザー306の要求に応じてWebページを提供するWebサーバー171を実行することで図3〜図6のフローチャートに示す処理を行った。この他に、端末装置300に専用のアプケーションプログラムをインストールして、端末装置300の制御部310に、このアプケーションプログラムを実行させ、端末装置300の処理を実現させてもよい。この場合、端末装置300とプロジェクター100とを、無線LAN、Bluetooth、UWB、赤外線通信等の近距離無線通信方式、又は移動体通信回線を利用した無線通信方式によりデータ通信可能に接続することもできる。
端末装置300は、アプケーションプログラムを実行し、操作入力部304で受け付けた操作を示すデータをプロジェクター100に送信する。プロジェクター100は、端末装置300から送信されるデータを受信し、受信したデータに応じて投射レンズ114のレンズ位置を変更する。
また、図2に示すプロジェクター100及び端末装置300の各機能部は、ハードウェアとソフトウェアとの協働により実現される機能的構成を示すものであって、具体的な実装形態は特に制限されない。従って、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、又ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。
1…画像投射システム、100…プロジェクター、110…表示部、111…光源部、112…光変調装置、113…投射光学系、114…投射レンズ、121…光源駆動部、122…光変調装置駆動部、123…投射光学系駆動部(レンズシフト機構)、125…投射部、131…操作パネル、132…リモコン受光部、133…入力処理部、137…無線通信部(送信部)、140…撮影部、151…画像入力部、152…画像処理部、153…フレームメモリー、160…制御部、161…投射制御部、162…撮影制御部、163…Webサーバー実行部、164…合成画像生成部(生成部)、165…認証部、166…セッション管理部、170…記憶部、171…Webサーバー、200…画像供給装置、300…端末装置、301…移動体通信部、302…表示部、303…表示パネル(表示画面)、304…操作入力部(操作部)、305…記憶部、306…Webブラウザー、310…制御部、SC…スクリーン(投射対象)。

Claims (4)

  1. プロジェクターと端末装置とを備える画像投射システムであって、
    前記プロジェクターは、
    画像を投射する投射部と、
    前記投射部が投射した投射画像を撮影する撮影部と、
    前記撮影部が撮影した撮影画像に基づいて、前記投射画像と、前記投射画像を移動可能な領域との対応を示す対応画像を生成する生成部と、
    前記生成部が生成した前記対応画像を前記端末装置に送信する送信部と、を備え、
    前記端末装置は、
    表示画面を有する表示部と、
    前記表示画面に対する操作を受け付ける操作部と、
    前記プロジェクターが送信する前記対応画像を前記表示画面に表示させ、前記対応画像の表示中に、前記操作部で受け付けた操作を示す操作データを前記プロジェクターに送信する制御部と、を備え、
    前記プロジェクターは、前記操作データが示す操作に応じて前記投射部を制御し、前記投射画像の投射位置を移動させる制御部を備え
    前記生成部は、前記投射画像、前記移動可能な領域、及び前記投射画像と前記移動可能な領域との位置関係を示す図形データを含み、前記撮影画像から前記投射画像に対応した部分を抽出して得られる抽出画像を前記図形データに合成した前記対応画像を生成する、ことを特徴とする画像投射システム。
  2. 記投射部は、投射レンズと、前記投射レンズをシフトさせて前記投射画像の投射位置を移動させるレンズシフト機構と、を備え、
    前記生成部は、前記レンズシフト機構が、前記投射レンズをシフトさせることで前記投射画像を移動可能な領域を示す前記対応画像を生成する、ことを特徴とする請求項1記載の画像投射システム。
  3. 画像を投射する投射部と、
    前記投射部が投射した投射画像を撮影する撮影部と、
    前記撮影部が撮影した撮影画像に基づいて、前記投射画像と、前記投射画像を移動可能な領域との対応を示す対応画像を生成する生成部と、
    前記生成部が生成した前記対応画像を端末装置に送信する送信部と、
    前記端末装置から受信した操作データが示す操作に応じて前記投射部を制御し、前記投射画像の投射位置を移動させる制御部と、を備え、
    前記生成部は、前記投射画像、前記移動可能な領域、及び前記投射画像と前記移動可能な領域との位置関係を示す図形データを含み、前記撮影画像から前記投射画像に対応した部分を抽出して得られる抽出画像を前記図形データに合成した前記対応画像を生成する、ことを特徴とするプロジェクター。
  4. プロジェクターと端末装置とを備える画像投射システムの制御方法であって、
    前記プロジェクターにおいて、
    画像を投射するステップと、
    前記投射するステップにより投射された投射画像を撮影するステップと、
    前記撮影するステップにより撮影された撮影画像に基づいて、前記投射画像と、前記投射画像を移動可能な領域との対応を示す対応画像を生成するステップと、
    生成するステップで生成した前記対応画像を前記端末装置に送信するステップと、を有し、
    前記端末装置において、
    前記プロジェクターから受信した前記対応画像を表示画面に表示させるステップと、
    前記対応画像の表示中に、前記表示画面に対する操作を操作部で受け付けるステップと、
    受け付けた前記操作を示す操作データを前記プロジェクターに送信するステップと、を有し、
    前記プロジェクターにおいて、
    前記操作データが示す操作に応じて、前記投射画像の投射位置を移動させるステップを有し、
    前記生成するステップは、前記投射画像、前記移動可能な領域、及び前記投射画像と前記移動可能な領域との位置関係を示す図形データを含み、前記撮影画像から前記投射画像に対応した部分を抽出して得られる抽出画像を前記図形データに合成した前記対応画像を生成する、ことを特徴とする画像投射システムの制御方法。
JP2015222769A 2015-11-13 2015-11-13 画像投射システム、プロジェクター、及び、画像投射システムの制御方法 Active JP6631181B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015222769A JP6631181B2 (ja) 2015-11-13 2015-11-13 画像投射システム、プロジェクター、及び、画像投射システムの制御方法
CN201610978330.7A CN107018391A (zh) 2015-11-13 2016-11-07 图像投射系统、投影仪以及图像投射系统的控制方法
US15/351,270 US20170142379A1 (en) 2015-11-13 2016-11-14 Image projection system, projector, and control method for image projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015222769A JP6631181B2 (ja) 2015-11-13 2015-11-13 画像投射システム、プロジェクター、及び、画像投射システムの制御方法

Publications (2)

Publication Number Publication Date
JP2017092795A JP2017092795A (ja) 2017-05-25
JP6631181B2 true JP6631181B2 (ja) 2020-01-15

Family

ID=58690642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015222769A Active JP6631181B2 (ja) 2015-11-13 2015-11-13 画像投射システム、プロジェクター、及び、画像投射システムの制御方法

Country Status (3)

Country Link
US (1) US20170142379A1 (ja)
JP (1) JP6631181B2 (ja)
CN (1) CN107018391A (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6747025B2 (ja) * 2016-04-13 2020-08-26 セイコーエプソン株式会社 表示システム、表示装置、及び、表示システムの制御方法
JP6671549B2 (ja) * 2017-06-19 2020-03-25 三菱電機株式会社 表示編集装置、携帯機器、表示編集方法、および、表示編集プログラム
US10349025B2 (en) * 2017-07-27 2019-07-09 Seiko Epson Corporation Projector and method of controlling projector
JP7070049B2 (ja) * 2017-07-27 2022-05-18 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
CN107561833B (zh) * 2017-09-13 2020-08-18 明基智能科技(上海)有限公司 投影机
CN109951691A (zh) * 2017-12-20 2019-06-28 深圳光峰科技股份有限公司 投影画面的校正方法、装置以及投影系统
US10827053B2 (en) * 2018-05-21 2020-11-03 Metropolitan Industries, Inc. Message projector
CN110515573B (zh) * 2018-05-21 2022-07-22 腾讯科技(深圳)有限公司 投屏方法、装置、系统和计算机设备
JP7172169B2 (ja) * 2018-06-21 2022-11-16 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP7155697B2 (ja) * 2018-07-18 2022-10-19 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP2020025209A (ja) * 2018-08-08 2020-02-13 セイコーエプソン株式会社 通信システム、通信方法、表示装置、及び通信端末
JP7230370B2 (ja) * 2018-08-28 2023-03-01 セイコーエプソン株式会社 プロジェクター、及びプロジェクターの制御方法
JP7127459B2 (ja) * 2018-09-28 2022-08-30 株式会社リコー 画像投影装置及びその制御方法
CN109547757A (zh) * 2018-10-30 2019-03-29 深圳小淼科技有限公司 一种投影方法、智能投影电视以及计算机可读存储介质
WO2020100235A1 (ja) * 2018-11-14 2020-05-22 コネクトフリー株式会社 情報処理方法、情報処理プログラム、情報処理装置及び情報処理システム
JP6915632B2 (ja) * 2019-01-15 2021-08-04 セイコーエプソン株式会社 プロジェクターの制御方法、プロジェクターおよび投写システム
CN110166823B (zh) * 2019-06-26 2021-11-23 北京奇艺世纪科技有限公司 投屏方法及相关装置
JP6919685B2 (ja) * 2019-07-29 2021-08-18 セイコーエプソン株式会社 画面投射システムの制御方法、及び画面投射システム
JP2021158625A (ja) * 2020-03-30 2021-10-07 セイコーエプソン株式会社 設定支援方法、及び設定支援装置
WO2021213097A1 (zh) 2020-04-24 2021-10-28 海信视像科技股份有限公司 一种显示设备及投屏方法
CN113556590B (zh) * 2020-04-24 2022-11-11 海信视像科技股份有限公司 一种投屏视频流有效分辨率检测方法及显示设备
CN112437284A (zh) * 2020-11-23 2021-03-02 海信视像科技股份有限公司 一种投影画面校正方法、终端设备及显示设备
JP7196899B2 (ja) * 2020-12-10 2022-12-27 セイコーエプソン株式会社 投写方法、投写システム、及びプログラム

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5848373A (en) * 1994-06-24 1998-12-08 Delorme Publishing Company Computer aided map location system
JP2000089913A (ja) * 1998-09-08 2000-03-31 Gunze Ltd タッチパネル入力座標変換装置
US7129934B2 (en) * 2003-01-31 2006-10-31 Hewlett-Packard Development Company, L.P. Collaborative markup projection system
JP3846444B2 (ja) * 2003-03-31 2006-11-15 セイコーエプソン株式会社 投写面上に画像を表示させずに行う画像の表示領域の決定
US7712903B2 (en) * 2006-01-26 2010-05-11 Fuji Xerox Co., Ltd. Remote instruction system, remote instruction method and program product for remote instruction
CN101479659B (zh) * 2006-07-03 2011-02-16 松下电器产业株式会社 投影系统及影像投射方法
JP4665949B2 (ja) * 2007-07-10 2011-04-06 カシオ計算機株式会社 表示制御装置、情報端末装置、表示制御プログラム
JP4438870B2 (ja) * 2008-02-05 2010-03-24 富士ゼロックス株式会社 指示システム、指示プログラム及び指示装置
FR2933511A1 (fr) * 2008-07-04 2010-01-08 Optinnova Dispositif et procede de visualisation interactif utilisant une camera de detection et un pointeur optique
CN102656543A (zh) * 2009-09-22 2012-09-05 泊布欧斯技术有限公司 计算机装置的远程控制
JP2011154345A (ja) * 2009-12-28 2011-08-11 Sanyo Electric Co Ltd 投写型映像表示装置及び画像調整方法
US8751970B2 (en) * 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US8539384B2 (en) * 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
JP5504976B2 (ja) * 2010-03-02 2014-05-28 セイコーエプソン株式会社 プロジェクター、およびプロジェクターの制御方法
JP5522381B2 (ja) * 2010-03-15 2014-06-18 セイコーエプソン株式会社 表示装置、端末装置、表示システム、プログラム、情報記憶媒体、表示方法および画像変更方法
WO2012020868A1 (ko) * 2010-08-13 2012-02-16 엘지전자 주식회사 이동단말기, 디스플레이 장치 및 그 제어 방법
JP2012108479A (ja) * 2010-10-28 2012-06-07 Seiko Epson Corp 投射型表示装置及びその制御方法
JP5938638B2 (ja) * 2011-01-13 2016-06-22 パナソニックIpマネジメント株式会社 インタラクティブプレゼンシステム
US8806352B2 (en) * 2011-05-06 2014-08-12 David H. Sitrick System for collaboration of a specific image and utilizing selected annotations while viewing and relative to providing a display presentation
US9658766B2 (en) * 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
JP2012253716A (ja) * 2011-06-07 2012-12-20 Nec Saitama Ltd 携帯端末、携帯端末の操作方法、携帯端末の操作プログラム、動画再生システム
US8872799B2 (en) * 2011-06-20 2014-10-28 The Regents Of The University Of California Scalable distributed/cooperative/collaborative paradigm for multi-user interaction with projection-based display walls
JP6011157B2 (ja) * 2011-09-05 2016-10-19 株式会社リコー 投影システム、投影装置、センサ装置、発電制御方法及び発電制御プログラム
KR101303939B1 (ko) * 2011-10-17 2013-09-05 한국과학기술연구원 디스플레이 장치 및 컨텐츠 디스플레이 방법
JP2013109185A (ja) * 2011-11-22 2013-06-06 Canon Inc 投射型表示装置
JP6064319B2 (ja) * 2011-12-27 2017-01-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
US9513793B2 (en) * 2012-02-24 2016-12-06 Blackberry Limited Method and apparatus for interconnected devices
US8682248B2 (en) * 2012-04-07 2014-03-25 Samsung Electronics Co., Ltd. Method and system for reproducing contents, and computer-readable recording medium thereof
JP6095280B2 (ja) * 2012-05-30 2017-03-15 キヤノン株式会社 投射型表示装置およびその制御方法
JP6094109B2 (ja) * 2012-09-18 2017-03-15 セイコーエプソン株式会社 表示装置、表示システム、および、表示装置の制御方法
JP2014107713A (ja) * 2012-11-28 2014-06-09 Seiko Epson Corp 操作方法、操作プログラム及び操作装置
US9406280B2 (en) * 2013-03-18 2016-08-02 Seiko Epson Corporation Image display device, image display system, and method of controlling image display device
US9535569B2 (en) * 2013-05-23 2017-01-03 Rakuten Kobo, Inc. System and method for a home multimedia container
JP6289003B2 (ja) * 2013-09-26 2018-03-07 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
CN103533317B (zh) * 2013-10-11 2016-06-22 中影数字巨幕(北京)有限公司 数字电影放映系统及方法
JPWO2015105044A1 (ja) * 2014-01-10 2017-03-23 日本電気株式会社 インターフェース装置、可搬装置、制御装置、モジュール、制御方法およびコンピュータプログラム
JP6387641B2 (ja) * 2014-01-15 2018-09-12 セイコーエプソン株式会社 プロジェクター、表示装置、表示システムおよび表示装置の制御方法
JP6349811B2 (ja) * 2014-03-17 2018-07-04 セイコーエプソン株式会社 映像信号出力装置、映像信号出力方法、及びプログラム
US20170024031A1 (en) * 2014-04-18 2017-01-26 Seiko Epson Corporation Display system, display device, and display control method
JP6386809B2 (ja) * 2014-06-23 2018-09-05 キヤノン株式会社 情報処理装置およびその制御方法、システム、並びにプログラム
CN106462227A (zh) * 2014-08-07 2017-02-22 日立麦克赛尔株式会社 投影型影像显示装置及其控制方法
JP6429545B2 (ja) * 2014-09-10 2018-11-28 キヤノン株式会社 制御装置、制御方法
JPWO2016063404A1 (ja) * 2014-10-23 2017-06-29 富士通株式会社 入出力装置、入出力方法および入出力プログラム
JP6464692B2 (ja) * 2014-11-19 2019-02-06 セイコーエプソン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2016180942A (ja) * 2015-03-25 2016-10-13 セイコーエプソン株式会社 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP6520406B2 (ja) * 2015-05-29 2019-05-29 セイコーエプソン株式会社 表示装置及び画質設定方法
JP6753049B2 (ja) * 2015-10-09 2020-09-09 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法。
JP2018088663A (ja) * 2016-11-30 2018-06-07 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
JP2018087950A (ja) * 2016-11-30 2018-06-07 セイコーエプソン株式会社 プロジェクションシステム、及び、プロジェクションシステムの制御方法

Also Published As

Publication number Publication date
JP2017092795A (ja) 2017-05-25
CN107018391A (zh) 2017-08-04
US20170142379A1 (en) 2017-05-18

Similar Documents

Publication Publication Date Title
JP6631181B2 (ja) 画像投射システム、プロジェクター、及び、画像投射システムの制御方法
CN107797364B (zh) 显示系统、显示装置及其控制方法、控制器以及记录介质
JP5970879B2 (ja) 投映システム、投映方法、プログラムおよび記録媒体
JP6429545B2 (ja) 制御装置、制御方法
JP6307852B2 (ja) 画像表示装置、及び、画像表示装置の制御方法
JP6753049B2 (ja) プロジェクター、及び、プロジェクターの制御方法。
US10536627B2 (en) Display apparatus, method of controlling display apparatus, document camera, and method of controlling document camera
US20170024031A1 (en) Display system, display device, and display control method
US10075644B2 (en) Information processing apparatus and information processing method
US20150015583A1 (en) Projector, projector control method, and recording medium storing projector control program
US20160283087A1 (en) Display apparatus, display system, control method for display apparatus, and computer program
JP2016014713A (ja) 画像投影装置、画像投影方法および画像投影装置の制御プログラム
JP2017116689A (ja) 画像投写システム、画像投写システムの制御方法、端末装置、及び、プログラム
US10839482B2 (en) Information processing apparatus, image display method, display system, and computer readable storage medium
JP6273671B2 (ja) プロジェクター、表示システム、及びプロジェクターの制御方法
JP6657795B2 (ja) 表示システム、端末装置、及び、表示システムの制御方法
US10891098B2 (en) Display device and method for controlling display device
US20230070178A1 (en) Control device, and control method
JP6409312B2 (ja) 表示システム、表示装置、及び、表示制御方法
JP2018132769A (ja) 画像表示装置、及び、画像表示装置の制御方法
US9860480B2 (en) Method for processing information and electronic device
US20160350050A1 (en) Information processing apparatus, operation screen display method, and computer-readable recording medium
JP6547240B2 (ja) 表示システム、端末装置、および、プログラム
JP2014022961A (ja) 表示装置、携帯端末、プログラム及び表示システム
JP2020135518A (ja) 投影装置およびその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R150 Certificate of patent or registration of utility model

Ref document number: 6631181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150