JP6642032B2 - プロジェクター及びプロジェクターの制御方法 - Google Patents

プロジェクター及びプロジェクターの制御方法 Download PDF

Info

Publication number
JP6642032B2
JP6642032B2 JP2016009609A JP2016009609A JP6642032B2 JP 6642032 B2 JP6642032 B2 JP 6642032B2 JP 2016009609 A JP2016009609 A JP 2016009609A JP 2016009609 A JP2016009609 A JP 2016009609A JP 6642032 B2 JP6642032 B2 JP 6642032B2
Authority
JP
Japan
Prior art keywords
image
projector
unit
projected
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016009609A
Other languages
English (en)
Other versions
JP2017129771A5 (ja
JP2017129771A (ja
Inventor
明彦 田村
明彦 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016009609A priority Critical patent/JP6642032B2/ja
Priority to US15/391,132 priority patent/US9723279B1/en
Priority to CN201710032876.8A priority patent/CN107018393B/zh
Publication of JP2017129771A publication Critical patent/JP2017129771A/ja
Publication of JP2017129771A5 publication Critical patent/JP2017129771A5/ja
Application granted granted Critical
Publication of JP6642032B2 publication Critical patent/JP6642032B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、プロジェクター及びプロジェクターの制御方法に関する。
プロジェクターが投写した画像上にある指示体の位置を検出する発明として特許文献1に開示されたプロジェクターがある。このプロジェクターは、プロジェクターが画像を投写する面をカメラで撮影し、撮影で得られた画像において、プロジェクターにより画像が表示される領域以外をマスキングする。プロジェクターは、カメラで得られた画像のうちマスキングされていない領域において指示体が発する光を検出し、投写された画像上にある指示体の位置を特定する。特定した位置は、指示体の移動軌跡に応じた線を描画する描画機能などで使用される。この構成によれば、画像が投写されない領域にある外光や照明光を検出しなくなるので、指示体以外からの光を検知することを抑え、指示体の位置を精度良く検知することができる。
特開2015−158884号公報
プロジェクターを用いて画像を投写する際には、プロジェクターを複数台並べ、投写される画像を複数並べることにより、一台のプロジェクターで投写するより大きな画像を投写する、所謂タイリングという技術がある。タイリングで表示を行う際には、それぞれのプロジェクターの投写範囲を跨って指示体を動かし、指示体の移動軌跡に応じた線を描画することがある。この場合、それぞれのプロジェクターにおいて上述のマスキングを行うと、各プロジェクターにおいては、自プロジェクターが投写する画像の領域内に入ってから指示体の位置の特定が行われる。ここで、指示体の移動が速いと、プロジェクターは、自プロジェクターが投写する画像と他のプロジェクターが投写する画像との境界から離れた位置を特定し、この位置から描画を行ってしまい、描画する線が他のプロジェクターが描画した線とつながらず、連続した線とならなくなってしまう。
本発明は、複数のプロジェクターで画像を並べて投写する際に、画像を跨って移動する指示体に応じた処理の不具合を解消する技術を提供する。
本発明は、画像を投写するプロジェクターであって、画像を投写する投写部と、前記画像が投写される投写面を撮像し、撮像により得た画像を出力する撮像部と、前記撮像部が出力した画像に基づいて、前記投写面において前記画像が投写される投写領域を特定する特定部と、前記撮像部が出力した画像に対し、前記特定部が特定した投写領域を含む領域の外側をマスキングするマスク処理部と、当該プロジェクターを単独で使用する第1状態と、当該プロジェクターと他のプロジェクターが画像を並べて投写する第2状態のいずれであるかを判別する判別部と、前記判別部の判別結果に応じて、前記マスク処理部がマスキングする領域を設定する設定部とを備えるプロジェクターを提供する。
本発明によれば、複数のプロジェクターで画像を並べて投写する際に、画像を跨って移動する指示体に応じた処理の不具合を解消することができる。
本発明においては、前記設定部は、前記判別部の判別結果が第2状態である場合、前記他のプロジェクターが投写する画像側でマスキングされる領域を前記第1状態のときより狭くする構成としてもよい。
この構成によれば、複数のプロジェクターで画像を並べて投写する場合、他のプロジェクターが投写する画像の領域内にある指示体の位置を特定することができる。
また、本発明においては、前記設定部は、前記マスク処理部がマスキングする領域の形状を、自プロジェクターが投写する画像と前記他のプロジェクターが投写する画像との位置関係によって設定する構成としてもよい。
この構成によれば、複数のプロジェクターで画像を並べて投写する場合、他のプロジェクターが投写する画像の領域内にある指示体の位置を特定することができる。
また、本発明においては、前記設定部は、前記判別部の判別結果が第2状態である場合、前記他のプロジェクターが投写した画像の一部の領域をマスキングの範囲から外し、前記第1状態のときよりマスキングされる領域を狭くする構成としてもよい。
この構成によれば、複数のプロジェクターで画像を並べて投写する場合、他のプロジェクターが投写する画像の領域内にある指示体の位置を特定することができる。
また、本発明においては、前記第2状態は、自プロジェクターが投写する画像と前記他のプロジェクターが投写する画像が接する又は重なる状態である構成としてもよい。
この構成によれば、複数のプロジェクターで画像を並べて投写する場合、自プロジェクターが投写する画像と隣り合う画像の領域内にある指示体の位置を特定することができる。
また、本発明は、画像を投写する投写部と、前記画像が投写される投写面を撮像し、撮像により得た画像を出力する撮像部とを有するプロジェクターの制御方法であって、前記撮像部が出力した画像に基づいて、前記投写面において前記画像が投写される投写領域を特定する特定ステップと、前記撮像部が出力した画像に対し、前記特定ステップで特定した投写領域を含む領域の外側をマスキングするマスク処理ステップと、当該プロジェクターを単独で使用する第1状態と、当該プロジェクターと他のプロジェクターが画像を並べて投写する第2状態のいずれであるかを判別する判別ステップと、前記判別ステップの判別結果に応じて、前記マスク処理ステップでマスキングする領域を設定する設定ステップとを備えるプロジェクターの制御方法を提供する。
本発明によれば、複数のプロジェクターで画像を並べて投写する際に、画像を跨って移動する指示体に応じた処理の不具合を解消することができる。
表示システム1を構成する装置を示した図。 プロジェクター10A、10Bと指示体20のハードウェア構成を示した図。 制御部110において実現する機能の機能ブロック図。 指示体を検出するタイムチャートの一例を示した図。 キャリブレーション処理の流れを示したフローチャート。 キャリブレーション画像の一例を示した図。 撮影画像の一例を示した図。 撮影画像の一例を示した図。 マスク画像の一例を示した図。 マスキングされた撮影画像の一例を示した図。 設定画面の一例を示した図。 マスク画像の一例を示した図。 マスキングされた撮影画像の一例を示した図。
[実施形態]
(実施形態の構成)
図1は、本発明の一実施形態に係る表示システム1を構成する装置を示した図である。表示システム1は、表示面となるスクリーンSCに画像を投写するプロジェクター10A、プロジェクター10B、指示体20、発光装置50A、発光装置50B、情報処理装置30及び分配装置40で構成されている。
表示装置の一例であるプロジェクター10A、10Bは、他の装置から供給された映像信号が表す画像をスクリーンSCへ投写する。この映像信号は、画像を表す画像情報の一例である。また、プロジェクター10A、10Bは、指示体20を情報処理装置30のポインティングデバイス(デジタイザー)として使用するためのPC操作機能や、指示体20が指示した位置に画像を描画する描画機能などを備えている。プロジェクター10A、10Bは、スクリーンSCの斜め上方に設置され、スクリーンSCに向けて映像を投写する。なお、本実施形態においては、プロジェクター10A、10Bは、スクリーンSCへ映像を投写するが、スクリーンSCの替わりに壁面(表示面)に映像を投写してもよい。また、本実施形態においては、プロジェクター10A、10Bは、金具によって壁面に設置される構成となっているが、天井や机上に設置してもよい。また、スクリーンSCの替わりに机上に映像を投写してもよい。
ペン型の指示体20は、上述した描画機能やPC操作機能を使用するときのポインティングデバイスとして機能し、プロジェクター10A、10Bが投写する情報処理装置30のGUI(Graphical User Interface)をユーザーが操作するときや、投写された画像に重ねてユーザーが描画を行うときなどに使用される。
情報処理装置30は、本実施形態においては、パーソナルコンピューターである。
分配装置40は、情報処理装置30から供給される映像信号をプロジェクター10A、10Bへ分配する装置である。分配装置40は、情報処理装置30から供給される映像信号からプロジェクター10Aに供給する映像信号及びプロジェクター10Bへ供給する映像信号を生成し、生成した各映像信号を、プロジェクター10A、10Bへ供給する。本実施形態においては、分配装置40は、情報処理装置30から供給される映像信号が表す画像を左右2つの画像に分割し、左側の画像(第1部分)の映像信号をプロジェクター10Aへ供給し、右側の画像(第2部分)の映像信号をプロジェクター10Bへ供給する。なお、分配装置40は、自機が備えるボタンの操作により、情報処理装置30から供給される映像信号をそのままプロジェクター10A又はプロジェクター10Bの一方にのみ供給することも可能となっている。
プロジェクター10Aは、第1部分の映像信号が分配装置40から供給されると、供給された映像信号が表す左側の画像を投写し、プロジェクター10Bは、第2部分の映像信号が分配装置40から供給されると、供給された映像信号が表す右側の画像を投写する。プロジェクター10Aが投写する左側の画像とプロジェクター10Bが投写する右側の画像を左右に並べて表示(所謂タイリング表示)することにより、情報処理装置30が供給する映像信号の画像を、一台のプロジェクターで投写する場合より大きく表示できる。
また、情報処理装置30から供給された映像信号を分配装置40がそのままプロジェクター10A又はプロジェクター10Bの一方にのみ供給した場合、プロジェクター10A又はプロジェクター10Bの一方が、情報処理装置30が供給した映像信号の画像を投写する。
発光装置50A、50Bは、スクリーンSC上にある指に光(本実施形態では赤外光)を照射する発光部を有する。発光装置50A、50BはスクリーンSCの上端より上に設置され、下向きに角度θの範囲に光を拡散させて出射する。発光装置50A、50Bから出射された光は、スクリーンSCに沿う光の層を形成する。本実施形態では、角度θは、ほぼ180度に達し、スクリーンSCのほぼ全体に、光の層が形成される。スクリーンSCの表面と、発光装置50A、50Bにより形成される光の層とは近接していることが好ましい。スクリーンSCの表面から離れた位置にある指も照射できるように光の層は厚みを持っている。また、発光部を積層することにより離れた位置にある指を照射してもよい。発光装置50Aからの光の出射は、プロジェクター10Aにより制御され、発光装置50Bからの光の出射は、プロジェクター10Bにより制御される。
図2は、プロジェクター10A、10B及び指示体20のハードウェア構成を示した図である。指示体20は、制御部210、通信部220、発光部230、操作部240、電源250を有する。電源250は、例えば乾電池又は二次電池であり、制御部210、発光部230及び操作部240へ電力を供給する。操作部240は、電源250から各部への電力供給を制御するスイッチ(図示略)を備えている。操作部240のスイッチがオンとなると、電源250から各部へ電力が供給され、操作部240のスイッチがオフとなると、電源250から各部へ電力の供給が停止される。発光部230は、赤外光を発する発光ダイオードを有しており、指示体20の先端に設けられている。発光部230の点灯及び消灯は、制御部210により制御される。発光部230は、点光源であり、発光部230が発する光は、指示体20の先端から球面に広がる。通信部220は、プロジェクター10から赤外光で送られる各種信号を受信する。通信部220は、受信した各種信号を電気信号に変換して制御部210へ供給する。制御部210は、発光部230及び通信部220に接続されている。制御部210は、通信部220から供給される信号に応じて発光部230の制御を開始し、発光部230の発光ダイオードの点灯及び消灯を制御する。
プロジェクター10A、10Bは、制御部110、記憶部120、操作部130、投写部140を備える。また、プロジェクター10A、10Bは、映像処理部150、インターフェース160、撮像部170を備える。本実施形態においては、プロジェクター10A、10Bのハードウェア構成は同じである。以下、プロジェクター10A、10Bの各部を区別する必要がある場合、説明の便宜上、プロジェクター10Aの各部の符号の末尾には「A」を付し、プロジェクター10Bの各部の符号の末尾には「B」を付し、各部を区別する必要がない場合、符号の末尾への「A」、「B」の付加を省略して説明を行う。また、プロジェクター10Aとプロジェクター10Bの区別が必要ない場合、プロジェクター10と称して説明を行う。
インターフェース160は、RCA、D−Sub、HDMI(登録商標)など、映像信号が供給されるコネクターを複数有し、他の装置からコネクターに供給された映像信号を映像処理部150へ供給する。また、インターフェース160は、無線LAN(Local Area Network)やBluetooth(登録商標)などの無線通信のインターフェースや、USB(Universal Serial Bus)や有線のLANなどの有線通信のインターフェースを有する。インターフェース160は、情報処理装置30や分配装置40等と通信を行う。また、インターフェース160は、赤外光を発する発光ダイオードを備えている。インターフェース160は、制御部110により、発光ダイオードの点灯及び消灯が制御され、指示体20の発光部230の点灯及び消灯を制御するための赤外光の信号を送信する。また、インターフェース160は、図示省略したリモートコントローラーが送信する赤外光の信号を受信する受光部を備えている。
記憶部120は、投写する映像の画質に係る設定値や、各種機能に係る情報を記憶する。操作部130は、プロジェクター10を操作するための複数のボタンを備えている。操作されたボタンに応じて制御部110が各部を制御することにより、スクリーンSCに投写される映像の調整や、プロジェクター10が有する各種機能の設定などが行われる。
映像処理部150は、インターフェース160から供給される映像信号を取得する。また、映像処理部150は、描画機能で表示するオンスクリーン画像や、プロジェクター10を操作するためのGUIなどのオンスクリーン画像の信号を制御部110から取得する。映像処理部150は、各種の画像処理機能を備えており、インターフェース160から供給された映像信号に画像処理を施し、投写する映像の画質を調整する。映像処理部150は、制御部110からオンスクリーン画像の信号が供給された場合には、オンスクリーン画像の信号を重畳した映像信号を投写部140へ供給する。
映像を投写する投写部140は、光源141、ライトバルブ142、駆動回路144及び投写光学系143を有している。光源141は、光を発するランプであり、光源141が発した光は、図示省略した複数のダイクロイックミラーやミラーによって赤、緑、青の光に分光され、分光された赤、緑、青のそれぞれの光はライトバルブ142に導かれる。なお、光源141は、ランプではなく、発光ダイオード又はレーザー光を発する半導体レーザー装置であってもよい。
駆動回路144は、映像処理部150から供給される映像信号を取得する。駆動回路144に供給される映像信号は、投写する画像における赤の成分の階調を表す階調データ、投写する画像における緑の成分の階調を表す階調データ及び投写する画像における青の成分の階調を表す階調データを有する。駆動回路144は、赤、緑、青の各色の階調データを抽出し、抽出した各色の階調データに基づいてライトバルブ142を駆動する。
ライトバルブ142は、前述の赤の光が入射する液晶ライトバルブ、前述の緑の光が入射する液晶ライトバルブ、及び前述の青の光が入射する液晶ライトバルブを有している。液晶ライトバルブは、透過型の液晶パネルであり、複数行複数列でマトリクス状に配置された画素を備えている。赤の光が入射する液晶ライトバルブは赤の階調データに基づいて駆動され、緑の光が入射する液晶ライトバルブは緑の階調データに基づいて駆動され、青の光が入射する液晶ライトバルブは青の階調データに基づいて駆動される。各液晶ライトバルブは、駆動回路144によって各画素が制御されて画素の透過率が変化する。画素の透過率が制御されることにより、液晶ライトバルブを透過した各色の光は、各階調データに対応した画像となる。液晶ライトバルブを透過した赤、緑、青の光の画像は、図示省略したダイクロイックプリズムにより合成されて投写光学系143に入射する。投写光学系143は、入射した画像を拡大する光学系であり、入射した画像をレンズやミラーによって拡大してスクリーンSCに投写する。スクリーンSCに画像が投写されると、表示面であるスクリーンSCに画像が表示される。なお、透過型の液晶パネルの替わりに反射型の液晶パネルを採用してもよいし、デジタルミラーデバイスなどを用いてもよい。
プロジェクター10は、指示体20の位置を特定するために、撮像部170を有している。撮像部170は、発光部230が発する赤外光を受光する撮像素子(CMOSやCCDなど)、撮像素子に像を結像する光学系、撮像素子へ入射する光を制限する絞りなどを備えている。撮像部170は、投写部140の投写範囲を撮像範囲とし、撮像した範囲の画像を生成し、生成した画像を表す画像信号を出力する。なお、本実施形態においては、プロジェクター10A、10BがスクリーンSCの斜め上方に設置されるため、撮像部170は、投写範囲を斜め上方から撮像することになる。
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備えたマイクロコンピューターである。ROMに記憶されているプログラムをCPUが実行すると、プロジェクター10A、10Bにおいては、制御部110が各部を制御し、映像をスクリーンSCに投写する機能や上述のPC操作機能、描画機能などが実現する。
図3は、制御部110がプログラムを実行することにより実現する機能と、制御部210において実現する機能の構成を示した機能ブロック図である。まず、プロジェクター10の制御部110において実現する機能について説明する。
投写領域特定部115は、撮像部が出力した画像を解析し、プロジェクター10により画像が投写された投写面において画像が投写される投写領域を特定する。マスク処理部116は、撮像部が出力した画像に対し、投写領域特定部115が特定した投写領域を含む領域の外側をマスキングする。判別部117は、自プロジェクターを単独で使用する第1状態と、自プロジェクターと他のプロジェクターが画像を並べて投写する第2状態のいずれであるかを判別する。設定部118は、判別部117の判別結果に応じて、マスク処理部116がマスキングする領域を設定する。
位置特定部113は、マスク処理部116でマスキングされた画像において指示体20の発光部230の位置を、例えば図4に示したタイムチャートで周期的に特定する。指の位置や発光部230の位置を特定する期間は、図4に示したようにフェーズP11からフェーズP14までの4つのフェーズを有する。指の位置や発光部230の位置を検出する際には、フェーズP11からフェーズP14までが繰り返される。フェーズP11は、プロジェクター10が撮像部170で撮像を行うタイミングと、指示体20が発光するタイミング及び発光装置50が赤外光を出射するタイミングを同期させるためのフェーズである。フェーズP11においては、位置特定部113は、所定期間te1で赤外光の同期信号が出力されるようにインターフェース160の発光ダイオードを制御する。
指示体20においては、通信部220が同期信号を受光し、同期信号を受光してから所定時間が経過すると、予め設定された期間te2で発光部230が点灯するように、制御部210が発光部230を制御する。本実施形態においては、フェーズP12、フェーズP13及びフェーズP14の開始時点から発光部230が点灯するように制御される。また、位置特定部113は、フェーズP12及びフェーズP14の開始時間から期間te2で発光装置50が赤外光を出射するように、発光装置50を制御する。
位置特定部113は、フェーズP12〜フェーズP14において、撮像部170を制御し、設定されているシャッタースピードでスクリーンSCを含む所定範囲を撮像する。撮像部170において電子シャッター機能により露光が行われる露光期間は、フェーズP12とフェーズP14の開始時点から始まり、露光が終了する時点は、設定されているシャッタースピードにより定まる。撮像部170がフェーズP12〜フェーズP14の露光期間で撮像し、マスク処理部116でマスキングされた画像の画像信号は、位置特定部113へ供給される。
位置特定部113は、マスク処理部116でマスキングされた画像を用いて、投写された画像上にある指や発光部230の位置を特定する。具体的には、フェーズP12とフェーズP14において、発光装置50が発した赤外光が指に照射されている場合には、撮像部170で得られた画像に発光装置50から出射されて指で反射した赤外光が映る。また、フェーズP12とフェーズP14において、投写された画像上に発光部230があると、撮像部170で得られた画像に発光部230が発した赤外光も映る。フェーズP13においては、発光装置50は光を出射しないため、撮像部170で得られた画像には、発光部230が発した赤外光が映る。
位置特定部113は、フェーズP12〜フェーズP14において、撮像部170で得られた画像に映る赤外光の位置を特定する。位置特定部113は、フェーズP12とフェーズP14において位置を特定した赤外光のうち、フェーズP13において位置を特定した赤外光の位置に近い位置の赤外光を特定し、特定した赤外光の位置を発光部230の位置とする。また、位置特定部113は、フェーズP12とフェーズP14において位置を特定した赤外光のうち、フェーズP13において位置を特定した赤外光から遠い赤外光の位置を指の位置とする。なお、位置特定部113は、フェーズP13において赤外光が投写された画像上に無い場合には、フェーズP12とフェーズP14において特定した位置を指の位置とする。これらの特定した位置は、描画機能やPC操作機能などの各種機能を実行するときに使用される。
描画部112は、投写している画像に対し、位置特定部113が検知した位置に応じて描画を行う。
次に、指示体20の制御部210において実現する機能について説明する。信号取得部211は、通信部220が受信した同期信号を取得する。発光制御部212は、信号取得部211から同期信号を取得し、同期信号を取得してから所定時間が経過すると、フェーズP12〜フェーズP14において期間te2で発光部230が点灯するように、発光部230を制御する。
(実施形態の動作例)
次に本実施形態の動作例について説明する。ユーザーは、上述したPC操作機能や描画機能などの指示体20を用いる機能を使用する際に、まずキャリブレーション処理をプロジェクター10に実行させる。キャリブレーション処理は、例えば、特開2015−158884号公報に開示されているキャリブレーションの処理である。キャリブレーション処理は、投写部140が投写する画像における位置と、撮像部170から供給される画像信号が表す画像(以下、説明の便宜上、撮影画像と称する)上の位置とを対応付ける処理である。
撮影画像から位置特定部113が特定する指示体20の位置は、撮影画像上の位置であり、撮影画像に設定される座標系における座標で示される。ユーザーは、スクリーンSCに投写された画像(以下、説明の便宜上、投写画像と称する)に対して指示体20を操作し、プロジェクター10A、10Bは、描画機能がオンとなっているときは、指示体20の位置に応じて描画を行うため、プロジェクター10A、10Bは、投写画像に対する指示体20の位置を特定する必要がある。
そこでプロジェクター10A、10Bは、キャリブレーション処理により、撮影画像で特定された指示体20の座標を投写画像の座標に変換するためのキャリブレーションデータを生成する。キャリブレーションデータは、撮影画像に設定されている座標と投写画像に設定されている座標とを対応付けるデータであり、例えば、撮影画像の座標と投写画像の座標とを1対1で対応付けるテーブルであってもよいし、撮影画像の座標を投写画像の座標に変換する関数であってもよい。
図5は、キャリブレーション処理の流れを示したフローチャートである。制御部110は、まず、キャリブレーション処理で使用するキャリブレーション画像を記憶部120から取得する(ステップSA1)。制御部110は、記憶部120から取得したキャリブレーション画像を映像処理部150へ供給する。映像処理部150は、供給されたキャリブレーション画像を表す映像信号を投写部140へ供給する。投写部140は、供給された映像信号が表すキャリブレーション画像を投写する。
制御部110は、撮像部170を制御し、投写した画像を撮像部170に撮影させる。撮像部170は、投写されたキャリブレーション画像と、キャリブレーション画像の周囲を撮影し、撮像した範囲の画像を表す画像信号を出力する。
図6は、キャリブレーション画像の一例を示した図である。キャリブレーション画像には、複数のマークが所定の間隔で配置されている。キャリブレーション画像中のマークは、撮影画像から検出可能な図形や記号であり、その形状やサイズは特に限定されない。
図7は、キャリブレーション画像を撮影した撮像部170から供給される画像信号が表す撮影画像の一例を示した図である。プロジェクター10をスクリーンSCの斜め上方に設置した場合、撮像部170は、スクリーンSCを斜め上方から撮影するため、撮影画像は、投写画像に対して歪んだ画像となる。投写画像は、図6に示したように、等間隔でマークが並ぶ矩形のキャリブレーション画像であるが、撮影画像においては、図7に示したように投写画像が歪んだ状態で写っており、撮影画像に並ぶマークの間隔は、マークの位置によって異なっている。
次に制御部110(投写領域特定部115)は、キャリブレーションデータを生成する(ステップSA2)。具体的には、制御部110は、撮像部170から供給される画像信号を取得する。制御部110は、取得した画像信号が表す撮影画像からマークを検出し、各マークの重心位置をマークの座標値として取得する。制御部110は、撮影画像から検出したマークと、投写された画像、すなわちキャリブレーション画像のマークとを対応付ける。制御部110は、撮影画像におけるマークの座標値と、投写画像におけるマークの座標値とを対応付けることにより、テーブル形式又は関数形式のキャリブレーションデータを作成する。キャリブレーション画像におけるマークの座標値は、予めキャリブレーション画像とともに、或いはキャリブレーション画像に含まれて記憶部120に記憶されている。制御部110は、既にキャリブレーションデータが記憶されている場合、この記憶されているキャリブレーションデータを更新する。また、制御部110は、撮影画像におけるマークの座標値に基づいて、撮影画像における投写領域(投写画像)を特定する。
次に制御部110(マスク処理部116)は、マスク処理を実行する(ステップSA3)。マスク処理は、撮影画像において投写画像を含む領域の外側を予め定められた階調値にするためのマスク画像を生成する処理である。撮影画像にマスク画像を重畳することにより、撮影画像において投写画像を含む領域の外側がマスキングされ、制御部110が指示体20の位置を特定する際に、画像が投写されない領域にある外光や照明光を検出しなくなる。
図8を用いてマスク処理について説明する。図8は、撮影画像の一例を示した図である。制御部110は、キャリブレーション画像に含まれるマークのうち、上下左右の各方向で最も外側に位置するマーク列がどのマーク列であるかを示すデータを取得する。このデータは、例えばキャリブレーション画像に対応付けて記憶部120に記憶されている。図8に示す例では、キャリブレーション画像の左側で、最も外側に位置するマーク列は、マーク列Tである。制御部110は、マーク列Tに含まれる各マークの中心座標を、キャリブレーションデータから取得する。制御部110は、取得した各マークの中心座標に予め定められた値を加算し、指示体20の位置を検知する領域(以下、説明の便宜上、検知領域と称する)の端を決定する。
例えば、マーク列Tは、キャリブレーション画像の左側で、最も外側に位置するマーク列であるため、各マークのY座標値から、予め定められた値を減算して検知領域の左端の座標値とする。図8に示すマーク列TのマークT3(X3、Y3)の場合、Y座標値Y3から予め定められた値αを減算した座標(X3、Y3−α)が、X軸方向の座標がX3のときの検知領域の左端となる。なお、αの値は、検知領域が投写領域を包含するように設定されている。
制御部110は、投写画像の上下左右それぞれの方向で、検知領域の端の座標値を求める。なお、マークが存在しない領域については、補完処理によって端の座標値を求めてもよい。制御部110は、求めた、辺H1、辺H2、辺H3及び辺H4の座標値を記憶部120に保存する。
次に、制御部110は、求めた検知領域の座標値を使用してマスク画像を作成する。ここで制御部110は、検知領域の範囲外の領域で階調値が0になるように設定したマスク画像を生成する。制御部110は、生成したマスク画像を記憶部120に記憶させる。
キャリブレーション処理を終了した制御部110(マスク処理部116)は、指示体20の位置を特定する際には、記憶部120に記憶されたマスク画像を取得し、撮影画像をマスク画像でマスキングする。
図9は、マスク画像の一例を示した図である。図9において白の領域は、検知領域となる。また、図10は、マスク画像でマスキングされた撮影画像の一例を示した図である。図10において、ハッチングされている領域は、投写画像G1の領域を表しており、黒の領域は、マスク画像の領域を表している。また、撮影画像において投写画像とマスク画像との間の領域には、投写領域の外側の部分が写る。制御部110は、指示体20の位置を特定する際に、図10に示したように撮影画像をマスク画像でマスキングすることにより、投写領域外にある外光や照明光を検出しなくなる。
次に、プロジェクター10A、10Bでタイリング表示を行うときの動作例について説明する。ユーザーは、タイリング表示を行う前に、まず検知領域を拡張する操作を行う。具体的には、ユーザーは、検知領域を設定するための設定画面の表示を指示する操作をリモートコントローラーで行う。この操作がリモートコントローラーで行われると、制御部110は、検知領域を設定する設定画面のオンスクリーン画像の信号を映像処理部150へ供給する。映像処理部150が、このオンスクリーン画像の信号を投写部140へ供給すると、検知領域を設定する設定画面がスクリーンSCに投写される。
図11は、設定画面の一例を示した図である。ユーザーは、リモートコントローラーを操作し、タイリング表示を行う際に、設定画面を表示しているプロジェクターと共にタイリング表示を行うプロジェクターの投写画像が、設定画面を表示しているプロジェクターの投写画像に対してどの位置に表示されるか設定する。例えば、図1に示したようにプロジェクター10Aの投写画像の隣にプロジェクター10Bの投写画像が投写される場合、ユーザーは、プロジェクター10Aにおいては、図11の設定画面において右側を選択し、プロジェクター10Bにおいては、図11の設定画面において左側を選択する。
プロジェクター10Aの制御部110Aは、図11の設定画面で右側が選択され、OKボタンを押下する操作が行われた場合、記憶部120Aに記憶されているマスク画像を取得する。制御部110Aは、取得したマスク画像において検知領域が右側に拡張されるようにマスク画像を変形し、変形したマスク画像を記憶部120Aに記憶させる。
また、プロジェクター10Bの制御部110Bは、図11の設定画面で左側が選択され、OKボタンを押下する操作が行われた場合、記憶部120Bに記憶されているマスク画像を取得する。制御部110Bは、取得したマスク画像において検知領域が左側に拡張されるようにマスク画像を変形し、変形したマスク画像を記憶部120Bに記憶させる。
図12の(a)は、検知領域を右側に拡張したマスク画像の一例を示した図であり、図12の(b)は、検知領域を左側に拡張したマスク画像の一例を示した図である。制御部110A(設定部118)は、タイリング表示の機能がオンとなっている場合、変形したマスク画像を記憶部120Aから取得する。制御部110A(マスク処理部116)は、取得したマスク画像で撮影画像をマスキングする。また、制御部110B(設定部118)は、タイリング表示の機能がオンとなっている場合、変形したマスク画像を記憶部120Bから取得する。制御部110B(マスク処理部116)は、取得したマスク画像で撮影画像をマスキングする。なお、タイリング表示の機能のオン/オフの設定は、ユーザーがリモートコントローラーを操作することにより設定される。制御部110(判別部117)は、ユーザーの設定の結果に応じて、プロジェクターを単独で使用する状態(第1状態)であるか、タイリング表示を行う状態(第2状態)であるか判別する。
図13の(a)は、撮像部170Aで得られた撮影画像を図12の(a)に示したマスク画像でマスキングしたときの一例を示した図である。図13の(a)において、ハッチングされている領域は、プロジェクター10Aの投写画像G1Aの全部と、プロジェクター10Bの投写画像G1Bの少なくとも一部が写る領域を表しており、黒の領域は、マスク画像の領域を表している。また、撮影画像において投写画像とマスク画像との間の領域には、投写領域の外側の部分が写る。
プロジェクター10Aにおいては、プロジェクター10Bの投写画像の一部が検知領域内に入るため、指示体20がプロジェクター10Bの投写画像の領域内からプロジェクター10Aの投写画像の方向へ移動した場合、プロジェクター10Aの投写画像の領域内へ指示体20が入る前に指示体20の位置を特定することができる。
制御部110Aは、描画機能がオンであり、プロジェクター10Bの投写画像の領域内からプロジェクター10Aの投写画像の領域内へ指示体20が移動した場合、プロジェクター10Aの投写画像の領域内へ入る前の指示体20の位置と、プロジェクター10Aの投写画像の領域内へ入ったときの指示体20の位置とを結ぶ線の画像を投写する。これにより、指示体20がプロジェクター10Aの投写画像とプロジェクター10Bの投写画像とを跨いで移動しても、プロジェクター10Aで描画された線と、プロジェクター10Bが描画した線とを繋げて投写することができる。
また、図13の(b)は、撮像部170Bで得られた撮影画像を図12の(b)に示したマスク画像でマスキングしたときの一例を示した図である。図13の(b)において、ハッチングされている領域は、プロジェクター10Aの投写画像G1Aの少なくとも一部と、プロジェクター10Bの投写画像G1Bの全部が写る領域を表しており、黒の領域は、マスク画像の領域を表している。また、撮影画像において投写画像とマスク画像との間の領域には、投写領域の外側の部分が写る。
プロジェクター10Bにおいては、プロジェクター10Aの投写画像の一部が検知領域内に入るため、指示体20がプロジェクター10Aの投写画像の領域内からプロジェクター10Bの投写画像の方向へ移動した場合、プロジェクター10Bの投写画像の領域内へ指示体20が入る前に指示体20の位置を特定することができる。
制御部110Bは、描画機能がオンであり、プロジェクター10Aの投写画像の領域内からプロジェクター10Bの投写画像の領域内へ指示体20が移動した場合、プロジェクター10Bの投写画像の領域内へ入る前の指示体20の位置と、プロジェクター10Bの投写画像の領域内へ入ったときの指示体20の位置とを結ぶ線の画像を投写する。これにより、指示体20がプロジェクター10Aの投写画像とプロジェクター10Bの投写画像とを跨いで移動しても、プロジェクター10Aで描画された線と、プロジェクター10Bが描画した線とを繋げて投写することができる。
[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した各実施形態及び以下の変形例は、一つ又は複数を適宜組み合わせて実施してもよい。
上述した実施形態においては、プロジェクター10Aの投写画像とプロジェクター10Bの投写画像が接するように投写されているが、プロジェクター10Aの投写画像とプロジェクター10Bの投写画像とを離して投写してもよい。
本発明においては、3台以上のプロジェクター10で画像を並べて投写してもよい。この場合、投写する画像の左右両側に他のプロジェクターの画像が投写されるプロジェクター10においては、図11の設定画面において、「両側」を選択する。プロジェクター10は、図11の設定画面で「両側」が選択されると、キャリブレーション処理で生成したマスク画像において検知領域が左右両側に拡張されるようにマスク画像を変形し、変形したマスク画像を記憶部120に記憶させる。制御部110は、指示体20の位置を特定する必要がある場合、変形したマスク画像を記憶部120から取得し、取得したマスク画像で撮影画像をマスキングする。
上述した実施形態においては、キャリブレーション処理で生成されたマスク画像を変形するタイミングは、図11の設定画面で設定が行われた後であるが、このタイミングに限定されるものではない。例えば、ステップSA3でマスク画像を生成するときに、検知領域を右側に拡張したマスク画像と、検知領域を左側に拡張したマスク画像を生成しておく構成としてもよい。そして、ユーザーによって図11の設定画面で設定が行われたときに、行われた設定に対応したマスク画像を使用するようにしてもよい。
上述した実施形態においては、プロジェクター10A、10Bを左右に並べ、プロジェクター10A、10Bが投写する映像を左右に並べているが、この態様に限定されない。例えば、上下に並べた2台のプロジェクターのそれぞれから横方向に映像を投写することにより映像を上下に並べ、上側の映像を投写するプロジェクターにおいては、上側の映像の全部と下側の映像のうち上側に近い部分とを含む領域の外側をマスク画像の領域とし、下側の映像を投写するプロジェクターにおいては、下側の映像の全部と上側の映像のうち下側に近い部分とを含む領域の外側をマスク画像の領域としてもよい。
1…表示システム、10、10A、10B…プロジェクター、20…指示体、30…情報処理装置、40…分配装置、50、50A、50B…発光装置、110、110A、110B…制御部、112…描画部、113…位置特定部、115…投写領域特定部、116…マスク処理部、117…判別部、118…設定部、120、120A、120B…記憶部、130…操作部、140…投写部、141…光源、142…ライトバルブ、143…投写光学系、144…駆動回路、150…映像処理部、160…インターフェース、170、170A、170B…撮像部、210…制御部、211…信号取得部、212…発光制御部、220…通信部、230…発光部、240…操作部、250…電源

Claims (6)

  1. 画像を投写するプロジェクターであって、
    画像を投写する投写部と、
    前記画像が投写される投写面を撮像し、撮像により得た画像を出力する撮像部と、
    前記撮像部が出力した画像に基づいて、前記投写面において前記画像が投写される投写領域を特定する特定部と、
    前記撮像部が出力した画像に対し、前記特定部が特定した投写領域を含む領域の外側をマスキングするマスク処理部と、
    当該プロジェクターを単独で使用する第1状態と、当該プロジェクターと他のプロジェクターが画像を並べて投写する第2状態のいずれであるかを判別する判別部と、
    前記判別部の判別結果に応じて、前記マスク処理部がマスキングする領域を設定する設定部と
    前記投射面に投写される前記画像を指示する指示体を前記マスク処理部でマスキングされた画像に基づいて検出する検出部と
    を備えるプロジェクター。
  2. 前記設定部は、前記判別部の判別結果が第2状態である場合、前記他のプロジェクターが投写する画像側でマスキングされる領域を前記第1状態のときより狭くする
    請求項1に記載のプロジェクター。
  3. 前記設定部は、前記マスク処理部がマスキングする領域の形状を、自プロジェクターが投写する画像と前記他のプロジェクターが投写する画像との位置関係によって設定する
    請求項1又は請求項2に記載のプロジェクター。
  4. 前記設定部は、前記判別部の判別結果が第2状態である場合、前記他のプロジェクターが投写した画像の一部の領域をマスキングの範囲から外し、前記第1状態のときよりマスキングされる領域を狭くする
    請求項1に記載のプロジェクター。
  5. 前記第2状態は、自プロジェクターが投写する画像と前記他のプロジェクターが投写する画像が接する又は重なる状態である
    請求項1から請求項4のいずれか一項に記載のプロジェクター。
  6. 画像を投写する投写部と、前記画像が投写される投写面を撮像し、撮像により得た画像を出力する撮像部とを有するプロジェクターの制御方法であって、
    前記撮像部が出力した画像に基づいて、前記投写面において前記画像が投写される投写領域を特定する特定ステップと、
    前記撮像部が出力した画像に対し、前記特定ステップで特定した投写領域を含む領域の外側をマスキングするマスク処理ステップと、
    当該プロジェクターを単独で使用する第1状態と、当該プロジェクターと他のプロジェクターが画像を並べて投写する第2状態のいずれであるかを判別する判別ステップと、
    前記判別ステップの判別結果に応じて、前記マスク処理ステップでマスキングする領域を設定する設定ステップと
    前記投射面に投写される前記画像を指示する指示体を前記マスク処理ステップでマスキングされた画像に基づいて検出する検出ステップと
    を備えるプロジェクターの制御方法。
JP2016009609A 2016-01-21 2016-01-21 プロジェクター及びプロジェクターの制御方法 Active JP6642032B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016009609A JP6642032B2 (ja) 2016-01-21 2016-01-21 プロジェクター及びプロジェクターの制御方法
US15/391,132 US9723279B1 (en) 2016-01-21 2016-12-27 Projector and method of controlling projector
CN201710032876.8A CN107018393B (zh) 2016-01-21 2017-01-16 投影仪和投影仪的控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016009609A JP6642032B2 (ja) 2016-01-21 2016-01-21 プロジェクター及びプロジェクターの制御方法

Publications (3)

Publication Number Publication Date
JP2017129771A JP2017129771A (ja) 2017-07-27
JP2017129771A5 JP2017129771A5 (ja) 2019-01-24
JP6642032B2 true JP6642032B2 (ja) 2020-02-05

Family

ID=59359763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016009609A Active JP6642032B2 (ja) 2016-01-21 2016-01-21 プロジェクター及びプロジェクターの制御方法

Country Status (3)

Country Link
US (1) US9723279B1 (ja)
JP (1) JP6642032B2 (ja)
CN (1) CN107018393B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022132789A (ja) * 2021-03-01 2022-09-13 セイコーエプソン株式会社 表示方法およびプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06311537A (ja) * 1993-04-26 1994-11-04 Sanyo Electric Co Ltd 投写型映像表示装置
JP2994991B2 (ja) * 1995-09-19 1999-12-27 ウシオ電機株式会社 マスクとワークの位置合わせ方法および装置
DE69833434T2 (de) * 1997-06-30 2006-08-31 Noritsu Koki Co., Ltd. Bildverarbeitungsanlage und aufzeichnungsmedium mit einem sprachkodierten bild
WO2004084534A2 (en) * 2003-03-16 2004-09-30 Explay Ltd. Projection system and method
US7984995B2 (en) * 2006-05-24 2011-07-26 Smart Technologies Ulc Method and apparatus for inhibiting a subject's eyes from being exposed to projected light
FR2910123B1 (fr) * 2006-12-19 2009-01-23 Phosylab Sarl Procede optico-informatique de mesure 3d de la surface exterieure d'un objet en relief par projection de franges et utilisation d'une methode a decalage de phase, systeme correspondant
JP4341723B2 (ja) * 2008-02-22 2009-10-07 パナソニック電工株式会社 光投影装置、照明装置
US8102332B2 (en) * 2009-07-21 2012-01-24 Seiko Epson Corporation Intensity scaling for multi-projector displays
US8274613B2 (en) * 2009-08-27 2012-09-25 Seiko Epson Corporation Display masks for display and calibration in projector-based display systems
JP5604909B2 (ja) * 2010-02-26 2014-10-15 セイコーエプソン株式会社 補正情報算出装置、画像処理装置、画像表示システム、および画像補正方法
US8237873B2 (en) * 2010-03-24 2012-08-07 Seiko Epson Corporation Method for creating blending ramps for complex projector image overlaps
CN102314259B (zh) * 2010-07-06 2015-01-28 株式会社理光 一种在显示区域内检测物体的方法和设备
US8727539B2 (en) * 2010-10-28 2014-05-20 Seiko Epson Corporation Projector and method of controlling projector
US8648964B2 (en) 2010-11-30 2014-02-11 Nec Corporation Multi-projection display system and method of adjusting brightness thereof
JP6340860B2 (ja) * 2014-01-21 2018-06-13 セイコーエプソン株式会社 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法
JP6364872B2 (ja) * 2014-03-28 2018-08-01 セイコーエプソン株式会社 情報処理装置、プロジェクター、情報処理方法及びプログラム
US9578295B1 (en) * 2015-12-18 2017-02-21 Canon Kabushiki Kaisha Calibration feature masking in overlap regions to improve mark detectability

Also Published As

Publication number Publication date
US9723279B1 (en) 2017-08-01
CN107018393A (zh) 2017-08-04
US20170214894A1 (en) 2017-07-27
JP2017129771A (ja) 2017-07-27
CN107018393B (zh) 2020-11-17

Similar Documents

Publication Publication Date Title
US10431131B2 (en) Projector and control method for projector
US9830023B2 (en) Image display apparatus and method of controlling image display apparatus
US10416813B2 (en) Display system, display device, information processing device, and information processing method
JP2015043066A (ja) 画像投影装置
JP2015037250A (ja) 画像投影装置及びプレゼンテーションシステム
JP2015158885A (ja) 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法
US10055065B2 (en) Display system, projector, and control method for display system
JP2012181264A (ja) 投影装置、投影方法及びプログラム
JP6492588B2 (ja) プロジェクター及びプロジェクターの制御方法
JP6642032B2 (ja) プロジェクター及びプロジェクターの制御方法
JP2017169086A (ja) 表示装置、表示装置の制御方法及びプログラム
JP6403002B2 (ja) プロジェクターシステム及びプロジェクターシステムの制御方法
JP6750268B2 (ja) 表示装置及び表示装置の制御方法
JP6728849B2 (ja) 表示装置及び表示装置の制御方法
JP2018132769A (ja) 画像表示装置、及び、画像表示装置の制御方法
JP6586891B2 (ja) プロジェクター及びプロジェクターの制御方法
JP2013083985A (ja) 投影装置、投影方法及びプログラム
JP2018159835A (ja) 投影装置
JP2017152765A (ja) プロジェクター及びプロジェクターの制御方法
JP6340860B2 (ja) 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法
WO2016139902A1 (ja) 表示装置及び表示制御方法
JP6707945B2 (ja) 表示装置及び表示装置の制御方法
JP2016151924A (ja) プロジェクター及びプロジェクターの制御方法
JP2008216351A (ja) 投影装置、投影方法及びプログラム
JP2022176643A (ja) 表示装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191216

R150 Certificate of patent or registration of utility model

Ref document number: 6642032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150