JP6442893B2 - プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法 - Google Patents

プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法 Download PDF

Info

Publication number
JP6442893B2
JP6442893B2 JP2014145027A JP2014145027A JP6442893B2 JP 6442893 B2 JP6442893 B2 JP 6442893B2 JP 2014145027 A JP2014145027 A JP 2014145027A JP 2014145027 A JP2014145027 A JP 2014145027A JP 6442893 B2 JP6442893 B2 JP 6442893B2
Authority
JP
Japan
Prior art keywords
projection
image
unit
identification information
interactive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014145027A
Other languages
English (en)
Other versions
JP2016021699A (ja
Inventor
壮史 長尾
壮史 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014145027A priority Critical patent/JP6442893B2/ja
Priority to US14/753,447 priority patent/US9946363B2/en
Publication of JP2016021699A publication Critical patent/JP2016021699A/ja
Application granted granted Critical
Publication of JP6442893B2 publication Critical patent/JP6442893B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/06Consumer Electronics Control, i.e. control of another device by a display or vice versa
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/20Details of the management of multiple sources of image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Description

本発明は、プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法に関する。
近年、プロジェクタ装置(画像投影装置)によって投影された画面上の操作を検出して、プロジェクタ装置、パーソナルコンピュータ装置等の機器の操作を可能とするインタラクティブシステムが知られている。このインタラクティブシステムの場合、ユーザが電子ペン、ペンまたは指などで投影面を操作すると、投影面上のカーソルまたはポインタ等が操作に応じて移動表示される。また、このインタラクティブシステムの場合、ユーザが投影面上の所望の位置をタッチ操作すると、例えば操作メニューの表示、または、表示画像の切り替え等のタッチ操作された位置に対応する動作を行うように、機器の制御が行われる。
特許文献1(特開2013−097177号公報)には、複数の画像の表示中に、表示面に対する指示位置に基づいて、表示されている複数の画像に係る処理を可能とする表示装置が開示されている。この表示装置の場合、プロジェクタ側が文字および図形の描画機能を持ち、操作情報を処理することで、複数画面に跨って文字や図形を書くインタラクティブ制御を行うことができる。
ここで、特許文献1に開示されている技術を含め、従来のインタラクティブシステムは、インタラクティブ制御に対応する投影画像(制御対応画像)、および、インタラクティブ制御に対応しない投影画像(制御非対応画像)を同時に一つの投影画像として投影した場合、正確なインタラクティブ制御が困難となる問題があった。
具体的には、例えばインタラクティブ制御を行うパーソナルコンピュータ装置で生成された制御対応画像と、インタラクティブ制御を行わないDVDプレイヤ装置で生成された制御非対応画像を、プロジェクタ装置に供給する。プロジェクタ装置は、各画像をピクチャ・イン・ピクチャの表示形態の一つの画像とし、投影面に投影する。この場合において、ペンまたは指等の指示体を用いて行われるインタラクティブ操作としては、制御対応画像上で行われたインタラクティブ操作のみ、有効なインタラクティブ操作として検出すべきである。また、制御非対応画像上で行われたインタラクティブ操作は、無効なインタラクティブ操作として検出すべきである。
しかし、ピクチャ・イン・ピクチャの画像を投影しているプロジェクタ装置側では、制御対応画像と制御非対応画像とを区別することは困難である。このため、従来のインタラクティブシステムは、制御非対応画像上でのインタラクティブ操作に対応してインタラクティブ制御が行われる不都合を生じ、正確なインタラクティブ制御が困難となる問題があった。
本発明は、上述の課題に鑑みてなされたものであり、より正確なインタラクティブ制御を可能とするプロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法の提供を目的とする。
本発明は、上述した課題を解決し、目的を達成するために、複数の投影画像を取得する画像取得部と、複数の投影画像のそれぞれの供給源となる複数のソース装置のうち、インタラクティブ制御の対象となるソース装置である制御対象装置を識別するための識別情報を取得する識別情報取得部と、取得された複数の投影画像を一つの画像にまとめた複合画像を生成して投影面に投影する投影部と、投影面を操作する指示体の位置座標を検出する位置座標検出部と、取得された識別情報を用いて、複合画像のうち、制御対象装置から供給された投影画像の投影領域を検出する検出部と、位置座標検出部で検出された指示体の位置座標が、検出部で検出された制御対象装置から供給された投影画像の投影領域内の位置座標であった場合に、指示体の位置座標を、制御対象装置の座標系の操作情報に変換する変換部と、操作情報を、制御対象装置に送信する送信部と、映像入力端子と、を有し、検出部は、識別情報取得部で識別情報が取得されない状態において、画像取得部で映像入力端子を介して投影画像が取得された場合、取得された投影画像の投影領域を、制御対象装置から供給された投影画像の投影領域として検出する。
本発明によれば、より正確なインタラクティブ制御を可能とすることができるという効果を奏する。
図1は、第1の実施の形態のインタラクティブシステムのシステム構成図である。 図2は、第1の実施の形態のインタラクティブシステムに設けられているプロジェクタ装置のハードウェア構成図である。 図3は、第1の実施の形態のインタラクティブシステムで用いられているペンのハードウェア構成図である。 図4は、CECの物理アドレスの割り当てを説明するための図である。 図5は、第1の実施の形態のインタラクティブシステムに設けられているプロジェクタ装置のCPUが、プロジェクタ装置用のインタラクティブプログラムを実行することで実現される各機能の機能ブロック図である。 図6は、第1の実施の形態のインタラクティブシステムに設けられている各装置における、投影面の接触操作時の動作を示すシーケンス図である。 図7は、第1の実施の形態のインタラクティブシステムに設けられているプロジェクタ装置の詳細な動作の流れを示すフローチャートである。 図8は、第2の実施の形態のインタラクティブシステムに設けられているプロジェクタ装置の動作の流れを示すフローチャートである。 図9は、第3の実施の形態のインタラクティブシステムに設けられている各装置の動作を示すシーケンス図である。
以下、添付図面を参照して、本発明を適用した実施の形態のインタラクティブシステムを詳細に説明する。
[第1の実施の形態]
(システム構成)
図1に、第1の実施の形態のインタラクティブシステムのシステム構成図を示す。一例として、第1の実施の形態のインタラクティブシステムは、プロジェクタ装置1、パーソナルコンピュータ装置2、DVDプレイヤ装置3、および、ペン4を有している。
プロジェクタ装置1とパーソナルコンピュータ装置2は、インタラクティブ制御に対応する投影画像(制御対応画像)を入力するための、例えばHDMI(登録商標)ケーブル等の映像ケーブル6で接続されている。HDMIは、「High Definition Multimedia Interface」の略記である。また、この例の場合、パーソナルコンピュータ装置2が、制御対象装置の一例となっている。さらに、プロジェクタ装置1とパーソナルコンピュータ装置2は、操作情報を送受信するための、例えばUSBケーブル等の有線ケーブル7で接続されている。USBは、「Universal Serial Bus」の略記である。なお、ブルートゥース(登録商標)等の近距離無線通信で操作情報を送受信してもよい。
同様に、プロジェクタ装置1とDVDプレイヤ装置3は、インタラクティブ制御に対応しない投影画像(制御非対応画像)を入力するための、例えばHDMI(登録商標)ケーブル等の映像ケーブル5で接続されている。
プロジェクタ装置1は、投影面8上のペン4の操作位置を特定するためのパターン情報を、投影画像に付加して投影面8に投影する。ペン4は、投影面8上で操作された際に、パターン情報を測定し、測定情報をプロジェクタ装置1に送信する。プロジェクタ装置1は、ペン4から送信された測定情報を用いて、投影面8上におけるペン4の座標位置および操作方向を検出し、操作情報に変換してパーソナルコンピュータ装置2へ送信する。パーソナルコンピュータ装置2は、操作情報に対応して例えば操作メニューの表示、または、表示画像の切り替え等のインタラクティブ動作を行う。これにより、ペン4等の指示体で投影面8を操作して、パーソナルコンピュータ装置2の動作を制御する、インタラクティブ制御を行うことができる。
(プロジェクタ装置のハードウェア構成)
図2は、プロジェクタ装置1のハードウェア構成図である。プロジェクタ装置1は、CPU11、RAM12、ROM13、USBI/Fポート14、光学部15、電源部16、電源制御部17、ファン部18、ランプ部19、およびランプ制御部20を有している。また、プロジェクタ装置1は、映像信号処理部21、映像信号受付部22、操作受付部23、無線ユニット24、およびネットワークインタフェースユニット(NWI/Fユニット)25を有している。CPU11〜NWI/Fユニット25は、バスライン26を介して、相互に接続されている。
CPU11は、プロジェクタ装置1の動作を制御する、「プロジェクタ装置1用のインタラクティブプログラム」を実行する。RAM12は、CPU11のワークエリア等を構成する。ROM13は、CPU11が実行するインタラクティブプログラム、およびインタラクティブプログラムの実行に必要なデータを記憶する。USBI/Fポート14は、USBケーブルの接続口である。光学部15は、映像を作り出す部分であり、DLP(登録商標)プロジェクタならDMD(登録商標)またはカラーホイールとなる。DLPは、「デジタル・ライト・プロッセシング」の略記である。DMDは、「Digital Micro mirror Device」の略記である。
電源部16は、プロジェクタ装置1へ電源を供給する。電源制御部17は、電源部16の電源供給制御を行う。ファン部18は、プロジェクタ装置1の本体を冷却する。ランプ部19は、光源となる光を生成する。ランプ制御部20は、ランプ部19を制御するバラストである。映像信号処理部21は、例えばD-subminiature(D-Sub)、HDMI(登録商標)、ビデオ等の映像入力種別毎の映像信号ポートである。映像信号処理部21は、映像信号ポートからの映像信号入力を受信して処理する。操作受付部23は、例えば操作キーであり、ユーザの操作を受け付ける。無線ユニット24は、例えば赤外線無線通信、または、ブルートゥース(登録商標)の通信規格の無線通信を行うことで、ペン4からの情報を受信する。NWI/Fユニット25は、例えばLAN等のネットワークを介して情報の送受信を行う。LANは、「Local Area Network」の略記である。
(ペンのハードウェア構成)
図3は、ペン4のハードウェア構成図である。この図3に示すように、ペン4は、CPU31、RAM32、ROM33、接触検知部34、パターン測定部35、および、無線ユニット36を有している。CPU31〜無線ユニット36は、バスライン37を介して、相互に接続されている。CPU31は、ペン4の動作制御を行う「ペン4用のインタラクティブプログラム」を実行する。RAM32は、CPU31のワークエリア等を構成する。ROM33は、CPU31が実行するインタラクティブプログラム、および、インタラクティブプログラムの実行に必要なデータを記憶する。接触検知部34は、投影面8に接触したペン先の押下を検知するセンサである。パターン測定部35は、接触検知部34により、投影面8に対するペン先の接触が検知された際に、プロジェクタ装置1により投影されている、ペン4の位置を特定するためのパターン情報を測定する。無線ユニット36は、例えば赤外線無線通信、または、Bluetooth(登録商標)通信規格の無線通信を用いて、ペン4の固有識別情報、およびパターン情報の測定情報等をプロジェクタ装置1に送信する。
(CECにおける物理アドレスの割り当て)
次に、図4に示すようにプロジェクタ装置1を「シンク装置」とし、パーソナルコンピュータ装置2およびDVDプレイヤ装置3を「ソース装置」とする。そして、シンク装置とソース装置をHDMIケーブルで接続した場合における、CECの物理アドレスの割り当てを説明する。CECは、「Consumer Electronics Control」の略記である。
シンク装置とソース装置とを接続するHDMI(登録商標)ケーブル5,6は、ソース装置からシンク装置に画像信号および音声信号を一方向に送信するコンテンツ伝送路と、制御信号(制御データ)を双方向に送信する制御信号伝送路を有する。制御信号伝送路は、DDC(Display Data Channel)とCEC用の伝送路となる。DDCでは、シンク装置の解像度等の性能および機能を記述したEDID(Extended Display Identification data)を送る。CECは、HDMIケーブル5,6で接続されたシンク装置とソース装置を制御する機能を実現する。例えば、テレビジョン受像機とDVDプレイヤ装置とを接続した場合に、テレビジョン受像機のリモートコントローラ装置(リモコン)だけで「映像の再生」等のDVDプレイヤ装置の制御が可能になる。この機能を実現するために、実施の形態のインタラクティブシステムは、シンク装置とソース装置との物理的な接続関係を示すアドレス(物理アドレス)を利用する。なお、この例では、物理アドレスを用いることとして説明を進めるが、ソース装置を識別できれば、例えばMACアドレス、シンク装置がソース装置に割り当てたアドレス等の固有識別情報を用いてもよい。MACアドレスは、「Media Access Control アドレス」の略記である。
すなわち、シンク装置に接続されたソース装置は、その接続された入力端子に応じて異なった物理アドレスを取得する。例えば、シンク装置であるプロジェクタ装置1の第1のHDMI端子にDVDプレイヤ装置3が接続されており、プロジェクタ装置1の第2のHDMI端子にパーソナルコンピュータ装置2が接続されていたとする。この場合、第1のHDMI端子に接続されたDVDプレイヤ装置3は、例えば「1.0.0.0」の物理アドレスをプロジェクタ装置1から取得する。また、第2のHDMI端子に接続されたパーソナルコンピュータ装置2は、例えば「2.0.0.0」の物理アドレスをプロジェクタ装置1から取得する。プロジェクタ装置1は、パーソナルコンピュータ装置2およびDVDプレイヤ装置3によりそれぞれ取得された物理アドレスを、例えばレジストリ等の記憶部に記憶されているEDID41,42に含めて記憶する。
(プロジェクタ装置1およびペン4の機能ブロック)
次に、図5は、プロジェクタ装置1のCPU11が、プロジェクタ装置1用のインタラクティブプログラムを実行することで実現される各機能の機能ブロック図である。また、図5は、ペン4のCPU31が、ペン4用のインタラクティブプログラムを実行することで実現される各機能の機能ブロック図である。プロジェクタ装置1の機能ブロックは、物理アドレス受付部50〜複数画面インタラクティブ判断部59である。また、ペン4の機能ブロックは、インタラクティブ通信部60および位置情報測定部61である。
なお、この例では、プロジェクタ装置1の物理アドレス受付部50〜複数画面インタラクティブ判断部59、および、ペン4のインタラクティブ通信部60および位置情報測定部61は、それぞれソフトウェアで実現されることとして説明を進めるが、全てまたは一部の機能をハードウェアで実現してもよい。
また、プロジェクタ装置1用およびペン4用の各インタラクティブプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、各インタラクティブプログラムは、CD−R、DVD、ブルーレイディスク(登録商標)、半導体メモリ等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。DVDは、「Digital Versatile Disk」の略記である。また、インターネット等のネットワーク経由でインストールするかたちで提供してもよい。また、各インタラクティブプログラムを、機器内のROM等に予め組み込んで提供してもよい。
図5において、プロジェクタ装置1は、物理アドレス受付部50、映像入力受付部51、投影部52、映像編集部53、ネットワーク通信部54、位置座標算出部55、インタラクティブ通信部56、PC操作座標情報変換部57、物理アドレス割当部58、および、複数画面インタラクティブ判断部59を有している。
映像入力受付部51は、画像取得部の一例である。物理アドレス受付部50は、識別情報取得部の一例である。複数画面インタラクティブ判断部59は、検出部の一例である。PC操作座標情報変換部57は、変換部の一例である。インタラクティブ通信部56は、送信部の一例である。
物理アドレス受付部50は、インタラクティブ機能対象のパーソナルコンピュータ装置2からの物理アドレス送信を受け付ける。映像入力受付部51は、HDMI(登録商標)、VGAまたはネットワークを経由して入力された映像入力を受け付ける。VGAは、「Video Graphics Array」の略記である。投影部52は、映像信号およびペン4の位置を特定するためのパターン情報を投影面8に投影する。映像編集部53は、変倍等、投影する画像の編集処理を実行する。ネットワーク通信部54は、パーソナルコンピュータ装置2およびDVDプレイヤ装置3等の他装置とネットワークを介した情報の送受信を行う。
位置座標算出部55は、パターン情報を測定したペン4から送信される測定情報を用いて、投影面8上のペン4の位置座標(位置情報)を算出する。インタラクティブ通信部56は、ペン4およびパーソナルコンピュータ装置2との間でインタラクティブ機能に関わる情報の送受信を行う。PC操作座標情報変換部57は、算出したペン4の位置座標をパーソナルコンピュータ装置2の操作情報に変換し、インタラクティブ通信部56を介してパーソナルコンピュータ装置2に送信する。物理アドレス割当部58は、上述のCECにおける物理アドレスを割り当てる。複数画面インタラクティブ判断部59は、受け付けた物理アドレスから、どの画面でインタラクティブ機能を実行すべきかを判断する。
一方、ペン4の位置情報測定部61は、ペン4の指す投影面8に投影された投影画像に重畳されたパターン情報を測定し、測定情報を生成する。インタラクティブ通信部60は、プロジェクタ装置1へ測定情報を送信する。
(各装置間の動作)
次に、図6は、投影面8の接触操作時における各装置の動作を示すシーケンス図である。この図6において、パーソナルコンピュータ装置2は、プロジェクタ装置1に対して映像ケーブル6を介して接続されると、ステップS1において、図4に示したEDID42を読み出す。そして、パーソナルコンピュータ装置2は、ステップS2において、割り当てられた物理アドレス(「2.0.0.0」)を取得する。また、パーソナルコンピュータ装置2は、ステップS3において、プロジェクタ装置1に対する映像信号の入力を行う。さらに、パーソナルコンピュータ装置2は、ステップS4において、取得した物理アドレスを、インタラクティブ通信部56を介してプロジェクタ装置1に返信する。
プロジェクタ装置1は、ステップS5において、ペン4の位置を一義的に特定するためのパターン情報を重畳した投影画像を投影面8に投影する。ペン4は、投影面8上で操作されることで、投影面8に対するペン先の接触を検出すると、ステップS6において、プロジェクタ装置1により投影されている上述のパターン情報を測定する。そして、ペン4は、パターン情報の測定情報を、ステップS7において、プロジェクタ装置1に送信する。
次に、プロジェクタ装置1は、ピクチャ・イン・ピクチャの表示形態等のように、複数の画面を一画面にまとめて投影している場合、受信した物理アドレスに対応する入力端子に供給されている画像を、インタラクティブ制御用の画像(制御対応画像)であると判断する。このため、ステップS8において、プロジェクタ装置1は、受信した物理アドレスに対応する入力端子に供給されている画像を、制御対応画像として認識する(インタラクティブ制御を行う画面か否かを判断する)。
次に、ステップS9において、プロジェクタ装置1は、ペン4から受信した測定情報から、投影面8上における、ペン4の現在の位置座標を算出する。また、プロジェクタ装置1は、算出したペン4の位置座標と、投影面8に投影しているインタラクティブ制御用の投影画像の投影領域の各座標とを比較する。プロジェクタ装置1は、ペン4の位置座標が、インタラクティブ制御用の投影画像の投影領域内に位置する場合、ステップS10において、ペン4の現在の位置座標を、パーソナルコンピュータ装置2の座標系に変換する。そして、ステップS11において、プロジェクタ装置1は、パーソナルコンピュータ装置2の座標系に変換した情報を、操作情報としてパーソナルコンピュータ装置2に送信する(位置座標を操作情報へ変換して送信する)。
パーソナルコンピュータ装置2は、ステップS12において、プロジェクタ装置1から受信した操作情報を、カーソルの移動、クリック、タッチ等のインタラクティブ制御に反映する。このとき、パーソナルコンピュータ装置2側で、描画機能が有効になっていれば文字、図形等が描画処理されて投影される。これにより、ピクチャ・イン・ピクチャの表示形態で複数の画像を一つの画面にまとめた複合画像を投影している場合において、制御対応画像上のペン4の操作に応じて、インタラクティブ制御を行うことができる。
一方、プロジェクタ装置1は、ペン4の現在の位置座標が、パーソナルコンピュータ装置2から受信した物理アドレスに対応しない入力端子を介して供給された画像(制御非対応画像)の投影領域の座標を示す場合、ペン4の現在の位置座標を、パーソナルコンピュータ装置2の座標系に変換する動作(=操作情報を生成する動作)を停止する。これにより、ピクチャ・イン・ピクチャの表示形態で複数の画像を一つの画面にまとめて投影している場合において、制御非対応画像上でペン4が操作されている場合にインタラクティブ制御が行われる不都合(誤動作)を防止することができる。
(プロジェクタ装置の動作)
次に、図7のフローチャートに、プロジェクタ装置1の詳細な動作の流れを示す。ステップS21において、図5に示すインタラクティブ通信部56が、ペン4から測定情報を受信する。ステップS22では、位置情報算出部55が、受信した測定情報を用いて、投影面8上における、ペン4の現在の位置座標を算出する。ステップS23では、複数画面インタラクティブ判断部59が、ピクチャ・イン・ピクチャの表示形態等のように、複数の画像を一つの画面にまとめた複合画像を投影しているか否かを判別する(ピクチャ・イン・ピクチャ(PIP)機能実行中か否かを判別する)。複数画面インタラクティブ判断部59が、複数の画像を一つの画面にまとめて投影していると判別した場合(ステップS23:Yes)、処理はステップS24に進む。また、複数画面インタラクティブ判断部59が、一つの画像(=ソースが一つ)を投影していると判別した場合(ステップS23:No)、処理はステップS26に進む。
ステップS26において、一つの画像を投影しているということは、現在の投影画像は、例えばパーソナルコンピュータ装置2等の、インタラクティブ制御の対象となる機器で生成された画像であることを意味する。このため、PC操作座標情報変換部57が、算出した位置座標を、パーソナルコンピュータ装置2の座標系に変換した情報である操作情報を生成し、生成した操作情報をパーソナルコンピュータ装置2に送信して、図7のフローチャートの処理を終了する。これにより、投影画像上を操作してパーソナルコンピュータ装置2をインタラクティブ制御することができる。
一方、複数の画像が一つの画面にまとめて投影されている場合、投影画像は複数の入力画像で構成されているため、どの画像に基づいてインタラクティブ制御を行うか判断する必要がある。このため、ステップS24に処理が進むと、複数画面インタラクティブ判断部59が、パーソナルコンピュータ装置2から受信した物理アドレスに対応する入力端子を介して入力されている投影画像を、インタラクティブ制御用の画像(制御対応画像)として認識する。
インタラクティブ制御を行う機器は、割り当てられた物理アドレスをプロジェクタ装置1に送信し(図6のステップS4参照)、他の機器はプロジェクタ装置1に対して物理アドレスを送信しない。すなわち、この例の場合、パーソナルコンピュータ装置2がプロジェクタ装置1に対して物理アドレスを送信し、DVDプレイヤ装置3は、プロジェクタ装置1に対して物理アドレスを送信しない。このため、プロジェクタ装置1は、受信した物理アドレスから、どの入力端子に入力されている投影画像でインタラクティブ制御すべきかを、判断することができる。
ステップS25では、複数画面インタラクティブ判断部59が、算出したペン4の位置座標が、制御対応画像の投影領域の座標上であるか否か(ペン4の操作位置が制御対応画像の投影領域内であるか否か)を判別する。ペン4の操作位置が制御対応画像の投影領域外であると判別された場合(ステップS25:No)、そのまま、図7のフローチャートの処理を終了する。これにより、インタラクティブ制御は行われることはない。
これに対して、ペン4の操作位置が制御対応画像の投影領域内であると判別された場合(ステップS25:Yes)、処理はステップS26に進む。ステップS26では、PC操作座標情報変換部57が、算出したペン4の位置座標を、パーソナルコンピュータ装置2の座標系に変換した情報である操作情報を生成し、パーソナルコンピュータ装置2に送信する。これにより、パーソナルコンピュータ装置2をインタラクティブ制御することができる。
以上の説明から明らかなように、第1の実施の形態のインタラクティブシステムは、インタラクティブ制御される機器(この例の場合は、パーソナルコンピュータ装置2)は、割り当てられた物理アドレスをプロジェクタ装置1に送信し、他の機器はプロジェクタ装置1に対して物理アドレスを送信しない。プロジェクタ装置1は、各入力端子に入力されている投影画像のうち、パーソナルコンピュータ装置2から入力されたインタラクティブ制御用の投影画像を、受信した物理アドレスから判断する。そして、判断した投影画像の投影領域に対応する座標上で、ペン4の操作が検出された際に、ペン4の位置座標をパーソナルコンピュータ装置2の座標系の操作情報に変換し、パーソナルコンピュータ装置2に送信する。
これにより、複数の画像が一つの画面にまとめて投影されている場合であっても、インタラクティブ制御用の投影画像と他の投影画像とを区別し、インタラクティブ制御用の投影画像上でペン4等の指示体が操作された場合のみ、インタラクティブ制御を行うことができる。このため、より正確なインタラクティブ制御を可能とすることができる。
[第2の実施の形態]
次に、第2の実施の形態のインタラクティブシステムを説明する。上述の第1の実施の形態の場合、パーソナルコンピュータ装置2およびDVDプレイヤ装置3がそれぞれHDMIケーブル5,6でプロジェクタ装置1と接続されている例であった。プロジェクタ装置1と各機器をHDMIケーブルで接続することで、パーソナルコンピュータ装置2およびDVDプレイヤ装置3等のソース装置に対する物理アドレスの割り当てが行われる。しかし、ソース機器をHDMIケーブル以外の他のケーブルで接続した場合、物理アドレスの割り当てが行われない。このため、プロジェクタ装置1側で、入力端子に入力されている投影画像が、インタラクティブ制御用の投影画像であるか否かを判別することが困難となる。
このため、第2の実施の形態のインタラクティブシステムでは、HDMI入力端子以外の映像入力端子を介して投影画像が入力されている場合、プロジェクタ装置1が、HDMI入力端子以外の映像入力端子を介して入力されている投影画像を、インタラクティブ制御用の投影画像として認識し、インタラクティブ制御を行うようにしたものである。なお、上述の第1の実施の形態と以下に説明する第2の実施の形態は、この点のみが異なる。このため、以下、差異の部分のみ説明し、重複説明は省略する。
図8のフローチャートに、第2の実施の形態のインタラクティブシステムのプロジェクタ装置1の動作の流れを示す。この図8のフローチャートにおいて、図7のフローチャートと同じ処理を行うステップに対しては、同じステップ番号を付してある。第2の実施の形態のインタラクティブシステムの場合、図8のフローチャートのステップS27〜ステップS29の各処理が、第1の実施の形態のインタラクティブシステムのプロジェクタ装置1と異なる処理となっている。
すなわち、図8のフローチャートのステップS27では、図5に示す物理アドレス受付部50が、プロジェクタ装置1とHDMIケーブルで接続されたソース装置から送信される物理アドレスの受信の有無を判別する。プロジェクタ装置1とHDMIケーブルで接続されたソース装置が存在しない場合(ステップS27:No)、ステップS28に処理が進む。また、プロジェクタ装置1とHDMIケーブルで接続されたソース装置が存在する場合(ステップS27:Yes)、ステップS24に処理が進む。
ステップS24では、上述のように各入力端子に入力されている投影画像のうち、インタラクティブ制御用の投影画像を、受信した物理アドレスから判断する。そして、判断した投影画像の投影領域に対応する座標上で、ペン4の操作が検出された際に、ペン4の位置座標をパーソナルコンピュータ装置2の座標系の操作情報に変換し、パーソナルコンピュータ装置2に送信する。これにより、インタラクティブ制御が行われる。
一方、プロジェクタ装置1とHDMIケーブルで接続されたソース装置が存在しないものと判別されることでステップS28に処理が進むと、映像入力受付部51が、HDMI入力端子以外の映像入力端子を介して接続されたパーソナルコンピュータ装置2等のソース装置が存在するか否かを判別する。一例ではあるが、映像入力受付部51は、HDMIケーブルが接続されていない状態で、VGA端子(=アナログRGB端子)にVGAケーブルを介してソース装置が接続されているか否かを判別する。
HDMIケーブルおよびVGAケーブルが、両方とも接続されていないということは、プロジェクタ装置1に対して、現在、画像が入力されていないことを意味する(ステップS28:No)。この場合、インタラクティブ制御を行うことができないため、図8のフローチャートの処理が終了する。
これに対して、HDMIケーブルが接続されておらず、代わりにVGAケーブルが接続されている場合(ステップS28:Yes)、ステップS29に処理が進む。複数画面インタラクティブ判断部59は、ステップS29およびステップS25において、位置座標算出部55で算出されたペン4の位置座標は、VGA入力端子を介して入力された投影画像の投影領域(画像範囲)の座標上であるか否かを判別する。そして、ペン4の位置座標が、VGA入力端子を介して入力された投影画像の投影領域の座標上ではない場合(ステップS25:No)、インタラクティブ制御を行うことなく、図8のフローチャートの処理を終了する。
また、ペン4の位置座標が、VGA入力端子を介して入力された投影画像の投影領域(画像範囲)の座標上である場合(ステップS25:Yes)、ステップS26に処理が進み、PC操作座標情報変換部57が、算出したペン4の位置座標を、パーソナルコンピュータ装置2の座標系に変換することで操作情報を生成し、パーソナルコンピュータ装置2に送信する。これにより、VGA端子に入力された投影画像上のペン操作に応じて、パーソナルコンピュータ装置2をインタラクティブ制御することができる。
以上の説明から明らかなように、第2の実施の形態のインタラクティブシステムは、HDMIケーブルが接続されておらず、例えばVGA端子等の他の映像入力端子を介して投影画像の入力が行われていた場合、他の映像入力端子を介して入力された投影画像を、インタラクティブ制御用の投影画像として認識し、インタラクティブ制御を行う。これにより、物理アドレスを用いて制御対応画像および制御非対応画像の判別を行うことができない場合でも、VGA端子等の他の映像入力端子を介して入力された投影画像を、制御対応画像として認識して、インタラクティブ制御を行うことができる他、上述の第1の実施の形態と同じ効果を得ることができる。
[第3の実施の形態]
次に、第3の実施の形態のインタラクティブシステムを説明する。上述の各実施の形態の場合、パーソナルコンピュータ装置2等のソース装置からの投影画像が、HDMIケーブルまたはVGAケーブルを介してプロジェクタ装置1に入力される例であった。これに対して、第3の実施の形態のインタラクティブシステムは、プロジェクタ装置1とソース装置とがネットワーク接続され、ソース装置からネットワーク経由で投影画像がプロジェクタ装置1に入力される例である。この場合、プロジェクタ装置1とソース装置とがHDMIケーブルで接続されていないため、第1の実施の形態で説明したように物理アドレスから制御対象画像であるか否かを判別することが困難となる。
このため、第3の実施の形態では、プロジェクタ装置1にネットワーク接続されているソース装置が、MACアドレス、または、プロジェクタ装置1により予め割り当てられたアドレス情報等の固有識別情報をプロジェクタ装置1に送信する。そして、プロジェクタ装置1が、ソース装置からネットワークを介して供給された固有識別情報を、物理アドレスとして取得する。なお、上述の各実施の形態と以下に説明する第3の実施の形態とでは、この点のみが異なる。このため、以下、差異の部分のみ説明し、重複説明は省略する。
図9は、第3の実施の形態における各装置の動作を示すシーケンス図である。この図9に示すステップS31およびステップS32が、上述の各実施の形態との差異の処理となっている。すなわち、ステップS31において、この場合のソース装置であるパーソナルコンピュータ装置2は、ネットワーク経由でプロジェクタ装置1に投影画像を送信する。プロジェクタ装置1は、図5に示すネットワーク通信部54を介してソース装置と通信を行う。
また、パーソナルコンピュータ装置2は、ステップS32において、MACアドレス、または、プロジェクタ装置1により予め割り当てられたアドレス情報等の固有識別情報をプロジェクタ装置1に送信する。プロジェクタ装置1は、受信した固有識別情報を物理アドレスの代わりに用い、固有識別情報が付加された投影画像を制御対象画像として認識し、上述のようにインタラクティブ制御を行う。プロジェクタ装置1にネットワーク接続された複数のソース装置からの複数の画像が一つの画面にまとめて投影されている場合であっても、インタラクティブ制御用の投影画像と他の投影画像とを区別し、インタラクティブ制御用の投影画像上でペン4等の指示体が操作された場合のみ、インタラクティブ制御を行うことができる他、上述の実施の形態と同じ効果を得ることができる。
上述の各実施の形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。実施の形態および実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 プロジェクタ装置
2 パーソナルコンピュータ装置
3 DVDプレイヤ装置
4 ペン
5 HDMIケーブル
6 HDMIケーブル
7 USBケーブル
8 投影面
41 EDID
42 EDID
50 物理アドレス受付部
51 映像入力受付部
52 投影部
53 映像編集部
54 ネットワーク通信部
55 位置座標算出部
56 インタラクティブ通信部
57 PC操作座標情報変換部
58 物理アドレス割当部
59 複数画面インタラクティブ判断部
60 インタラクティブ通信部
61 位置情報測定部
特開2013−097177号公報

Claims (5)

  1. 複数の投影画像を取得する画像取得部と、
    複数の前記投影画像のそれぞれの供給源となる複数のソース装置のうち、インタラクティブ制御の対象となるソース装置である制御対象装置を識別するための識別情報を取得する識別情報取得部と、
    取得された複数の前記投影画像を一つの画像にまとめた複合画像を生成して投影面に投影する投影部と、
    前記投影面を操作する指示体の位置座標を検出する位置座標検出部と、
    取得された前記識別情報を用いて、前記複合画像のうち、前記制御対象装置から供給された投影画像の投影領域を検出する検出部と、
    前記位置座標検出部で検出された前記指示体の位置座標が、前記検出部で検出された前記制御対象装置から供給された投影画像の投影領域内の位置座標であった場合に、前記指示体の位置座標を、前記制御対象装置の座標系の操作情報に変換する変換部と、
    前記操作情報を、前記制御対象装置に送信する送信部と、
    映像入力端子と、を有し、
    前記検出部は、前記識別情報取得部で前記識別情報が取得されない状態において、前記画像取得部で前記映像入力端子を介して前記投影画像が取得された場合、取得された投影画像の投影領域を、前記制御対象装置から供給された投影画像の投影領域として検出すること
    を特徴とするプロジェクタ装置。
  2. 前記識別情報取得部は、ケーブル接続された各前記ソース装置に割り当てられた物理アドレスを取得し、
    前記検出部は、前記物理アドレスを用いて、前記制御対象装置を判別すること
    を特徴とする請求項1に記載のプロジェクタ装置。
  3. 前記画像取得部は、ネットワークを介して前記投影画像を取得し、
    前記識別情報取得部は、前記ネットワークを介して取得した各前記ソース装置のMAC(Media Access Control)アドレス、または、各前記ソース装置に割り当てられたアドレス情報を、前記識別情報として取得すること
    を特徴とする請求項1又は請求項2に記載のプロジェクタ装置。
  4. 複数の投影画像を取得する画像取得部と、
    複数の前記投影画像のそれぞれの供給源となる複数のソース装置のうち、インタラクティブ制御の対象となるソース装置である制御対象装置を識別するための識別情報を取得する識別情報取得部と、
    取得された複数の前記投影画像を一つの画像にまとめた複合画像を生成して投影面に投影する投影部と、
    前記投影面を操作する指示体の位置座標を検出する位置座標検出部と、
    取得された前記識別情報を用いて、前記複合画像のうち、前記制御対象装置から供給された投影画像の投影領域を検出する検出部と、
    前記位置座標検出部で検出された前記指示体の位置座標が、前記検出部で検出された前記制御対象装置から供給された投影画像の投影領域内の位置座標であった場合に、前記指示体の位置座標を、前記制御対象装置の座標系の操作情報に変換する変換部と、
    前記操作情報を、前記制御対象装置に送信する送信部と、
    映像入力端子と、を有し、
    前記検出部は、前記識別情報取得部で前記識別情報が取得されない状態において、前記画像取得部で前記映像入力端子を介して前記投影画像が取得された場合、取得された投影画像の投影領域を、前記制御対象装置から供給された投影画像の投影領域として検出すること
    を特徴とするインタラクティブシステム。
  5. 画像取得部が、複数の投影画像を取得する画像取得ステップと、
    識別情報取得部が、複数の前記投影画像のそれぞれの供給源となる複数のソース装置のうち、インタラクティブ制御の対象となるソース装置である制御対象装置を識別するための識別情報を取得する識別情報取得ステップと、
    投影部が、取得された複数の前記投影画像を一つの画像にまとめた複合画像を生成して投影面に投影する投影ステップと、
    位置座標検出部が、前記投影面を操作する指示体の位置座標を検出する位置座標検出ステップと、
    検出部が、取得された前記識別情報を用いて、前記複合画像のうち、前記制御対象装置から供給された投影画像の投影領域を検出する検出ステップと、
    変換部が、前記位置座標検出ステップで検出された前記指示体の位置座標が、前記検出ステップで検出された前記制御対象装置から供給された投影画像の投影領域内の位置座標であった場合に、前記指示体の位置座標を、前記制御対象装置の座標系の操作情報に変換する変換ステップと、
    送信部が、前記操作情報を、前記制御対象装置に送信する送信ステップと、を有し、
    前記検出ステップでは、前記識別情報取得部で前記識別情報が取得されない状態において、前記画像取得部で映像入力端子を介して前記投影画像が取得された場合、取得された投影画像の投影領域を、前記制御対象装置から供給された投影画像の投影領域として検出すること
    を特徴とするインタラクティブ制御方法。
JP2014145027A 2014-07-15 2014-07-15 プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法 Active JP6442893B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014145027A JP6442893B2 (ja) 2014-07-15 2014-07-15 プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法
US14/753,447 US9946363B2 (en) 2014-07-15 2015-06-29 Projector, interactive system, and interactive control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014145027A JP6442893B2 (ja) 2014-07-15 2014-07-15 プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法

Publications (2)

Publication Number Publication Date
JP2016021699A JP2016021699A (ja) 2016-02-04
JP6442893B2 true JP6442893B2 (ja) 2018-12-26

Family

ID=55074574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014145027A Active JP6442893B2 (ja) 2014-07-15 2014-07-15 プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法

Country Status (2)

Country Link
US (1) US9946363B2 (ja)
JP (1) JP6442893B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6451225B2 (ja) * 2014-11-06 2019-01-16 セイコーエプソン株式会社 表示装置、プロジェクターおよび表示制御方法
US10387000B2 (en) 2015-08-30 2019-08-20 EVA Automation, Inc. Changing HDMI content in a tiled window
US20170064376A1 (en) * 2015-08-30 2017-03-02 Gaylord Yu Changing HDMI Content in a Tiled Window
KR102523154B1 (ko) * 2016-04-22 2023-04-21 삼성전자주식회사 터치 스크린 장치, 입력 장치 및 그 제어 방법
JP6816402B2 (ja) * 2016-08-12 2021-01-20 セイコーエプソン株式会社 表示装置および表示装置の制御方法
JP6897191B2 (ja) * 2017-03-17 2021-06-30 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
US11202028B2 (en) 2017-04-05 2021-12-14 Samsung Electronics Co., Ltd. Display device configuring multi display system and control method thereof
CN108093232B (zh) * 2017-11-08 2019-09-13 歌尔科技有限公司 一种悬挂式投影仪分屏显示的方法、装置和悬挂式投影仪
JP7287156B2 (ja) * 2019-07-10 2023-06-06 株式会社リコー 表示装置、表示方法、プログラム
CN111640338A (zh) * 2020-05-25 2020-09-08 中南大学 儿童互动投射装置
KR20230139878A (ko) * 2022-03-24 2023-10-06 삼성디스플레이 주식회사 전자 펜, 그 구동 방법, 및 표시 장치

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03231582A (ja) * 1990-02-06 1991-10-15 Sony Corp ビデオ信号の切換装置
JPH05173745A (ja) * 1991-12-26 1993-07-13 Toshiba Corp 表示制御方式
JP4541476B2 (ja) * 1999-02-19 2010-09-08 キヤノン株式会社 マルチ画像表示システムおよびマルチ画像表示方法
US20020152094A1 (en) * 2001-03-21 2002-10-17 Christer Fahraeus Method and system for supporting infrastructure delivery in a computer network
US8473601B2 (en) * 2001-10-03 2013-06-25 Fluke Corporation Multiple ping management
JP4259486B2 (ja) * 2005-03-08 2009-04-30 セイコーエプソン株式会社 映像ソースの探索支援方法、当該探索支援方法を用いた映像表示装置、プロジェクタ
JP2011109504A (ja) * 2009-11-19 2011-06-02 Sanyo Electric Co Ltd 映像表示装置
JP5685854B2 (ja) 2010-08-20 2015-03-18 株式会社リコー 電子情報ボード装置
JP5927845B2 (ja) * 2011-11-01 2016-06-01 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
US20140176505A1 (en) * 2012-12-20 2014-06-26 Funai Electric Co., Ltd. Image display device and input determination method
JP6020159B2 (ja) 2012-12-27 2016-11-02 株式会社リコー 情報処理装置、及び情報処理方法
JP6191412B2 (ja) 2013-11-21 2017-09-06 株式会社リコー 情報処理装置、画像投影装置、画像投影システム、歪み補正指示方法及びプログラム

Also Published As

Publication number Publication date
US9946363B2 (en) 2018-04-17
JP2016021699A (ja) 2016-02-04
US20160018905A1 (en) 2016-01-21

Similar Documents

Publication Publication Date Title
JP6442893B2 (ja) プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法
JP6340958B2 (ja) プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法
US20200110526A1 (en) Display apparatus, display system, and method for controlling display apparatus
US9477436B2 (en) Interactive display system, operation method thereof, and image intermediary apparatus
CN110035317B (zh) 用于促进媒体装置接口能力扩展的系统、方法及机器可读介质
US20170085848A1 (en) Information processing device, projector and information processing method
JP6123212B2 (ja) 画像表示装置および画像表示装置の制御方法
JP5414262B2 (ja) 通信装置、制御方法及びプログラム
JP2011130322A (ja) 通信装置
JP2017009829A (ja) 画像投影装置、画像投影システムおよび映像供給装置
JP2017117020A (ja) 表示装置、表示システム及び方法
US20180039380A1 (en) Display apparatus, display system, and method of controlling display apparatus
WO2018109876A1 (ja) 表示装置、電子黒板システム及びユーザーインターフェース設定方法
US9778763B2 (en) Image projection apparatus, and system employing interactive input-output capability
JP2017010314A (ja) 画像投影システム、画像投影装置、ポインティングデバイス、および映像供給装置
US20160147377A1 (en) Display device, display method, and display system
CN108965840B (zh) 自由输入端的交互式投影仪
US20200183534A1 (en) Display apparatus, display system, and display method
JP5899993B2 (ja) 画像表示装置、画像表示システム、および画像表示装置の制御方法
JP2015195573A (ja) プロジェクター
JP2009193025A (ja) 画像表示装置、強調表示方法
JP7238371B2 (ja) 表示装置、表示システム及び表示方法
JP2016103060A (ja) 画像投影装置、画像投影システムおよび映像供給装置
JP2016103061A (ja) 画像投影システム
JP2017092849A (ja) 画像表示システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181112

R151 Written notification of patent or utility model registration

Ref document number: 6442893

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151