JP2013097177A - 表示装置、表示装置の制御方法、及び、プログラム - Google Patents
表示装置、表示装置の制御方法、及び、プログラム Download PDFInfo
- Publication number
- JP2013097177A JP2013097177A JP2011240062A JP2011240062A JP2013097177A JP 2013097177 A JP2013097177 A JP 2013097177A JP 2011240062 A JP2011240062 A JP 2011240062A JP 2011240062 A JP2011240062 A JP 2011240062A JP 2013097177 A JP2013097177 A JP 2013097177A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- unit
- input
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/02—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes by tracing or scanning a light beam on a screen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Controls And Circuits For Display Device (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】プロジェクター11は、スクリーンSCに複数の表示領域を設け、投射ユニット3によって、各表示領域に複数の画像ソースから入力される入力画像をそれぞれ表示し、スクリーンSCにおける指示体12の指示位置を検出する位置検出ユニット150と、検出された指示位置に基づいて、複数の表示領域に跨る処理を実行する画像処理ユニット110を備える。
【選択図】図2
Description
本発明は、上述した事情に鑑みてなされたものであり、複数の画像の表示中に、表示面に対する指示位置に基づいて表示されている複数の画像に係る処理を可能とすることを目的とする。
本発明によれば、表示面に対する位置指示操作に対応して、複数の表示領域に跨る処理を実行し、複数の画像ソースからの入力画像を処理することができる。
本発明によれば、表示面に対する位置指示の操作に応じて、複数の画像ソースから入力された複数の画像に跨って画像を描画し、重畳して表示することができる。
本発明によれば、表示面に対する位置指示の操作に応じて、複数の画像ソースから入力された複数の画像をまとめて拡大または縮小表示させることができる。
本発明の制御方法を実行することにより、表示面に対する位置指示操作に対応して、複数の表示領域に跨る処理を実行し、複数の画像ソースからの入力画像を処理することができる。
本発明のプログラムを実行することにより、表示装置を制御するコンピューターは、表示面に対する位置指示操作に対応して、複数の表示領域に跨る処理を実行し、複数の画像ソースからの入力画像を処理することができる。
また、上記プログラムを、コンピューターが読み取り可能に記録した記録媒体として実現することも可能である。
図1は、実施形態に係るプロジェクター11を用いた表示システム10の構成を示す図である。
表示装置としてのプロジェクター11には、画像供給装置としてのPC(Personal Computer)13、DVDプレーヤー15、及びビデオレコーダー16が有線接続されている。プロジェクター11にはネットワーク14を介して複数のPC13が接続され、いずれのPC13からもプロジェクター11に画像データを供給可能である。ネットワーク14はLANケーブル等の有線通信回線または無線通信回線により構成され、ネットワーク14とプロジェクター11とは有線または無線接続され、このネットワーク14を介してプロジェクター11と各PC13との間、及び、PC13間で各種データを送受信可能である。
図1に例示する構成では、プロジェクター11は、一つのPC13に対し、アナログ映像信号を伝送するRGBケーブル61、及び、デジタルデータを伝送するUSBケーブル62により接続されている。このPC13は、プロジェクター11にRGBケーブル61を介してアナログ映像信号を出力できる。また、プロジェクター11は、USBケーブル62を介して、PC13との間で後述する座標データ(座標情報)を含む各種制御データ等を送受信する。なお、PC13とプロジェクター11とをDVIケーブル等を介して接続し、デジタル画像データを伝送する構成とすることも勿論可能である。
プロジェクター11は、PC13、DVDプレーヤー15及びビデオレコーダー16から入力された画像データに基づいて、投射面(表示面)としてのスクリーンSCに画像を投射する。プロジェクター11は、PC13、DVDプレーヤー15及びビデオレコーダー16から入力された画像データが静止画像であっても動画像であっても投射できる。スクリーンSCは、壁面に固定された平板に限らず、壁面自体をスクリーンSCとして使用することも可能である。ここで、スクリーンSC上で画像が投射される範囲を実投射領域11B(表示可能領域)とする。また、プロジェクター11は通信ケーブル等によりPC13に接続され、PC13との間で制御データ等を送受信する。
プロジェクター11は、大別して、RGBケーブル61またはネットワーク14を介してPC13から入力される入力画像やDVDプレーヤー15及びビデオレコーダー16等から入力される入力画像に基づいて表示用の画像処理を実行する画像処理ユニット110と、画像処理ユニット110の制御に従ってスクリーンSCに画像を投射する投射ユニット3(表示手段)と、スクリーンSC上の指示体12の指示位置を検出する位置検出ユニット150と、位置検出ユニット150が検出した指示位置の座標を、画像データにおける座標に変換する座標変換部160と、座標変換部160が変換した変換後の座標をPC13または画像処理ユニット110に出力する出力切替部163と、出力切替部163が座標を出力する出力先を切り替えさせる出力制御部101と、これらの各部を制御する制御部103と、を備えている。
制御部103は、図示しないCPU、不揮発性メモリー、RAM等により構成され、制御部103に接続された記憶部105に記憶されている制御プログラム105Aを読み出して実行し、プロジェクター11の各部を制御する。また、記憶部105に記憶された制御プログラム105Aを実行することで、制御部103はキャリブレーション実行部103Aとして機能する。キャリブレーション実行部103Aは、後述するキャリブレーションを実行して、撮影画像データにおける座標と、キャリブレーションの対象となるスクリーンSC上の領域における座標との対応関係(座標変換パラメーター)を求める。記憶部105は、磁気的、光学的記録装置または半導体記憶素子により構成され、制御プログラム105Aを含む各種プログラム、及び、各種設定値等のデータを記憶する。
操作パネル41は、各種スイッチ及びインジケーターランプを備え、プロジェクター11の外装筐体(図示略)に配置されている。制御部103は、プロジェクター11の動作状態や設定状態に応じて操作パネル41のインジケーターランプを適宜点灯或いは点滅させる。また、操作パネル41のスイッチが操作されると、操作されたスイッチに対応する操作信号が制御部103に出力される。操作パネル41やリモコン等は、プロジェクター11に対する操作をユーザーが入力するための操作部である。なお、プロジェクター11に対する操作を表す操作信号をPC13からプロジェクター11に送信し、この操作信号に基づいてプロジェクター11を制御することもできる。PC13から操作信号を送信する場合は、例えばUSBインターフェイス等を介してプロジェクター11に操作信号を送信することができる。この場合は、PC13も、プロジェクター11に対する操作をユーザーが入力するための操作部として機能する。
また、プロジェクター11は、プロジェクター11の操作者であるユーザーが使用するリモコン(図示略)が、ユーザーのボタン操作に対応して送信した赤外線信号を、リモコン受光部45によって受光する。リモコン受光部45は、上記リモコンから受光した赤外線信号を受光素子により受光し、この信号に対応する操作信号を制御部103に出力する。
制御部103は、操作パネル41またはリモコン受光部45から入力される操作信号に基づいて、ユーザーの操作を検出し、この操作に従ってプロジェクター11を制御する。
Compインターフェイスは、コンピューターからアナログ映像信号が入力されるVGA端子、デジタル映像信号が入力されるDVI(Digital Visual Interface)等である。このCompインターフェイスにはRGBケーブル61(図1)が接続され、USBインターフェイスにはUSBケーブル62(図1)が接続される。
Videoインターフェイスは、上記の画像供給装置からコンポジット映像信号が入力されるRCA端子、或いはコンポーネント映像信号が入力されるD端子等を備え、アナログ画像信号が入力される。本実施形態では、Videoインターフェイスにはビデオレコーダー16が接続されている。
また、LANインターフェイスは、LANケーブルを接続可能なRJ−45端子等の端子を備え、この端子を介して1または複数のコンピューターを含むLANに接続される。LANインターフェイスは、例えばEthernet(登録商標)規格に準拠したネットワークインターフェース回路(図示略)を備えており、LANを構成するコンピューターとの間で制御データや画像データを送受信する。
また、外部I/F102に、VESA(Video Electronics Standards Association)が策定したDisplayPortを備えた構成としてもよく、具体的にはDisplayPortコネクター或いはMini Displayportコネクターと、Displayport規格に準拠したインターフェイス回路とを備えた構成としてもよい。この場合、プロジェクター11は、PC13や、PC13と同等の機能を有する携帯型デバイスが備えるDisplayPortに接続し、デジタル画像データを入力可能となる。
さらに、外部I/F102は有線通信によって画像信号の送受信を行っても良く、無線通信によって画像信号の送受信を行っても良い。例えば、外部I/F102に、無線LAN等の無線通信インターフェイスを備え、プロジェクター11をPC13等の各種装置と無線通信回線を介して接続してもよい。
外部I/F102が備える各インターフェイスに接続された各装置(上述した画像供給装置)を、画像ソースと呼び、各画像ソースから入力される画像信号または画像データを入力画像と総称する。このため、入力画像には、アナログ画像信号及びデジタル画像データの両方が含まれる。
光変調装置32は、後述する画像処理系からの信号を受けて、照明光学系31からの光を変調する。本実施形態では、透過型液晶パネルを用いて光変調装置32を構成した場合を例に挙げて説明する。この構成では、光変調装置32は、カラーの投影を行うため、RGBの三原色に対応した3枚の液晶パネルからなる。照明光学系31からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系33に射出される。
投射ユニット3(表示手段)は、投射部30とともに、表示制御部107の制御に従って投射光学系33が備える各モーターを駆動する投射光学系駆動部121、表示制御部107から出力される画像信号に基づいて光変調装置32を駆動して描画を行う光変調装置駆動部119、及び、制御部103の制御に従って照明光学系31が備える光源を駆動する光源駆動部117を備えている。
表示制御部107は、画像入力部104を介して入力される画像データのフォーマット(フレームレート、解像度、圧縮状態)の判別等を行い、光変調装置32に表示画像を表示するために必要な処理を決定し、画像処理部113を制御して当該処理を実行する。画像処理部113は、表示制御部107の制御に従って、画像入力部104を介して入力された画像データをフレームメモリー115に展開し、インターレース/プログレッシブ変換、解像度変換等の各種変換処理を適宜実行し、フレームメモリー115に描画した表示画像を表示するための所定フォーマットの画像信号を生成して、表示制御部107に出力する。なお、プロジェクター11は、入力された画像データの解像度やアスペクト比を変更して表示することもでき、入力された画像データの解像度やアスペクト比を維持したままドットバイドットで表示することも可能である。また、画像処理部113は、表示制御部107の制御に従って、キーストーン補正、カラーモードに対応した色調補正、画像の拡大/縮小処理等の各種の画像処理を実行可能である。表示制御部107は、画像処理部113により処理された画像信号を光変調装置駆動部119に出力し、光変調装置32に表示させる。また、画像処理部113は、表示中の画像データの解像度、アスペクト比、光変調装置32の液晶表示パネルにおける表示サイズ等の情報から、後述する画像位置情報を導出し、求めた画像位置情報を座標変換部160に出力する。
制御部103は、制御プログラム105Aを実行して表示制御部107を制御し、スクリーンSC上に結像した表示画像のキーストーン補正を実行させる。また、制御部103は、操作パネル41またはリモコン受光部45から入力された操作信号に基づいて、表示制御部107を制御して表示画像の拡大/縮小処理を実行させる。
ここで、制御部103は、外部I/F102において各画像ソースが接続されるインターフェイスの種類毎に選択及び判別を行ってもよいし、画像ソースから入力される入力画像の種類毎に選択及び判別を行ってもよく、コネクター毎に選択及び判別を行ってもよい。さらに、外部I/F102に接続された各装置の種類自体を識別することにより画像ソースを選択及び判別してもよい。例えば、HDMIインターフェイス、或いはLANインターフェイスに接続された機器は、プロジェクター11との間で制御データを送受信するので、この制御データに基づいて各機器(装置)の種類を判別できる。具体的には、PC13、DVDレコーダー、USBメモリー、PDA(Personal Digital Assistant)、携帯電話機、半導体メモリーを備えたメディアプレーヤー等、画像ソースとしての装置を具体的に特定して分類し、この分類により画像ソースの種類を判別してもよい。
また、プロジェクター11は、後述するようにスクリーンSC上に複数の入力画像を並べて同時に表示する、いわゆる多画面表示機能を備えている。操作パネル41又はリモコン受光部45により検出された操作あるいは事前の設定により、制御部103は、画像を表示可能な領域(投射可能領域11Aまたは実投射領域11B)を複数の領域に分割し、複数の画像ソース(画像供給装置)から入力された複数の入力画像を並べて表示する多画面表示を行う。多画面表示を行う場合、制御部103は、外部I/F102に接続された複数の画像ソースのうち、多画面表示で同時に表示可能な上限数以内で、画像ソースを選択する。
撮像部153は、スクリーンSC上で投射部30が画像を投射可能な最大範囲(後述する投射可能領域11Aに相当)を含む画角を撮影するデジタルカメラであり、撮影制御部155の制御に従って撮影を実行し、撮影画像データを出力する。換言すれば、撮像部153は投射可能領域11A全体を含む範囲を撮影可能に設定されている。撮影制御部155は、制御部103の制御にしたがって、撮像部153を制御して撮影を実行させる。撮像部153が撮影時のズーム倍率、フォーカス、絞りの調整を行う機構を有する場合、撮影制御部155は、これらの機構を制御して予め設定された条件で撮影を実行させる。撮影後、撮影制御部155は撮像部153が出力する撮影画像データを取得して、位置検出処理部157に出力する。撮像部153から出力される撮影画像データは、RGBやYUV等の形式で表されるものであっても良く、輝度成分のみを表すものであっても良い。また撮影制御部155は、撮像部153から出力される撮影画像データをそのまま位置検出処理部157へ出力してもよく、解像度の調整や所定のファイルフォーマット(JPEG、BMPなど)への変換等を行った上で位置検出処理部157へ出力しても良い。
なお、撮像部153は、可視光を撮像可能な構成であっても良く、非可視光(赤外光など)を撮像可能な構成であっても良い。撮像部153が非可視光を撮像可能な場合には、指示体12が非可視光を射出して、撮像部153が指示体12から射出された非可視光を撮像する構成や、指示体12が非可視光を反射可能な反射部を備えており、制御部103の制御によってプロジェクター11からスクリーンSCに対して非可視光を投射し、指示体12の反射部によって反射された非可視光を撮像部153によって撮像する構成等を採用することができる。
位置検出ユニット150が出力する座標は、撮像部153の撮影画像データに基づいて検出された座標であり、スクリーンSCに結像した表示画像上に仮想的に設けられた座標系における座標である。座標変換部160は、画像処理部113がフレームメモリー115に展開した画像の解像度と、画像処理部113が画像を展開する際に行った解像度変換やズーム等の処理内容に関する情報とを含む各種の情報を取得し、取得した情報をもとに、位置検出ユニット150が求めた表示画像における座標を、入力画像データにおける座標に変換する。上述のように光変調装置32は、例えば縦横にマトリクス状に並ぶ所定数の画素を有する液晶表示パネルを用いて構成されているので、画素の配列方向に仮想の直交座標系の座標軸を配置することで、パネル上の位置を座標で表すことができる。これに対し、撮影画像データにおける座標は、撮像装置5とスクリーンSCとの距離等の様々な要素の影響を受ける。そこで、本発明に係るプロジェクター11においては、最初にキャリブレーション(後述)を実行して、撮影画像データにおける座標と、キャリブレーションの対象となるスクリーンSC上の領域における座標との対応関係(座標変換パラメーター)を求める。ここで、キャリブレーションの対象となるスクリーンSCの領域は、実投射領域11B全体であっても良く、実投射領域11Bの一部であっても良い。実投射領域11Bの一部をキャリブレーションの対象とする場合としては、プロジェクター11の表示画像のアスペクト比とスクリーンSCのアスペクト比が異なる場合(例えば、プロジェクター11の表示解像度がWXGAで、スクリーンSCのアスペクト比が4:3である場合)に、プロジェクター11の表示画像の垂直方向の幅が、スクリーンSCの垂直方向の幅と一致するように表示する場合が考えられる。この場合は、プロジェクター11の実投射領域11Bのうち、スクリーンSCに含まれる領域をキャリブレーションの対象とし、それ以外の領域をキャリブレーションの対象外とすることが考えられる。キャリブレーション実行部103Aによって座標変換パラメーターが求められると、この座標変換パラメーターに基づいて、座標算出部159が座標の変換を行う。この変換処理については後述する。さらに、座標変換部160は、座標算出部159から出力された座標(第1の座標)を画像位置情報(後述)に基づいて変換し、変換後の座標(第2の座標)を出力切替部163に出力する。
表示制御部107は、出力切替部163から入力された座標に基づいて、フレームメモリー115に展開した画像上に、指示体12の指示位置に対応してポインター12Aの画像を描画する。
ここで、座標算出部159は、座標変換部160を介することなく出力切替部163に対して座標(第1の座標)を出力することも可能である。このため、出力切替部163は、座標算出部159が出力した座標(第1の座標)を、外部I/F102を介してPC13に出力することも、画像処理部113に出力することもできる。また、座標変換部160が、座標算出部159から入力された座標(第1の座標)を変換することなく、出力切替部163に座標を出力する機能を有する構成とすれば、座標算出部159が直接出力切替部163に座標を出力する場合と同様の作用効果が得られる。
さらに、プロジェクター11は座標変換部160を備えない構成であっても良い。この場合は、座標算出部159が出力した第1の座標が、PC13及び画像処理部113に対して出力される。
出力切替部163が外部I/F102に出力した座標は、例えば、外部I/F102のUSBインターフェイスを介してPC13に入力される。出力切替部163が出力する座標データは、マウス、トラックボール、デジタイザー、或いはペンタブレット等のポインティングデバイスが出力する座標データと同様のデータとして、PC13に出力される。また指示体12が操作子を備える場合は、座標データに加えて、操作子が操作されたことを示す情報や、操作子に対する操作が解除されたことを示す情報をPC13へ出力しても良い。
また、プロジェクター11に対応した専用のデバイスドライバープログラムを用意して、このデバイスドライバープログラムをPC13にインストールして使用しても良い。この場合は専用のデバイスドライバープログラムが必要になる一方で、プロジェクター11とPCとの間でやり取りできる情報は、専用のデバイスドライバープログラムの仕様に応じて任意に設定することができる。
この図3に示すように、PC13は、制御プログラムを実行してPC13の各部を中枢的に制御するCPU131、CPU131により実行される基本制御プログラムや当該プログラムに係るデータを記憶したROM132、CPU131が実行するプログラムやデータを一時的に記憶するRAM133、プログラムやデータを不揮発的に記憶する記憶部134、入力操作を検出して入力内容を示すデータや操作信号をCPU131に出力する入力部135、CPU131による処理結果等を表示するための表示データを出力する表示部136、及び、外部の装置との間でデータ等を送受信する外部I/F137を備えており、これらの各部はバスにより相互に接続されている。
入力I/F141には、プロジェクター11に繋がる通信ケーブル(例えば、USBケーブル62)が接続され、プロジェクター11から、指示体12による指示位置の座標が入力される。ここで、入力I/F141には、プロジェクター11が出力する座標データが、マウス、トラックボール、デジタイザー、或いはペンタブレット等のポインティングデバイスが出力する座標データと同様のデータとして入力される。従って、PC13は、プロジェクター11から入力される座標データを入力デバイスからの入力信号として処理することができ、例えば、この座標データに基づいてマウスカーソルやポインターの移動を行う等の動作を行える。
例えば、原画像を表す画像データをプロジェクター11が記憶しており、プロジェクター11において付加画像を描画する場合は、PC13を用いることなく、原画像に対して描画を行うことができる。
また、PC13から出力された原画像に対して、プロジェクター11において付加画像を描画する場合は、PC13が描画機能を備えていなくても原画像に対して付加画像の描画を行うことができるので、PC13に描画用のソフトウェアがインストールされていなくても、原画像に対して描画を行うことができる。
さらに、原画像を表す画像データをプロジェクター11又はPC13が記憶しており、この原画像に対して、PC13において付加画像を描画しても良い。
光変調装置32が有する液晶表示パネル全体を使用して表示画像を投射した場合には、図4(A)に2点差線で示す投射可能領域11Aに画像が結像する。プロジェクター11がスクリーンSCの真正面に位置している場合を除き、図4(A)に示すように台形歪みが発生するので、プロジェクター11は、表示制御部107の機能によりキーストーン補正を行う。このキーストーン補正の実行後には、実投射領域11Bに表示画像が投射される。実投射領域11Bは、通常、スクリーンSC上で長方形となり、かつ最大のサイズとなるよう設定される。具体的には、光変調装置32の液晶表示パネルの解像度と台形歪みの程度により決定されるが、最大サイズでなくてもよい。
このキャリブレーションは、制御部103が記憶部105に記憶されたキャリブレーション用プログラム(図示略)を実行することで行われるので、PC13においてキャリブレーション用のプログラムをインストールして実行する必要がない。また、キャリブレーションは、撮影画像データに基づいてキャリブレーション実行部103Aが自動で行う処理であっても良く、キャリブレーション用の画像に対するユーザーの操作が必要な処理であっても良い。さらに、プロジェクター11がこれらの処理を併用しても良い。キャリブレーション用の画像に対するユーザーの操作は、キャリブレーション用の画像に含まれるドットをユーザーが指示体12で指示する操作等が考えられる。
ところで、PC13から入力される画像データが、解像度が1024×768ドットの表示画像202に切り替えられると、スクリーンSCには図5(B)に示すように1066×800ドットの表示画像202が投射される。この1066×800ドットの画像データは、PC13から入力された1024×768ドットのアスペクト比を維持しつつ、拡大した画像データである。この表示画像202は表示画像201より低解像度であるため、表示画像202が投射される領域は実投射領域11Bよりも小さい。
そこで、プロジェクター11は、PC13が出力する表示画像の解像度が変わった場合にも対応できるように、位置検出ユニット150の座標算出部159が算出した指示位置の座標(X1n,Y1n)を、座標変換部160によって、表示中の表示画像における指示位置の座標(X2n,Y2n)に変換する処理を行う。
本実施形態では、座標変換部160は、表示画像における座標を実投射領域11Bの隅に原点を設定した座標系(図5(A))により表す。図5(B)及び図6(A)〜(B)に示したように、実投射領域11Bよりも小さい領域に表示画像(ここでは表示画像202)を表示した場合、位置検出処理部157が撮像部153の撮影画像において表示画像の隅を原点とした場合の指示位置を検出し、座標算出部159が実投射領域11Bにおける表示画像202の位置を特定して、実投射領域11Bにおける座標(X1n,Y1n)を算出する。
また、以下の演算では、X2max、X2minの値を用いる。X2maxは、表示画像202を表示した場合に表示画像202の左上隅を原点とした座標系において、X軸方向の最大値であり、X2minは同座標系において最小値である。つまり、X2maxはX軸上で表示画像202の右端の座標であり、X2minは原点であるためゼロであると考えられるが、X2max、X2minの値としては正規化された値を用いるので、X2min=0とは限らない。このため、変数X2minとして演算する。
この場合、座標(X2n,Y2n)は、下記式(1)、(2)により算出される。
Y2n=(Y2max−Y2min)×(Y1n−Y1bmin)÷(Y1bmax−Y1bmin) …(2)
本実施形態では図6(B)に示すようにY1bmin=Y2min=0、Y1bmax=Y2max=Y1maxである。このため、上記式(2)から、Y2n=Y1nとなる。
また、以下の例では、実投射領域11Bは1280×800ドットの解像度の画像に合わせて設定され、この実投射領域11Bにおける座標を(XPn,YPn)で表すと、(XPmin≦XPn≦XPmax,YPmin≦YPn≦YPmax)であり、XPmin=0、XPmax=1280、YPmin=0、YPmax=800であるものとする。
さらに、実投射領域11Bに表示される表示画像の位置及びサイズに関する情報として、表示画像の右上端の座標を(XP0,YP0)とし、この例では(XP0,YP0)=(0,0)とし、表示画像のX軸方向のサイズWP0=1280、Y軸方向のサイズHP0=800とする。
X1bmin=(X1max−X1min)×XP0÷(XPmax−XPmin) …(3)
X1bmax=(X1max−X1min)×(XP0+WP0)÷(XPmax−XPmin) …(4)
Y1bmin=(Y1max−Y1min)×YP0÷(YPmax−YPmin) …(5)
Y1bmax=(Y1max−Y1min)×(YP0+HP0)÷(YPmax−YPmin) …(6)
図7及び図8は、画像の投射状態の変化と座標を変換する処理の様子を示す説明図であり、投射状態の変化により画像位置情報(XP0,YP0,WP0,HP0)が変化する例を示す。
図7(A)では実投射領域11B全体に、実投射領域11Bと同じアスペクト比を有する表示画像201を表示している。この表示画像201の解像度は1280×800である。この場合の画像位置情報は、(XP0=0,YP0=0,WP0=1280,HP0=800)である。ここで、表示画像を、解像度が異なる表示画像202(1066×800)に変更した場合、図7(B)に示すように、表示画像202の周囲に非表示領域11Cが発生する。この場合、画像位置情報は、(XP0=107,YP0=0,WP0=1066,HP0=800)となる。
ここで、表示画像202のアスペクト比を変更して実投射領域11B全体に拡大表示した場合、図7(C)に示すように実投射領域11Bいっぱいに表示画像202が表示され、画像位置情報は(XP0=0,YP0=0,WP0=1280,HP0=800)となる。
具体的には、座標変換部160は、座標変換処理を行う前に、座標算出部159が算出した座標が非表示領域11Cに該当するか否かを、画像位置情報に基づいて判別する。ここで、座標算出部159が算出した座標が非表示領域11Cに該当する場合、座標変換部160は、X軸方向の座標とY軸方向の座標の各々について、非表示領域11Cに該当するか否か(実投射領域11Bに含まれるか否か)、及び、非表示領域11Cに該当する場合は、座標が大きい側と小さい側のどちらの非表示領域11Cに含まれているかを判別する。例えば、図7(B)において指示位置が表示画像202の左側の非表示領域11Cに重なっている場合には、指示位置のX軸方向の座標が、値が小さい側の非表示領域11Cに含まれている。座標変換部160は、X軸方向の座標とY軸方向の座標のいずれかについて逸脱している方向を判別した場合、逸脱している方向の表示画像202の端位置の座標を、指示位置の座標に割り当てる。図7(B)において指示位置が表示画像202の左側の非表示領域11Cに重なっている場合には、その指示位置のX軸方向の座標X1nの値を、X1bminの値に変更する。同様に、指示位置が表示画像202の右側の非表示領域11Cに重なっている場合には、その指示位置のX軸方向の座標X1nの値を、X1bmaxの値に変更する。Y軸方向においても同様である。
図8(B)には、多画面表示機能により、表示画像202と、表示画像203とを表示した例を示す。この例では、2つの表示画像202及び表示画像203は、実投射領域11Bに並べて表示できるように、アスペクト比を保って縮小表示され、その周囲に非表示領域11Cが発生する。多画面表示機能によって複数の表示画像を同時に表示する場合、表示画像のそれぞれについて画像位置情報を定義できる。図8(B)のような場合は、表示画像202及び表示画像203のそれぞれについて異なる画像位置情報を定義できる。縮小後の表示画像201の解像度は縦横半分の533×400となり、表示画像202に関する画像位置情報は、(XP0=53,YP0=200,WP0=533,HP0=400)となる。
プロジェクター11は、上記の多画面表示機能の実行時に、表示画像202及び表示画像203のいずれか一方を拡大あるいは縮小することも可能である。この場合、プロジェクター11は、ユーザーが指示体12で表示画像202、203の一方の拡大または縮小を指示する操作を行った場合に、この操作に応じて指示された表示画像を拡大または縮小し、拡大または縮小した表示画像の画像位置情報を更新する。
なお、プロジェクター11が多画面表示機能を実行する契機は、PC13がプロジェクター11に対して多画面表示の開始を指示する制御データを送信する場合や、操作パネル41又はリモコン等を介してユーザーが多画面表示の開始をプロジェクター11に指示する場合のほか、プロジェクター11自身が、所定の条件の成立を契機として、多画面表示機能を開始することもできる。例えば、プロジェクター11が、外部I/F102を介して複数の画像ソースからの入力画像が入力されたことを、制御部103が検出した場合や、位置検出ユニット150により検出した指示体12の操作により、メニューバー12Bの多画面表示開始のボタンが操作された場合に、多画面表示機能を開始してもよい。
・制御部103がPC13からの画像データの入力を検出したとき。
・制御部103が、PC13から入力される画像データに関する情報(画像の解像度など)の変化を検出したとき。
・プロジェクター11において、画像データの解像度を変更したとき。
・画像データのアスペクト比を変更したとき。
・光変調装置32により描画する画像を、投射する画像データの画像処理によって拡大/縮小するデジタルズーム機能を実行または解除したとき。
・実投射領域11Bに対する表示画像の表示位置を変更したとき。
・上記のデジタルズーム機能により画像を拡大し、さらに画像処理によって画像の表示位置を変更する機能を実行または解除したとき。
・光変調装置32により描画する画像と背景を含む全体すなわち実投射領域11B全体の投射サイズを、画像データの画像処理を行うことにより拡大/縮小するテレワイド機能を実行または解除したとき。
・上記のデジタルズーム機能により画像を縮小し、さらに画像処理によって画像の表示位置を変更するピクチャーシフト機能を実行または解除したとき。
・複数の画像の同時表示(多画面表示)を実行または解除したとき。
・出力切替部163から座標を出力する出力先が、画像処理ユニット110からPC13へ、或いはその逆へ変更されたとき。
解像度の変更、アスペクト比の変更、各種機能の実行および解除は、いずれも制御部103の制御により、画像処理ユニット110によって実行される。なお、上記に列挙したタイミングはあくまで一例であり、その他のタイミングで画像位置情報を更新することも勿論可能である。
この図9に示す動作は、プロジェクター11の起動後、或いは、操作パネル41またはリモコン受光部45の操作によってポインター12Aやメニューバー12Bの表示が指示された場合や、操作パネル41やリモコン受光部45により位置検出が指示された場合に、一定時間毎に繰り返し実行される。
(1)キーストーン補正を行った場合。
(2)プロジェクター11の設置条件が変わった場合。例えば、スクリーンSCに対するプロジェクター11の相対的な位置(向きを含む)が変わった場合。
(3)光学条件が変わった場合。例えば、投射光学系33のフォーカスまたはズームの状態が変わった場合。投射光学系33あるいは撮像部153の光軸が経時変化等によりずれた場合。
これらの事象が発生した場合、座標変換部160が座標を算出する基準となる、初期状態における撮影画像データ上の位置と画像処理部113が描画する画像上の位置との対応関係が変化するので、改めてキャリブレーションを行う必要がある。逆にこれらの事象が発生しなければキャリブレーションを再度行う必要はないので、プロジェクター11を前回使用してから今回使用するまでの間に上記の事象が発生していなければ、キャリブレーションを行うことなく、前回のキャリブレーションで求めた座標変換パラメーターを再利用することもできる。キャリブレーションを行う必要があるかどうかをキャリブレーション実行部103Aが判別する方法としては、例えば、操作パネル41においてキーストーン補正の実行を指示するスイッチの操作の有無に基づいて判別する方法や、プロジェクター11に傾きや動きを検出するセンサーを設け、このセンサーの検出値の変化に基づいて判別する方法がある。また、投射光学系33におけるフォーカス、ズームの調整を行った場合に、キャリブレーション実行部103Aがキャリブレーションを自動で実行してもよい。また、ユーザーが、プロジェクター11の設置位置や光学条件の変化を知って、キャリブレーション実行を指示する操作を行えるように、操作パネル41やリモコン等の操作部に、対応するスイッチを設けてもよい。
その後、座標変換部160は、座標算出部159が算出した座標を表示画像の画像データにおける座標に変換する処理を行い、変換後の座標を出力切替部163に出力する(ステップS18)。変換後の座標は、図5(B)で説明した座標(X2n,Y2n)である。
出力切替部163は、変換後の座標を外部I/F102または画像処理ユニット110のいずれか指定された側に出力し(ステップS19)、本処理を終了する。
また、出力制御部101は、座標変換部160が変換した座標を出力する出力先となる画像ソースを決定するため、現在表示中の画像を供給している画像ソースを特定する機能を有する。
この図10の例では外部I/F102の各インターフェイスが、PC系インターフェイスと非PC系インターフェイスの2つのグループに分類されている。本実施形態では、プロジェクター11との間で制御データを送受信可能か否かという属性に基づき、PC系インターフェイスと、それ以外の非PC系インターフェイスとの2つのグループに分けた例を示す。PC系インターフェイスのグループに属するインターフェイスは、Compインターフェイス(ここではComp2)、USB及びLANインターフェイスである。Compインターフェイスを経由して制御データを送受信することはできないが、図1に示したようにPC13がRGBケーブル61によりCompインターフェイスに接続されるとともに、USBケーブル62によりUSBインターフェイスに接続されている場合は、入力画像がCompインターフェイスに入力されている場合にUSBインターフェイスを介して制御データを送受信できる。このため、PC系インターフェイスにCompインターフェイスを含めることができる。また、非PC系インターフェイスには、Compインターフェイス(ここではComp1)、S−Video、Video、HDMIの各インターフェイスが属する。
なお、グループ分けの方法は任意であり、グループ分けされた各インターフェイスが設定データ105Bに反映されていればよく、インターフェイスの属性や機能(アナログインターフェイスかデジタルインターフェイスか等)とは無関係にグループ分けを行うことも可能である。
PJインタラクティブモードでは、指示体12の指示位置の座標に基づく処理をプロジェクター11が実行し、プロジェクター11が、例えば、指示体12の指示位置に追従するようにポインター12Aやメニューバー12Bを表示し、これらの表示位置を移動させる処理や、指示位置の座標に基づいて、後述するように指示位置の軌跡12Dを描画する処理を実行する。
設定データ105Bでは、インターフェイスのグループ毎あるいはインターフェイス毎に、実行可能な動作モードが設定されている。図10の例では、非PC系インターフェイスにはPJインタラクティブモードが対応づけて設定され、PC系インターフェイスにはPCインタラクティブモードが設定されている。
このように、設定データ105Bによって、外部I/F102が備えるインターフェイスの種類と、実行する動作モード(PJインタラクティブモード、PCインタラクティブモード)と、出力切替部163が座標データを出力する出力先とが対応づけられる。出力制御部101は、設定データ105Bの設定に従って出力切替部163を制御し、座標データの出力先を切り替えさせる。
なお、設定データ105Bにおいて、いずれかのグループに対応づけてPC13と画像処理ユニット110の両方を出力先として設定することも可能である。また、いったん出力切替部163から画像処理ユニット110に座標を出力し、この座標を画像処理ユニット110からPC13に出力する動作(すなわち、画像処理ユニット110を経由してPC13に出力する動作)と、出力切替部163から直接、外部I/F102を介してPC13に座標を出力する動作とを実行可能としてもよい。この場合、設定データ105Bにおいて出力先としてPC13が設定される場合に、さらに、出力切替部163から直接PC13に座標を出力するのか、画像処理ユニット110を経由して出力するのかを指定する情報を設定してもよい。
この図11に示す設定画面211は、座標の出力先を設定する際にスクリーンSCに表示される画面であって、例えば、メニューバー12Bにおける操作や、プロジェクター11の操作パネル41或いはリモコン受光部45により検出された操作に対応して表示される。設定画面211は、制御部103の制御によって、表示制御部107により表示される。
また、図11に例示する設定画面211の構成では、PCインタラクティブモードに対応付けるインターフェイスの名称を2以上選択できるようになっているが、選択可能なインターフェイスの名称を1つだけに制限しても良い。この場合、選択された1つのインターフェイスのみがPCインタラクティブモードに対応付けられ、それ以外のインターフェイスはPCインタラクティブモードに対応付けられない。
出力制御部101は、プロジェクター11が多画面表示中であるか否かを判別する(ステップS21)。多画面表示は、上述のように、表示制御部107が、スクリーンSCの実投射領域11Bに複数の画像を同時に表示する機能である。多画面表示中は、実投射領域11Bが複数の領域に分割され、或いは実投射領域11Bに複数の領域が設けられて、これら各領域に、外部I/F102に入力される画像が表示される。
このような処理によって、プロジェクター11が多画面表示を行っている場合に、指示体12の指示位置が含まれる領域に応じて、座標データの出力先を切り替えることができる。例えば、図8(B)に示すような多画面表示を行っているときに、表示画像202の画像ソースがPCインタラクティブモードに対応付けられ、表示画像203の画像ソースがPJインタラクティブモードに対応付けられている場合を考える。この場合は、表示画像202に対応する領域から表示画像203に対応する領域に指示体12が移動した場合は、指示体12の移動に応じて座標データの出力先を切り替えることもできる。
また、一部また全ての領域の画像がPC13以外の画像ソースから入力された画像であっても、PJインタラクティブモードで軌跡を描画する場合には、プロジェクター11の機能により軌跡を描画できる。この場合、出力制御部101は、設定データ105Bの設定に従って、或いは設定データ105Bの設定によらず、出力切替部163から画像処理ユニット110に対して座標を出力すれば、複数の領域に跨る一続きの軌跡を描画できる。
・画像ソースの切替を行っている間。
・プロジェクター11が表示する画像が一時停止している間。
・位置検出ユニット150が指示位置を検出可能な領域外に指示体12が移動した場合。即ち、指示体12の位置が検出できない、或いは、検出された指示体12の指示位置の座標が、検出可能な範囲として設定された値から外れている場合。
この場合、座標の出力は行わないが、位置検出ユニット150が指示体12の指示位置を検出し、座標変換部160が座標を変換する処理は行ってもよい。
図13(A)に示す状態で指示体12が操作され、図13(B)に示す状態となった場合、指示体12は、軌跡12Dを描いて移動する。軌跡12Dは、PCインタラクティブモードにおいてはPC13によって描画されて入力画像に合成され、PJインタラクティブモードにおいては画像処理ユニット110の機能により描画される。
図13〜図15を参照した説明においてはスクリーンSC上に投射された実投射領域11Bで指示体12が操作される場合について説明する。プロジェクター11の設置状態によっては、投射可能領域11Aの全体に投射する場合、すなわち投射可能領域11Aと実投射領域11Bとが一致する(等しい)場合があり、このような場合も本発明に含まれる。
図14(A)では実投射領域11Bに設けられた各領域18A、18B、18C、18Dに異なる画像ソースからの入力画像が表示され、ペン型の指示体12により、ズームの中心として、全領域18A、18B、18C、18Dに跨る円が指定されている。ズームの中心を指定する機能の実行時、制御部103は、指示体12の指示位置の軌跡を経時的に取得し、軌跡12Dが一定の形状となった時点で、ズームの中心を決定する。
制御部103は、軌跡12Dにより決定される円を中心として、各画像ソースの入力画像をそれぞれ拡大する処理を、画像処理部113により実行させる。画像処理部113は、各入力画像のフレームを指定された中心に基づいて拡大し、拡大した各フレームから、各領域18A、18B、18C、18Dに表示される範囲を切り出して、実投射領域11Bに相当する一つのフレームを生成する。これにより、実投射領域11Bには、図14(B)に示す画像が表示される。
さらに、軌跡12Dにより決定される円を中心として、各画像ソースの入力画像だけでなく、それ以前の操作に応じて描画された軌跡をも拡大・縮小する処理を行ってもよい。この場合、複数の領域にまたがって描画された軌跡を拡大・縮小して表示させることができる。PJインタラクティブモードでは軌跡を画像処理ユニット110が描画するので、この軌跡を拡大及び縮小して表示する処理も画像処理ユニット110が容易に実行できる。
また、さらに、画像処理ユニット110により、領域18A、18B、18C、18Dのうちいずれかの領域に表示中の入力画像を拡大・縮小し、この拡大・縮小とは別に、別の領域に表示中の入力画像を拡大・縮小表示することも可能である。すなわち、各領域18A、18B、18C、18Dに表示中の入力画像を個別に拡大・縮小して表示することもできる。
多画面表示を行う場合には、実投射領域11Bの全てを各領域(図15では領域18G、18H)が占めることができず、入力画像を表示する領域18G、18Hの周囲に、黒色の非表示領域18Fが発生することがある。
この場合、図7(B)を参照して説明したように、座標変換部160は、非表示領域18Fが発生している状態で、指示体12の指示位置が非表示領域18Fに重なった場合、指示位置の座標を出力しないようにしてもよいし、画像が表示される領域18G、18H内において指示位置に最も近い位置の座標を出力してもよい。
また、画像処理ユニット110は、位置検出ユニット150により検出された指示位置に基づいて、図14(A)〜(B)に例示したように、複数の領域に表示中の画像を各々の領域内で拡大または縮小表示する処理を実行し、複数の画像ソースから入力された複数の画像をまとめて拡大または縮小表示させてもよい。
座標変換部160が、変換後の座標データを画像処理ユニット120に出力すると、画像処理ユニット120は、画像処理部122によってポインター12Aやメニューバー12Bの画像を描画し、表示制御部107が展開している画像と同じ解像度の画像を生成して、画像処理部113に出力する。ここで画像処理部122が出力する画像は、ポインター12Aまたはメニューバー12B等の画像を含む。画像処理部113は、画像処理部122から入力された画像を、フレームメモリー115に展開した画像と合成する。これにより、画像処理ユニット110は、速やかにポインター12Aやメニューバー12Bを入力画像に重畳して表示できる。
また、上記実施形態の構成において、指示体12は、棒状のものやペン型のものに限定されず、例えばユーザーの指を指示体12として、その指示位置を検出する構成とすることも可能である。
さらに、上記実施形態の構成では、位置検出ユニット150が撮影画像データに基づいて指示体12による指示位置を検出する構成を例に挙げて説明したが、本発明はこれに限定されず、例えば、表示面としてのスクリーンSC或いは他の表示方式における表示画面に、感圧式や静電容量式のタッチパネルを設け、このタッチパネルによって指示体12としてのユーザーの指や棒体等の接触を検出する構成としてもよい。
また、上記実施形態において記憶部105が記憶していた制御プログラム105Aを、プロジェクター11が通信ネットワークを介して接続された他の装置からダウンロードして実行しても良いし、可搬型の記録媒体に制御プログラム105Aを記録して、この記録媒体から上記各プログラムを読み取って実行する構成としても良い。PC13が記憶していた表示制御プログラム13Aについても同様に、PC13が他の装置から表示制御プログラム13Aをダウンロードして実行しても良いし、可搬型の記録媒体に記録された表示制御プログラム13AをPC13が読み取って実行する構成としても良い。
さらに、PJインタラクティブモードとPCインタラクティブモードとの切り替えは、操作パネル41やリモコン等の操作を契機として実行されてもよいが、例えばメニューバー12BにPJインタラクティブモードとPCインタラクティブモードとを切り替えるためのボタンを設けて、このボタンをユーザーが指示体12により操作し、この操作をプロジェクター11が検出したときに、これを契機として動作モードを切り替えても良い。この場合に、PJインタラクティブモードからPCインタラクティブモードモードへ、或いはその逆の動作モードの切り替えに連動して、座標情報の出力先を切り替えても良い。
Claims (5)
- 表示面に複数の表示領域を設け、各表示領域に、複数の画像ソースから入力される入力画像をそれぞれ表示する表示手段と、
前記表示面における指示位置を検出する位置検出手段と、
前記位置検出手段により検出された指示位置に基づいて、複数の前記表示領域に跨る処理を実行する処理手段と、
を備えることを特徴とする表示装置。 - 前記処理手段は、前記位置検出手段により検出された指示位置をもとに、複数の前記表示領域に跨る画像を描画し、描画した画像を前記表示手段によって前記入力画像に重畳して表示させることを特徴とする請求項1記載の表示装置。
- 前記処理手段は、前記位置検出手段により検出された指示位置に基づいて、複数の前記表示領域に表示中の画像を各々の前記表示領域内で拡大または縮小表示する処理を実行することを特徴とする請求項1または2記載の表示装置。
- 画像ソースから入力される入力画像を表示面に表示する表示装置を制御する表示装置の制御方法であって、
前記表示面に複数の表示領域を設け、各表示領域に、複数の画像ソースから入力される入力画像をそれぞれ表示し、
前記表示面における指示位置を検出し、
検出された指示位置に基づいて、複数の前記表示領域に跨る処理を実行すること、
を特徴とする表示装置の制御方法。 - 画像ソースから入力される入力画像を表示面に表示する表示装置を制御するコンピューターが実行可能なプログラムであって、
前記コンピューターを、
前記表示面に複数の表示領域を設け、各表示領域に、複数の画像ソースから入力される入力画像をそれぞれ表示する表示手段と、
前記表示面における指示位置を検出する位置検出手段と、
前記位置検出手段により検出された指示位置に基づいて、複数の前記表示領域に跨る処理を実行する処理手段と、
して機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011240062A JP5927845B2 (ja) | 2011-11-01 | 2011-11-01 | 表示装置、表示装置の制御方法、及び、プログラム |
US13/645,839 US9519379B2 (en) | 2011-11-01 | 2012-10-05 | Display device, control method of display device, and non-transitory computer-readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011240062A JP5927845B2 (ja) | 2011-11-01 | 2011-11-01 | 表示装置、表示装置の制御方法、及び、プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013097177A true JP2013097177A (ja) | 2013-05-20 |
JP2013097177A5 JP2013097177A5 (ja) | 2014-11-06 |
JP5927845B2 JP5927845B2 (ja) | 2016-06-01 |
Family
ID=48171955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011240062A Active JP5927845B2 (ja) | 2011-11-01 | 2011-11-01 | 表示装置、表示装置の制御方法、及び、プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9519379B2 (ja) |
JP (1) | JP5927845B2 (ja) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015102737A (ja) * | 2013-11-26 | 2015-06-04 | セイコーエプソン株式会社 | 画像表示装置、及び、画像表示装置の制御方法 |
JP2015156008A (ja) * | 2014-01-15 | 2015-08-27 | セイコーエプソン株式会社 | プロジェクター、表示装置、表示システムおよび表示装置の制御方法 |
WO2015146189A1 (ja) * | 2014-03-28 | 2015-10-01 | セイコーエプソン株式会社 | 情報処理装置、プロジェクターおよび情報処理方法 |
JP2016013172A (ja) * | 2014-06-30 | 2016-01-28 | 株式会社バンダイナムコエンターテインメント | ゲームシステム |
JP2016021699A (ja) * | 2014-07-15 | 2016-02-04 | 株式会社リコー | プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法 |
JP2016099917A (ja) * | 2014-11-26 | 2016-05-30 | レノボ・シンガポール・プライベート・リミテッド | ポインティング・ジェスチャに応じたアクションをする方法、会議支援システム、およびコンピュータ・プログラム |
KR20160141796A (ko) * | 2014-04-01 | 2016-12-09 | 세이코 엡슨 가부시키가이샤 | 쌍방향 표시 방법 및 쌍방향 표시 장치 |
US9953434B2 (en) | 2014-11-07 | 2018-04-24 | Seiko Epson Corporation | Display device, display control method, and display system |
JP2018066991A (ja) * | 2016-10-21 | 2018-04-26 | 中強光電股▲ふん▼有限公司 | 投影機、投影システム及び映像投影方法 |
JP2018170037A (ja) * | 2018-07-03 | 2018-11-01 | 株式会社リコー | プログラム、方法、情報処理装置および映像表示システム |
JP2019071140A (ja) * | 2019-02-12 | 2019-05-09 | シャープ株式会社 | 表示装置及び表示方法 |
JP2020008750A (ja) * | 2018-07-10 | 2020-01-16 | セイコーエプソン株式会社 | 表示装置および表示処理方法 |
JP2020046772A (ja) * | 2018-09-14 | 2020-03-26 | 株式会社Tbsテレビ | 描画システム、サーバ、および描画命令情報の送信方法 |
US10681320B2 (en) | 2017-06-02 | 2020-06-09 | Canon Kabushiki Kaisha | Projection apparatus, method for controlling projection apparatus, and non-transitory storage medium |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013142706A (ja) * | 2012-01-06 | 2013-07-22 | Ricoh Co Ltd | 映像投影装置 |
JP5874401B2 (ja) | 2012-01-06 | 2016-03-02 | セイコーエプソン株式会社 | 表示装置、プロジェクター、表示システム及びデバイスの切替方法 |
JP6163730B2 (ja) * | 2012-10-25 | 2017-07-19 | 株式会社リコー | 画像出力装置、画像出力装置の制御プログラム |
US9904414B2 (en) * | 2012-12-10 | 2018-02-27 | Seiko Epson Corporation | Display device, and method of controlling display device |
KR20140083229A (ko) * | 2012-12-26 | 2014-07-04 | 삼성전자주식회사 | 디스플레이 장치 및 이의 메뉴 제공 방법 |
KR20150031629A (ko) | 2013-09-16 | 2015-03-25 | 삼성전자주식회사 | 터치 입력이 가능한 디스플레이 장치 및 그 터치 입력 방법 |
JP6335015B2 (ja) * | 2014-05-08 | 2018-05-30 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
US9769509B2 (en) * | 2014-09-16 | 2017-09-19 | Ricoh Company, Ltd. | Video playback system and image display device |
CN105808087A (zh) * | 2014-12-31 | 2016-07-27 | 中强光电股份有限公司 | 交互式显示系统及其操作方法 |
CN105072430B (zh) * | 2015-08-19 | 2017-10-03 | 海信集团有限公司 | 一种调整投影图像的方法和设备 |
JP2017182110A (ja) * | 2016-03-28 | 2017-10-05 | セイコーエプソン株式会社 | 表示システム、表示装置、情報処理装置及び情報処理方法 |
JP6747025B2 (ja) * | 2016-04-13 | 2020-08-26 | セイコーエプソン株式会社 | 表示システム、表示装置、及び、表示システムの制御方法 |
US20180059863A1 (en) * | 2016-08-26 | 2018-03-01 | Lenovo (Singapore) Pte. Ltd. | Calibration of pen location to projected whiteboard |
JP7069922B2 (ja) * | 2018-03-26 | 2022-05-18 | セイコーエプソン株式会社 | 表示装置、表示システムおよび表示装置の制御方法 |
JP7188176B2 (ja) * | 2019-02-25 | 2022-12-13 | セイコーエプソン株式会社 | プロジェクター、画像表示システム及び画像表示システムの制御方法 |
CN114708403A (zh) * | 2020-12-16 | 2022-07-05 | 高勇 | 一种互动投影输入输出设备 |
JP2023017206A (ja) * | 2021-07-26 | 2023-02-07 | セイコーエプソン株式会社 | プロジェクターの制御方法、及びプロジェクター |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0784561A (ja) * | 1993-09-14 | 1995-03-31 | Toshiba Corp | 画面表示制御方法 |
JP2000010754A (ja) * | 1998-06-16 | 2000-01-14 | Canon Inc | 表示装置、画像データ格納制御方法及び記憶媒体 |
JP2005092447A (ja) * | 2003-09-16 | 2005-04-07 | Hitachi Software Eng Co Ltd | ウインドウの制御方法 |
Family Cites Families (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5717880A (en) | 1993-09-06 | 1998-02-10 | Kabushiki Kaisha Toshiba | Method and apparatus for relaying events and requests in a windows systems |
US7185054B1 (en) * | 1993-10-01 | 2007-02-27 | Collaboration Properties, Inc. | Participant display and selection in video conference calls |
DE4446139C2 (de) * | 1993-12-30 | 2000-08-17 | Intel Corp | Verfahren und Einrichtung zum Hervorheben von Objekten in einem Konferenzsystem |
US5621430A (en) * | 1994-08-29 | 1997-04-15 | Software Garden, Inc. | Method and apparatus for navigating multiple independent windowed images |
US6106399A (en) * | 1997-06-16 | 2000-08-22 | Vr-1, Inc. | Internet audio multi-user roleplaying game |
US6473088B1 (en) * | 1998-06-16 | 2002-10-29 | Canon Kabushiki Kaisha | System for displaying multiple images and display method therefor |
JP4541476B2 (ja) * | 1999-02-19 | 2010-09-08 | キヤノン株式会社 | マルチ画像表示システムおよびマルチ画像表示方法 |
US6476823B1 (en) * | 2000-04-25 | 2002-11-05 | Codehorse, Inc. | Interactive image tiler |
US6934737B1 (en) * | 2000-05-23 | 2005-08-23 | Sun Microsystems, Inc. | Method and apparatus for providing multi-level access control in a shared computer window |
WO2001092953A1 (fr) * | 2000-05-31 | 2001-12-06 | Seiko Epson Corporation | Projecteur, systeme et procede d'affichage de projection, et support d'enregistrement |
JP4065102B2 (ja) * | 2000-10-27 | 2008-03-19 | 誠治 納富 | 教育指導システム |
WO2002039308A1 (en) * | 2000-11-13 | 2002-05-16 | Gtco Cal Comp | Collaborative input system |
US6729731B2 (en) * | 2001-06-11 | 2004-05-04 | Info Valley Corporation | Untethered laser pointer for use with computer display |
US7176881B2 (en) * | 2002-05-08 | 2007-02-13 | Fujinon Corporation | Presentation system, material presenting device, and photographing device for presentation |
US7333135B2 (en) * | 2002-10-15 | 2008-02-19 | Fuji Xerox Co., Ltd. | Method, apparatus, and system for remotely annotating a target |
US7364313B2 (en) * | 2002-12-27 | 2008-04-29 | Barco N.V. | Multiple image projection system and method for projecting multiple selected images adjacent each other |
JP4272904B2 (ja) | 2003-03-06 | 2009-06-03 | キヤノン株式会社 | 表示装置及び表示装置の制御方法 |
US7355593B2 (en) * | 2004-01-02 | 2008-04-08 | Smart Technologies, Inc. | Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region |
US20060197756A1 (en) * | 2004-05-24 | 2006-09-07 | Keytec, Inc. | Multi-mode optical pointer for interactive display system |
US7454717B2 (en) * | 2004-10-20 | 2008-11-18 | Microsoft Corporation | Delimiters for selection-action pen gesture phrases |
KR20070105322A (ko) * | 2005-02-10 | 2007-10-30 | 유겐가이샤 타크람 디자인 엔지니어링 | 포인터광 트래킹 방법, 프로그램 및 그 기록 매체 |
US7657837B2 (en) * | 2005-04-06 | 2010-02-02 | Ericom Software Ltd. | Seamless windows functionality to remote desktop sessions regarding z-order |
US7543248B2 (en) * | 2005-05-31 | 2009-06-02 | Fuji Xerox Co., Ltd. | User-machine interface |
US20070124370A1 (en) * | 2005-11-29 | 2007-05-31 | Microsoft Corporation | Interactive table based platform to facilitate collaborative activities |
JP4710734B2 (ja) | 2006-06-21 | 2011-06-29 | カシオ計算機株式会社 | ポインティング装置、ポインティング位置検出方法及びプログラム |
JP2008217590A (ja) * | 2007-03-06 | 2008-09-18 | Fuji Xerox Co Ltd | 情報共有支援システム、情報処理装置及び制御プログラム |
US8022997B2 (en) * | 2007-04-19 | 2011-09-20 | Fuji Xerox Co., Ltd. | Information processing device and computer readable recording medium |
US7936341B2 (en) * | 2007-05-30 | 2011-05-03 | Microsoft Corporation | Recognizing selection regions from multiple simultaneous inputs |
US8219936B2 (en) * | 2007-08-30 | 2012-07-10 | Lg Electronics Inc. | User interface for a mobile device using a user's gesture in the proximity of an electronic device |
US8150455B2 (en) * | 2007-11-27 | 2012-04-03 | Nvidia Corporation | Method and system for integrating a computer mouse function in a mobile communication device |
US20090300131A1 (en) * | 2008-05-27 | 2009-12-03 | Supportspace Ltd. | Simultaneous remote and local control of computer desktop |
JP5142837B2 (ja) * | 2008-06-10 | 2013-02-13 | キヤノン株式会社 | 表示制御装置および表示制御方法 |
US8794979B2 (en) * | 2008-06-27 | 2014-08-05 | Microsoft Corporation | Interactive presentation system |
US8427424B2 (en) * | 2008-09-30 | 2013-04-23 | Microsoft Corporation | Using physical objects in conjunction with an interactive surface |
US8390718B2 (en) * | 2009-01-28 | 2013-03-05 | Hewlett-Packard Development Company, L.P. | Methods and systems for performing visual collaboration between remotely situated participants |
EP2226704B1 (en) * | 2009-03-02 | 2012-05-16 | Anoto AB | A digital pen |
US8334902B2 (en) * | 2009-03-31 | 2012-12-18 | Fuji Xerox Co., Ltd. | System and method for facilitating the use of whiteboards |
US20100289906A1 (en) * | 2009-05-13 | 2010-11-18 | Einstruction Corporation | Interactive Student Response And Content Sharing System |
US20110239133A1 (en) * | 2010-03-29 | 2011-09-29 | Microsoft Corporation | Shared resource computing collaboration sessions management |
US8924858B2 (en) * | 2010-11-01 | 2014-12-30 | Massachusetts Institute Of Technology | Touch-based system for transferring data |
JP2013008250A (ja) * | 2011-06-24 | 2013-01-10 | Fujitsu Ltd | カーソル制御装置、カーソル制御方法及びカーソル制御プログラム |
-
2011
- 2011-11-01 JP JP2011240062A patent/JP5927845B2/ja active Active
-
2012
- 2012-10-05 US US13/645,839 patent/US9519379B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0784561A (ja) * | 1993-09-14 | 1995-03-31 | Toshiba Corp | 画面表示制御方法 |
JP2000010754A (ja) * | 1998-06-16 | 2000-01-14 | Canon Inc | 表示装置、画像データ格納制御方法及び記憶媒体 |
JP2005092447A (ja) * | 2003-09-16 | 2005-04-07 | Hitachi Software Eng Co Ltd | ウインドウの制御方法 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9830023B2 (en) | 2013-11-26 | 2017-11-28 | Seiko Epson Corporation | Image display apparatus and method of controlling image display apparatus |
JP2015102737A (ja) * | 2013-11-26 | 2015-06-04 | セイコーエプソン株式会社 | 画像表示装置、及び、画像表示装置の制御方法 |
JP2015156008A (ja) * | 2014-01-15 | 2015-08-27 | セイコーエプソン株式会社 | プロジェクター、表示装置、表示システムおよび表示装置の制御方法 |
WO2015146189A1 (ja) * | 2014-03-28 | 2015-10-01 | セイコーエプソン株式会社 | 情報処理装置、プロジェクターおよび情報処理方法 |
JP2015191484A (ja) * | 2014-03-28 | 2015-11-02 | セイコーエプソン株式会社 | 情報処理装置、プロジェクター、情報処理方法及びプログラム |
KR20160136436A (ko) * | 2014-03-28 | 2016-11-29 | 세이코 엡슨 가부시키가이샤 | 정보 처리 장치, 프로젝터 및 정보 처리 방법 |
KR101894315B1 (ko) * | 2014-03-28 | 2018-10-04 | 세이코 엡슨 가부시키가이샤 | 정보 처리 장치, 프로젝터 및 정보 처리 방법 |
KR101909105B1 (ko) | 2014-04-01 | 2018-10-17 | 세이코 엡슨 가부시키가이샤 | 쌍방향 표시 방법 및 쌍방향 표시 장치 |
KR20160141796A (ko) * | 2014-04-01 | 2016-12-09 | 세이코 엡슨 가부시키가이샤 | 쌍방향 표시 방법 및 쌍방향 표시 장치 |
US10080960B2 (en) | 2014-06-30 | 2018-09-25 | Bandai Namco Entertainment Inc. | Game system that projects game image and created image onto projection target object |
JP2016013172A (ja) * | 2014-06-30 | 2016-01-28 | 株式会社バンダイナムコエンターテインメント | ゲームシステム |
JP2016021699A (ja) * | 2014-07-15 | 2016-02-04 | 株式会社リコー | プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法 |
US9953434B2 (en) | 2014-11-07 | 2018-04-24 | Seiko Epson Corporation | Display device, display control method, and display system |
US10269137B2 (en) | 2014-11-07 | 2019-04-23 | Seiko Epson Corporation | Display device, display control method, and display system |
JP2016099917A (ja) * | 2014-11-26 | 2016-05-30 | レノボ・シンガポール・プライベート・リミテッド | ポインティング・ジェスチャに応じたアクションをする方法、会議支援システム、およびコンピュータ・プログラム |
JP2018066991A (ja) * | 2016-10-21 | 2018-04-26 | 中強光電股▲ふん▼有限公司 | 投影機、投影システム及び映像投影方法 |
US10681320B2 (en) | 2017-06-02 | 2020-06-09 | Canon Kabushiki Kaisha | Projection apparatus, method for controlling projection apparatus, and non-transitory storage medium |
JP2018170037A (ja) * | 2018-07-03 | 2018-11-01 | 株式会社リコー | プログラム、方法、情報処理装置および映像表示システム |
JP2020008750A (ja) * | 2018-07-10 | 2020-01-16 | セイコーエプソン株式会社 | 表示装置および表示処理方法 |
JP2020046772A (ja) * | 2018-09-14 | 2020-03-26 | 株式会社Tbsテレビ | 描画システム、サーバ、および描画命令情報の送信方法 |
JP2019071140A (ja) * | 2019-02-12 | 2019-05-09 | シャープ株式会社 | 表示装置及び表示方法 |
Also Published As
Publication number | Publication date |
---|---|
JP5927845B2 (ja) | 2016-06-01 |
US9519379B2 (en) | 2016-12-13 |
US20130106908A1 (en) | 2013-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5927845B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP6088127B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP6064319B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
JP5849560B2 (ja) | 表示装置、プロジェクター、及び、表示方法 | |
US10025400B2 (en) | Display device and display control method | |
JP5585505B2 (ja) | 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム | |
US9324295B2 (en) | Display device and method of controlling display device | |
JP6051828B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6064321B2 (ja) | 表示装置、及び、表示制御方法 | |
JP6269801B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
JP6273671B2 (ja) | プロジェクター、表示システム、及びプロジェクターの制御方法 | |
JP6296144B2 (ja) | 表示装置、及び、表示制御方法 | |
JP6255810B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6056447B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6111682B2 (ja) | 表示装置、および、表示装置の制御方法 | |
JP6145963B2 (ja) | プロジェクター、表示システム、及びプロジェクターの制御方法 | |
JP2013195659A (ja) | 表示装置、及び、表示制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140922 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140922 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150715 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160411 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5927845 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |