JP2022087571A - 表示装置の制御方法、及び表示装置 - Google Patents
表示装置の制御方法、及び表示装置 Download PDFInfo
- Publication number
- JP2022087571A JP2022087571A JP2020199565A JP2020199565A JP2022087571A JP 2022087571 A JP2022087571 A JP 2022087571A JP 2020199565 A JP2020199565 A JP 2020199565A JP 2020199565 A JP2020199565 A JP 2020199565A JP 2022087571 A JP2022087571 A JP 2022087571A
- Authority
- JP
- Japan
- Prior art keywords
- image
- input
- voice
- unit
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
【課題】ユーザーが着目すべき画像の音声をユーザーが聞き取り易くできるようにすること。【解決手段】プロジェクター1の制御方法は、第1画像ソースから入力された第1入力画像と、第2画像ソースから入力された第2入力画像とを含む合成画像を表示し、第1画像ソースから入力された第1入力音声と、第2画像ソースから入力された第2入力音声とを含む合成音声を出力し、第1入力画像の更新頻度が第2入力画像の更新頻度より大きい場合、第1入力音声の音量を第2入力音声の音量より大きくする。【選択図】図3
Description
本発明は、表示装置の制御方法、及び表示装置に関する。
従来、複数の画像を同時に表示すると共に、複数の画像の音声を出力する技術が知られている。
例えば、特許文献1は、メイン画面とサブ画面との各々で動画を再生する際、サブ画面の透明度に応じてメイン画面における音声とサブ画面における音声との音量比を調整する動画再生装置を開示する。
例えば、特許文献1は、メイン画面とサブ画面との各々で動画を再生する際、サブ画面の透明度に応じてメイン画面における音声とサブ画面における音声との音量比を調整する動画再生装置を開示する。
特許文献1記載の装置では、設定されたサブ画面の透明度に応じて音量比を調整するため、サブ画面が表示する動画をユーザーが着目して視聴したいと望む場合に、サブ画面が表示する動画の音声がユーザーにとって聞き難い場合があり得る。
上記課題を解決する一態様は、第1画像ソースから入力された第1画像と、第2画像ソースから入力された第2画像とを含む第3画像を表示し、前記第1画像ソースから入力された第1音声と、前記第2画像ソースから入力された第2音声とを含む第3音声を出力し、前記第1画像の更新量が前記第2画像の更新量より大きい場合、前記第1音声の音量を前記第2音声の音量より大きくする、表示装置の制御方法である。
上記課題を解決する別の一態様は、第1画像ソースから入力された第1画像と、第2画像ソースから入力された第2画像とを含む第3画像を表示する表示部と、前記第1画像ソースから入力された第1音声と、前記第2画像ソースから入力された第2音声とを含む第3音声を出力する音声出力部と、前記第1画像の更新量が前記第2画像の更新量より大きい場合、前記第1音声の音量を前記第2音声の音量より小さくする制御部と、を備える、表示装置である。
図1は、表示システム1000の構成を示す図である。
表示システム1000は、プロジェクター1と、PC(Personal Computer)2A、2B、2C、2Dの4台のPC2を備える。4台のPC2の各々は、ネットワークNWを介してプロジェクター1と通信可能に接続する。ネットワークNWは、ローカルネットワークでもよいし、専用回線や、公衆回線網、インターネット等を含んで構成されるグローバルネットワークでもよい。なお、表示システム1000が備えるPC2の台数は、4台に限定されず、さらに多くてもよく少なくてもよい。
プロジェクター1は、表示装置の一例に対応する。
表示システム1000は、プロジェクター1と、PC(Personal Computer)2A、2B、2C、2Dの4台のPC2を備える。4台のPC2の各々は、ネットワークNWを介してプロジェクター1と通信可能に接続する。ネットワークNWは、ローカルネットワークでもよいし、専用回線や、公衆回線網、インターネット等を含んで構成されるグローバルネットワークでもよい。なお、表示システム1000が備えるPC2の台数は、4台に限定されず、さらに多くてもよく少なくてもよい。
プロジェクター1は、表示装置の一例に対応する。
4台のPC2の各々は、プロジェクター1に画像データを出力する画像供給装置、いわゆる画像ソースである。図1においてPC2のノート型PCを例示しているが、PC2は、デスクトップ型PCでもタブレット型PCでもスマートフォンでもよい。PC2がプロジェクター1に出力する画像データは、所定規格に準拠した画像データであり音声データを伴う。PC2がプロジェクター1に出力する画像データは、静止画像データでも動画像データでもよい。なお、本実施形態では、音声データを伴う画像データを例示するが、PC2がプロジェクター1に出力する画像データは、音声データが伴っていなくてもよい。
プロジェクター1は、外部装置として画像供給装置が接続され、画像供給装置から入力される画像データに基づいて画像光を投写することで、投写面としてのスクリーンSCに画像を表示する。スクリーンSCは、幕状のスクリーンであってもよいし、建造物の壁面や設置物の平面をスクリーンSCとして利用してもよい。スクリーンSCは平面に限らず、曲面や、凹凸を有する面であってもよい。
プロジェクター1は、スクリーンSCの表示領域100が複数に分割された各領域に、複数のPC2の各々から入力される画像データに基づく画像を並べて表示する、いわゆる多画面表示機能を有する。
以下の説明において、分割された各領域を分割領域という。なお、表示領域100は、1又は複数のPC2から入力された画像データに基づく画像を含む画像が表示される領域である。
また、以下の説明では、1の画像ソースから入力された画像データに基づく画像を「入力画像」といい「NG」の符号を付す。
また、以下の説明では、1又は複数の入力画像NGを含む画像を「合成画像」といい「GG」の符号を付す。合成画像GGは、第3画像の一例に対応する。
以下の説明において、分割された各領域を分割領域という。なお、表示領域100は、1又は複数のPC2から入力された画像データに基づく画像を含む画像が表示される領域である。
また、以下の説明では、1の画像ソースから入力された画像データに基づく画像を「入力画像」といい「NG」の符号を付す。
また、以下の説明では、1又は複数の入力画像NGを含む画像を「合成画像」といい「GG」の符号を付す。合成画像GGは、第3画像の一例に対応する。
図1には、4分割された表示領域100を示す。
スクリーンSCの表示領域100は、分割領域100A、100B、100C、100Dの4つの分割領域に分割され、分割領域100A、100B、100C、100Dの各々に入力画像NGが表示される。より詳細には、分割領域100Aには、PC2Aからの入力画像NG1が表示される。また、分割領域100Bには、PC2Bからの入力画像NG2が表示される。また、分割領域100Cには、PC2Cからの入力画像NG3が表示される。また、分割領域100Dには、PC2Dからの入力画像NG4が表示される。これにより、スクリーンSCの表示領域100には、入力画像NG1、NG2、NG3、NG4を含み、これら入力画像NGが縦横二列で並んだ合成画像GGが表示される。
スクリーンSCの表示領域100は、分割領域100A、100B、100C、100Dの4つの分割領域に分割され、分割領域100A、100B、100C、100Dの各々に入力画像NGが表示される。より詳細には、分割領域100Aには、PC2Aからの入力画像NG1が表示される。また、分割領域100Bには、PC2Bからの入力画像NG2が表示される。また、分割領域100Cには、PC2Cからの入力画像NG3が表示される。また、分割領域100Dには、PC2Dからの入力画像NG4が表示される。これにより、スクリーンSCの表示領域100には、入力画像NG1、NG2、NG3、NG4を含み、これら入力画像NGが縦横二列で並んだ合成画像GGが表示される。
図1には、表示領域100を4分割した場合を示すが、表示領域100の分割数は任意である。表示領域100の分割数は、さらに多くてもよく少なくてもよい。また、表示領域100の分割数は、ネットワークNWに接続したPC2の数に応じた分割数でもよい。
図2は、PC2の構成を示す図である。
図2では、PC2Aを代表してPC2の構成を説明する。なお、PC2B、2C、2Dの各々は、PC2Aの構成と同様の構成である。
図2では、PC2Aを代表してPC2の構成を説明する。なお、PC2B、2C、2Dの各々は、PC2Aの構成と同様の構成である。
PC2は、PC制御部20、PC通信部21、PC表示部22、及びPC入力部23を備える。
PC制御部20は、CPU(Central Processing Unit)やMPU(Micro-processing unit)等のプログラムを実行するプロセッサーであるPCプロセッサー200、及びPC記憶部210を備え、PC2の各部を制御する。PC制御部20は、PCプロセッサー200が、PC記憶部210に記憶されたプログラムを読み出し、ハードウェア及びソフトウェアにより各種処理を実行する。
PC記憶部210は、PCプロセッサー200が実行するプログラムや、PCプロセッサー200で処理されるデータを記憶する。PC記憶部210は、PCプロセッサー200が実行するプログラム、プロジェクター1に出力する画像データ、プロジェクター1の多画面表示機能を制御可能なアプリケーションプログラムであるPJ制御アプリ211、その他の各種データを記憶する。PC記憶部210は、不揮発性の記憶領域を有する。PC記憶部210は、揮発性の記憶領域を備え、PCプロセッサー200のワークエリアを構成してもよい。
PC通信部21は、所定の通信規格で通信を行う通信ハードウェアを備え、PC制御部20の制御に従って、ネットワークNWを介して接続するプロジェクター1と通信する。PC通信部21は、PJ制御アプリ211の機能によって、画像データや各種制御情報を含むフレームデータの送受信をプロジェクター1に対して行う。
PC表示部22は、LED(Light Emitting Diode)やOLED(Organic Light Emitting Diode)などで構成されるディスプレイであり、PC制御部20の制御に従って、所定の態様で情報の表示を実行する。PC表示部22は、PC2と接続する外部機器でもよい。
PC入力部23は、PC2に設けられた操作スイッチや、タッチ入力式のパネル、マウス、キーボード等の入力手段と接続し、ユーザーの入力操作を検出し、検出結果をPC制御部20に出力する入力インターフェースである。PC制御部20は、PC入力部23からの入力に基づいて、入力操作に対応する処理を実行する。
図3は、プロジェクター1の構成を示す図である。
プロジェクター1は、PJ制御部10を備える。
PJ制御部10は、CPUやMPU等のプログラムを実行するプロセッサーであるPJプロセッサー110、及びPJ記憶部120を備え、プロジェクター1の各部を制御する。PJ制御部10は、PJプロセッサー110が、PJ記憶部120に記憶された制御プログラム121を読み出して処理を実行するように、ハードウェア及びソフトウェアの協働により各種処理を実行する。また、PJ制御部10は、PJプロセッサー110が制御プログラム121を読み出して実行することにより、投写制御部111、バッファー制御部112、合成画像制御部113、及び音声制御部114として機能する。これら機能ブロックの詳細については後述する。
PJ制御部10は、CPUやMPU等のプログラムを実行するプロセッサーであるPJプロセッサー110、及びPJ記憶部120を備え、プロジェクター1の各部を制御する。PJ制御部10は、PJプロセッサー110が、PJ記憶部120に記憶された制御プログラム121を読み出して処理を実行するように、ハードウェア及びソフトウェアの協働により各種処理を実行する。また、PJ制御部10は、PJプロセッサー110が制御プログラム121を読み出して実行することにより、投写制御部111、バッファー制御部112、合成画像制御部113、及び音声制御部114として機能する。これら機能ブロックの詳細については後述する。
PJ記憶部120は、PJプロセッサー110が実行するプログラムや、PJプロセッサー110により処理されるデータを記憶する記憶領域を有する。PJ記憶部120は、プログラムやデータを不揮発的に記憶する不揮発性記憶領域を有する。また、PJ記憶部120は、揮発性記憶領域を備え、PJプロセッサー110が実行するプログラムや処理対象のデータを一時的に記憶するワークエリアを構成してもよい。
PJ記憶部120は、PJプロセッサー110が実行する制御プログラム121の他に、設定データ122を記憶する。設定データ122は、プロジェクター1の動作に関する設定値を含む。設定データ122に含まれる設定値としては、例えば、スピーカー181が出力する音声の音量の設定値や、画像処理部15及びOSD処理部16が実行する処理内容を示す設定値、画像処理部15及びOSD処理部16の処理に用いるパラメーター等である。
スピーカー181は、音声出力部の一例に対応する。
スピーカー181は、音声出力部の一例に対応する。
プロジェクター1は、第1インターフェース部11、第2インターフェース部12、バッファー部13、フレームメモリー14、画像処理部15、OSD処理部16、操作部17、及び音声処理部18を備える。これらの各部は、バス25を介してPJ制御部10とデータ通信可能に接続される。
第1インターフェース部11は、所定の通信規格に準拠したコネクター及びインターフェース回路等の通信ハードウェアを備える。第1インターフェース部11は、PJ制御部10の制御に従って、所定の通信規格に従って、画像供給装置との間で画像データや制御データ等を送受信する。第1インターフェース部11のインターフェースは、例えば、HDMI(High-Definition Multimedia Interface)や、Displayport、HDBaseT、USB Type-C、3G-SDI(Serial Digital Interface)等の映像及び音声をデジタルで伝送可能なインターフェースを用いることができる。HDMIは、登録商標である。HDBaseTは、登録商標である。また、インターフェースとして、USB等のデータ通信用のインターフェースを用いることができる。また、インターフェースとして、RCA端子や、VGA端子、S端子、D端子等のアナログの映像端子を備え、アナログの映像信号を送受信可能なインターフェースを用いることができる。
第2インターフェース部12は、ネットワークNWに接続されるコネクターやインターフェース回路等の通信ハードウェアを備え、ネットワークNWを介して接続されたPC2と所定の通信規格に従って通信する。第2インターフェース部12は、ネットワークNWを介してPC2からフレームデータを受信し、受信したフレームデータをPJ制御部10に出力する。
バッファー部13は、フレームデータに含まれる画像データを一時記憶する記憶領域を有する。バッファー部13は、PJ記憶部120の記憶領域に形成されてもよい。バッファー部13は、画像データを、画像データの送信元であるPC2ごとに記憶するため、独立した記憶領域である画像バッファー13A、13B、13C、13Dを有する。画像バッファー13A、13B、13C、13Dは、1つの記憶領域を仮想的に分割したものであってもよい。
なお、バッファー部13が有する画像バッファーの数は任意であるが、バッファー部13は、表示領域100を分割する分割数の最大値に応じた画像バッファーを有することが好ましい。本実施形態では、分割数の最大値を4としているため、バッファー部13が画像バッファー13A、13B、13C、13Dを有する場合を例示している。
なお、バッファー部13が有する画像バッファーの数は任意であるが、バッファー部13は、表示領域100を分割する分割数の最大値に応じた画像バッファーを有することが好ましい。本実施形態では、分割数の最大値を4としているため、バッファー部13が画像バッファー13A、13B、13C、13Dを有する場合を例示している。
フレームメモリー14、画像処理部15、及びOSD処理部16は、例えば集積回路により構成される。集積回路には、LSI、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field-Programmable Gate Array)、SoC(System-on-a-chip)等が含まれる。また、集積回路の構成の一部にアナログ回路が含まれてもよく、PJ制御部10と集積回路とが組み合わる構成でもよい。
フレームメモリー14は、複数のバンクを備える。各バンクは、1フレームを書き込み可能な記憶容量を有する。フレームメモリー14は、例えば、SDRAM(Synchronous Dynamic Random Access Memory)により構成される。
画像処理部15は、フレームメモリー14に展開された画像データに対して、例えば、解像度変換処理又はリサイズ処理、歪曲収差の補正、形状補正処理、デジタルズーム処理、画像の色合いや輝度の調整等の画像処理を行う。画像処理部15は、PJ制御部10により指定された処理を実行し、必要に応じて、PJ制御部10から入力されるパラメーターを使用して処理を行う。また、画像処理部15は、上記のうち複数の画像処理を組み合わせて実行することも可能である。
画像処理部15は、処理の終了した画像データをフレームメモリー14から読み出してOSD処理部16に出力する。
画像処理部15は、処理の終了した画像データをフレームメモリー14から読み出してOSD処理部16に出力する。
OSD処理部16は、PJ制御部10の制御に基づいて、画像処理部15から入力された画像データが示す画像上に、プロジェクター1の設定に係るユーザーインターフェースである設定UIを重畳するための処理を行う。
OSD処理部16は、PJ制御部10が設定UIの重畳を指示すると、画像処理部15から入力された画像データが示す画像上の所定の位置に設定UIが重畳されるように、画像処理部15から入力される画像データに設定UIの画像データを合成する。合成された画像データは、光変調装置駆動回路242に出力される。なお、PJ制御部10から設定UIを重畳する旨の指示がない場合には、OSD処理部16は、画像処理部15から入力される画像データを、加工することなくそのまま光変調装置駆動回路242に出力する。
OSD処理部16は、PJ制御部10が設定UIの重畳を指示すると、画像処理部15から入力された画像データが示す画像上の所定の位置に設定UIが重畳されるように、画像処理部15から入力される画像データに設定UIの画像データを合成する。合成された画像データは、光変調装置駆動回路242に出力される。なお、PJ制御部10から設定UIを重畳する旨の指示がない場合には、OSD処理部16は、画像処理部15から入力される画像データを、加工することなくそのまま光変調装置駆動回路242に出力する。
操作部17は、操作パネル171、リモコン受光部172、及び入力処理部173を備える。
操作パネル171は、プロジェクター1の筐体に設けられ、ユーザーが操作可能な各種スイッチを備える。入力処理部173は、操作パネル171の各スイッチの操作を検出する。
リモコン受光部172は、リモコン3が送信する赤外線信号を受光する。入力処理部173は、リモコン受光部172が受光した信号をデコードして、操作データを生成し、PJ制御部10に出力する。
入力処理部173は、操作パネル171、及びリモコン受光部172に接続される。入力処理部173は、操作パネル171またはリモコン受光部172でユーザーの操作を受け付けた場合に、受け付けた操作に対応する操作データを生成してPJ制御部10に出力する。
リモコン受光部172は、リモコン3が送信する赤外線信号を受光する。入力処理部173は、リモコン受光部172が受光した信号をデコードして、操作データを生成し、PJ制御部10に出力する。
入力処理部173は、操作パネル171、及びリモコン受光部172に接続される。入力処理部173は、操作パネル171またはリモコン受光部172でユーザーの操作を受け付けた場合に、受け付けた操作に対応する操作データを生成してPJ制御部10に出力する。
音声処理部18は、スピーカー181、アンプ182、及び信号処理部183を備える。なお、音声処理部18は、マイクを備えていてもよい。
信号処理部183は、PJ制御部10からデジタルの音声データが入力された場合、入力された音声データをデジタルからアナログに変換する。信号処理部183は、PJ制御部10から複数の音声データが入力された場合、複数の音声データを合成し、合成した音声データをデジタルからアナログに変換する。信号処理部183は、アナログに変換した音声データをアンプ182に出力する。
本実施形態では、プロジェクター1が多画面表示機能を実行中、PJ制御部10は、1又は複数のPC2から入力された音声データを信号処理部183に出力する。信号処理部183は、1又は複数の音声データを合成した音声データをアンプ182に出力する。
アンプ182は、信号処理部183から入力された音声データが示す音声の音量を、ユーザーが指定した音量に応じた増幅率で増幅する。スピーカー181は、アンプ182が増幅した音量で、信号処理部183が出力した音声データに基づく音声を出力する。
本実施形態では、プロジェクター1が多画面表示機能を実行中、スピーカー181は、信号処理部183が合成した音声データに基づく音声を出力する。
以下の説明では、この音声を合成音声という。合成音声は、第3音声の一例に対応する。
以下の説明では、この音声を合成音声という。合成音声は、第3音声の一例に対応する。
プロジェクター1は、投写部19と、投写部19を駆動する駆動部24とを備える。
投写部19は、光源部191、光変調装置192、及び投写光学系193を備える。駆動部24は、光源駆動回路241、及び光変調装置駆動回路242を備える。
投写部19は、光源部191、光変調装置192、及び投写光学系193を備える。駆動部24は、光源駆動回路241、及び光変調装置駆動回路242を備える。
光源駆動回路241は、バス25を介してPJ制御部10に接続され、また、光源部191に接続される。光源駆動回路241は、PJ制御部10の制御に従って光源部191を点灯又は消灯させる。
光変調装置駆動回路242は、バス25を介してPJ制御部10に接続され、また、光変調装置192が接続される。光変調装置駆動回路242は、PJ制御部10の制御に従って、光変調装置192を駆動し、光変調装置192が具備する光変調素子にフレーム単位で画像を描画する。光変調装置駆動回路242には、画像処理部15からR、G、Bの各原色に対応する画像データが入力される。光変調装置駆動回路242は、入力された画像データを、光変調装置192が具備する光変調素子である液晶パネルの動作に適したデータ信号に変換する。光変調装置駆動回路242は、変換したデータ信号に基づいて、各液晶パネルの各画素に電圧を印加し、各液晶パネルに画像を描画する。
光源部191は、ハロゲンランプ、キセノンランプ、超高圧水銀ランプ等のランプ、或いは、LEDやレーザー光源等の固体光源で構成される。光源部191は、光源駆動回路241から供給される電力により点灯し、光変調装置192に向けて光を発する。
光変調装置192は、例えば、R、G、及び、Bの三原色に対応した3枚の液晶パネルを備える。Rは赤色を示し、Gは緑色を示し、Bは青色を示す。光源部191から射出される光は、RGBの3色の色光に分離され、それぞれ対応する液晶パネルに入射される。3枚の液晶パネルの各々は、透過型の液晶パネルであり、透過する光を変調して画像光を生成する。各液晶パネルを通過して変調された画像光は、クロスダイクロイックプリズム等の合成光学系によって合成され、投写光学系193に射出される。
本実施形態では、光変調装置192が光変調素子として透過型の液晶パネルを備える場合を例示するが、光変調素子は反射型の液晶パネルであってもよいし、デジタルミラーデバイス(Digital Micromirror Device)でもよい。
本実施形態では、光変調装置192が光変調素子として透過型の液晶パネルを備える場合を例示するが、光変調素子は反射型の液晶パネルであってもよいし、デジタルミラーデバイス(Digital Micromirror Device)でもよい。
投写光学系193は、光変調装置192により変調された画像光をスクリーンSC上に結像させるレンズやミラー等を備える。投写光学系193は、スクリーンSCに投写される画像を拡大又は縮小させるズーム機構や、フォーカスの調整を行うフォーカス調整機構等を備えてもよい。
上述した通り、PJ制御部10は、投写制御部111、バッファー制御部112、合成画像制御部113、及び音声制御部114として機能する。
投写制御部111は、画像処理部15や、OSD処理部16、駆動部24等を制御して、スクリーンSCに画像を投写させる。
具体的には、投写制御部111は、画像処理部15を制御して、フレームメモリー14に展開された画像データを画像処理部15に処理させる。この際、投写制御部111は、画像処理部15が処理に必要なパラメーターをPJ記憶部120から読み出して画像処理部15に出力する。
また、投写制御部111は、OSD処理部16を制御して、画像処理部15から入力された画像データをOSD処理部16に処理させる。
また、投写制御部111は、光源駆動回路241及び光変調装置駆動回路242を制御して、光源駆動回路241によって光源部191を点灯させ、光変調装置駆動回路242により光変調装置192を駆動させ、投写部19によって画像光を投写してスクリーンSCに画像を表示する。また、投写制御部111は、投写光学系193を制御してモーターを起動させ、投写光学系193のズームやフォーカスを調整する。
バッファー制御部112は、第2インターフェース部12からフレームデータを取得する。バッファー制御部112は、取得したフレームデータから、フレームデータの送信元を示す送信元アドレス、及び画像データを取得する。次いで、バッファー制御部112は、取得した送信元アドレスに基づいて送信元のPC2を特定し、特定したPC2に対応する画像バッファーに取得した画像データを記憶させる。
本実施形態では、バッファー制御部112は、第2インターフェース部12がPC2Aからフレームデータを受信した場合、フレームデータに含まれる画像データを、画像バッファー13Aに記憶させる。また、バッファー制御部112は、第2インターフェース部12がPC2Bからフレームデータを受信した場合、フレームデータに含まれる画像データを、画像バッファー13Bに記憶させる。また、バッファー制御部112は、第2インターフェース部12がPC2Cからフレームデータを受信した場合、フレームデータに含まれる画像データを、画像バッファー13Cに記憶させる。また、バッファー制御部112は、第2インターフェース部12がPC2Dからフレームデータを受信した場合、フレームデータに含まれる画像データを、画像バッファー13Dに記憶させる。
合成画像制御部113は、合成画像設定情報を生成し、生成した合成画像設定情報を画像処理部15に出力する。
合成画像設定情報とは、表示領域100を分割する分割数、及び、1の分割領域とネットワークNWを介して接続する1のPC2との対応関係、が少なくとも設定された情報である。ここで、分割数、及び、分割領域とPC2との対応関係は、プロジェクター1が表示する設定UIによって設定されてもよいし、PC2において設定されてもよい。後者の構成の場合、PC2のPC制御部20は、PJ制御アプリ211の機能によって、分割数、及び、分割領域とPC2との対応関係を少なくとも設定可能なユーザーインターフェースをPC表示部22に表示する。そして、PC制御部20は、PJ制御アプリ211の機能によって、このユーザーインターフェースによって受け付けた設定を示す情報をPC通信部21によりプロジェクター1に送信する。プロジェクター1の合成画像制御部113は、第2インターフェース部12によって設定を示す情報を受信し、受信した設定を示す情報に基づいて合成画像設定情報を生成する。
画像処理部15は、画像バッファー13A、13B、13C、13Dから画像データを読み出し、読み出した画像データを合成画像制御部113から取得した合成画像設定情報に従ってフレームメモリー14に展開する。
例えば、合成画像設定情報では、分割数が4に設定され、分割領域100AとPC2Aとが対応付けられ、分割領域100BとPC2Bとが対応付けられ、分割領域100CとPC2Cとが対応付けられ、分割領域100DとPC2Dとが対応付けられているとする。
この例の場合、画像処理部15は、画像バッファー13Aから読み出した画像データを、分割領域100Aに対応するフレームメモリー14の記憶領域に展開する。また、画像処理部15は、画像バッファー13Bから読み出した画像データを、分割領域100Bに対応するフレームメモリー14の記憶領域に展開する。また、画像処理部15は、画像バッファー13Cから読み出した画像データを、分割領域100Cに対応するフレームメモリー14の記憶領域に展開する。また、画像処理部15は、画像バッファー13Dから読み出した画像データを、分割領域100Dに対応するフレームメモリー14の記憶領域に展開する。
この例の場合、画像処理部15は、画像バッファー13Aから読み出した画像データを、分割領域100Aに対応するフレームメモリー14の記憶領域に展開する。また、画像処理部15は、画像バッファー13Bから読み出した画像データを、分割領域100Bに対応するフレームメモリー14の記憶領域に展開する。また、画像処理部15は、画像バッファー13Cから読み出した画像データを、分割領域100Cに対応するフレームメモリー14の記憶領域に展開する。また、画像処理部15は、画像バッファー13Dから読み出した画像データを、分割領域100Dに対応するフレームメモリー14の記憶領域に展開する。
画像処理部15は、展開した入力画像NGの画像データに対して各種画像処理を行い、画像処理を施した画像データをフレームメモリー14から読み出し、表示用の画像データとして光変調装置駆動回路242に出力する。
音声制御部114は、1又は複数のPC2から入力された音声データが示す音声の音量を、図4に示す動作を実行して制御する。以下の説明では、1又は複数のPC2から入力された音声データが示す音声を「入力音声」という。
次に、プロジェクター1の動作について説明する。
図4は、プロジェクター1の動作を示すフローチャートである。
図4に示すフローチャートでは、プロジェクター1が多画面表示機能を実行しているとする。また、図4に示すフローチャートでは、複数のPC2から画像データと音声データとがプロジェクター1に入力されているとする。
図4は、プロジェクター1の動作を示すフローチャートである。
図4に示すフローチャートでは、プロジェクター1が多画面表示機能を実行しているとする。また、図4に示すフローチャートでは、複数のPC2から画像データと音声データとがプロジェクター1に入力されているとする。
音声制御部114は、入力画像NGの画像データを出力する複数のPC2に、優先画像ソースとして設定されたPC2があるか否かを判別する(ステップSA1)。
優先画像ソースとは、音声出力を他の画像ソースより優先する画像ソースを示す。優先画像ソースであるか否かは、設定UIにおいて設定されてもよいし、PJ制御アプリ211の機能によってPC2で設定されてもよい。後者の構成の場合、PC2のPC制御部20は、PJ制御アプリ211の機能によって、優先画像ソースを少なくとも設定可能なユーザーインターフェースをPC表示部22に表示する。そして、PC制御部20は、PJ制御アプリ211の機能によって、このユーザーインターフェースによって受け付けた設定を示す情報をPC通信部21によりプロジェクター1に送信する。プロジェクター1の音声制御部114は、第2インターフェース部12によってこの情報を受信し、受信した情報に基づいて優先画像ソースが設定されているか否かを判別する。
音声制御部114は、優先画像ソースとして設定されたPC2があると判別した場合(ステップSA1:YES)、優先画像ソースからの入力音声について合成音声における音量の割合を100%に決定し、他の画像ソースからの入力音声については合成音声における音量の割合を0%に決定する(ステップSA2)。
音声制御部114は、ステップSA2で決定した音量の割合で合成音声をスピーカー181に出力させる(ステップSA3)。例えば、音声制御部114は、合成画像に含まれる各入力音声の音量がステップSA2で決定した音量の割合となるように、PC2から入力された音声データを加工し、加工した音声データを信号処理部183に出力する。また、例えば、音声制御部114は、合成画像に含まれる各入力音声の音量がステップSA2で決定した音量の割合となるように音声データを加工する指示を、信号処理部183に出力する。
例えば、図1の表示システム1000の表示態様において、PC2Aが優先画像ソースに設定されている場合、音声制御部114は、PC2Aからの入力音声について合成音声における音量の割合を100%に決定し、PC2B、2C、2Dからの入力音声については合成音声における音量の割合を0%に決定する。これにより、音声制御部114は、優先画像ソースでないPC2B、2C、2Dから音声データが入力されても、優先画像ソースであるPC2Aからの入力音声のみをユーザーが聞き取ることができる。
ステップSA1の説明に戻り、音声制御部114は、優先画像ソースとして設定されたPC2がないと判別した場合(ステップSA1:NO)、全入力音声について音量レベルをゼロにする(ステップSA4)。音量レベルは、最も音量が小さいレベルを「0」とし、最も音量が大きいレベルまで段階的な値をとる。
次いで、音声制御部114は、予め定められた所定時間が経過したか否かを判別する(ステップSA5)。
フローチャート開始後に初めてステップSA5の処理を実行する場合、音声制御部114は、例えば、フローチャート開始後から予め定められた所定時間が経過したか否かを判別する。フローチャート開始後、ステップSA5の処理回数が2回目以降の場合、音声制御部114は、前回に所定時間が経過したと判別してから、予め定められた所定時間が経過したか否かを判別する。
音声制御部114は、予め定められた所定時間が経過していないと判別した場合(ステップSA5:NO)、再度、ステップSA5の処理を行う。
一方、音声制御部114は、予め定められた所定時間が経過したと判別した場合(ステップSA5:YES)、音声レベル決定処理を行う(ステップSA6)。
図5は、音声レベル決定処理におけるプロジェクター1の動作を示すフローチャートである。
音声制御部114は、ネットワークNWに接続する1のPC2、すなわちプロジェクター1に接続する1の画像ソースを、ステップSA62以降の処理対象として特定する(ステップSA61)。
音声制御部114は、ステップSA61で特定したPC2からの入力画像NGの更新頻度が、所定頻度を上回るか否かを判別する(ステップSA62)。
更新頻度は、更新量の一例に対応する。
更新頻度は、更新量の一例に対応する。
更新頻度は、単位時間あたりにおいて入力画像NGが更新された頻度を示す。一般に、単位時間あたりの更新頻度は、静止画より動画像のほうが大きい。また、静止画でもポインターが画面上を移動すれば、ポインターが移動しない場合より更新頻度が大きくなる。音声制御部114は、単位時間におけるフレームデータの受信数を更新頻度とし、当該受信数が所定頻度としての所定数を上回るか否かを判別する。この所定数は、予め定められている。
音声制御部114は、更新頻度が所定頻度を上回ると判別した場合(ステップSA62:YES)、ステップSA61で特定したPC2からの入力音声の音量レベルを1段階上げる(ステップSA63)。
音声制御部114は、更新頻度が所定頻度を上回らないと判別した場合(ステップSA62:NO)、ステップSA61で特定したPC2からの入力音声の音量レベルを変更しない(ステップSA64)。
次いで、音声制御部114は、ネットワークNWを介して接続する全てのPC2をステップSA61で特定したか否かを判別する(ステップSA65)。
音声制御部114は、ステップSA65において、ネットワークNWを介して接続する全てのPC2をステップSA61で特定していないと判別した場合(ステップSA65:NO)、処理をステップSA61に戻し、未特定のPC2を1つ特定して、ステップSA62以降の処理を再度行う。
一方、音声制御部114は、ステップSA65において、ネットワークNWを介して接続する全てのPC2をステップSA61で特定したと判別した場合(ステップSA65:YES)、音声レベル決定処理を終了する。
図4に示すフローチャートの説明に戻り、音声制御部114は、音声レベル決定処理で決定した音声レベルに基づいて、入力音声の各々について合成音声における音量の割合を、次の式(1)に基づいて算出する(ステップSA7)。
音量の割合=(音量レベル/音量レベルの合計)×100・・・(1)
式(1)において、分子は、算出対象の入力音声の音声レベルであって、直近の音声レベル決定処理で決定された音量レベルである。式(1)において、分母は、直近の音声レベル決定処理で決定された全入力音声の音量レベルの合計である。
例えば、フローチャートを開始してから、音声レベル決定処理を2回以上実行し、音声制御部114が、PC2Aからの入力音声の音量レベルを「2」に決定し、PC2Bからの入力音声の音量レベルを「1」に決定し、PC2C、PC2Dからの入力音声の音量レベルを「0」に決定したとする。
この例の場合、音声制御部114は、PC2Aからの入力音声について、合成音声における音量の割合を、式(1)に基づいて、「(2/2+1+0+0)×100」の演算を行うことで、67%と算出する。
また、この例の場合、音声制御部114は、PC2Bからの入力音声について、合成音声における音量の割合を、式(1)に基づいて、「(1/2+1+0+0)×100」の演算をし、33%と算出する。
また、この例の場合、音声制御部114は、PC2C、2Dからの入力音声について、合成音声における音量の割合を、式(1)に基づいて、「(0/2+1+0+0)×100」の演算をし、0%と算出する。
また、この例の場合、音声制御部114は、PC2Bからの入力音声について、合成音声における音量の割合を、式(1)に基づいて、「(1/2+1+0+0)×100」の演算をし、33%と算出する。
また、この例の場合、音声制御部114は、PC2C、2Dからの入力音声について、合成音声における音量の割合を、式(1)に基づいて、「(0/2+1+0+0)×100」の演算をし、0%と算出する。
音声制御部114は、ステップSA7で算出した音量の割合で合成音声をスピーカー181に出力させる(ステップSA8)。ステップSA3と同様に、例えば、音声制御部114は、合成画像に含まれる各入力音声の音量がステップSA7で算出した音量の割合となるように、PC2から入力された音声データを加工し、加工した音声データを信号処理部183に出力する。また、例えば、音声制御部114は、合成画像に含まれる各入力音声の音量がステップSA7で算出した音量の割合となるように音声データを加工する指示を、信号処理部183に出力する。
次いで、音声制御部114は、処理をステップSA1に戻すトリガーが発生したか否かを判別する(ステップSA9)。
このトリガーとしては、例えば、新たなPC2がネットワークNWを介して接続されたことや、優先画像ソースの設定が行われたこと等が挙げられる。
音声制御部114は、処理をステップSA1に戻すトリガーが発生していないと判別した場合(ステップSA9:NO)、処理をステップSA5に戻し、再度、ステップSA5以降の処理を行う。
一方、音声制御部114は、処理をステップSA1に戻すトリガーが発生したと判別した場合(ステップSA9:YES)、処理をステップSA1に戻し、ステップSA1以降の処理を行う。
次に、上述した実施形態の変形例を複数説明する。
<変形例1>
上述した実施形態は、入力画像NGの更新頻度が所定頻度以下の場合に、この入力画像NGの音声の音量を、更新頻度が所定頻度を上回る入力画像NGの音声の音量より小さくする構成である。変形例1は、入力画像NGの更新頻度が所定頻度以下の場合に、この入力画像NGの音量をオフにする。
<変形例1>
上述した実施形態は、入力画像NGの更新頻度が所定頻度以下の場合に、この入力画像NGの音声の音量を、更新頻度が所定頻度を上回る入力画像NGの音声の音量より小さくする構成である。変形例1は、入力画像NGの更新頻度が所定頻度以下の場合に、この入力画像NGの音量をオフにする。
<変形例2>
変形例2は、音量の変更に加えて、入力画像NGの更新頻度が所定頻度を上回る場合、この入力画像NGの表示サイズを、更新頻度が所定頻度以下の入力画像NGの表示サイズより大きくする。
例えば、入力画像NGを3段階の表示サイズで表示可能であり、デフォルトが3段階中、2番目に大きい表示サイズであるとする。この例の場合、PC2Aからの入力画像NG1の更新頻度が所定頻度を上回り、PC2B、2C、2Dからの入力画像NGの更新頻度が所定頻度以下である場合、入力画像NG1の表示サイズを3段階中最も大きい表示サイズにし、入力画像NG2、NG3、NG4の表示サイズを3段階中最も小さい表示サイズにする。
変形例2は、音量の変更に加えて、入力画像NGの更新頻度が所定頻度を上回る場合、この入力画像NGの表示サイズを、更新頻度が所定頻度以下の入力画像NGの表示サイズより大きくする。
例えば、入力画像NGを3段階の表示サイズで表示可能であり、デフォルトが3段階中、2番目に大きい表示サイズであるとする。この例の場合、PC2Aからの入力画像NG1の更新頻度が所定頻度を上回り、PC2B、2C、2Dからの入力画像NGの更新頻度が所定頻度以下である場合、入力画像NG1の表示サイズを3段階中最も大きい表示サイズにし、入力画像NG2、NG3、NG4の表示サイズを3段階中最も小さい表示サイズにする。
上述した実施形態及び変形例によれば、以下の効果を奏する。
以下の効果の説明で用いる第1画像ソース及び第2画像ソースは、特定のPC2を指し示していない。第1画像ソースは、画像ソースとしてあるPC2を指し示し、第2画像ソースは、第1画像ソースと異なる他の画像ソースを指し示す。
また、以下の効果の説明で用いる第1入力画像及び第2入力画像は、特定の入力画像NGを指し示していない。第1入力画像は、第1画像ソースからの入力画像NGを指し示し、第2入力画像は、第2画像ソースからの入力画像NGを指し示す。第1入力画像は、第1画像の一例に対応し、第2入力画像は、第2画像の一例に対応する。
また、以下の効果の説明で用いる第1入力音声及び第2入力音声は、特定の入力音声を指し示していない。第1入力音声は、第1画像ソースからの入力音声を指し示し、第2入力音声は、第2画像ソースからの入力音声を指し示す。第1入力音声は、第1音声の一例に対応し、第2入力音声は、第2音声の一例に対応する。
以下の効果の説明で用いる第1画像ソース及び第2画像ソースは、特定のPC2を指し示していない。第1画像ソースは、画像ソースとしてあるPC2を指し示し、第2画像ソースは、第1画像ソースと異なる他の画像ソースを指し示す。
また、以下の効果の説明で用いる第1入力画像及び第2入力画像は、特定の入力画像NGを指し示していない。第1入力画像は、第1画像ソースからの入力画像NGを指し示し、第2入力画像は、第2画像ソースからの入力画像NGを指し示す。第1入力画像は、第1画像の一例に対応し、第2入力画像は、第2画像の一例に対応する。
また、以下の効果の説明で用いる第1入力音声及び第2入力音声は、特定の入力音声を指し示していない。第1入力音声は、第1画像ソースからの入力音声を指し示し、第2入力音声は、第2画像ソースからの入力音声を指し示す。第1入力音声は、第1音声の一例に対応し、第2入力音声は、第2音声の一例に対応する。
プロジェクター1の制御方法は、第1画像ソースから入力された第1入力画像と、第2画像ソースから入力された第2入力画像とを含む合成画像GGを投写し、第1画像ソースから入力された第1入力音声と、第2画像ソースから入力された第2入力音声とを含む合成音声を出力し、第1入力画像の更新頻度が第2入力画像の更新頻度より大きい場合、第1入力音声の音量を第2入力音声の音量より大きくする。
ユーザーが着目すべき画像は、更新頻度の高い画像である。よって、プロジェクター1の制御方法によれば、ユーザーが着目するべき画像の音声を他の画像の音声より大きくできるため、合成画像GGを投写する場合において、ユーザーが着目すべき画像の音声をユーザーが聞き取り易くできる。
プロジェクター1の制御方法は、第1入力画像及び第2入力画像の更新頻度が所定頻度を上回るか否かを判別し、第1入力画像の更新頻度が所定頻度を上回り、且つ、第2入力画像の更新頻度が所定頻度を上回らないと判別した場合、第1入力音声の音量を第2入力音声の音量より大きくし、第1入力画像及び第2入力画像の更新頻度が所定頻度を上回らないと判別した場合、及び、第1入力画像及び第2入力画像の更新頻度が所定頻度を上回ると判別した場合、第1入力音声及び第2入力音声の音量を変更しない。
これによれば、第1入力画像の更新頻度が所定頻度を上回り、且つ、第2入力画像の更新頻度が所定頻度を上回らない場合に、第1入力音声の音量を第2入力音声の音量より大きくする。そのため、第1入力画像の更新頻度が第2入力画像の更新頻度より大きくなるたびに、投写されている画像の音量が変更されることを防止できる。よって、合成画像GGが投写されている場合において、ユーザーが着目すべき画像でない画像の更新頻度が、少しでも、ユーザーが着目すべき画像の更新頻度より高まるたびに、ユーザーが着目すべき画像でない画像の音声が大きくなってしまうことを防止できる。よって、ユーザーが着目すべき画像の音声をユーザーが安定して聞き取ることができる。
プロジェクター1の制御方法は、第1画像ソース又は第2画像ソースが優先画像ソースとして設定されているか否かを判別し、第1画像ソース及び第2画像ソースが優先画像ソースとして設定されていないと判別した場合に、第1入力画像及び第2入力画像の更新頻度が所定頻度を上回るか否かを判別し、第1画像ソースが優先画像ソースとして設定されていると判別した場合、第1入力画像及び第2入力画像の更新頻度が所定頻度を上回るか否かの判別を行わない。
優先画像ソースが設定されている場合、ユーザーが着目すべき画像は、優先画像ソースから入力される入力画像NGである蓋然性が高い。よって、ユーザーが着目すべき画像の音声がどの画像ソースからの入力音声であるかが定まるため、プロジェクター1は、優先画像ソースが設定される場合については、更新頻度が所定頻度を上回るか否かの判別を行う必要がない。よって、プロジェクター1の制御方法は、音量の変更に係わる処理負荷を軽減できる。
プロジェクター1の制御方法は、第1画像ソースが優先画像ソースとして設定されていると判別した場合、合成音声における第2入力音声の音量の割合をゼロにする。
これによれば、優先画像ソースが設定されている場合、優先画像ソースからの入力音声のみが出力されるように音量の割合が設定されるため、ユーザーが着目すべき画像の音声をユーザーがより聞き取り易くできる。
プロジェクター1の制御方法は、第1入力画像の更新頻度が第2入力画像の更新頻度より大きい場合、第2入力音声をオフにすることで、第1入力音声の音量を第2入力音声の音量より大きくする。
これによれば、ユーザーが着目すべき画像以外の画像の音声が出力されないため、ユーザーが着目すべき画像の音声をユーザーがより聞き取り易くできる。
プロジェクター1の制御方法は、第1入力画像の更新頻度が第2入力画像の更新頻度より大きい場合、第1入力画像の表示サイズを第2入力画像の表示サイズより大きくする。
これによれば、ユーザーが着目すべき画像の音量が大きくなると共に表示サイズも他の画像より大きくなるため、ユーザーが着目すべき画像についてユーザーが視聴し易くできる。
プロジェクター1は、第1画像ソースから入力された第1入力画像と、第2画像ソースから入力された第2入力画像とを含む合成画像GGを投写する投写部19と、第1画像ソースから入力された第1入力音声と、第2画像ソースから入力された第2入力音声とを含む合成音声を出力するスピーカー181と、第1入力画像の更新頻度が第2入力画像の更新頻度より大きい場合、第1入力音声の音量を第2入力音声の音量より小さくするPJ制御部10と、を備える。
プロジェクター1によれば、プロジェクター1の制御方法が奏する効果と同様の効果を奏する。
上述した実施形態及び変形例は、一態様を示すものであり任意に変形および応用が可能である。
表示装置としてプロジェクター1を例示したが、表示装置は、プロジェクター1に限定されず、例えば、液晶表示パネルに画像を表示する液晶表示装置や、有機ELパネルに画像を表示する表示装置など、モニター若しくは液晶テレビ等の自発光型の表示装置を含み、また、その他の各種の表示装置も含まれる。
PC2の具体的な構成は制限されず、プロジェクター1に接続可能であって、プロジェクター1に音声データを伴う画像データを出力できる機器であればよい。例えば、PC2としては、ディスク型記録メディア再生装置や、テレビチューナー装置等を用いてもよい。
上述した実施形態及び変形例では、更新量として更新頻度を例示したが、更新量は更新頻度に限定されない。更新量は、単位時間あたりに入力画像NGがどのくらい更新されたかを示す値であればよく、例えば、単位時間あたりPC2から受信した入力画像NGに係わるデータ量でもよい。この場合、更新量と比較される所定量は、所定のデータ量になる。
また、PJ制御部10及びPC制御部20の機能は、複数のプロセッサー、又は、半導体チップにより実現してもよい。
例えば、図2及図3に示したPC2及びプロジェクター1の各機能部は、機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態及び変形例においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、また、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、PC2及びプロジェクター1の他の各部の具体的な細部構成についても、任意に変更可能である。
また、図4及び図5に示すフローチャートの処理単位は、プロジェクター1の処理を理解容易にするために、主な処理内容に応じて分割したものである。フローチャートに示す処理単位の分割の仕方や名称によって本発明が制限されることはない。また、プロジェクター1の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
1…プロジェクター(表示装置)、2、2A、2B、2C、2D…PC、3…リモコン、10…PJ制御部(制御部)、11…第1インターフェース部、12…第2インターフェース部、13…バッファー部、13A、13B、13C、13D…画像バッファー、14…フレームメモリー、15…画像処理部、16…OSD処理部、17…操作部、18…音声処理部、19…投写部(表示部)、24…駆動部、25…バス、110…PJプロセッサー、111…投写制御部、112…バッファー制御部、113…合成画像制御部、114…音声制御部、120…PJ記憶部、121…制御プログラム、122…設定データ、171…操作パネル、172…リモコン受光部、173…入力処理部、181…スピーカー(音声出力部)、182…アンプ、183…信号処理部、191…光源部、192…光変調装置、193…投写光学系、241…光源駆動回路、GG…合成画像(第3画像)、NG、NG1、NG2、NG3、NG4…入力画像(第1画像、第2画像)、NW…ネットワーク、SC…スクリーン。
Claims (7)
- 第1画像ソースから入力された第1画像と、第2画像ソースから入力された第2画像とを含む第3画像を表示し、
前記第1画像ソースから入力された第1音声と、前記第2画像ソースから入力された第2音声とを含む第3音声を出力し、
前記第1画像の更新量が前記第2画像の更新量より大きい場合、前記第1音声の音量を前記第2音声の音量より大きくする、
表示装置の制御方法。 - 前記第1画像及び前記第2画像の更新量が所定量を上回るか否かを判別し、
前記第1画像の更新量が前記所定量を上回り、且つ、前記第2画像の更新量が前記所定量を上回らないと判別した場合、前記第1音声の音量を前記第2音声の音量より大きくし、
前記第1画像及び前記第2画像の更新量が前記所定量を上回らないと判別した場合、及び、前記第1画像及び前記第2画像の更新量が前記所定量を上回ると判別した場合、前記第1音声及び前記第2音声の音量を変更しない、
請求項1に記載の表示装置の制御方法。 - 前記第1画像ソース又は前記第2画像ソースが音声出力を他の画像ソースより優先する優先画像ソースとして設定されているか否かを判別し、
前記第1画像ソース及び前記第2画像ソースが前記優先画像ソースとして設定されていないと判別した場合に、前記第1画像及び前記第2画像の更新量が前記所定量を上回るか否かを判別し、
前記第1画像ソースが前記優先画像ソースとして設定されていると判別した場合、前記第1画像及び前記第2画像の更新量が前記所定量を上回るか否かの判別を行わない、
請求項2のいずれか一項に記載の表示装置の制御方法。 - 前記第1画像ソースが前記優先画像ソースとして設定されていると判別した場合、前記第3音声における前記第2音声の音量の割合をゼロにする、
請求項3に記載の表示装置の制御方法。 - 前記第1画像の更新量が前記第2画像の更新量より大きい場合、前記第2音声をオフにすることで、前記第1音声の音量を前記第2音声の音量より大きくする、
請求項1から4のいずれか一項に記載の表示装置の制御方法。 - 前記第1画像の更新量が前記第2画像の更新量より大きい場合、前記第1画像の表示サイズを前記第2画像の表示サイズより大きくする、
請求項1から5のいずれか一項に記載の表示装置の制御方法。 - 第1画像ソースから入力された第1画像と、第2画像ソースから入力された第2画像とを含む第3画像を表示する表示部と、
前記第1画像ソースから入力された第1音声と、前記第2画像ソースから入力された第2音声とを含む第3音声を出力する音声出力部と、
前記第1画像の更新量が前記第2画像の更新量より大きい場合、前記第1音声の音量を前記第2音声の音量より小さくする制御部と、を備える、
表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020199565A JP2022087571A (ja) | 2020-12-01 | 2020-12-01 | 表示装置の制御方法、及び表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020199565A JP2022087571A (ja) | 2020-12-01 | 2020-12-01 | 表示装置の制御方法、及び表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022087571A true JP2022087571A (ja) | 2022-06-13 |
Family
ID=81975827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020199565A Pending JP2022087571A (ja) | 2020-12-01 | 2020-12-01 | 表示装置の制御方法、及び表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022087571A (ja) |
-
2020
- 2020-12-01 JP JP2020199565A patent/JP2022087571A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5509729B2 (ja) | 画像表示装置、画像表示方法及び画像処理装置 | |
JP6834258B2 (ja) | 表示装置、表示システム及び表示装置の制御方法 | |
JP2002207247A (ja) | 投写表示システムおよびそのためのプロジェクタ | |
JP2019148628A (ja) | 表示装置、及び、表示装置の制御方法 | |
JP2008107477A (ja) | マルチディスプレイシステム、情報処理装置、プログラム、及び記録媒体 | |
JP2020194107A (ja) | 表示装置の制御方法、及び表示装置 | |
US10847121B2 (en) | Display apparatus and method for controlling display apparatus displaying image with superimposed mask | |
US20230161468A1 (en) | Display control method and display system | |
JP2022087571A (ja) | 表示装置の制御方法、及び表示装置 | |
US20210304700A1 (en) | Control method for display device and display device | |
US11862160B2 (en) | Control method for display system, and display system | |
JP2022087553A (ja) | 表示装置の制御方法、及び、表示装置 | |
JP2021105642A (ja) | 表示システムの制御方法、及び表示システム | |
JP6232721B2 (ja) | プロジェクター、投射システム、およびプロジェクターの制御方法 | |
US10863058B2 (en) | Image processing device, display device, and image processing method | |
US11800069B2 (en) | Display control method, display device, and video output device | |
US11132768B2 (en) | Method for controlling display device, display device, and display system | |
JP2019186628A (ja) | 表示装置の制御装置、制御方法、表示システムおよびプログラム | |
US11657777B2 (en) | Control method for display device and display device | |
US20240179282A1 (en) | Control method for projector, projector, and non-transitory computer-readable storage medium storing program | |
US11057597B2 (en) | Display device, display system, and method for controlling display device | |
US20220068275A1 (en) | Control method for display system, display system, and control method for display apparatus | |
JP2023047474A (ja) | プロジェクターの制御方法、及び、プロジェクションシステム | |
JP2023027523A (ja) | 表示方法、表示システム、及び表示装置 | |
JP2021052304A (ja) | 表示システムの制御方法、表示システム、及び、中継装置 |