JP2015007832A - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2015007832A JP2015007832A JP2013132012A JP2013132012A JP2015007832A JP 2015007832 A JP2015007832 A JP 2015007832A JP 2013132012 A JP2013132012 A JP 2013132012A JP 2013132012 A JP2013132012 A JP 2013132012A JP 2015007832 A JP2015007832 A JP 2015007832A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display screen
- displayed
- unit
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】タッチスクリーンとしての表示画面への入力が行われた場合であっても、ユーザが、入力操作により遮蔽された画像を閲覧することができる技術を提供する。【解決手段】画像を受信する受信手段と、画像を表示画面210に表示する表示制御部221と、ユーザが入力手段を表示画面に接触させて指示を入力した場合に、入力手段の表示画面における入力位置に基づいて、入力手段により表示画面に表示中の画像が覆われているか否かを判定する遮蔽判定部224と、表示画面に表示中の画像が覆われていると判定された場合に、判定時に表示画面に表示された画像を記憶部240に記録する画像管理手段とを備える。【選択図】図1
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。
従来、ネットワーク対応のカメラに接続するビューワークライアントアプリケーションが知られている。ビューワークライアントアプリケーションは、カメラ制御専用のプロトコルをサポートし、ネットワーク経由でカメラを制御したり、映像を受信したりすることができる。ビューワークライアントプリケーションは、PC用アプリケーションとして提供されており、主にマウスやキーボードを入力インタフェースとして制御するよう設計されている。
一方で、近年、スマートフォンやタブレット端末などのモバイル端末の普及により、モバイル端末用のアプリケーションが求められるようになってきている。モバイル端末においては、タッチスクリーンからの入力操作が多く、タッチスクリーン入力に対応した設計のアプリケーションが要求されている。
タッチスクリーンに関する技術は、例えば、特許文献1に開示されている。特許文献1の技術は、画像に関連付ける属性(日時、サイズなど)を表示し、ユーザがタッチスクリーンへの入力操作により属性を選択することによって、画像と、選択された属性とを関連付けて保存するものである。
一方で、近年、スマートフォンやタブレット端末などのモバイル端末の普及により、モバイル端末用のアプリケーションが求められるようになってきている。モバイル端末においては、タッチスクリーンからの入力操作が多く、タッチスクリーン入力に対応した設計のアプリケーションが要求されている。
タッチスクリーンに関する技術は、例えば、特許文献1に開示されている。特許文献1の技術は、画像に関連付ける属性(日時、サイズなど)を表示し、ユーザがタッチスクリーンへの入力操作により属性を選択することによって、画像と、選択された属性とを関連付けて保存するものである。
しかしながら、タッチスクリーンへの入力を行う場合には、入力位置を含む一部の領域が、ユーザの指やペン等の入力手段で覆われた状態となる。このため、入力手段で覆われた領域に表示された画像は、入力手段により遮蔽されてしまう。すなわち、入力操作が行われた場合、ユーザは、入力時に表示されている画像の一部を見ることができないという問題がある。
本発明はこのような問題点に鑑みなされたもので、タッチスクリーンとしての表示画面への入力が行われた場合であっても、ユーザが、入力操作により遮蔽された画像を閲覧することができる技術を提供することを目的とする。
そこで、本発明は、画像処理装置であって、画像を受信する受信手段と、前記画像を表示画面に表示する画像表示手段と、ユーザが入力手段を前記表示画面に接触させて指示を入力した場合に、前記入力手段の前記表示画面における入力位置に基づいて、前記入力手段により前記表示画面に表示中の前記画像が覆われているか否かを判定する遮蔽判定手段と、前記表示画面に表示中の前記画像が覆われていると判定された場合に、判定時に前記表示画面に表示された前記画像を第1の記憶手段に記録する画像管理手段とを備える。
本発明によれば、タッチスクリーンとしての表示画面への入力が行われた場合であっても、ユーザが、入力操作により遮蔽された画像を閲覧することができる。
以下、本発明の実施形態について図面に基づいて説明する。
(第1の実施形態)
図1は、第1の実施形態にかかる表示システムを示す図である。表示システムは、撮像装置100と、クライアント装置200と、ネットワークサーバ装置20とを備えている。撮像装置100と、クライアント装置200と、ネットワークサーバ装置20とは、ネットワーク10を介して相互に接続している。
撮像装置100は、例えばネットワークカメラである。撮像装置100は、画像を撮像し、得られた画像をクライアント装置200に送信する。クライアント装置200は、画像処理装置の一例であり、例えばビューワ機能を備えたコンピュータである。クライアント装置200は、ネットワーク10を介して撮像装置100から受信した画像を表示する。クライアント装置200はまた、ネットワーク10を介して、撮像装置100による撮像等の動作を制御する。
ネットワークサーバ装置20は、画像を記憶する。ネットワークサーバ装置20は、FTP(File Transfer Protocol)、HTTP(Hyper Text Transfer Protocol)のファイルを扱う。また、他の例としては、SMB(Server Message Block)、NFS(Network File System)などのファイルを扱ってもよい。
(第1の実施形態)
図1は、第1の実施形態にかかる表示システムを示す図である。表示システムは、撮像装置100と、クライアント装置200と、ネットワークサーバ装置20とを備えている。撮像装置100と、クライアント装置200と、ネットワークサーバ装置20とは、ネットワーク10を介して相互に接続している。
撮像装置100は、例えばネットワークカメラである。撮像装置100は、画像を撮像し、得られた画像をクライアント装置200に送信する。クライアント装置200は、画像処理装置の一例であり、例えばビューワ機能を備えたコンピュータである。クライアント装置200は、ネットワーク10を介して撮像装置100から受信した画像を表示する。クライアント装置200はまた、ネットワーク10を介して、撮像装置100による撮像等の動作を制御する。
ネットワークサーバ装置20は、画像を記憶する。ネットワークサーバ装置20は、FTP(File Transfer Protocol)、HTTP(Hyper Text Transfer Protocol)のファイルを扱う。また、他の例としては、SMB(Server Message Block)、NFS(Network File System)などのファイルを扱ってもよい。
撮像装置100は、撮像部110と、CPU120と、通信制御部130と、音声入力部140と、接点入力部150と、記憶部160とを備えている。撮像部110は、画像を撮像する。CPU120は、撮像装置100全体を制御する。通信制御部130は、通信を制御する。音声入力部140は、音声入力を受け付ける。接点入力部150は、接点入力を受け付ける。記憶部160は、各種情報を格納する。
後述する撮像装置100の機能や処理は、CPU120が記憶部160に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
CPU120は、カメラ駆動制御部121と、コマンド制御部122と、イベント検出部123とを備えている。カメラ駆動制御部121は、撮像部110の駆動を制御する。コマンド制御部122は、クライアント装置200から受信したコマンドや、クライアント装置200に送信するコマンド等を処理する。
イベント検出部123は、イベントを検出する。イベント検出部123は、例えば、撮像部110により得られた画像中から動体を検出した場合に、イベントとして検出する。イベント検出部123はまた、音声入力部140への音声入力、接点入力部150への接点入力をイベントとして検出する。なお、イベント検出部123が検出するイベントの種類は、実施の形態に限定されるものではない。
後述する撮像装置100の機能や処理は、CPU120が記憶部160に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
CPU120は、カメラ駆動制御部121と、コマンド制御部122と、イベント検出部123とを備えている。カメラ駆動制御部121は、撮像部110の駆動を制御する。コマンド制御部122は、クライアント装置200から受信したコマンドや、クライアント装置200に送信するコマンド等を処理する。
イベント検出部123は、イベントを検出する。イベント検出部123は、例えば、撮像部110により得られた画像中から動体を検出した場合に、イベントとして検出する。イベント検出部123はまた、音声入力部140への音声入力、接点入力部150への接点入力をイベントとして検出する。なお、イベント検出部123が検出するイベントの種類は、実施の形態に限定されるものではない。
記憶部160は、フラッシュメモリや、HDD等の永続的な記憶装置である。記憶部160は例えば、撮像部110により得られた画像や、カメラ駆動制御部121から得られる、パン、チルト、ズーム等の値を適宜格納する。
撮像装置100においては、撮像部110で得られた画像は、コマンド制御部122で特定のコマンド形式に変換され、通信制御部130を介してクライアント装置200に送信される。ここで、特定のコマンド形式とは、撮像装置100とクライアント装置200の間で、カメラ制御及び画像配信を行うためにコマンド仕様として予め定められた形式である。
撮像装置100においては、撮像部110で得られた画像は、コマンド制御部122で特定のコマンド形式に変換され、通信制御部130を介してクライアント装置200に送信される。ここで、特定のコマンド形式とは、撮像装置100とクライアント装置200の間で、カメラ制御及び画像配信を行うためにコマンド仕様として予め定められた形式である。
表示システムにおいて、撮像部110の制御は、クライアント装置200からの指示に応じて行うことができる。通信制御部130がクライアント装置200から、カメラ制御に関するコマンドを受信すると、コマンド制御部122は、受信したコマンドを処理する。そしてカメラ駆動制御部121は、コマンドに従い、パン、チルト、ズーム等の制御を行う。
また、通信制御部130がクライアント装置200から画像配信に関するコマンドを受信した場合には、コマンド制御部122は、コマンドを処理する。そして、通信制御部130は、CPU120の制御の下、撮像部110により得られた画像をクライアント装置200に配信する。
また、イベント検出部123によりイベントが検出された場合には、コマンド制御部122は、コマンドを処理する。そして、通信制御部130は、CPU120の制御の下、イベント内容を示すイベント情報をクライアント装置200に送信する。
また、通信制御部130がクライアント装置200から画像配信に関するコマンドを受信した場合には、コマンド制御部122は、コマンドを処理する。そして、通信制御部130は、CPU120の制御の下、撮像部110により得られた画像をクライアント装置200に配信する。
また、イベント検出部123によりイベントが検出された場合には、コマンド制御部122は、コマンドを処理する。そして、通信制御部130は、CPU120の制御の下、イベント内容を示すイベント情報をクライアント装置200に送信する。
クライアント装置200は、表示画面210と、CPU220と、通信制御部230と、記憶部240と、タイマー250とを備えている。表示画面210は、ユーザインタフェースとして機能する。すなわち、表示画面210は、各種情報を表示する。なお、表示画面210は、不図示のタッチパネルと、表示パネルとを有している。
表示画面210は、各種情報を表示する。表示画面210はまた、タッチパネルとして、ユーザによる指示入力を受け付ける。ユーザは、例えば自身の指やペン等の入力手段を、表示画面210に接触させることにより、各種指示を入力することができる。
表示画面210は、各種情報を表示する。表示画面210はまた、タッチパネルとして、ユーザによる指示入力を受け付ける。ユーザは、例えば自身の指やペン等の入力手段を、表示画面210に接触させることにより、各種指示を入力することができる。
図2は、表示画面210の表示例を示す図である。表示画面210には、ビューワ機能によるウィンドウ領域301が表示される。ウィンドウ領域301には、撮像装置100から受信した画像を表示する画像領域302と、メッセージ領域303と、コントロール領域304とを含んでいる。
画像領域302は、撮像装置100から受信した画像を表示する領域である。メッセージ領域303は、各種メッセージを表示する領域である。コントロール領域304は、ユーザからステータス情報の設定、変更の入力を受け付ける領域である。
画像領域302は、撮像装置100から受信した画像を表示する領域である。メッセージ領域303は、各種メッセージを表示する領域である。コントロール領域304は、ユーザからステータス情報の設定、変更の入力を受け付ける領域である。
ユーザは、コントロール領域304において、上下の矢印をタッチすることにより、チルト操作を指示することができる。また、ユーザは、コントロール領域304の左右の矢印をタッチすることにより、パン操作を指示することができる。また、ユーザは、コントロール領域304のプラス、マイナスのボタンをタッチすることにより、ズーム操作を指示することができる。
なお、他の例としては、クライアント装置200は、画像領域302の任意の点をタッチする操作により、ステータス情報の指定を受け付けるようなインタフェースを提供してもよい。
なお、他の例としては、クライアント装置200は、画像領域302の任意の点をタッチする操作により、ステータス情報の指定を受け付けるようなインタフェースを提供してもよい。
図1に戻り、CPU220は、クライアント装置200全体を制御する。通信制御部230は、通信を制御する。記憶部240は、各種情報を記憶する。タイマー250は、時間をカウントする。なお、後述するクライアント装置200の機能や処理は、CPU220が記憶部240に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
CPU220は、表示制御部221と、コマンド制御部222と、入力検知部223と、遮蔽判定部224とを備えている。表示制御部221は、表示画面210への表示を制御する。表示制御部221は、例えばクライアント装置200から受信した画像やメッセージを表示画面210に表示する。メッセージとしては、例えば、クライアント装置200のパン、チルト、ズーム等のステータス情報や、イベント発生状態等が挙げられる。
CPU220は、表示制御部221と、コマンド制御部222と、入力検知部223と、遮蔽判定部224とを備えている。表示制御部221は、表示画面210への表示を制御する。表示制御部221は、例えばクライアント装置200から受信した画像やメッセージを表示画面210に表示する。メッセージとしては、例えば、クライアント装置200のパン、チルト、ズーム等のステータス情報や、イベント発生状態等が挙げられる。
コマンド制御部222は、撮像装置100から受信したコマンドや、撮像装置100に送信するコマンドを処理する。コマンド制御部222は、例えば撮像装置100から受信したコマンドを処理し、画像表示に関するデータである場合には、コマンドを、表示制御部221に渡す。また、コマンド制御部222は、表示画面210に入力された操作に応じて受け付けた指示を、特定のコマンド形式に変換する。変換後のコマンドは、通信制御部230から撮像装置100に送信される。
入力検知部223は、入力手段のタッチパネルへの接触、すなわち入力イベントを検知する。
入力検知部223は、入力手段のタッチパネルへの接触、すなわち入力イベントを検知する。
遮蔽判定部224は、入力イベントが検出された場合に、表示画面210に表示中の画像が入力手段により覆われているか否かを判定する。図3は、遮蔽判定部224による遮蔽判定処理を説明するための図である。
図3(a)に示すように、ユーザが入力手段30としての指を画像領域302内に接触させた、すなわち入力手段30が画像領域302内の位置(点A)をタッチしたとする。この場合、画像領域302に表示される画像のうち一部の領域311に表示される画像は入力手段30により覆われた状態となる。この場合、ユーザは、一部の領域311に表示されている画像を見ることができない。このように、入力手段30により、表示中の画像の一部が覆われた場合に、遮蔽判定部224は、表示中の画像が入力手段により覆われていると判定する。
また、ユーザが入力手段30を表示画面210上の画像領域302の外側の位置(点B)に接触させた場合以外においても、表示中の画像が入力手段により遮蔽される場合がある。例えば、図3(b)に示すように、入力手段30が表示画面210のうち画像領域302の上方に配置されたアイコン320をタッチしたとする。この場合も、画像領域302のうち一部の領域312に示される画像は入力手段30により覆われた状態となる。
図3(a)に示すように、ユーザが入力手段30としての指を画像領域302内に接触させた、すなわち入力手段30が画像領域302内の位置(点A)をタッチしたとする。この場合、画像領域302に表示される画像のうち一部の領域311に表示される画像は入力手段30により覆われた状態となる。この場合、ユーザは、一部の領域311に表示されている画像を見ることができない。このように、入力手段30により、表示中の画像の一部が覆われた場合に、遮蔽判定部224は、表示中の画像が入力手段により覆われていると判定する。
また、ユーザが入力手段30を表示画面210上の画像領域302の外側の位置(点B)に接触させた場合以外においても、表示中の画像が入力手段により遮蔽される場合がある。例えば、図3(b)に示すように、入力手段30が表示画面210のうち画像領域302の上方に配置されたアイコン320をタッチしたとする。この場合も、画像領域302のうち一部の領域312に示される画像は入力手段30により覆われた状態となる。
遮蔽判定部224は、遮蔽判定を行う際に、入力手段30の接触位置、すなわちタッチ位置と、記憶部240に予め記憶されている遮蔽物情報を参照して、遮蔽判定処理を行う。なお、遮蔽物情報とは、タッチ入力がなされた入力位置の座標に基づいて、遮蔽領域を特定するための情報である。
ここで、入力位置とは、表示画面210において、タッチ入力が行われた位置を示す座標値である。遮蔽領域とは、入力手段により覆われる領域である。
図3(a)に示す例においては、点Aが入力位置であり、領域313が遮蔽領域である。遮蔽物情報は、タッチ位置と、タッチ位置を基準とした、遮蔽領域のサイズ及び形状を示す情報である。なお、遮蔽判定部224による具体的な処理については後述する。
ここで、入力位置とは、表示画面210において、タッチ入力が行われた位置を示す座標値である。遮蔽領域とは、入力手段により覆われる領域である。
図3(a)に示す例においては、点Aが入力位置であり、領域313が遮蔽領域である。遮蔽物情報は、タッチ位置と、タッチ位置を基準とした、遮蔽領域のサイズ及び形状を示す情報である。なお、遮蔽判定部224による具体的な処理については後述する。
本実施形態にかかるクライアント装置200においては、ユーザ操作により、遮蔽物情報を登録することができる。図4は、遮蔽物登録処理において、表示画面210に表示される登録画面例を示す図である。登録画面400には、ユーザが利用する入力手段の候補一覧401が表示される。
候補一覧401には、形状等の異なる入力手段の画像が候補画像402として複数表示されている。各候補画像402には、入力手段の画像上に、表示画面210におけるタッチ位置となる基点403が明示されている。
候補一覧401には、形状等の異なる入力手段の画像が候補画像402として複数表示されている。各候補画像402には、入力手段の画像上に、表示画面210におけるタッチ位置となる基点403が明示されている。
ユーザにより一の候補画像402が選択されると、クライアント装置200は、選択された候補画像402を登録画面400の中央領域410に拡大表示する。図4においては、一番下の候補画像402が選択された状態を示している。
ユーザは、さらに、選択した候補画像のサイズや、候補画像に示される入力手段の向きを、実際の表示画面210に投影される入力手段の領域、すなわち遮蔽領域に近付けるべく調整することができる。以上により、ユーザは、表示画面210に対して実際に用いられる入力手段の、基点を基準とした形状、向き、サイズを指定することができる。
一方、クライアント装置200は、ユーザにより入力された入力手段の基点を基準とした形状、向き及びサイズの情報を受け付け、これを遮蔽物情報として記憶部240に登録する(登録処理)。
このように、記憶部240に登録されている遮蔽物情報は、実際に利用される表示画面210と入力手段との関係に応じて定められた情報である。また、遮蔽物情報は、基点を基準とする相対的な位置等を示す情報である。
ユーザは、さらに、選択した候補画像のサイズや、候補画像に示される入力手段の向きを、実際の表示画面210に投影される入力手段の領域、すなわち遮蔽領域に近付けるべく調整することができる。以上により、ユーザは、表示画面210に対して実際に用いられる入力手段の、基点を基準とした形状、向き、サイズを指定することができる。
一方、クライアント装置200は、ユーザにより入力された入力手段の基点を基準とした形状、向き及びサイズの情報を受け付け、これを遮蔽物情報として記憶部240に登録する(登録処理)。
このように、記憶部240に登録されている遮蔽物情報は、実際に利用される表示画面210と入力手段との関係に応じて定められた情報である。また、遮蔽物情報は、基点を基準とする相対的な位置等を示す情報である。
なお、本実施形態においては、図4に示すように、クライアント装置200は、複数の候補画像からユーザ操作に従い一の候補画像を選択し、ユーザ操作に従い微調整を行うものとするが、これに限定されるものではない。
他の例としては、クライアント装置200は、ユーザ操作に応じて描画された遮蔽領域の画像を受け付けてもよい。この場合には、クライアント装置200は、描画された画像又は描画された画像から特定される基点、形状、向き及びサイズを示す遮蔽物情報を記憶部240に登録してもよい。
他の例としては、クライアント装置200は、ユーザ操作に応じて描画された遮蔽領域の画像を受け付けてもよい。この場合には、クライアント装置200は、描画された画像又は描画された画像から特定される基点、形状、向き及びサイズを示す遮蔽物情報を記憶部240に登録してもよい。
図5は、クライアント装置200による画像処理を示すフローチャートである。図2に示す表示画面210において、撮像装置100から受信した画像を画像領域302に表示しているときに、入力手段によるタッチ入力が行われる場合がある。この場合に、画像処理において、クライアント装置200は、遮蔽された画像を記録する。
すなわち、まず、S500において、クライアント装置200のCPU220は、通信制御部230を介して撮像装置100から画像を受信する(受信処理)。次に、S501において、CPU220は、受信した画像を表示画面210に表示する(画像表示処理)。
すなわち、まず、S500において、クライアント装置200のCPU220は、通信制御部230を介して撮像装置100から画像を受信する(受信処理)。次に、S501において、CPU220は、受信した画像を表示画面210に表示する(画像表示処理)。
そして、S502において、CPU220は、タッチイベントの発生を待つ。そして、タッチイベントが発生すると、CPU220は、タッチイベントを受け付け(S502でYES)、処理をS503へ進める。S503において、CPU220は、入力手段がタッチされた表示画面210上の入力位置の座標、すなわちタッチ座標を特定する。
次に、S504において、CPU220は、記憶部240から遮蔽物情報を読み出す。そして、CPU220は、表示画面210におけるタッチ座標と遮蔽物情報に示される基点とを一致させ、遮蔽物情報により定まる表示画面210における遮蔽領域を特定する。すなわち、CPU220は、表示領域の表示画面210における遮蔽領域を構成するピクセル群の各座標を特定する。
次に、S504において、CPU220は、記憶部240から遮蔽物情報を読み出す。そして、CPU220は、表示画面210におけるタッチ座標と遮蔽物情報に示される基点とを一致させ、遮蔽物情報により定まる表示画面210における遮蔽領域を特定する。すなわち、CPU220は、表示領域の表示画面210における遮蔽領域を構成するピクセル群の各座標を特定する。
次に、S505において、CPU220は、表示画面210の画像領域302に表示されている画像が、入力手段によって覆われているか否かを判定する(遮蔽判定処理)。具体的には、CPU220は、遮蔽領域を構成するピクセルが、画像領域302の領域内に含まれるか否かを判定する。そして、CPU220は、遮蔽領域を構成するピクセルが画像領域302の領域内に含まれる場合に、表示中の画像が入力手段によって覆われていると判定する。一方、CPU220は、遮蔽領域を構成するピクセルが画像領域302内に含まれていない場合には、表示中の画像が入力手段によって覆われていないと判定する。
S505において、表示中の画像が入力手段によって覆われていると判定された場合には(S505でYES)、CPU220は、処理をS506へ進める。S506において、CPU220は、表示中の画像を記憶部240に記録する(画像管理処理)。そして、CPU220は、再び処理をS502へ進める。
S505において、表示中の画像が入力手段によって覆われていると判定されない場合には(S505でNO)、CPU220は、処理をS502に進める。すなわち、この場合には、CPU220は、表示中の画像を記録することなく、次のタッチイベントを待つ。
S505において、表示中の画像が入力手段によって覆われていると判定された場合には(S505でYES)、CPU220は、処理をS506へ進める。S506において、CPU220は、表示中の画像を記憶部240に記録する(画像管理処理)。そして、CPU220は、再び処理をS502へ進める。
S505において、表示中の画像が入力手段によって覆われていると判定されない場合には(S505でNO)、CPU220は、処理をS502に進める。すなわち、この場合には、CPU220は、表示中の画像を記録することなく、次のタッチイベントを待つ。
図6は、S503〜S505の処理を説明するための図である。図6に示すように入力手段30が表示画面210の点Cに接触したとする。この場合、CPU220は、タッチ位置(点C)のタッチ座標を特定する(S503)。次に、CPU220は、タッチ位置を基準とし、遮蔽物情報に基づいて、遮蔽領域331を特定する。図6に示す例においては、遮蔽領域331の一部の領域311が画像領域302と重なっている。このため、CPU220は、画像が入力手段により覆われていると判定する。
このように、本実施形態にかかるクライアント装置200は、入力手段のタッチ座標に基づいて、表示画面210に表示中の画像が入力手段により覆われているか否かを判定することができる。さらに、クライアント装置200は、表示中の画像が入力手段により覆われていると判定した場合には、表示中の画像を記憶部240等に記録することができる。これにより、ユーザは、入力手段に覆われたため、閲覧することのできなかった画像を、記憶部240から読み出して、表示画面210に表示させる等して、後から再度確認することができる。
第1の実施形態の表示システムの第1の変更例について説明する。第1の変更例としては、クライアント装置200のCPU220は、S503においてタッチ位置を特定した後、タッチ位置が画像領域302内に含まれるか否かを判定してもよい。そして、CPU220は、タッチ位置が画像領域302内に含まれる場合には、遮蔽領域を特定する処理を行うことなく、表示中の画像が入力手段に覆われていると判定してもよい。
第2の変更例としては、CPU220は、S506において、表示中の画像を自身の記憶部240に記録するのに替えて、通信制御部230を介してネットワークサーバ装置20に送信し、ネットワークサーバ装置20に画像を記録することとしてもよい。
また、第3の変更例としては、CPU220は、記録対象となる画像が動画である場合には、タイマー250を用いて、タッチイベント発生から予め定められた一定時間の間、動画を記憶部240に記録することとしてもよい。ここで、タッチイベント発生のタイミングは、第1の判定タイミングの一例である。
第2の変更例としては、CPU220は、S506において、表示中の画像を自身の記憶部240に記録するのに替えて、通信制御部230を介してネットワークサーバ装置20に送信し、ネットワークサーバ装置20に画像を記録することとしてもよい。
また、第3の変更例としては、CPU220は、記録対象となる画像が動画である場合には、タイマー250を用いて、タッチイベント発生から予め定められた一定時間の間、動画を記憶部240に記録することとしてもよい。ここで、タッチイベント発生のタイミングは、第1の判定タイミングの一例である。
(第2の実施形態)
次に、第2の実施形態にかかる表示システムについて説明する。第2の実施形態にかかる表示システムにおいては、クライアント装置200は、表示中の画像が覆われた場合において、さらにクライアント装置200において、イベントが検出された場合にのみ、画像を記録する。
図7は、第2の実施形態にかかるクライアント装置200による、画像処理を示すフローチャートである。ここでは、第1の実施形態にかかる画像処理と異なる処理について説明する。なお、第1の実施形態にかかる画像処理における各処理と同じ処理には、同一番号を付している。
次に、第2の実施形態にかかる表示システムについて説明する。第2の実施形態にかかる表示システムにおいては、クライアント装置200は、表示中の画像が覆われた場合において、さらにクライアント装置200において、イベントが検出された場合にのみ、画像を記録する。
図7は、第2の実施形態にかかるクライアント装置200による、画像処理を示すフローチャートである。ここでは、第1の実施形態にかかる画像処理と異なる処理について説明する。なお、第1の実施形態にかかる画像処理における各処理と同じ処理には、同一番号を付している。
S502において、タッチイベントを受け付けると、CPU220は、通信制御部230を介し、撮像装置100に対し、イベントの発生の有無の問い合わせを送信する。そして、CPU220は、イベントが発生したことを示すイベント情報を受信すると(S510でYES)、処理をS503へ進める。一方、イベント情報を受信しない場合、又はイベントが発生していないことを示す情報を受信した場合には(S510でNO)、CPU220は、処理をS502へ進め、次のイベント発生を待つ。すなわち、CPU220は、タッチイベント発生時であっても、撮像装置100においてイベントが発生していない場合には、画像を記録する処理を行わない。
なお、他の例としては、撮像装置100は、イベントが発生した場合に、クライアント装置200にイベント情報を送信することとしてもよい。この場合には、クライアント装置200は、イベントが発生する度にイベント情報を受信する。そして、S510において、判定タイミングから一定時間前までの期間にイベント情報を受信している場合に、CPU220は、イベント情報を受信したと判定する。
なお、他の例としては、撮像装置100は、イベントが発生した場合に、クライアント装置200にイベント情報を送信することとしてもよい。この場合には、クライアント装置200は、イベントが発生する度にイベント情報を受信する。そして、S510において、判定タイミングから一定時間前までの期間にイベント情報を受信している場合に、CPU220は、イベント情報を受信したと判定する。
また、S506において、表示中の画像を記憶部240に記録した後、記録した画像を表示画面210において、ウィンドウ領域301と重ならない領域に表示する。図8は、記録した画像の表示例を示す図である。このように、画像が記録された場合には、CPU220は、表示画面210に記録された画像を表示する記録画像ウィンドウ501を表示する。さらに、CPU220は、記録画像ウィンドウ501に表示される画像においては、遮蔽領域502を他の領域と異なる表示態様で表示してもよい。これにより、クライアント装置200は、ユーザが閲覧できなかった領域をユーザに明示することができる。
なお、第2の実施形態にかかる表示システムのこれ以外の構成及び処理は、第1の実施形態にかかる表示システムの構成及び処理と同様である。
なお、第2の実施形態にかかる表示システムのこれ以外の構成及び処理は、第1の実施形態にかかる表示システムの構成及び処理と同様である。
以上のように、第2の実施形態にかかる表示システムにおいては、クライアント装置200は、表示中の画像が入力手段により覆われた場合において、イベント情報を受信した場合にのみ、表示中の画像を記録する。これにより、有用な画像のみを記憶部240に記録することができる。
(第3の実施形態)
次に、第3の実施形態について説明する。第3の実施形態にかかる表示システムにおいて、クライアント装置200は、撮像装置100から動画を受信し、受信した動画を画像領域302に表示する。さらに、第3の実施形態においては、クライアント装置200は、動画を記録する際に、動画の記録時間の調整を行う。
図9は、第3の実施形態にかかるクライアント装置200による画像処理を示すフローチャートである。ここでは、第1の実施形態にかかる画像処理と異なる処理について説明する。なお、第1の実施形態にかかる画像処理における各処理と同じ処理には、同一番号を付している。
次に、第3の実施形態について説明する。第3の実施形態にかかる表示システムにおいて、クライアント装置200は、撮像装置100から動画を受信し、受信した動画を画像領域302に表示する。さらに、第3の実施形態においては、クライアント装置200は、動画を記録する際に、動画の記録時間の調整を行う。
図9は、第3の実施形態にかかるクライアント装置200による画像処理を示すフローチャートである。ここでは、第1の実施形態にかかる画像処理と異なる処理について説明する。なお、第1の実施形態にかかる画像処理における各処理と同じ処理には、同一番号を付している。
S505において、画像が入力手段により覆われていると判定された場合(S505でYES)、CPU220は、処理をS520に進める。S520において、CPU220は、既に動画の記録が行われているか否かを判定する。動画記録の実行中でない場合には(S520でNO)、CPU220は、処理をS521に進める。
S521において、CPU220は、予め設定された一定時間(基準時間)を記録時間としてタイマー250にセットし、タイマー250によるカウントダウンの開始を指示する。そして、S522において、CPU220は、表示中の動画を記憶部240に記録する。
このように、画像が入力手段により覆われていると判定された場合、CPU220は、判定タイミング(第1の判定タイミング)から基準時間の間を記録時間とし、記録時間の間、表示中の動画を記憶部240に記録する。なお、CPU220は、記録時間が経過した時点で、動画の記録を終了することとする。
S521において、CPU220は、予め設定された一定時間(基準時間)を記録時間としてタイマー250にセットし、タイマー250によるカウントダウンの開始を指示する。そして、S522において、CPU220は、表示中の動画を記憶部240に記録する。
このように、画像が入力手段により覆われていると判定された場合、CPU220は、判定タイミング(第1の判定タイミング)から基準時間の間を記録時間とし、記録時間の間、表示中の動画を記憶部240に記録する。なお、CPU220は、記録時間が経過した時点で、動画の記録を終了することとする。
一方、S520において、動画記録の実行中(画像の記録中)である場合には(S520でYES)、CPU220は、処理をS523へ進める。S523において、CPU220は、タイマー250によるカウント後の残りの記録時間に対し、基準時間を加算するし、処理をS502へ進める。すなわち、CPU220は、記録時間を、直前に実行したS520の判定タイミング(第2の判定タイミング)から基準時間時間が経過するまでの時間に延長する。
なお、第3の実施形態にかかる表示システムのこれ以外の構成及び処理は、他の実施形態にかかる表示システムの構成及び処理と同様である。
以上のように、第3の実施形態にかかる表示システムにおいては、記憶部240に記録される動画ファイルを適宜1つにまとめることができるので、ファイル管理を容易にすることができる。
なお、第3の実施形態にかかる表示システムのこれ以外の構成及び処理は、他の実施形態にかかる表示システムの構成及び処理と同様である。
以上のように、第3の実施形態にかかる表示システムにおいては、記憶部240に記録される動画ファイルを適宜1つにまとめることができるので、ファイル管理を容易にすることができる。
なお、基準時間は、ユーザ等が任意に設定及び変更可能とする。なお、基準時間を短くした場合には、容量の小さな動画ファイルが多数生成され得る一方で、基準時間を長くした場合には、動画ファイル数を少なくすることができる。基準時間は、ユーザの利用形態等に応じて自由に設定することができる。
(第4の実施形態)
次に、第4の実施形態にかかる表示システムについて説明する。第4の実施形態にかかる表示システムにおいては、クライアント装置200は、入力手段が表示中の画像を覆う状態、すなわち遮蔽の状態が頻発する場合に、遮蔽状態が頻発することをユーザに通知するための警告を表示する。
遮蔽状態が頻発する場合、ウィンドウ領域301とアイコン等他の表示物のレイアウトが適切でないことが想定される。例えば、図3(b)に示すように、頻繁にタッチする位置の直下にウィンドウ領域301が配置されているような場合には、ウィンドウ領域301を右にずらすなど、レイアウトを変更するのが望ましい。本実施形態にかかるクライアント装置200は、このようなレイアウト変更を促すべく、警告を表示する。
次に、第4の実施形態にかかる表示システムについて説明する。第4の実施形態にかかる表示システムにおいては、クライアント装置200は、入力手段が表示中の画像を覆う状態、すなわち遮蔽の状態が頻発する場合に、遮蔽状態が頻発することをユーザに通知するための警告を表示する。
遮蔽状態が頻発する場合、ウィンドウ領域301とアイコン等他の表示物のレイアウトが適切でないことが想定される。例えば、図3(b)に示すように、頻繁にタッチする位置の直下にウィンドウ領域301が配置されているような場合には、ウィンドウ領域301を右にずらすなど、レイアウトを変更するのが望ましい。本実施形態にかかるクライアント装置200は、このようなレイアウト変更を促すべく、警告を表示する。
以下、警告を表示する処理について説明する。図10は、第4の実施形態にかかるクライアント装置200による画像処理を示すフローチャートである。ここでは、第1の実施形態にかかる画像処理と異なる処理について説明する。なお、第1の実施形態にかかる画像処理における各処理と同じ処理には、同一番号を付している。
S501において、画像を表示した後、CPU220は、処理をS530へ進める。S530において、CPU220は、タイマー250に判定時間をセットし、カウントダウンを開始させる。ここで、判定時間は予め設定された時間であり、記憶部240に格納されているものとする。そして、CPU220は、処理をS502へ進める。
S501において、画像を表示した後、CPU220は、処理をS530へ進める。S530において、CPU220は、タイマー250に判定時間をセットし、カウントダウンを開始させる。ここで、判定時間は予め設定された時間であり、記憶部240に格納されているものとする。そして、CPU220は、処理をS502へ進める。
また、S506において、表示中の画像を記憶部240に記録した後、CPU220は、処理をS531に進める。S531において、CPU220は、画像が入力手段により覆われていると判定された判定回数、すなわち遮蔽の状態が発生した回数をカウントするカウンターの値に1を加算する。
次に、S532において、CPU220は、カウンターの値、すなわちカウント数と回数閾値とを比較する。ここで、回数閾値は、例えば記憶部240等に予め設定されているものとする。カウント数が回数閾値よりも大きい場合には(S532でYES)、CPU220は、処理をS533へ進める。S533において、CPU220は、表示画面210に警告を表示する(警告表示処理)。
次に、S534において、CPU220は、カウンターの値をクリアする。次に、S535において、CPU220は、判定時間をリセットし、処理をS530へ進め、再度タイマー250に判定時間をセットする。
次に、S532において、CPU220は、カウンターの値、すなわちカウント数と回数閾値とを比較する。ここで、回数閾値は、例えば記憶部240等に予め設定されているものとする。カウント数が回数閾値よりも大きい場合には(S532でYES)、CPU220は、処理をS533へ進める。S533において、CPU220は、表示画面210に警告を表示する(警告表示処理)。
次に、S534において、CPU220は、カウンターの値をクリアする。次に、S535において、CPU220は、判定時間をリセットし、処理をS530へ進め、再度タイマー250に判定時間をセットする。
S532において、カウント数が回数閾値以下である場合には(S532でNO)、CPU220は、処理をS502へ進め、タッチイベントの発生を待つ。
また、S505において、画像が入力手段により覆われていると判定されない場合には(S505でNO)、CPU220は、処理をS536へ進める。S536において、CPU220は、判定時間が経過したか否かを確認する。判定時間が経過した場合には(S536でYES)、CPU220は、処理をS537へ進める。S537において、CPU220は、カウンターの値をクリアし、処理をS530へ進める。
S536において、判定時間が経過していない場合には(S536でNO)、CPU220は、処理をS502へ進める。
また、S505において、画像が入力手段により覆われていると判定されない場合には(S505でNO)、CPU220は、処理をS536へ進める。S536において、CPU220は、判定時間が経過したか否かを確認する。判定時間が経過した場合には(S536でYES)、CPU220は、処理をS537へ進める。S537において、CPU220は、カウンターの値をクリアし、処理をS530へ進める。
S536において、判定時間が経過していない場合には(S536でNO)、CPU220は、処理をS502へ進める。
図11は、警告の表示例を示す図である。図11に示す例においては、警告ダイアログ601には、遮蔽の状態が頻繁に発生している旨や、レイアウト変更のアドバイス等のメッセージが表示される。なお、警告内容は、任意であり、実施形態に限定されるものではない。
なお、第4の実施形態にかかる表示システムのこれ以外の構成及び処理は、他の実施形態にかかる表示システムの構成及び処理と同様である。
第4の実施形態にかかる表示システムにおいては、クライアント装置200は、遮蔽の状態が頻発する場合に、ユーザに警告を通知することができる。さらに、クライアント装置200は、表示画面210におけるレイアウト変更を促すことができる。
なお、第4の実施形態にかかる表示システムのこれ以外の構成及び処理は、他の実施形態にかかる表示システムの構成及び処理と同様である。
第4の実施形態にかかる表示システムにおいては、クライアント装置200は、遮蔽の状態が頻発する場合に、ユーザに警告を通知することができる。さらに、クライアント装置200は、表示画面210におけるレイアウト変更を促すことができる。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
以上、上述した各実施形態によれば、タッチスクリーンとしての表示画面への入力が行われた場合であっても、ユーザが、入力操作により遮蔽された画像を閲覧することができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
100 撮像装置、110 撮像部、120 CPU、130 通信制御部、140 音声入力部、150 接点入力部、160 記憶部、200 クライアント装置、210 表示画面、220 CPU、230 通信制御部、240 記憶部、250 タイマー
Claims (11)
- 画像を受信する受信手段と、
前記画像を表示画面に表示する画像表示手段と、
ユーザが入力手段を前記表示画面に接触させて指示を入力した場合に、前記入力手段の前記表示画面における入力位置に基づいて、前記入力手段により前記表示画面に表示中の前記画像が覆われているか否かを判定する遮蔽判定手段と、
前記表示画面に表示中の前記画像が覆われていると判定された場合に、判定時に前記表示画面に表示された前記画像を第1の記憶手段に記録する画像管理手段と
を備える、画像処理装置。 - 前記入力位置を基準とした、前記入力手段の形状及びサイズのうち少なくとも一方を示す遮蔽物情報を記憶する第2の記憶手段をさらに備え、
前記遮蔽判定手段は、前記遮蔽物情報と、前記入力位置とに基づいて、前記表示画面に表示中の前記画像が覆われているか否かを判定する、請求項1に記載の画像処理装置。 - ユーザからの指示入力に基づいて、前記遮蔽物情報を前記第2の記憶手段に登録する登録手段をさらに備える、請求項2に記載の画像処理装置。
- 前記受信手段は、撮像装置から前記画像を受信し、さらに前記撮像装置においてイベントが発生した場合に、前記撮像装置からイベント情報を受信し、
前記画像管理手段は、前記表示画面に表示中の前記画像が覆われていると判定され、かつ前記受信手段が前記イベント情報を受信した場合に、前記画像を前記第1の記憶手段に記録する、請求項1乃至3何れか1項に記載の画像処理装置。 - 前記画像管理手段は、前記遮蔽判定手段による第1の判定タイミングから一定時間の間に前記表示画面に表示された前記画像を前記第1の記憶手段に記録する、請求項1乃至4何れか1項に記載の画像処理装置。
- 前記画像管理手段は、前記画像の記録中に、再度、前記表示画面に表示中の前記画像が覆われていると判定された場合に、前記画像の記録時間を、前記画像の記録中における前記判定手段の第2の判定タイミングから前記一定時間が経過するまでの間に延長することを特徴とする請求項5に記載の画像処理装置。
- 前記画像表示手段は、前記画像管理手段により前記画像が記録された場合に、記録された前記画像を、前記表示画面において、前記受信手段が受信した前記画像の表示領域と異なる領域に表示することを特徴とする請求項1乃至6何れか1項に記載の画像処理装置。
- 前記遮蔽判定手段により前記表示画面が覆われていると判定された判定回数と、回数閾値とを比較し、判定回数が回数閾値よりも大きい場合に、前記表示画面に警告を表示する警告表示手段をさらに備える、請求項1乃至7何れか1項に記載の画像処理装置。
- 前記警告表示手段は、判定時間の間に前記遮蔽判定手段により前記表示画面が覆われていると判定された前記判定回数と、前記回数閾値とを比較する、請求項8に記載の画像処理装置。
- 画像処理装置が実行する画像処理方法であって、
画像を受信する受信ステップと、
前記画像を表示画面に表示する画像表示ステップと、
ユーザが入力手段を前記表示画面に接触させて指示を入力した場合に、前記入力手段の前記表示画面における入力位置に基づいて、前記入力手段により前記表示画面に表示中の前記画像が覆われているか否かを判定する遮蔽判定ステップと、
前記表示画面に表示中の前記画像が覆われていると判定された場合に、判定時に前記表示画面に表示された前記画像を第1の記憶手段に記録する画像管理ステップと
を含む、画像処理方法。 - コンピュータを、
画像を受信する受信手段と、
前記画像を表示画面に表示する画像表示手段と、
ユーザが入力手段を前記表示画面に接触させて指示を入力した場合に、前記入力手段の前記表示画面における入力位置に基づいて、前記入力手段により前記表示画面に表示中の前記画像が覆われているか否かを判定する遮蔽判定手段と、
前記表示画面に表示中の前記画像が覆われていると判定された場合に、判定時に前記表示画面に表示された前記画像を第1の記憶手段に記録する画像管理手段と
して機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013132012A JP2015007832A (ja) | 2013-06-24 | 2013-06-24 | 画像処理装置、画像処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013132012A JP2015007832A (ja) | 2013-06-24 | 2013-06-24 | 画像処理装置、画像処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015007832A true JP2015007832A (ja) | 2015-01-15 |
Family
ID=52338086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013132012A Pending JP2015007832A (ja) | 2013-06-24 | 2013-06-24 | 画像処理装置、画像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015007832A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5917753B1 (ja) * | 2015-07-27 | 2016-05-18 | ヤフー株式会社 | 情報処理装置、情報処理方法、情報処理プログラムおよび配信装置 |
JP2017027577A (ja) * | 2016-04-06 | 2017-02-02 | ヤフー株式会社 | 情報処理装置、情報処理方法、情報処理プログラムおよび配信装置 |
JP2017058851A (ja) * | 2015-09-15 | 2017-03-23 | Line株式会社 | 通知制御方法、ユーザ端末装置及び通知制御プログラム |
JP2018124847A (ja) * | 2017-02-02 | 2018-08-09 | コニカミノルタ株式会社 | 画像処理装置、条件表示方法、およびコンピュータプログラム |
CN110162248A (zh) * | 2019-04-22 | 2019-08-23 | 西安万像电子科技有限公司 | 显示处理方法、装置及系统 |
JP2021170184A (ja) * | 2020-04-14 | 2021-10-28 | 株式会社東芝 | 端末装置、表示方法、及びプログラム |
-
2013
- 2013-06-24 JP JP2013132012A patent/JP2015007832A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5917753B1 (ja) * | 2015-07-27 | 2016-05-18 | ヤフー株式会社 | 情報処理装置、情報処理方法、情報処理プログラムおよび配信装置 |
US10366407B2 (en) | 2015-07-27 | 2019-07-30 | Yahoo Japan Corporation | Information processing device, information processing method, non-transitory computer readable storage medium, and distribution device |
JP2017058851A (ja) * | 2015-09-15 | 2017-03-23 | Line株式会社 | 通知制御方法、ユーザ端末装置及び通知制御プログラム |
JP2017027577A (ja) * | 2016-04-06 | 2017-02-02 | ヤフー株式会社 | 情報処理装置、情報処理方法、情報処理プログラムおよび配信装置 |
JP2018124847A (ja) * | 2017-02-02 | 2018-08-09 | コニカミノルタ株式会社 | 画像処理装置、条件表示方法、およびコンピュータプログラム |
CN110162248A (zh) * | 2019-04-22 | 2019-08-23 | 西安万像电子科技有限公司 | 显示处理方法、装置及系统 |
JP2021170184A (ja) * | 2020-04-14 | 2021-10-28 | 株式会社東芝 | 端末装置、表示方法、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9207902B2 (en) | Method and apparatus for implementing multi-vision system by using multiple portable terminals | |
US9405463B2 (en) | Device and method for gesturally changing object attributes | |
JP5495813B2 (ja) | 表示制御装置、表示制御方法、及びプログラム、並びに記憶媒体 | |
JP6103807B2 (ja) | 表示制御装置、その制御方法及びプログラム | |
JP2015007832A (ja) | 画像処理装置、画像処理方法及びプログラム | |
KR20140124278A (ko) | 디스플레이 영역을 조절하기 위한 방법 및 그 방법을 처리하는 전자 장치 | |
US20130212523A1 (en) | Information processing apparatus, control method of information processing apparatus, and storage medium | |
US20110157048A1 (en) | Input apparatus that accurately determines input operation, control method for input apparatus, and storage medium | |
US8542199B2 (en) | Image processing apparatus, image processing method, and program | |
US9509733B2 (en) | Program, communication apparatus and control method | |
US9176683B2 (en) | Image information processing method, image information processing apparatus and computer-readable recording medium storing image information processing program | |
JP2016511471A (ja) | 携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する方法及び携帯端末 | |
US20170139554A1 (en) | Electronic apparatus and display control method | |
KR20150134674A (ko) | 사용자 단말 및 이의 제어 방법, 그리고 멀티미디어 시스템 | |
US20160334975A1 (en) | Information processing device, non-transitory computer-readable recording medium storing an information processing program, and information processing method | |
JP5654634B2 (ja) | 壁紙画像の設置方法とデジタルメディアコントローラ | |
CN113721808B (zh) | 一种控制方法及装置 | |
US20150106761A1 (en) | Information processing apparatus, method for controlling the information processing apparatus, and storage medium | |
JP2015035092A (ja) | 表示制御装置及び表示制御装置の制御方法 | |
JP2017016314A (ja) | 表示システム、情報処理装置、情報端末、及びプログラム | |
JP2014059817A (ja) | 画像処理装置、操作標準化方法および操作標準化プログラム | |
TWI610220B (zh) | 自動控制顯示螢幕密度的設備及方法 | |
JP2013161247A (ja) | 操作装置、表示装置、遠隔操作システム、操作装置の制御方法、制御プログラム、および、記録媒体 | |
EP2584562A1 (en) | Real-time image editing method and electronic device | |
JP5620895B2 (ja) | 表示制御装置、方法及びプログラム |