JP2016100841A - 通信装置、撮像装置、通信装置の制御方法、及びプログラム - Google Patents
通信装置、撮像装置、通信装置の制御方法、及びプログラム Download PDFInfo
- Publication number
- JP2016100841A JP2016100841A JP2014238147A JP2014238147A JP2016100841A JP 2016100841 A JP2016100841 A JP 2016100841A JP 2014238147 A JP2014238147 A JP 2014238147A JP 2014238147 A JP2014238147 A JP 2014238147A JP 2016100841 A JP2016100841 A JP 2016100841A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- external device
- unit
- terminal device
- transmission
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Telephone Function (AREA)
Abstract
【課題】端末機器(外部装置)が表示する画像データを送信するサーバ機器(通信装置)における電力の浪費を抑制する。【解決手段】外部装置に対する送信用画像データを生成する生成手段と、前記送信用画像データを前記外部装置へ送信する送信手段と、前記外部装置が、前記送信手段から受信した前記送信用画像データを表示する所定の状態であるか否かを判定する判定手段と、前記外部装置が前記所定の状態でないと判定された場合に、前記生成手段に対する少なくとも一部の給電を停止する制御手段と、を備えることを特徴とする通信装置を提供する。【選択図】図4
Description
本発明は、通信装置、撮像装置、通信装置の制御方法、及びプログラムに関する。
インターネットを介してサーバ機器からライブストリーミング配信されたコンテンツを、スマートフォンやタブレット端末などの端末機器で閲覧するユースケースが普及してきている。また、昨今では、デジタルビデオカメラ等の撮像装置が上記サーバ機器としての機能を持つことも増えてきている。このような撮像装置は、例えばWi−Fi(登録商標)(Wireless Fidelity)による無線通信によって、上記端末機器との間でライブストリーミングを行うことができる。その際に使用される通信方式は、HTTP(HyperText Transfer Protocol)やRTP(Real−time Transport Protocol)などが一般的である。HTTPはTCP(Transmission Control Protocol)タイプのプロトコルであり、通信において確認応答、順序制御、再送制御などが可能である。ストリーミング方法の1つとして、ストリーミングデータを一定時間に分割したセグメントデータとその情報を記述したプレイリストを利用したストリーミング方法がある。
一方で、サーバ機器と端末機器の通信において、電力消費の低減を目的とした制御の技術が提案されている。特許文献1は、サーバ機器本体が電力消費を抑えるモードを持ち、電力消費を抑えるモードが選択されると、端末機器との通信に関する一部の動作を停止することを開示している。
ライブストリーミング中に、サーバ機器から配信したコンテンツを端末機器が表示せず、ユーザが端末機器においてコンテンツを目視できない状態になる場合がある。そのような状態の例として、端末機器がスリープ状態に遷移した場合や、端末機器においてコンテンツを表示するアプリケーションがバックグラウンド状態に遷移した場合などが挙げられる。このような場合にサーバ機器がライブストリーミングを継続すると、それに伴う電力消費が無駄になるが、従来の技術は、このような問題に対処することができない。
本発明はこのような状況に鑑みてなされたものであり、端末機器(外部装置)が表示する画像データを送信するサーバ機器(通信装置)における電力の浪費を抑制する技術を提供することを目的とする。
上記課題を解決するために、本発明は、外部装置に対する送信用画像データを生成する生成手段と、前記送信用画像データを前記外部装置へ送信する送信手段と、前記外部装置が、前記送信手段から受信した前記送信用画像データを表示する所定の状態であるか否かを判定する判定手段と、前記外部装置が前記所定の状態でないと判定された場合に、前記生成手段に対する少なくとも一部の給電を停止する制御手段と、を備えることを特徴とする通信装置を提供する。
なお、その他の本発明の特徴は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。
本発明によれば、端末機器(外部装置)が表示する画像データを送信するサーバ機器(通信装置)における電力の浪費を抑制することが可能となる。
以下、添付図面を参照して、本発明の実施形態を説明する。なお、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、実施形態の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。
[第1の実施形態]
図1は、第1の実施形態に係るビデオカメラ100の構成を示すブロック図である。ビデオカメラ100は、撮像装置としての機能に加えて、サーバ機器(通信装置)としての機能を有する。ビデオカメラ100は、レンズ101、CMOS(Complementary Metal Oxide Semiconductor)102、カメラ信号処理部103、記録媒体104、電源105、及び操作部106を有する。ビデオカメラ100はまた、入力I/F107、ROM108、RAM1 109、RAM2 110、CODEC1 111、CODEC2 112、出力I/F113、LCDパネル114、及びCPU115を有する。ビデオカメラ100はまた、通信制御部116、無線モジュール117、アンテナ118、及びデータバス119を有し、各構成要素はデータバス119を介してデータの入出力を行う。
図1は、第1の実施形態に係るビデオカメラ100の構成を示すブロック図である。ビデオカメラ100は、撮像装置としての機能に加えて、サーバ機器(通信装置)としての機能を有する。ビデオカメラ100は、レンズ101、CMOS(Complementary Metal Oxide Semiconductor)102、カメラ信号処理部103、記録媒体104、電源105、及び操作部106を有する。ビデオカメラ100はまた、入力I/F107、ROM108、RAM1 109、RAM2 110、CODEC1 111、CODEC2 112、出力I/F113、LCDパネル114、及びCPU115を有する。ビデオカメラ100はまた、通信制御部116、無線モジュール117、アンテナ118、及びデータバス119を有し、各構成要素はデータバス119を介してデータの入出力を行う。
レンズ101は、フォーカス、絞り機構などを含む撮影レンズであり、被写体の光学像を形成する。CMOS102は、撮像素子であり、A/D変換器を含み、光学像をアナログ電気信号に変換した後、デジタル信号に変換する。なお、撮像素子はCMOSに限定される訳ではなく、代わりにCCD(Charge Coupled Device Image Sensor)などであってもよい。
変換されたデジタル信号は、カメラ信号処理部103により、後述するCPU115を介して、所定の画素補間・縮小といったリサイズ処理や色変換、各種補正処理等が行われる。更に、デジタル信号は、後述するCODEC1 111によって所定のビットレート、フォーマット形式での圧縮符号化が行われる。また、CODEC1 111においては、映像圧縮符号化データの復号も行われる。なお、音声については特に図示していないが、レンズ101とCMOS102をマイク、後述するLCDパネル114をスピーカに見立てれば、ほぼ同様の処理により音声信号も扱うことが可能である。映像記録時には映像と共に音声も同時に収録され、CODEC1 111で映像と音声を多重化することで、音声付映像データを生成することが可能である。
記録媒体104は、撮影した映像データ及び音声データや、CPU115の制御に必要な情報などを記録する。電源105は、AC電源やバッテリーであり、ビデオカメラ100の各部に必要な電源の供給を行う。操作部106は、ビデオカメラ100がライブストリーミングを行う際に、端末機器200(図2)からの映像データ及び音声データの要求を受けて、映像データ及び音声データを送信するライブストリーミングモードに、ビデオカメラ100を遷移させる。また、操作部106は、ユーザからの操作を受け付ける。受け付けた操作情報は、入力I/F107を介して、後述するデータバス119に入力される。ROM108は、ビデオカメラ100を起動するプログラムが格納されており、操作部106によって電源105から電気信号が供給されると、プログラムがCPU115によって、RAM1 109に読み出される。RAM1 109は、CPU115のワークエリアとして機能する。また、RAM1 109には、後述する通信制御部116にて受信した端末機器200のステータス情報も格納される。なお、CPU115のワークエリアは、RAM1 109に限られるものではなく、図示しないハードディスク装置等の外部記録装置等であってもよい。RAM2 110は、通信制御部116から送信する映像データ及び音声データを格納する。
CODEC1 111は、RAM1 109や記録媒体104に記録されている映像データ及び音声データを再生する。再生された映像データは後述するLCDパネル114に表示される。また、再生された音声データは図示しないスピーカ部に供給され出力される。CODEC2 112は、記録媒体104に記録されている映像データ及び音声データを復号し、通信制御部116から送信する際のデータ単位に、圧縮符号化する。出力I/F113は、CPU115がプログラムに従い生成したGUI(Graphical User Interface)などの表示データに基づき、LCDパネル114に対して表示させるための表示信号を出力する。また、LCDパネル114は、CODEC1 111にて再生した映像データを出力I/F113を介して受信して表示する。CPU115は、ROM108からRAM1 109にロードされたプログラムを実行する。
通信制御部116は、無線モジュール117を介して、端末機器200からステータス情報を受信する。また、通信制御部116は、無線モジュール117を介して、外部装置である端末機器200への映像データ及び音声データの送信、及び、受信したデータに対するレスポンス信号の送信を行う。アンテナ118は、無線信号を送受信する。アンテナ118で受信された映像データ及び音声データは、無線モジュール117を介して通信制御部116に供給される。映像データ及び音声データは、通信制御部116で復調された後、パケットデータから変換され、CODEC2 112にて復号後、受信される。受信された映像データ及び音声データは、RAM2 110のバッファ領域に保存される。また、受信を完了した際に端末機器200に送信するレスポンス信号は、通信制御部116で、CPU115を介してパケットデータに変換され、搬送波の周波数帯の変調信号として生成されて、アンテナ118から無線信号として端末機器200に送信される。
次に、図2を参照して、端末機器200の構成について説明する。端末機器200は、電源201、操作部202、入力I/F203、ROM204、RAM205、記録媒体206、及びCODEC207を有する。端末機器200はまた、出力I/F208、LCDパネル209、通信制御部210、無線モジュール211、アンテナ212、CPU213、及びデータバス214を有し、各構成要素はデータバス214を介してデータの入出力を行う。
電源201は、AC電源やバッテリーであり、端末機器200の各部に必要な電源の供給を行う。操作部202は、ユーザ操作を受け付ける入力デバイスとして、キーボードといった文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイスなどを有する。なお、タッチパネルは、例えば平面的に構成された入力部に対して接触された位置に応じた座標情報が出力されるようにした入力デバイスである。特に、操作部202は、端末機器200上で動作するアプリケーションの起動に使用される。また、操作部202には、端末機器200に対する電源201からの電源供給の開始と停止を制御するスイッチも含まれる。操作部202で入力されたユーザからの操作は、入力I/F203を介して、データバス214に入力される。
ROM204は、端末機器200を起動するプログラムを格納しており、操作部202によって電源201から電気信号が供給されると、プログラムがCPU213によって、RAM205に読み出される(CPU213及びRAM205は後述する)。RAM205は、CPU213のワークエリアとして機能する。また、RAM205には、後述する通信制御部210を介してビデオカメラ100から受信した映像データ及び音声データも格納される。なお、CPU213のワークエリアは、RAM205に限られるものではなく、図示しないハードディスク装置等の外部記録装置等であってもよい。記録媒体206は、CPU213を制御する情報を保持する。
CODEC207は、RAM205や記録媒体206に記録されている映像データ及び音声データを再生する。再生された映像データは、後述するLCDパネル209に表示される。また、再生された音声データは、図示しないスピーカ部に供給され出力される。CODEC207は、所定のビットレート、フォーマット形式での圧縮符号化、又は、映像圧縮符号化データの復号を行う。出力I/F208は、CPU213がプログラムに従い生成したGUIなどの表示データに基づき、LCDパネル209に対して表示させるための表示信号を出力する。また、LCDパネル209は、CODEC207にて再生した映像データを出力I/F208を介して表示する。
通信制御部210は、無線モジュール211を介して、ビデオカメラ100から映像データ及び音声データを受信し、また、受信したデータに対するレスポンス信号を送信する。アンテナ212は、無線信号を受信する。アンテナ212で受信された映像データ及び音声データは、無線モジュール211を介して通信制御部210に供給される。映像データ及び音声データは、通信制御部210で復調された後、パケットデータに変換され、復号されることで、受信される。受信された映像データ及び音声データは、RAM205のバッファ領域に保存される。また、受信を完了した際にビデオカメラ100に送信するレスポンス信号は、通信制御部210で、CPU213を介してパケットデータに変換され、搬送波の周波数帯の変調信号として生成される。そして、アンテナ212から無線信号としてビデオカメラ100に送信される。CPU213は、ROM204からRAM205にロードされたプログラムを実行する。
次に、図3Aを参照して、ビデオカメラ100と端末機器200との間で行われるライブストリーミングの仕組みについて説明する。図3Aの左側は、ビデオカメラ100と端末機器200との間で行われるプレイリスト及びセグメントデータの送受信を示す。ライブストリーミングを行う場合、事前準備として、ユーザはビデオカメラ100において、操作部106からライブストリーミングモードを指示する。すると、ビデオカメラ100は、CPU115の制御により、通信制御部116を通信可能状態とする。また、ユーザは端末機器200おいて、操作部202を操作して通信接続処理及びライブストリーミングに必要なアプリケーション(以下、ライブストリーミングアプリ)の起動を行う。すると、端末機器200のCPU213は、ROM204又は記録媒体206に格納されたプログラムに従い、通信制御部210を制御し、ビデオカメラ100との通信を開始し、接続処理を行う。ここで、ビデオカメラ100及び端末機器200は、通信プロトコルとしてHTTP(HyperText Transfer Protocol)を使用するものとする。また、ここで、ビデオカメラ100及び端末機器200は、通信接続においてUPnP(Universal Plug and Play)に対応しているものとする。UPnP対応の機器は、ネットワークに接続すると、DHCP(Dynamic Host Configuration Protocol)又はAutoIPによるIP(Internet Protocol)アドレスの設定を行う。IPアドレスを取得した機器は、ネットワーク上の他の機器を相互に認識するために、「デバイスディスカバリーとコントロール」によって、デバイス検索と、応答デバイスの種別やサービス機能などの情報取得を行う。
本実施形態の例では、S300で、端末機器200は、ビデオカメラ100に対して、機器情報、及び機器固有のプレイリスト取得先情報の取得を要求する。S301で、ビデオカメラ100は、S300における端末機器200からの要求に応えて、機器情報、及び機器固有のプレイリスト取得先情報などを送信する。これにより、ビデオカメラ100と端末機器200の接続処理が完了する。その後、ビデオカメラ100は、ライブストリーミングを開始する。ライブストリーミングにおいて、ビデオカメラ100のCPU115は、CMOS102からの信号出力を開始し、その出力(撮像画像データ)をカメラ信号処理部103により適切な映像データに変換し、CODEC1 111へ映像データを渡す。CODEC1 111は、受け取った映像データを所定のビットレート、フォーマット形式で圧縮符号化する。圧縮符号化された映像データ(符号化画像データ)は、更に、CPU115を介してCODEC2 112にて所定の時間長Tsで分割され、セグメントデータ302(送信用画像データ)として、RAM2 110又は記録媒体104に保存される。CPU115は、セグメントデータの保存先と関連させたパス情報を生成する。パス情報は、端末機器200がセグメントデータを取得する際の取得先情報として使用するものである。CPU115は、プレイリスト303を作成し、パス情報と併せてセグメントデータを記録する。
S304で、端末機器200は、ライブストリーミング開始後、約Ts秒後に、S302において取得したプレイリスト取得先に対して、プレイリスト取得要求(HTTP GETメソッド)を行う。S305で、ビデオカメラ100は、S304における要求に対する応答として、セグメントデータ302が1つ記述されたプレイリスト303を送信する。S306で、端末機器200は、受信したプレイリスト303を解析し、セグメントデータ取得先に対して、セグメント取得要求(HTTP GETメソッド)を行う。S307で、ビデオカメラ100は、S306における要求に対する応答として、要求されたセグメントデータ302を送信する。端末機器200は、受信したセグメントデータ302をCODEC207に渡し、復号化した後、CPU213にて、出力I/F208を介してLCDパネル209で再生表示を行う。
ライブストリーミング中、ビデオカメラ100は、約Ts秒毎にセグメントデータ生成及びプレイリスト更新を行う。また、ビデオカメラ100は、取得されたセグメントデータは削除する。端末機器200は、約Ts秒毎にプレイリスト取得要求(S304)を行い、プレイリスト303に記載されたセグメントデータ取得先情報に基づき、セグメントデータ取得要求(S306)を行う。
次に、図3Aの右側を参照して、ビデオカメラ100と端末機器200との間で行われるステータス情報の送受信について説明する。本実施形態では、ビデオカメラ100によるステータス情報取得要求については、HTTP GETメソッドのURIで行うものとする。また、ステータス情報取得要求に対するレスポンスは、JSON(JavaScript(登録商標) Object Notation)データフォーマットであるものとする。
JSONデータフォーマットの具体例は、図5に示すデータフォーマットである。JSONデータは、ステータス情報取得要求を正常に受信できたかどうかを示すタグ”res”、及び、現在のステータス情報取得要求が何番目であるかを示すタグ”seq”を含む。また、JSONデータは、現在の端末機器200のライブストリーミングアプリの状態を示すタグ”ViewState”を含む。図5に示すJSONデータは、2番目のステータス情報取得要求が正常に受信できたことを示すレスポンスであり、端末機器200のライブストリーミングアプリがバックグラウンド状態に遷移した状態であることを示している。
ビデオカメラ100は、ライブストリーミングモードになると、端末機器200に対するステータス情報取得要求を開始する。最初に、S308で、ビデオカメラ100は、端末機器200に対するステータス情報取得要求を行う。端末機器200は、ビデオカメラ100からのステータス情報取得要求をアンテナ212、無線モジュール211、及び通信制御部210を介して受信し、RAM205に格納する。S310で、端末機器200は、CPU213により、JSONデータ309をRAM205に生成する。そして、端末機器200は、S308における要求に対する応答として、通信制御部210、無線モジュール211、及びアンテナ212を介して、JSONデータ309をビデオカメラ100に送信する。ところで、端末機器200は、S308において受信したステータス情報取得要求が初回のものであるかどうかを、CPU213を介して判別する。ステータス情報取得要求が初回のものであった場合、端末機器200は、このステータス情報取得要求を受信した時点での、RAM205及び記録媒体206に保持されたステータス情報を全て用いて、JSONデータ309を生成する。従って、JSONデータ309は、全てのステータス情報を含む。
S311で、ビデオカメラ100は、端末機器200に対する2回目のステータス情報取得要求を行う。端末機器200は、初回でないステータス情報取得要求を検出すると、RAM205及び記録媒体206に保持されたステータス情報のうち、前回ビデオカメラ100に送信した時点から更新された情報のみを用いて、JSONデータ312を生成する。端末機器200は、JSONデータ312を、RAM205に格納する。S313で、端末機器200は、S308における要求に対する応答として、JSONデータ312をビデオカメラ100に送信する。その後、S311及びS313における要求及び応答が繰り返される。
なお、JSONデータの”seq”タグの値は、ビデオカメラ100からのステータス情報取得要求毎に更新してもよいし、端末機器200の状態が更新されたときに更新してもよい。
続いて、図3Bを参照して、端末機器200の状態遷移について説明する。図3Bの上側は、スリープ状態への遷移を示す。画面314には、端末機器200がライブストリーミングにより受信した画像データが表示されている。この状態(通常状態)では、端末機器200のCPU213は、ライブストリーミングアプリを実行することにより、アンテナ212、無線モジュール211、及び通信制御部210を介して、ビデオカメラ100から画像データを受信する(図3Aの左側参照)。端末機器200のCPU213は、受信した画像データをRAM205に格納する。端末機器200のCPU213は、画像データを、CODEC207及び出力I/F208を介してLCDパネル209に表示する。この状態において、ユーザにより端末機器200の操作部202や電源201が操作されることにより、端末機器200はスリープ状態に遷移する。スリープ状態とは、端末機器200がLCDパネル209を非表示にすると共に、スリープ状態から復帰するための所定の操作以外、ユーザ操作も受け付けない状態である。従って、スリープ状態において、ライブストリーミングアプリは、ビデオカメラ100からの画像データの受信、画像データの再生、及び表示を一時的に停止する状態となり、画面315には何も表示されない。但し、ビデオカメラ100と端末機器200との間のステータス情報の送受信は続いている。即ち、図3Aの右側の処理は継続している。
図3Bの右側は、バックグラウンド状態への遷移を示す。本実施形態における端末機器200は、複数のアプリを並行して起動させることができるが、1度にユーザが操作できるのは1つのアプリだけである。どのアプリを操作するかは、ユーザ操作により選択可能である。現在選択中のアプリをフォアグラウンド状態にあるといい、現在選択されていないアプリをバックグラウンド状態にあるという。画面314に示す状態(通常状態)において、ユーザによって端末機器200の操作部202が操作されることで、端末機器200において「Browser」アプリがフォアグラウンド状態に遷移する(画面316参照)。その結果、ライブストリーミングアプリがバックグラウンド状態に遷移する。バックグラウンド状態において、ライブストリーミングアプリは、ビデオカメラ100からの画像データの受信、画像データの再生、及び表示を一時的に停止する。但し、ビデオカメラ100と端末機器200との間のステータス情報の送受信は続いている。即ち、図3Aの右側の処理は継続している。
なお、ライブストリーミングアプリがバックグラウンド状態であるということは、端末機器200がライブストリーミングアプリをバックグラウンドで実行している状態であるということである。従って、以下の説明においては、ライブストリーミングアプリがバックグラウンド状態であるということを、「端末機器200がバックグラウンド状態である」と言う場合もある。
ここまで、スリープ状態とバックグラウンド状態について説明したが、いずれの状態においても、端末機器200のユーザは、ライブストリーミングされた画像データを閲覧可能な状態ではない。従って、いずれの状態においても、ビデオカメラ100からの画像データの送信を制限することで、ビデオカメラ100における処理負荷、ひいては電力消費を低減することができる。
一方で、スリープ状態とバックグラウンド状態とでは、通常状態に復帰する可能性が異なる。スリープ状態の場合、ユーザが端末機器200そのものを操作する意思がない可能性が高い。これに対し、バックグラウンド状態の場合、すぐにライブストリーミングアプリがフォアグラウンド状態(即ち、通常状態)に戻る可能性が高い。従って、本実施形態では、以下に詳述する通り、端末機器200がスリープ状態の場合とバックグラウンド状態の場合とで、ビデオカメラ100は異なる制御を行う。
図4は、ビデオカメラ100によるライブストリーミング処理を示すフローチャートである。本フローチャートの各ステップの処理は、特に断らない限り、ビデオカメラ100のCPU115が、ROM108からRAM1 109にロードされたプログラムを実行することにより実現される。
S400で、ユーザがビデオカメラ100にて、操作部106からライブストリーミングモードを指示すると、ビデオカメラ100はライブストリーミングを開始する。この時、端末機器200側も、ユーザが操作部202から、ライブストリーミングアプリを起動することで、ライブストリーミングを開始する。
S401で、ビデオカメラ100は、端末機器200からの要求に応えて、機器情報、及び機器固有のプレイリスト取得先情報を送信する。S401における処理の詳細は、図3AのS300及びS301において説明した通りである。
S402で、ビデオカメラ100は、端末機器200からの要求に応えて、プレイリストを送信する。S402における処理の詳細は、図3AのS304及びS305において説明した通りである。
S403で、ビデオカメラ100は、端末機器200からの要求に応えて、セグメントデータを送信する。S403における処理の詳細は、図3AのS306及びS307において説明した通りである。
S404で、ビデオカメラ100は、端末機器200からステータス情報を取得する。S404における処理の詳細は、図3AのS308、S310、S311、及びS313において説明した通りである。
S405で、ビデオカメラ100は、S404において取得したステータス情報に基づき、端末機器200がバックグラウンド状態であるか否かを判定する。ステータス情報は、レスポンス情報であるため、図5で示されるJSONフォーマットである。具体的には、図5に示すタグ”ViewState”の値”background”が「1」であれば、端末機器200(のライブストリーミングアプリ)がバックグラウンド状態である。この場合、処理はS406に進む。値”background”が「0」の場合、端末機器200はバックグラウンド状態ではない。この場合、処理はS408に進む。
処理がS405からS406に移行した場合、例えば図3Bの画面316に示すように、端末機器200上で、ライブストリーミングアプリ以外のアプリがフォアグラウンド状態になっている。即ち、端末機器200のライブストリーミングアプリは、ビデオカメラ100が送信した画像データの表示を行っていない状態である。よって、ビデオカメラ100としては、ライブストリーミングを行うために動作させるハードウェアの動作を停止することにより、無駄な電力消費を減らすことができる。特に、映像データ及び音声データの符号化や復号化を行うCODEC1 111及びCODEC2 112は、給電を停止することで、大幅な電力消費の低減につながる。一方で、ライブストリーミングアプリはバックグラウンド状態で動作しているので、端末機器200の操作部202がユーザに操作されることにより、即座にバックグラウンド状態が解除されて、端末機器200上で動作を開始する可能性がある。この場合、ビデオカメラ100も、バックグラウンド状態が解除されたライブストリーミングアプリと、即座に通信を開始する必要がある。そのため、ビデオカメラ100は、S406で、CODEC2 112への給電を停止するが、CODEC1 111に対する給電は停止しない。また、S407で、ビデオカメラ100は、CODEC2 112が使用するRAM2 110への給電を停止する。その後、処理はS404に戻る。
端末機器200がバックグラウンド状態でない場合、処理はS405からS408に進む。S408で、ビデオカメラ100は、S404において取得したステータス情報に基づき、端末機器200がスリープ状態であるか否かを判定する。ステータス情報(図5参照)のタグ”ViewState”の値”sleep”が「1」、値”background”が「0」であれば、端末機器200はスリープ状態である。この場合、処理はS409に進む。値”sleep”が「0」、値”background”が「0」であれば、端末機器200はスリープ状態でない。この場合、処理はS412に進む。
処理がS408からS409に移行した場合、例えば図3Bの画面315に示すように、端末機器200はスリープ状態になっている。即ち、端末機器200のライブストリーミングアプリは、画像データをLCDパネル209に表示していない状態である。また、一般的に、端末機器200がスリープ状態になるのは、端末機器200がある一定時間以上ユーザに操作されていなかったり、又は、使用を中断するためにユーザが操作部202を操作したりした結果である。そのため、次回の端末機器200の起動時までに、時間がかかる。ライブストリーミングアプリの動作再開については、バックグラウンド状態からの復帰時間と比較すると、より長い時間がかかることが想定される。そのため、ビデオカメラ100は、S409で、映像データ及び音声データの符号化、復号化を行うCODEC1 111への給電を停止する。S410及びS411では、ビデオカメラ100は、バックグラウンド状態の場合と同様、CODEC2 112及びRAM2 110への給電を停止する。結果として、ビデオカメラ100は、全てのCODECへの給電を停止し、電力消費を大幅に低減することができる。その後、処理はS404に戻る。
端末機器200がスリープ状態でない場合、処理はS408からS412に進む。S412で、ビデオカメラ100は、端末機器200の電源201がOFFであるか否かを、ステータス情報取得要求の応答(S404)に基づいて判定する。応答がある場合は、電源201はONであると判断される。この場合、処理はS413に進む。応答が無い場合は、電源201はOFFであると判断される。この場合、ライブストリーミングを継続することができないので、S419で、ビデオカメラ100は、ライブストリーミングを終了し、その後、本フローチャートの処理は終了する。
S413で、ビデオカメラ100は、CODEC1 111への給電が停止しているか否かを判定する。ここでは、端末機器200がスリープ状態から通常状態に復帰した場合に、給電が停止していると判定される。この場合、S414で、ビデオカメラ100は、CODEC1 111への給電を再開する。給電が停止していない場合、S414の処理はスキップされる。
S415で、ビデオカメラ100は、CODEC2 112への給電が停止しているか否かを判定する。ここでは、端末機器200がスリープ状態から通常状態に復帰した場合、又はライブストリーミングアプリがバックグラウンド状態からフォアグラウンド状態に復帰した場合に、給電が停止していると判定される。この場合、S416で、ビデオカメラ100は、CODEC2 112への給電を再開する。給電が停止していない場合、S416の処理はスキップされる。
S417で、ビデオカメラ100は、RAM2 110への給電が停止しているか否かを判定する。ここでは、端末機器200がスリープ状態から通常状態に復帰した場合、又はライブストリーミングアプリがバックグラウンド状態からフォアグラウンド状態に復帰した場合に、給電が停止していると判定される。この場合、S418で、ビデオカメラ100は、RAM2 110への給電を再開する。給電が停止していない場合、S418の処理はスキップされる。
その後、処理はS401に戻り、ライブストリーミングの処理が継続する。
以上説明した通り、第1の実施形態では、端末機器200がビデオカメラ100からライブストリーミングされた画像データを表示しない状態である場合に、ビデオカメラ100は、構成要素の一部に対する給電を停止する。これにより、ビデオカメラ100における電力の浪費を抑制することができる。
なお、図4の説明においては、ビデオカメラ100は、端末機器200がスリープ状態の場合とバックグラウンド状態の場合とで、異なる給電制御を行った。しかしながら、本実施形態において、スリープ状態とバックグラウンド状態との区別は、必須ではない。また、本実施形態において、給電を停止する対象の構成要素は、図4のS406及びS407、又はS409〜S411に示す組み合わせに限定されない。一般化すると、ビデオカメラ100は、端末機器200が画像データを表示する所定の状態(通常状態)でない場合には、ライブストリーミングの送信用画像データを生成するための構成要素に対する少なくとも一部の給電を停止するように構成される。
[第2の実施形態]
第1の実施形態では、端末機器がライブストリーミングされた画像データを表示しない状態である場合に、サーバ機器におけるライブストリーミングのための電力消費が無駄になることに注目し、この無駄を抑制するための構成について説明した。しかしながら、ライブストリーミングのための電力消費が無駄になるのは、端末機器がライブストリーミングされた画像データを表示しない状態である場合に限られない。例えば、端末機器が通話機能を持つ場合、通話の実行中はユーザが画面を見ない可能性が高いため、端末機器がライブストリーミングされた画像データを表示するか否かに関わらず、ライブストリーミングのための電力消費が無駄になる可能性がある。第2の実施形態では、このような無駄を抑制するための構成について説明する。
第1の実施形態では、端末機器がライブストリーミングされた画像データを表示しない状態である場合に、サーバ機器におけるライブストリーミングのための電力消費が無駄になることに注目し、この無駄を抑制するための構成について説明した。しかしながら、ライブストリーミングのための電力消費が無駄になるのは、端末機器がライブストリーミングされた画像データを表示しない状態である場合に限られない。例えば、端末機器が通話機能を持つ場合、通話の実行中はユーザが画面を見ない可能性が高いため、端末機器がライブストリーミングされた画像データを表示するか否かに関わらず、ライブストリーミングのための電力消費が無駄になる可能性がある。第2の実施形態では、このような無駄を抑制するための構成について説明する。
第2の実施形態において、ビデオカメラ100の基本的な構成は、第1の実施形態と同様である(図1参照)。以下、主に第1の実施形態と異なる点について説明する。
図6は、第2の実施形態に係る端末機器600の構成を示すブロック図である。図6において、図2の端末機器200と同一又は同様の構成要素には同一の符号を付す。端末機器600は、通話部601と、計時部602とを有する。通話部601は、他の端末機器との通話を実行する。通話部601は、マイク(不図示)にて受信した音声信号を、通信制御部210に供給する。音声信号は、通信制御部210により変調された後、無線モジュール211を介してアンテナ212から他の端末機器へ送信される。計時部602は、通話部601による通話の実行中に、通話が開始してから経過した時間を計測する。CPU213は、通話部601による通話の開始を検出すると、時間の計測を開始するように計時部602を制御する。
ライブストリーミング中に、CPU213は、通話部601が閾値以上の時間継続して通話を実行中であるか否かを判定する。判定の閾値は、例えば、LCDパネル209上に表示された、CPU213がプログラムに従い生成したGUIの表示データから、ユーザによる操作部202の操作によって決定された時間である。決定された時間(即ち、閾値)は、CPU213を介し、RAM205に格納される。
通話部601が閾値以上の時間継続して通話を実行中の場合、端末機器600は、端末機器600がスリープ状態であることを示すステータス情報をビデオカメラ100に送信する。具体的には、端末機器600は、図5に示すJSONデータのタグ”ViewState”の値”sleep”を「1」に設定し、値”background”を「0」に設定する。通話部601が通話を実行中だが継続時間が閾値未満の場合は、端末機器600は、端末機器600がバックグラウンド状態であることを示すステータス情報をビデオカメラ100に送信する。具体的には、端末機器600は、値”sleep”を「0」に設定し、値”background”を「1」に設定する。
以上の処理により、端末機器600は、通話部601による通話の実行中は、ライブストリーミングされた画像データを表示するか否かに関わらず、端末機器600がスリープ状態又はバックグラウンド状態であることを示すステータス情報を送信する。そのため、ビデオカメラ100は、通話部601が通話を実行中の場合、端末機器600がライブストリーミングされた画像データを表示するか否かに関わらず、構成要素の一部に対する給電を停止する。具体的には、通話が開始してからの経過時間が閾値未満の場合、ビデオカメラ100は、CODEC2 112及びRAM2 110に対する給電を停止する(図4のS406及びS407参照)。また、通話が開始してからの経過時間が閾値以上の場合、ビデオカメラ100は、CODEC1 111、CODEC2 112、及びRAM2 110に対する給電を停止する(図4のS409〜S411参照)。これにより、端末機器600の通話部601が通話を実行中に、ビデオカメラ100における電力の浪費を抑制することができる。
<変形例>
計時部602は、端末機器600がバックグラウンド状態に移行してからの経過時間の計測にも利用可能である。この場合、CPU213は、端末機器600がバックグラウンド状態に移行したことを検出すると(図3Bの下側参照)、時間の計測を開始するように計時部602を制御する。
計時部602は、端末機器600がバックグラウンド状態に移行してからの経過時間の計測にも利用可能である。この場合、CPU213は、端末機器600がバックグラウンド状態に移行したことを検出すると(図3Bの下側参照)、時間の計測を開始するように計時部602を制御する。
また、CPU213は、端末機器600が閾値以上の時間継続してバックグラウンド状態であるか否かを判定する。判定の閾値は、例えば、LCDパネル209上に表示された、CPU213がプログラムに従い生成したGUIの表示データから、ユーザによる操作部202の操作によって決定された時間である。決定された時間(即ち、閾値)は、CPU213を介し、RAM205に格納される。
端末機器600が閾値以上の時間継続してバックグラウンド状態である場合、端末機器600は、端末機器600がスリープ状態であることを示すステータス情報をビデオカメラ100に送信する。具体的には、端末機器600は、図5に示すJSONデータのタグ”ViewState”の値”sleep”を「1」に設定し、値”background”を「0」に設定する。端末機器600がバックグラウンド状態だが継続時間が閾値未満の場合は、端末機器600は、端末機器600がバックグラウンド状態であることを示すステータス情報をビデオカメラ100に送信する。具体的には、端末機器600は、値”sleep”を「0」に設定し、値”background”を「1」に設定する。
以上の処理により、端末機器600は、実際にはスリープ状態ではなくバックグラウンド状態であっても、バックグラウンド状態の継続時間が閾値以上の場合は、端末機器600がスリープ状態であることを示すステータス情報をビデオカメラ100に送信する。そのため、ビデオカメラ100は、端末機器600がバックグラウンド状態であっても、バックグラウンド状態の継続時間が閾値以上の場合には、スリープ状態の場合と同様、CODEC1 111への給電を停止する(図4のS409参照)。これにより、ビデオカメラ100における電力の浪費を更に抑制することができる。
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
100…ビデオカメラ、102…CMOS、105…電源、109…RAM1、110…RAM2、111…CODEC1、112…CODEC2、115…CPU、116…通信制御部、117…無線モジュール、118…アンテナ、200…端末機器
Claims (12)
- 外部装置に対する送信用画像データを生成する生成手段と、
前記送信用画像データを前記外部装置へ送信する送信手段と、
前記外部装置が、前記送信手段から受信した前記送信用画像データを表示する所定の状態であるか否かを判定する判定手段と、
前記外部装置が前記所定の状態でないと判定された場合に、前記生成手段に対する少なくとも一部の給電を停止する制御手段と、
を備えることを特徴とする通信装置。 - 前記少なくとも一部の給電が停止している間に、前記外部装置が前記所定の状態であると判定された場合、前記制御手段は、前記生成手段に対する給電を再開する
ことを特徴とする請求項1に記載の通信装置。 - 前記生成手段は、
撮像手段により生成された撮像画像データを符号化することにより符号化画像データを生成する第1の符号化手段と、
前記符号化画像データを符号化することにより前記送信用画像データを生成する第2の符号化手段と、
前記送信用画像データを一時的に記録する記録手段と、
を含み、
前記外部装置が前記所定の状態でないと判定された場合、前記制御手段は、前記第1の符号化手段、前記第2の符号化手段、及び前記記録手段のうちの少なくとも1つに対する給電を停止する
ことを特徴とする請求項1又は2に記載の通信装置。 - 前記判定手段は、前記外部装置がスリープ状態であるか否かを判定し、
前記外部装置が前記スリープ状態であると判定された場合、前記制御手段は、前記第1の符号化手段、前記第2の符号化手段、及び前記記録手段の全てに対する給電を停止する
ことを特徴とする請求項3に記載の通信装置。 - 前記判定手段は、前記外部装置が、前記送信手段から受信した前記送信用画像データを表示するアプリケーションをバックグラウンドで実行しているバックグラウンド状態であるか否かを判定し、
前記外部装置が前記バックグラウンド状態であると判定された場合、前記制御手段は、前記第1の符号化手段に対する給電を停止せず、前記第2の符号化手段及び前記記録手段に対する給電を停止する
ことを特徴とする請求項3又は4に記載の通信装置。 - 前記外部装置が閾値以上の時間継続して前記バックグラウンド状態である場合、前記制御手段は、前記第1の符号化手段、前記第2の符号化手段、及び前記記録手段の全てに対する給電を停止する
ことを特徴とする請求項5に記載の通信装置。 - 前記外部装置は、通話を実行する通話手段を備え、
前記外部装置の前記通話手段が通話を実行中の場合、前記制御手段は、前記外部装置が前記所定の状態であるか否かに関わらず、前記生成手段に対する少なくとも一部の給電を停止する
ことを特徴とする請求項1に記載の通信装置。 - 前記生成手段は、
撮像手段により生成された撮像画像データを符号化することにより符号化画像データを生成する第1の符号化手段と、
前記符号化画像データを符号化することにより前記送信用画像データを生成する第2の符号化手段と、
前記送信用画像データを一時的に記録する記録手段と、
を含み、
前記外部装置の前記通話手段が通話を実行中の場合、前記制御手段は、前記外部装置が前記所定の状態であるか否かに関わらず、前記第1の符号化手段に対する給電を停止せず、前記第2の符号化手段及び前記記録手段に対する給電を停止する
ことを特徴とする請求項7に記載の通信装置。 - 前記外部装置の前記通話手段が閾値以上の時間継続して通話を実行中の場合、前記制御手段は、前記第1の符号化手段、前記第2の符号化手段、及び前記記録手段の全てに対する給電を停止する
ことを特徴とする請求項8に記載の通信装置。 - 請求項1乃至9のいずれか1項に記載の通信装置と、
前記通信装置の前記生成手段による前記送信用画像データの生成の基となる撮像画像データを生成する撮像手段と、
を備えることを特徴とする撮像装置。 - 外部装置に対する送信用画像データを生成する生成手段と、前記送信用画像データを前記外部装置へ送信する送信手段と、を備える通信装置の制御方法であって、
前記通信装置の判定手段が、前記外部装置が、前記送信手段から受信した前記送信用画像データを表示する所定の状態であるか否かを判定する判定工程と、
前記通信装置の制御手段が、前記外部装置が前記所定の状態でないと判定された場合に、前記生成手段に対する少なくとも一部の給電を停止する制御工程と、
を備えることを特徴とする制御方法。 - コンピュータを、請求項1乃至9のいずれか1項に記載の通信装置の生成手段及び送信手段を除く各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014238147A JP2016100841A (ja) | 2014-11-25 | 2014-11-25 | 通信装置、撮像装置、通信装置の制御方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014238147A JP2016100841A (ja) | 2014-11-25 | 2014-11-25 | 通信装置、撮像装置、通信装置の制御方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016100841A true JP2016100841A (ja) | 2016-05-30 |
Family
ID=56078188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014238147A Pending JP2016100841A (ja) | 2014-11-25 | 2014-11-25 | 通信装置、撮像装置、通信装置の制御方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016100841A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020098478A (ja) * | 2018-12-18 | 2020-06-25 | コニカミノルタ株式会社 | 画像形成装置、方法およびプログラム |
-
2014
- 2014-11-25 JP JP2014238147A patent/JP2016100841A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020098478A (ja) * | 2018-12-18 | 2020-06-25 | コニカミノルタ株式会社 | 画像形成装置、方法およびプログラム |
JP7131361B2 (ja) | 2018-12-18 | 2022-09-06 | コニカミノルタ株式会社 | 画像形成装置、方法およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220295027A1 (en) | Projection display method and electronic device | |
JP7324311B2 (ja) | オーディオ及びビデオ再生方法、端末、並びにオーディオ及びビデオ再生装置 | |
JP6877808B2 (ja) | ビデオストリームのデータを処理するための方法、装置、およびシステム | |
JP6598875B2 (ja) | 情報処理システム、無線端末、及び情報処理方法 | |
CN112398855B (zh) | 应用内容跨设备流转方法与装置、电子设备 | |
JP6311078B2 (ja) | 端末テスト方法、装置、プログラム及び記録媒体 | |
US9426270B2 (en) | Control apparatus and control method to control volume of sound | |
CN112394895A (zh) | 画面跨设备显示方法与装置、电子设备 | |
JP5982079B2 (ja) | 画像伝送の方法、装置、プログラム及び記録媒体 | |
KR102148001B1 (ko) | 디스플레이 장치 및 디스플레이 장치의 제어 방법 | |
US11435973B2 (en) | Communication apparatus, communication method, and storage medium | |
US20150222849A1 (en) | Method and apparatus for transmitting file during video call in electronic device | |
CN105704110B (zh) | 一种媒体传输方法、媒体控制方法及装置 | |
KR20150051776A (ko) | 디스플레이 장치 및 디스플레이 장치의 제어 방법 | |
JP2017501598A (ja) | ストリーム・メディア・データをブロードキャストする方法および装置 | |
US20150135248A1 (en) | Image pickup apparatus, image pickup system, control method for image pickup apparatus, and recording medium | |
KR20140134915A (ko) | 디스플레이장치 및 그 제어방법 | |
JP2016100841A (ja) | 通信装置、撮像装置、通信装置の制御方法、及びプログラム | |
US20230254445A1 (en) | Screen Sharing Method, Terminal, and Storage Medium | |
JP6781318B2 (ja) | 情報処理システム及び無線端末 | |
CN108012167B (zh) | 投影服务、请求方法及装置 | |
JP2016009942A (ja) | 撮像装置、端末装置および通信システム | |
JP6161286B2 (ja) | 撮像装置、その制御方法、プログラム | |
US20240169954A1 (en) | Display apparatus, non-transitory recording medium, and display method | |
WO2023093778A1 (zh) | 一种截屏方法及相关装置 |