JP2015142360A - 撮像装置及び雲台装置 - Google Patents
撮像装置及び雲台装置 Download PDFInfo
- Publication number
- JP2015142360A JP2015142360A JP2014016113A JP2014016113A JP2015142360A JP 2015142360 A JP2015142360 A JP 2015142360A JP 2014016113 A JP2014016113 A JP 2014016113A JP 2014016113 A JP2014016113 A JP 2014016113A JP 2015142360 A JP2015142360 A JP 2015142360A
- Authority
- JP
- Japan
- Prior art keywords
- operation information
- communication
- imaging
- subject
- pan head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Accessories Of Cameras (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
【課題】被写体の移動速度の変化した場合においても、被写体を予め設定された範囲内に被写体を捉えることができるようにする。【解決手段】撮像装置で撮影した画像データを端末機器で表示した際に、画像データの予め定めた範囲内に被写体が配置されない場合、被写体を所定の範囲に配置できるように、端末機器から受信した操作情報を撮像装置において変更し、当該操作情報を雲台に通知することにより、ユーザ所望の位置に、被写体を捉えることができるようにする。【選択図】図2
Description
本発明は撮像装置及び雲台装置に関し、特に、撮影した画像データの所定の範囲内に被写体を捉えるために用いて好適な技術に関する。
インターネットを介して、サーバー機器からライブストリーミング配信されたコンテンツを、スマートフォンやタブレット端末などの端末機器で閲覧するユースケースが普及してきている。さらに、昨今ではデジタルビデオカメラ等も前述したサーバー機器としての機能を有している。すなわち、Wi-Fi(Wireless Fidelity)による無線通信によって、前述した端末機器との間でライブストリーミング機能を提供できるようにしている。
その際に使用される通信方式は、HTTP(Hyper Text Transfer Protocol)やRTP(Real-time Transport Protocol)などが一般的である。HTTPは、TCP(Transmission Control Protocol)タイプのプロトコルであり、通信において確認応答、順序制御、再送制御などが可能である。その方法の一つとして、ストリーミングデータを一定時間に分割したセグメントデータとその情報を記述したプレイリストを利用したストリーミング方法がある。
一方で、ライブストリーミングを行いながら、端末機器からビデオカメラを遠隔操作する方法がある。例えば、端末機器から送信されるパン、チルト、ズームなどの操作情報を、ビデオカメラで受信し、受信した操作情報を、ビデオカメラに接続された電動雲台に通知することで、電動雲台を制御する方法である。しかし、このような制御方法では、ビデオカメラで操作情報を受信した後、ビデオカメラで操作情報が処理されるまでにかかる時間が長く、操作性が悪いという課題があった。
このような課題を解決するために、特許文献1では、端末装置で生成されて送信された、パンニングを示す操作情報が、ビデオカメラで受信されると、ビデオカメラは電子的にパンニングを行った画像を生成し、端末装置に送信する。ビデオカメラから送信された画像は、端末側で受信されて表示される。
さらに、ビデオカメラが受信した、当該パンニングを示す操作情報を、ビデオカメラで解釈する。そして、解釈した当該操作情報に基づいて移動することで、端末機器側の理想の移動量でビデオカメラが移動できるようになると、ビデオカメラで撮影した画像を端末側に送信し、端末側で表示を行う。
また、特許文献2では、ビデオカメラで受信した操作情報を、ビデオカメラ側で実行中は、ビデオカメラの移動した分だけ、端末機器で表示している画像の画素数をずらして、端末機器で表示を行う方法が提案されている。この場合、ビデオカメラの動作が停止した時点で、ビデオカメラで撮影した画像を端末機器に送信し、端末側で受信して表示する。
しかしながら、前述した従来例では、移動速度が変わる被写体を、電動雲台と共に動作するビデオカメラで撮影する場合、以下のような問題点があった。すなわち、撮影した画像を、ビデオカメラから端末機器に送信後、端末機器側で表示すると、ユーザ所望の位置に、被写体が捉えられていない、という課題があった。
特に、電動雲台の移動速度が被写体の移動速度に追従できない場合に、前述した課題が顕著に発生していた。
本発明は前述の問題点に鑑み、被写体の移動速度の変化した場合においても、被写体を予め設定された範囲内に被写体を捉えることができるようにすることを目的とする。
本発明は前述の問題点に鑑み、被写体の移動速度の変化した場合においても、被写体を予め設定された範囲内に被写体を捉えることができるようにすることを目的とする。
本発明の撮像装置は、画像データを表示可能な無線端末機器と、特定の駆動方向に動作する雲台装置とともにネットワークカメラシステムを構成する撮像装置において、前記無線端末機器と通信する第1の通信手段と、前記雲台装置と通信する第2の通信手段と、前記無線端末機器からデータを受信する受信手段と、被写体を撮像して画像データを生成する撮像手段と、前記撮像手段が撮像する被写体が画像データの予め定めた範囲内に位置するかどうかを判別する判別手段と、前記無線端末機器からの操作情報を検知する検知手段、前記検知手段が検知した操作情報を変更する変更手段、前記変更手段が変更した操作情報を前記雲台装置に通知する通知手段、装置の各部を制御する制御手段と、を有し、前記制御手段は、前記撮像手段にて撮像した画像データに対し、前記判別手段にて、被写体が画像データの予め定めた範囲内に位置するかどうかを判別し、範囲内に位置しないと判別した場合は、前記無線端末機器と前記第1の通信手段にて通信を開始した後、前記受信手段にて前記無線端末機器から受信したデータから、前記検知手段にて前記操作情報を検知し、検知した前記操作情報を、前記変更手段にて変更し、前記第2の通信手段にて前記雲台装置と通信を開始した後、前記変更手段にて変更した前記操作情報を、前記通知手段にて、前記雲台装置に通知するよう制御することを特徴とする。
本発明によれば、被写体の移動速度の変化を検知すると、端末機器から受信した操作情報を撮像装置において変更し、撮像装置から雲台装置に通知することで、雲台装置の速度を変更する。その結果、ユーザは、撮像装置から送信され、端末機器で受信され表示される画像データから、予め設定された範囲内に被写体を捉えることができる。
<第1の実施形態>
以下、図1〜9を参照しながら本発明の実施形態の説明を行う。ただし、以下の実施形態はあくまでも一例であって、本発明は以下の実施形態に限定されるものではない。
図1は、本発明の第1の実施形態に係る、サーバー機器として動作するビデオカメラ100、雲台104、画像データを表示可能な表示装置を備えた無線端末機器であるスマートフォン103からなるネットワークカメラシステム10の構成例を示す図である。
以下、図1〜9を参照しながら本発明の実施形態の説明を行う。ただし、以下の実施形態はあくまでも一例であって、本発明は以下の実施形態に限定されるものではない。
図1は、本発明の第1の実施形態に係る、サーバー機器として動作するビデオカメラ100、雲台104、画像データを表示可能な表示装置を備えた無線端末機器であるスマートフォン103からなるネットワークカメラシステム10の構成例を示す図である。
ビデオカメラ100によって撮影された被写体101の画像データを、無線通信によるライブストリーミング102によって、スマートフォン103に送信し、スマートフォン103の表示画面に表示する。また、ビデオカメラ100は、雲台104と、USBケーブル105にて通信を行い、スマートフォン103から受信した操作情報を、雲台104に通知することで、雲台104を動作させる。
雲台104が動作する特定の駆動方向は、本実施形態では、符号106で示すパンニング方向を想定しているが、チルティング方向の動作を想定してもよい。ビデオカメラ100と雲台104は、USBケーブル105を介して通信を行う例を説明したが、ビデオカメラ100と雲台104の通信は、USBケーブル105以外の有線通信でもよいし、無線通信でもよい。
図2は、本実施形態におけるビデオカメラ100の構成例を示すブロック図である。本実施形態のビデオカメラ100において、データバス219を介して接続された各部は、CPU(Central Processing Unit)215により制御されて動作する。
本実施形態のビデオカメラ100は、撮像部としてレンズ201、CMOS202、カメラ信号処理部203、記録媒体204、電源205、操作部206、入力I/F207、ROM(Read Only Memory)208を備えている。また、第1のRAM209、第2のRAM(Random Access Memory)210を備えている。さらに、第1のCODEC211、第2のCODEC212、出力I/F213、LCDパネル214、CPU215、通信制御部216、無線モジュール217、アンテナ218を備え、データバス219を介してデータの入出力を行う。
本実施形態のビデオカメラ100は、撮像部としてレンズ201、CMOS202、カメラ信号処理部203、記録媒体204、電源205、操作部206、入力I/F207、ROM(Read Only Memory)208を備えている。また、第1のRAM209、第2のRAM(Random Access Memory)210を備えている。さらに、第1のCODEC211、第2のCODEC212、出力I/F213、LCDパネル214、CPU215、通信制御部216、無線モジュール217、アンテナ218を備え、データバス219を介してデータの入出力を行う。
レンズ201は、フォーカス(合焦)、絞り機構などを含む撮影レンズであり、被写体101の光学像を形成する。CMOS(Complementary Metal Oxide Semiconductor)202は、撮像素子であり、A/D変換機を含み、光学像をアナログ電気信号に変換した後、デジタル信号に変換する。なお、CMOS202に限定されるわけではなく、CCD(Charge Coupled Device Image Sensor)などの撮像素子であってもよい。
変換されたデジタル信号は、CPU215により動作制御されるカメラ信号処理部203において、所定の画素補間・縮小といったリサイズ処理や色変換、各種補正処理等が行なわれる。さらに、後述する第1のCODEC211によって所定のビットレート、フォーマット形式で圧縮符号化、または映像圧縮符号化データの復号が行なわれる。
なお、音声については特に図示していないが、レンズ201とCMOS202をマイク、後述するLCDパネル214をスピーカとすることで、ほぼ同様の処理により音声信号も扱うことが可能である。映像記録時には映像と共に音声も同時に収録され、第1のCODEC211で映像と音声を多重化することで、音声付映像データを生成することが可能である。
記録媒体204は、撮影した映像データ及び音声データ、CPU215の制御に必要な情報を記録する。電源205は、AC電源やバッテリーであり、ビデオカメラ100の各部に必要な電源の供給を行う。操作部206は、ビデオカメラ100がライブストリーミングを行う際に、スマートフォン103からの映像データ及び音声データの要求を受けて、映像データ及び音声データを送信するライブストリーミングモードに、ビデオカメラ100を遷移させる。
また、ユーザからの操作を受け付け、受け付けた当該操作情報は、入力I/F207を介して、後述するデータバス219に入力される。ROM208は、ビデオカメラ100を起動するプログラムが格納されており、操作部206によって電源205から電気信号が供給されると、前述したプログラムがCPU215によって、第1のRAM209に読み出される。
第1のRAM209は、CPU215のワークエリアとして機能する。また、後述する通信制御部216で受信したスマートフォン103のステータス情報も格納される。なお、CPU215のワークエリアは、第1のRAM209に限られるものではなく、図示しないハードディスク装置等の外部記録装置等であってもよい。第2のRAM210には、通信制御部216から送信する映像データ及び音声データが格納される。
第1のCODEC211は、第1のRAM209や記録媒体204に記録されている映像データ及び音声データを再生する。第1のCODEC211で再生された映像データは、後述するLCDパネル214に表示される。また、再生された音声データは、図示しないスピーカ部に供給され出力される。
第2のCODEC212は、記録媒体204に記録されている映像データ及び音声データを復号し、通信制御部216から送信する際のデータ単位に、圧縮符号化する。出力I/F213は、CPU215がプログラムに従い生成したGUI(Graphical User Interface)などの表示データに基づき、LCDパネル214に対して表示させるための表示信号を出力する。LCDパネル214は、第1のCODEC211で再生された映像データを、出力I/F213を介して表示する。
CPU215は、ROM208から第1のRAM209にロードされたプログラムを実行する。通信制御部216は、無線モジュール217を介して、スマートフォン103からステータス情報の受信、及びスマートフォン103への映像データ及び音声データの送信を行う。また、受信した際のレスポンス信号の送信を行う。
アンテナ218は、無線信号を送受信する。アンテナ218で受信された映像データ及び音声データは、無線モジュール217を介して通信制御部216に送られ、通信制御部216で復調後、パケットデータから変換され、第2のCODEC212にて復号される。
第2のCODEC212にて復号された映像データ及び音声データは、第2のRAM210のバッファ領域に保存される。また、受信を完了した際に、スマートフォン103に送信するレスポンス信号は、通信制御部216でパケットデータに変換され、搬送波の周波数帯の変調信号として生成されて、アンテナ218から無線信号としてスマートフォン103に送信される。
USB I/F220は、USB(Universal Serial Bus)規格にて、USBケーブル105を介して、データ通信を行う部分であり、雲台104に対して、雲台の移動方向/速度情報を通知し、その応答を受信する。
図3は、本実施形態の雲台104の構成例を示すブロック図である。
RAM300は、USB I/F301と、USBケーブル105を介して受信した、雲台104の移動方向/速度情報を保持する。USB I/F301は、USBケーブル105を介して受信した、雲台104の移動方向/速度情報を受信する。出力I/F302は、CPU303により読み出された、RAM300に保持されている移動方向/速度情報を、後述する駆動装置としてのステッピングモータ306に、パルス信号として送信する。
RAM300は、USB I/F301と、USBケーブル105を介して受信した、雲台104の移動方向/速度情報を保持する。USB I/F301は、USBケーブル105を介して受信した、雲台104の移動方向/速度情報を受信する。出力I/F302は、CPU303により読み出された、RAM300に保持されている移動方向/速度情報を、後述する駆動装置としてのステッピングモータ306に、パルス信号として送信する。
ステッピングモータ306は、出力I/F302から受信したパルス信号に応じて動作し、雲台104を回転させる。ROM304には、雲台104を起動するプログラムが格納されており、電源305から電気信号が供給されると、前述した雲台起動プログラムがCPU303によって、RAM300に読み出される。
CPU303は、ROM304からRAM300にロードされた雲台起動プログラムを実行する。電源305は、AC電源やバッテリーであり、雲台104の各部に必要な電源の供給を行う。
図4は、本実施形態のスマートフォン103の構成例を示すブロック図である。
スマートフォン103は、電源401、操作部402、入力I/F403、ROM404、RAM405、記録媒体406、CODEC407を備えている。また、出力I/F408、LCDパネル409、通信制御部410、無線モジュール411、アンテナ412、CPU413を備え、データバス414を介してデータの入出力を行う。
スマートフォン103は、電源401、操作部402、入力I/F403、ROM404、RAM405、記録媒体406、CODEC407を備えている。また、出力I/F408、LCDパネル409、通信制御部410、無線モジュール411、アンテナ412、CPU413を備え、データバス414を介してデータの入出力を行う。
電源401は、AC電源やバッテリーであり、スマートフォン103の各部に必要な電源の供給を行う。操作部402は、ユーザ操作を受け付ける入力デバイスとして、キーボードといった文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイスなどを有する。なお、タッチパネルは、例えば平面的に構成された入力部に対して接触された位置に応じた座標情報が出力されるようにした入力デバイスである。
特に、スマートフォン103上で動作するアプリケーションの起動に使用する。また、スマートフォン103に電源401からの電源供給の開始と停止を制御するスイッチも含まれる。操作部402で入力されたユーザからの操作は、入力I/F403を介して、データバス414に入力される。
ROM404は、スマートフォン103を起動するプログラムが格納されており、操作部402によって電源401から電気信号が供給されると、前述のプログラムがCPU413によって、RAM405に読み出される。RAM405は、CPU413のワークエリアとして機能する。
また、後述する通信制御部410にて、ビデオカメラ100から受信した映像データ及び音声データも格納される。なお、CPU413のワークエリアは、RAM405に限られるものではなく、図示しないハードディスク装置等の外部記録装置等であってもよい。記録媒体406は、CPU413を制御する情報を保持する。
CODEC407は、RAM405や記録媒体406に記録されている映像データ及び音声データを再生し、再生された映像データは後述するLCDパネル409に表示される。また、再生された音声データは図示しないスピーカ部に供給され出力される。CODEC407は、所定のビットレート、フォーマット形式で圧縮符号化、または映像圧縮符号化データの復号を行う。
出力I/F408は、CPU413がプログラムに従い生成したGUIなどの表示データに基づき、LCDパネル409に対して表示させるための表示信号を出力する。また、LCDパネル409は、CODEC407にて再生した映像データを出力I/F408を介して表示する。
通信制御部410は、アンテナ412、無線モジュール411を介して、ビデオカメラ100から映像データ及び音声データの受信と、受信した際のレスポンス信号を送信する。アンテナ412で受信された映像データ及び音声データは、無線モジュール411を介して通信制御部410に供給される。通信制御部410は、供給された映像データ及び音声データを復調後、パケットデータに変換し、復号する。
受信された映像データ及び音声データは、RAM405のバッファ領域に保存される。また、スマートフォン103において受信を完了した際に、ビデオカメラ100に送信するレスポンス信号は、通信制御部410でパケットデータに変換される。また、搬送波の周波数帯の変調信号として生成されて、アンテナ412から無線信号としてビデオカメラ100に送信される。CPU413は、ROM404からRAM405にロードされたプログラムを実行し、スマートフォン103の各部の動作を制御する。
図5は、本実施形態のビデオカメラ100とスマートフォン103とのライブストリーミング102の仕組みを説明した図である。
図5において、500〜507では、ビデオカメラ100とスマートフォン103間のプレイリスト及びセグメントデータの送受信の内容について説明する。
図5において、500〜507では、ビデオカメラ100とスマートフォン103間のプレイリスト及びセグメントデータの送受信の内容について説明する。
ユーザがビデオカメラ100において、操作部206からライブストリーミングモードを実行すると、ビデオカメラ100は、CPU215の制御により、通信制御部216を通信可能状態とする。
さらに、ユーザはスマートフォン103において、操作部402を操作して通信接続処理およびライブストリーミングに必要なアプリケーション(以下、ライブストリーミングアプリ)の起動を行う。これにより、スマートフォン103のCPU413は、ROM404または記録媒体406に格納された当該プログラムに従い、通信制御部410を制御し、ビデオカメラ100との無線通信を開始する。
また、本実施形態においては、ビデオカメラ100とスマートフォン103との間の通信はWi-Fi(Wireless Fidelity)により行っている。
さらに、ユーザはスマートフォン103において、操作部402を操作して通信接続処理およびライブストリーミングに必要なアプリケーション(以下、ライブストリーミングアプリ)の起動を行う。これにより、スマートフォン103のCPU413は、ROM404または記録媒体406に格納された当該プログラムに従い、通信制御部410を制御し、ビデオカメラ100との無線通信を開始する。
また、本実施形態においては、ビデオカメラ100とスマートフォン103との間の通信はWi-Fi(Wireless Fidelity)により行っている。
ここで、ビデオカメラ100とスマートフォン103は、通信プロトコルとしてHTTP(Hyper Text Transfer Protocol)を使用するものとする。また、通信接続においてUPnP(Universal Plug and Play)に対応しているものとする。UPnP対応の端末機器は、機器をネットワークに接続すると、DHCP(Dynamic Host Configuration Protocol)または、Auto IPによるIP(Internet Protocol)アドレスの設定を行う。
IPアドレスを取得した機器は、ネットワーク上の他の機器を相互に認識するために、「デバイスディスカバリーとコントロール」によって、デバイス検索と応答デバイスの種別、サービス機能などの情報取得(500)を行う。
ビデオカメラ100は、スマートフォン103のデバイス検索要求に対して、機器情報と機器固有情報のプレイリストの取得先情報(501)などを応答する。
ビデオカメラ100は、スマートフォン103のデバイス検索要求に対して、機器情報と機器固有情報のプレイリストの取得先情報(501)などを応答する。
ビデオカメラ100とスマートフォン103の接続処理が完了すると、ビデオカメラ100はライブストリーミングを開始する。ライブストリーミングにおいて、ビデオカメラ100のCPU215は、CMOS202からの信号出力を開始し、その出力をカメラ信号処理部203により適切な映像データに処理し、第1のCODEC211へデータを出力する。
第1のCODEC211では、受け取った映像データを所定のビットレート、フォーマット形式で圧縮符号化する。圧縮符号化された映像データは、さらに、CPU215を介して第2のCODEC212にて所定の時間長Ts(秒)で分割され、セグメントデータ502として、第2のRAM210または記録媒体204に保存される。
CPU215は、前述のセグメントデータ502の保存先と関連させたパス情報を生成する。パス情報は、スマートフォン103がセグメントデータ502を取得する際の取得先情報として使用するもので、CPU215は、プレイリスト(503)を作成し、前述のパス情報と併せてセグメント情報(画像データの分類を表す情報)を記録する。
スマートフォン103は、ライブストリーミングを開始後、約Ts(秒)後に、ステッピングモータ306で取得したプレイリスト取得先へプレイリスト取得要求(HTTP GETメソッド)を行う(504)。ビデオカメラ100は、応答プレイリスト(505)として、セグメントデータ502が一つ記述されたプレイリスト(503)を送信する。
スマートフォン103は、ビデオカメラ100から受信したプレイリスト(503)を解析し、セグメント情報の取得先に対して、セグメント取得要求(506(HTTP GETメソッド))を行う。
スマートフォン103は、ビデオカメラ100から受信したプレイリスト(503)を解析し、セグメント情報の取得先に対して、セグメント取得要求(506(HTTP GETメソッド))を行う。
ビデオカメラ100は、応答セグメント(507)として、要求されたセグメントデータ502を送信する。
スマートフォン103は、ビデオカメラ100から受信したセグメントデータ502をCODEC407に供給し、CODEC407において復号化した後、CPU413の制御にて、出力I/F408を介してLCDパネル409で再生表示を行う。
スマートフォン103は、ビデオカメラ100から受信したセグメントデータ502をCODEC407に供給し、CODEC407において復号化した後、CPU413の制御にて、出力I/F408を介してLCDパネル409で再生表示を行う。
ビデオカメラ100は、ライブストリーミングを行っている期間中は、約Ts(秒)毎にセグメント生成、プレイリスト更新を行う。また、取得されたセグメント情報は削除する。
スマートフォン103は、約Ts(秒)毎にプレイリスト取得要求(504)を行い、プレイリスト(503)に記載されたセグメント情報に基づき、当該セグメントデータ502を取得要求する。
スマートフォン103は、約Ts(秒)毎にプレイリスト取得要求(504)を行い、プレイリスト(503)に記載されたセグメント情報に基づき、当該セグメントデータ502を取得要求する。
次に、ビデオカメラ100とスマートフォン103のステータス情報の送受信について、508〜513を用いながら説明する。本実施形態では、ビデオカメラのステータス取得については、HTTP GETメソッドのURIで行い、レスポンスはJSON(JavaScript(登録商標) Object Notation)データフォーマットとする。
JSONデータフォーマットの具体例は、図8に示すデータフォーマットである。“seq”タグ800は、現在の当該ステータス取得が何番目であるかを示すタグである。スマートフォン103からのステータス取得が2番目(801)であることを示す。“direction”タグ802は、雲台104の回転方向を示すタグである。“value”タグ804は雲台104の角速度を示し、“90”タグ805は90°/secの角速度を示す。少なくとも“seq”タグ800、“direction”タグ802、“value”タグ804等のタグ情報から構成される。
本実施形態では、雲台104の移動方向として、パン方向を前提としているため、“direction”タグ802には右回転を示す“right”タグ803が設定されている。図8に示すJSONデータは、スマートフォン103の操作部402にて、ユーザが、右回転を指示する操作を行ったことを示す状態であることを示している。
ビデオカメラ100は、ユーザによって操作部206を介した操作が行なわれることにより、ライブストリーミングモードになると、スマートフォン103のステータス情報の取得要求(508(初回))を開始する。
スマートフォン103は、ビデオカメラ100からのステータス情報の取得要求(508(初回))の応答として、CPU413を介してJSONフォーマットのデータをRAM405に生成する。そして、通信制御部410によって、無線モジュール411、アンテナ412を介してビデオカメラ100に送信する。
スマートフォン103は、ビデオカメラ100からのステータス情報の取得要求(508(初回))の応答として、CPU413を介してJSONフォーマットのデータをRAM405に生成する。そして、通信制御部410によって、無線モジュール411、アンテナ412を介してビデオカメラ100に送信する。
スマートフォン103では、RAM405に受信した当該ステータス情報の取得要求が初回のものであるかどうか、CPU413において判別する。当該取得要求が初回の取得要求であるとCPU413が判断した場合は、当該ステータス情報の取得要求を受信した時点での、スマートフォン103のRAM405及び記録媒体406に保持されたステータス情報を、全て用いてJSONデータ509を生成する。JSONデータ509を生成した後、JSONデータの“seq”タグに記載された番号に一致する順番のステータス取得要求に対し、そのレスポンスとしてJSONデータ(510(全て))を、ビデオカメラ100に送信する。
また、ステータス情報取得が初回でないと判断された場合のステータス情報の取得要求(511)においては、スマートフォン103は、差分のJSONデータを生成する。具体的には、RAM405及び記録媒体406に保持しているスマートフォン103のステータス情報で、前回ビデオカメラ100に送信した時点から、更新された情報のみを用いてJSONデータ512をRAM405に生成する。そして、生成したJSONデータ(513(差分))をビデオカメラ100に送信する。なお、JSONデータの“seq”タグの値は、ビデオカメラ100からのステータス情報取得要求毎に更新してもよいし、スマートフォン103の状態が更新されたときに更新してもよい。
図6(a)、図6(b)は、本実施形態のビデオカメラ100とスマートフォン103とのライブストリーミングにおける、課題と効果をそれぞれ説明した図である。図6(a)、図6(b)において、LCDパネル409に表示されているアイコンは、パンニング方向を示し、603は左方向、604は右方向を示している。
図6(a)に示すように、ビデオカメラ100とスマートフォン103にてライブストリーミング102が開始された後、ユーザ操作により右方向アイコン604がユーザの指605でタッチされる。すると、スマートフォン103はビデオカメラ100に対して、パンニング方向を示す操作情報を送信する。
スマートフォン103から送信された操作情報は、ビデオカメラ100の通信制御部216で受信し、USBケーブル105を介して、図示しない、雲台が実行できるコマンドとして、雲台104に通知する。
雲台104は、通知された操作情報をRAM300に保存し、CPU303、出力I/F302を介してステッピングモータ306に通知する。ビデオカメラ100から操作情報が通知されると、ステッピングモータ306は、所定のパンニング方向106に移動する。
雲台104は、通知された操作情報をRAM300に保存し、CPU303、出力I/F302を介してステッピングモータ306に通知する。ビデオカメラ100から操作情報が通知されると、ステッピングモータ306は、所定のパンニング方向106に移動する。
ビデオカメラ100は、ライブストリーミング102において、被写体101を撮影し、被写体101の映像データ及び音声データをスマートフォン103に送信する。ビデオカメラ100から送信された被写体101の映像データは、スマートフォン103のLCDパネル409上に表示される。そのため、ライブストリーミング102中に、ビデオカメラ100が撮影している被写体101が、一定の速度で(600から601まで)のように移動している場合は、スマートフォン103から操作情報を受信し、雲台104に通知する。これにより、雲台104は、スマートフォン103からの操作情報に基づくパンニング方向106に、操作情報に基づく駆動量だけ一定の角速度(606、607)で移動し、被写体600、601を撮影する。
被写体600、601の撮影結果は、スマートフォン103のLCDパネル409上にそれぞれ、612、613として表示される。被写体600、601の速度が一定でなくなると、一定の角速度では602の位置の被写体を撮影するが、スマートフォン103のLCDパネル409に表示される表示結果612、613のように被写体を正しく撮影できなくなる。その結果、スマートフォン103のLCDパネル409には、表示結果612、613とは異なる表示結果614のように、表示されてしまう。
この課題に対し、図6(b)に示すように、スマートフォン103から受信した操作情報を雲台104に通知する際、被写体600、601の移動速度が変化したことを検知すると、一定だった角速度(606)を、被写体611の速度にあわせて615とする。これにより、被写体611も正しく撮影することを可能としている。その結果、正しく撮影した、映像音声符号化データをスマートフォン103に送信することが可能となる。これにより、スマートフォン103のLCDパネル409上には、移動速度が変化した被写体611を撮影した表示結果614として、一定の角速度で移動する被写体を撮影した表示結果612、613と同様に表示することが可能となる。
図7は、本実施形態の処理の流れを示すフローチャートである。なお、本フローチャートは、ユーザが、ビデオカメラ100の電源205、及びスマートフォン103の電源401を入り状態にし、スマートフォン103からビデオカメラ100への無線通信を開始した後の、処理の流れを示している。
処理が開始されると、S700では、ビデオカメラ100は、被写体101を撮影し、第1のCODEC211にて、被写体101の映像データ及び音声データを生成し、第1のRAM209に保存する。また、第1のRAM209に保存した映像データ及び音声データを、第2のCODEC212を介して、第2のRAM210に保存する。
その後、ビデオカメラ100は、図5で示したライブストリーミングの仕組みに基いて、通信制御部216、無線モジュール217、アンテナ218を介し、第2のRAM210に保存された映像データ及び音声データを、スマートフォン103へ送信する。
また、ビデオカメラ100は、スマートフォン103から、アンテナ218、無線モジュール217、通信制御部216を介して、ステータス情報(図8)を受信する。受信したステータス情報(図8)は、CPU215を介して、第1のRAM209に保存する。ビデオカメラ100とスマートフォン103を無線接続した際に、最初に受信したステータス情報(図8)の“value”の値を、以下、規定の角速度と記載する。
S701では、ビデオカメラ100は、被写体101が撮影領域(以下、フレームとする)の範囲内に存在するかどうかを判別する。判別する方法は、後述する図9、及び後述するS702で実行される顔検出処理を用い、撮影したフレーム内に顔が検出された場合、被写体101が存在すると判別する。被写体101が存在しない場合は、顔が検出されるまで待機し、被写体101が存在する場合はS702に進む。
S702では、ビデオカメラ100は、被写体101の動きを検知する。本実施形態では、検知方法としては、ビデオカメラ100が撮影した各フレームから顔情報を検出し、検出した顔情報に対して表示する、顔検出枠(以下、顔枠)の表示位置が、一定でなくなったことを検知する検出方法を用いることとする。しかし、被写体101の動きを検知する検出方法は、顔情報の検出及び顔枠の表示に限定されるわけではない。
具体的には、図9の内容を用いて説明する。
図9において、900、904、905は、ビデオカメラ100によって撮影され、CPU215を介し、第1のRAM209に保持された映像データの、各フレームである。
図9において、900、904、905は、ビデオカメラ100によって撮影され、CPU215を介し、第1のRAM209に保持された映像データの、各フレームである。
901は、CPU215により被写体101の顔情報を検出し、検出結果に基いて表示された顔枠である。なお、顔検出の具体的な方法は、エッジ検出または形状パターン検出による顔検出方法、顔、目、瞳、鼻、口等の特徴点をベクトル化する。そして、特徴点ベクトルを近似検出することによる、特徴点ベクトル近似法、色相検出または肌色検出による顔検出方法等の公知の方法を利用することができる。
これらの方法を用い、CPU215によって、被写体101の顔の表示領域を示す顔枠901の表示位置A(902)、B(903)を、第1のRAM209に保存する。被写体101が動いていない場合、表示位置A(902)と表示位置B(903)が示す位置は変わらない。しかし、被写体101が動いている場合、フレーム904、905に示すように、顔枠901の表示位置Aも(906、908)と表示位置B(907、909)のように変化する。
顔枠901の表示位置が変化したかどうかを判別するには、CPU215を介して比較する処理により行う。具体的には、各フレーム(900、904、905)と共に、第1のRAM209に保存されている、各フレームで検出された顔枠901の位置A(902、906、908)と、B(903、907、909)をCPU215が比較する。その後、S703に進む。
S703では、ビデオカメラ100は、第1のRAM209に保持された顔枠901の表示位置A(902)、B(903)が、現在取得した第1のRAM209の保存したフレームの、顔枠の表示位置と異なっているかどうかを比較する。比較した結果、顔枠901の表示位置A(902、906、908)、B(903、907、909)が異なっていた場合(被写体が動いていた場合)は、S704に進む。顔枠901の表示位置が同一の場合は、被写体101の動きを検出する処理(S702)を続行する。
S704では、ビデオカメラ100は、被写体101の移動速度を算出する移動速度算出処理を行う。移動速度の算出方法は、S702で検出した、顔枠の表示位置A(902)と現在取得したフレームの顔枠表示位置A(906または908)、及び顔枠表示位置B(903)と現在取得したフレームの顔枠表示位置B(907または909)の比較を行う。そして、そのフレーム上の表示位置の差の絶対値を、CPU215にて算出する。さらに、ビデオカメラ100は、CPU215にて、算出された表示位置の絶対値を、フレームを取得する時間間隔で割り、被写体101の移動速度として算出し、算出した値を第1のRAM209に保存する。その後、S705に進む。
S705では、ビデオカメラ100は、S704で算出した被写体101の速度と、S702で、ビデオカメラ100の第1のRAM209に設定した、雲台104に通知する角速度との比較を行う。被写体101の速度が、雲台104に通知する速度と異なる場合(速い、または、遅い場合)は、S706に進む。同一の場合は、S709に進む。
S706においては、ビデオカメラ100は、スマートフォン103から、雲台104の動作方向である、パンニング方向106を示す操作情報(アイコン603、604を操作した情報)を受信した場合、S707に進む。操作情報を受信しなかった場合は、S712に進む。
S707では、ビデオカメラ100は、CPU215を介して第1のRAM209に保存された、被写体101の速度に一致するように、CPU215を介して第1のRAM209に被写体101の速度情報を保存する。なお、被写体101の速度情報は、S700で設定した規定の角速度が保存されている、第1のRAM209の領域とは異なる領域に保存する。その後、S708に進む。
S708では、ビデオカメラ100は、S707で保存した被写体101の速度情報を、CPU215を介して第1のRAM209から読み出し、USB I/F220と、USBケーブル105を介して、雲台104に通知する。雲台104は、USB I/F301を介して被写体101の速度情報を受信し、CPU303を介してRAM300に保存する。
その後、雲台104は、RAM300からCPU303を介して、角速度情報を読み出し、出力I/F302を介してステッピングモータ306に通知する。その結果、雲台104、及びビデオカメラ100がパンニング方向106に動作する。その後、S712に進む。
一方、S709では、ビデオカメラ100は、雲台104に通知する角速度が、S700で設定した規定の角速度であるかどうかを判別する。第1のRAM209に保存されている、雲台の角速度が、規定の角速度であるとCPU215が判断した場合は、S710に進む。規定の角速度から変更されていた場合は、S708に進む。
S710では、雲台の動作方向である、パンニング方向を示す操作情報を、スマートフォン103から受信したかどうかを判別する。受信した場合は、S711に進む。また、操作情報を受信しなかった場合は、S704に進む。
S711では、ビデオカメラ100は、雲台104にS700で設定した、規定の角速度を、CPU215を介して第1のRAM209から読み出し、USB I/F220と、USBケーブル105を介して、雲台104に通知する。
雲台104においては、USB I/F301を介して規定の角速度を受信し、受信した規定の角速度をCPU303がRAM300に保存する。
その後、雲台104は、RAM300からCPU303を介して、角速度情報を読み出し、USB I/F301を介してステッピングモータ306に通知する。その結果、雲台104、及びビデオカメラ100がパンニング方向106に動作する。その後、S704に進む。
その後、雲台104は、RAM300からCPU303を介して、角速度情報を読み出し、USB I/F301を介してステッピングモータ306に通知する。その結果、雲台104、及びビデオカメラ100がパンニング方向106に動作する。その後、S704に進む。
S712では、ビデオカメラ100は、雲台104に変更した角速度を通知後、被写体101がフレーム内に存在するかどうかを、S701と同様に判別する。図10のフレーム1000が、第1のRAM209に保持されている、現在取得した最新のフレームである。
図10のフレーム1000に示すように、被写体101がフレーム内から存在しなくなった場合、すなわち、被写体101の顔枠の表示位置A、Bが含まれないフレームの場合、CPU215にて被写体101の検出ができないため、S713に進む。被写体101の検出ができた場合には、S704に進む。
図10のフレーム1000に示すように、被写体101がフレーム内から存在しなくなった場合、すなわち、被写体101の顔枠の表示位置A、Bが含まれないフレームの場合、CPU215にて被写体101の検出ができないため、S713に進む。被写体101の検出ができた場合には、S704に進む。
S713では、ビデオカメラ100は、雲台104へ通知している角速度を0として通知する。また、図示しない雲台104の駆動動作を停止するコマンドを通知してもよい。
次に、S714に進み、処理を終了する操作が行なわれたかどうかを判断する。終了する操作が行われた場合には、処理を終了する。また、終了する操作が行われていない場合には、S701に進み、再びフレーム内に被写体101が表示されるまで、待ち状態に入る。
次に、S714に進み、処理を終了する操作が行なわれたかどうかを判断する。終了する操作が行われた場合には、処理を終了する。また、終了する操作が行われていない場合には、S701に進み、再びフレーム内に被写体101が表示されるまで、待ち状態に入る。
なお、前述した実施形態では、ビデオカメラ100と雲台104とにより、本発明を実施している構成を実施形態として説明した。しかし、雲台104がビデオカメラと同様の構成(201〜220)を備えて、ビデオカメラ100と同様に動作するように構成して、雲台104だけでサーバー機器を構成するようにしてもよい。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワークまたは各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワークまたは各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100 ビデオカメラ
101 被写体
103 スマートフォン
104 雲台
105 USBケーブル
101 被写体
103 スマートフォン
104 雲台
105 USBケーブル
Claims (13)
- 画像データを表示可能な無線端末機器と、特定の駆動方向に動作する雲台装置とともにネットワークカメラシステムを構成する撮像装置において、
前記無線端末機器と通信する第1の通信手段と、
前記雲台装置と通信する第2の通信手段と、
前記無線端末機器からデータを受信する受信手段と、
被写体を撮像して画像データを生成する撮像手段と、
前記撮像手段が撮像する被写体が画像データの予め定めた範囲内に位置するかどうかを判別する判別手段と、
前記無線端末機器からの操作情報を検知する検知手段と、
前記検知手段が検知した操作情報を変更する変更手段と、
前記変更手段が変更した操作情報を前記雲台装置に通知する通知手段と、
装置の各部を制御する制御手段と、
を有し、
前記制御手段は、
前記撮像手段にて撮像した画像データに対し、前記判別手段にて、被写体が画像データの予め定めた範囲内に位置するかどうかを判別し、範囲内に位置しないと判別した場合は、前記無線端末機器と前記第1の通信手段にて通信を開始した後、前記受信手段にて前記無線端末機器から受信したデータから、前記検知手段にて前記操作情報を検知し、検知した前記操作情報を、前記変更手段にて変更し、前記第2の通信手段にて前記雲台装置と通信を開始した後、前記変更手段にて変更した前記操作情報を、前記通知手段にて、前記雲台装置に通知するよう制御することを特徴とする撮像装置。 - 前記判別手段は、前記被写体に合焦していることを示す情報が、前記画像データの予め定めた範囲内に位置するかどうかを判別することを特徴とする請求項1に記載の撮像装置。
- 前記操作情報は、前記雲台装置の駆動方向、及び駆動量を示すことを特徴とする請求項1に記載の撮像装置。
- 前記第1の通信手段は、Wi-Fi(Wireless Fidelity)による無線通信手段であることを特徴とする請求項1〜3の何れか1項に記載の撮像装置。
- 前記駆動方向は、パンニング方向及びチルティング方向であることを特徴とする請求項1〜4の何れか1項に記載の撮像装置。
- 被写体を撮像する撮像装置とともにネットワークカメラシステムを構成し、特定の駆動方向に動作する雲台装置において、
前記撮像装置と通信する通信手段と、
前記通信手段を介して前記撮像装置から受信した操作情報を保存する保存手段と、
前記通信手段を介して前記撮像装置から受信した操作情報に応じて動作させる駆動装置と、
前記駆動装置に操作情報を通知する通知手段と、
装置の各部を制御する制御手段と、
を有し、
前記制御手段は、
前記撮像装置より通信手段にて操作情報を受信した場合は、前記操作情報に基づいて、前記駆動装置を制御することを特徴とする雲台装置。 - 前記操作情報は、前記雲台装置の駆動方向、及び駆動量を示すことを特徴とする請求項6に記載の雲台装置。
- 前記駆動方向は、パンニング方向及びチルティング方向であることを特徴とする請求項6に記載の雲台装置。
- 画像データを表示可能な無線端末機器と、特定の駆動方向に動作する雲台装置とともにネットワークカメラシステムを構成する撮像装置の制御方法において、
前記無線端末機器と通信する第1の通信工程と、
前記雲台装置と通信する第2の通信工程と、
前記無線端末機器からデータを受信する受信工程と、
被写体を撮像して画像データを生成する撮像工程と、
前記撮像工程において撮像する被写体が画像データの予め定めた範囲内に位置するかどうかを判別する判別工程と、
前記無線端末機器からの操作情報を検知する検知工程と、
前記検知工程において検知した操作情報を変更する変更工程と、
前記変更工程において変更した操作情報を前記雲台装置に通知する通知工程と、
装置の各部を制御する制御工程と、
を有し、
前記制御工程は、
前記撮像工程にて撮像した画像データに対し、前記判別工程にて、被写体が画像データの予め定めた範囲内に位置するかどうかを判別し、範囲内に位置しないと判別した場合は、前記無線端末機器と前記第1の通信工程にて通信を開始した後、前記受信工程にて前記無線端末機器から受信したデータから、前記検知工程にて前記操作情報を検知し、検知した前記操作情報を、前記変更工程にて変更し、前記第2の通信工程にて前記雲台装置と通信を開始した後、前記変更工程にて変更した前記操作情報を、前記通知工程にて、前記雲台装置に通知するよう制御することを特徴とする撮像装置の制御方法。 - 被写体を撮像する撮像装置とともにネットワークカメラシステムを構成し、特定の駆動方向に動作する雲台装置の制御方法において、
前記撮像装置と通信する通信工程と、
前記通信工程において前記撮像装置から受信した操作情報を保存する保存工程と、
前記通信工程において前記撮像装置から受信した操作情報に応じて駆動装置を動作させる駆動工程と、
前記駆動装置に操作情報を通知する通知工程と、
装置の各部を制御する制御工程と、
を有し、
前記制御工程は、
前記撮像装置より通信工程にて操作情報を受信した場合は、前記操作情報に基づいて、前記駆動装置を制御することを特徴とする雲台装置の制御方法。 - 画像データを表示可能な無線端末機器と、特定の駆動方向に動作する雲台装置とともにネットワークカメラシステムを構成する撮像装置の制御方法をコンピュータに実行させるプログラムにおいて、
前記無線端末機器と通信する第1の通信工程と、
前記雲台装置と通信する第2の通信工程と、
前記無線端末機器からデータを受信する受信工程と、
被写体を撮像して画像データを生成する撮像工程と、
前記撮像工程において撮像する被写体が画像データの予め定めた範囲内に位置するかどうかを判別する判別工程と、
前記無線端末機器からの操作情報を検知する検知工程と、
前記検知工程において検知した操作情報を変更する変更工程と、
前記変更工程において変更した操作情報を前記雲台装置に通知する通知工程と、
装置の各部を制御する制御工程と、
をコンピュータに実行させ、
前記制御工程は、
前記撮像工程にて撮像した画像データに対し、前記判別工程にて、被写体が画像データの予め定めた範囲内に位置するかどうかを判別し、範囲内に位置しないと判別した場合は、前記無線端末機器と前記第1の通信工程にて通信を開始した後、前記受信工程にて前記無線端末機器から受信したデータから、前記検知工程にて前記操作情報を検知し、検知した前記操作情報を、前記変更工程にて変更し、前記第2の通信工程にて前記雲台装置と通信を開始した後、前記変更工程にて変更した前記操作情報を、前記通知工程にて、前記雲台装置に通知するよう制御することを特徴とするプログラム。 - 被写体を撮像する撮像装置とともにネットワークカメラシステムを構成し、特定の駆動方向に動作する雲台装置の制御方法をコンピュータに実行させるプログラムにおいて、
前記撮像装置と通信する通信工程と、
前記通信工程において前記撮像装置から受信した操作情報を保存する保存工程と、
前記通信工程において前記撮像装置から受信した操作情報に応じて駆動装置を動作させる駆動工程と、
前記駆動装置に操作情報を通知する通知工程と、
装置の各部を制御する制御工程と、
をコンピュータに実行させ、
前記制御工程は、
前記撮像装置より通信工程にて操作情報を受信した場合は、前記操作情報に基づいて、前記駆動装置を制御することを特徴とするプログラム。 - 請求項11または12に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014016113A JP2015142360A (ja) | 2014-01-30 | 2014-01-30 | 撮像装置及び雲台装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014016113A JP2015142360A (ja) | 2014-01-30 | 2014-01-30 | 撮像装置及び雲台装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015142360A true JP2015142360A (ja) | 2015-08-03 |
Family
ID=53772412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014016113A Pending JP2015142360A (ja) | 2014-01-30 | 2014-01-30 | 撮像装置及び雲台装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015142360A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021044622A (ja) * | 2019-09-06 | 2021-03-18 | キヤノン株式会社 | 制御装置、制御方法、プログラム、および記憶媒体 |
-
2014
- 2014-01-30 JP JP2014016113A patent/JP2015142360A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021044622A (ja) * | 2019-09-06 | 2021-03-18 | キヤノン株式会社 | 制御装置、制御方法、プログラム、および記憶媒体 |
JP7357490B2 (ja) | 2019-09-06 | 2023-10-06 | キヤノン株式会社 | 制御装置、制御方法、プログラム、および記憶媒体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106716989B (zh) | 摄像装置、摄像方法及程序 | |
US9584713B2 (en) | Image capturing apparatus capable of specifying an object in image data based on object detection, motion detection and/or object recognition, communication apparatus communicating with image capturing apparatus, and control method therefor | |
KR20170023885A (ko) | 음성 또는 영상 통화 중 컨텍스트 정보 합성 및 전송 기법 | |
KR20170012178A (ko) | 동영상 내용을 획득하기 위한 방법 및 장치 | |
US9743048B2 (en) | Imaging apparatus, camera unit, display unit, image-taking method, display method and computer readable recording medium recording program thereon | |
WO2015142971A1 (en) | Receiver-controlled panoramic view video share | |
JP6735834B2 (ja) | 低品質ビデオコンテンツの検出とマーキング | |
US9706101B2 (en) | Image processing terminal, imaging machine, information processing method, program, and remote imaging system to remotely operate the imaging machine | |
JP6029292B2 (ja) | 通信機器、通信方法およびプログラム | |
US20170045933A1 (en) | Communication apparatus, communication method, and computer readable recording medium | |
US20150022680A1 (en) | Imaging apparatus, external apparatus, imaging system, method for controlling imaging apparatus, method for controlling external apparatus, method for controlling imaging system, and storage medium | |
JP2015023416A (ja) | 通信装置、撮像装置およびそれらの制御方法、並びにプログラム | |
JP2016127379A (ja) | 情報処理装置、制御方法、およびプログラム | |
JP6360300B2 (ja) | 通信装置、撮像装置およびそれらの制御方法、並びにプログラム | |
CN107211090B (zh) | 操作装置、跟踪系统、操作方法及介质 | |
JP6390766B2 (ja) | 情報処理装置、撮像装置、撮像システム、情報処理装置の制御方法およびプログラム | |
JP2015142360A (ja) | 撮像装置及び雲台装置 | |
JP2015023417A (ja) | 通信装置、撮像装置およびそれらの制御方法、並びにプログラム | |
US20150373073A1 (en) | Image pickup apparatus, control method and recording medium | |
US11470234B2 (en) | Wireless camera and method of video streaming | |
JP2014236313A (ja) | 表示制御装置、表示制御システム、及び、プログラム | |
CN112352465B (zh) | 通信设备、通信设备的控制方法和存储介质 | |
JP2012227603A (ja) | カメラ制御装置、カメラ制御装置の制御方法 | |
JP6246296B2 (ja) | 通信機器、通信方法およびプログラム | |
JP6254862B2 (ja) | 撮像装置およびその制御方法、システム、並びにプログラム |