JP6254862B2 - 撮像装置およびその制御方法、システム、並びにプログラム - Google Patents

撮像装置およびその制御方法、システム、並びにプログラム Download PDF

Info

Publication number
JP6254862B2
JP6254862B2 JP2014018829A JP2014018829A JP6254862B2 JP 6254862 B2 JP6254862 B2 JP 6254862B2 JP 2014018829 A JP2014018829 A JP 2014018829A JP 2014018829 A JP2014018829 A JP 2014018829A JP 6254862 B2 JP6254862 B2 JP 6254862B2
Authority
JP
Japan
Prior art keywords
moving image
imaging
face
communication device
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014018829A
Other languages
English (en)
Other versions
JP2015146532A (ja
Inventor
麻由 横井
麻由 横井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014018829A priority Critical patent/JP6254862B2/ja
Publication of JP2015146532A publication Critical patent/JP2015146532A/ja
Application granted granted Critical
Publication of JP6254862B2 publication Critical patent/JP6254862B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明はネットワークを介した二つの機器間におけるデータ伝送に関するものである。
従来より、ストリーミングの技術として、従来ファイル転送などに用いられていたHTTP(Hypertext Transfer Protocol)/TCP(Transmission Control Protocol)プロトコルを利用して、ストリーミングデータの転送を行う方法がある。この方法でストリーミングを行うと、ネットワーク状況により輻輳遅延が発生する。これに対して、データを送信した時刻と、通信相手からデータ受け取り通知を受信した時刻の差分から遅延時間を算出する技術がある(特許文献1)。
特開2006−101009号公報
しかしながら、上記特許文献1では、自装置から通信相手にデータを送信する際にかかる時間と、通信相手がデータの受け取り通知を自装置に送信する際にかかる時間の通信往復時間が合算され、自装置がデータを圧縮し送信してから通信相手が再生するまでの正確な時間を算出できない。
本発明は、上記課題に鑑みてなされ、その目的は、ストリーミングを行う際に発生する通信の遅延時間を正確に算出する技術を実現することである。
上記課題を解決し、目的を達成するために、本発明の撮像装置は、通信装置と通信可能な撮像装置であって、所定の時間ごとに表示されるように顔の画像が含まれる動画を生成し前記通信装置に送信する送信手段と、前記通信装置に表示された前記動画を撮像する撮像手段と、前記撮像手段により撮像された動画から顔を検出する検出手段と、前記動画の生成を開始した時刻と、前記が検出されるまでの時刻との差分から前記通信装置と通信するときの遅延時間を算出する算出手段と、を有する。
本発明によれば、ストリーミングを行う際に発生する通信の遅延時間を正確に算出することが可能となる。
本発明に係る実施形態の撮像装置の構成を例示するブロック図。 本発明に係る実施形態の通信装置の構成を例示するブロック図。 本実施形態のシステムによるライブストリーミング動作を説明する図。 本実施形態の撮像装置の動作を示すフローチャート。 本実施形態のシステム構成を説明する図。
以下に、添付図面を参照して本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
以下、本発明を、サーバとしての撮像装置1000と、クライアントとしての通信装置2000とを通信可能に接続したシステムを例に説明する。この例では、撮像装置1000で撮影された映像をリアルタイムに順次送信することで、通信装置2000でライブストリーミングにより映像が視聴可能となる。なお、ライブストリーミングの詳細については後述する。本実施形態では、撮像装置1000をデジタルビデオカメラ、通信装置2000をスマートフォンなどの通信端末に適用した例を説明するが、本発明は、これに限られない。例えば、本発明は、撮像装置として、カメラ付き携帯電話や携帯型のメディアプレーヤ、いわゆるタブレット端末など、通信装置として、パーソナルコンピュータなどの情報処理装置や携帯電話、タブレットデバイス端末、テレビなどにも適用できる。
<撮像装置の構成>図1を参照して、本発明に係る実施形態の撮像装置の構成及び機能の概略について説明する。
図1に示す撮像装置(以下、カメラ)1000において、内部バス1010に対してCPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003、入力処理部1004、出力処理部1006、通信制御部1008、記録媒体制御部1011、カメラ信号処理部1015、符号・復号処理部1016が接続される。内部バス1010に接続される各部は、内部バス1010を介して互いにデータのやりとりを行える。
ROM1002は、CPU1001が動作するための各種プログラムや設定データが格納される。また、フラッシュメモリなども含まれる。RAM1003は、CPU1001が動作時に必要とするプログラムや変数、作業用の一時データなどが適宜記憶される。
CPU1001は、ROM1002または記録媒体1012に格納されているプログラムに従い、RAM1003をワークメモリとして用いて、このカメラ1000の各部を制御する。
光学系1013は、フォーカス、絞り機構などを含む撮影レンズであり、被写体の光学像を形成する。撮像素子1014は、CCDやCMOS素子等で構成され、ここではA/D変換器を含み、光学像をアナログ電気信号に変換した後、デジタル信号に変換する。
カメラ信号処理部1015は、CPU1001の制御に基づき、撮像素子1014で変換されたデジタル信号に対し、所定の画素補間・縮小といったリサイズ処理や色変換、各種補正処理等を行う。
符号・復号処理部1016は、CPU1001の制御に基づき、カメラ信号処理部1015で処理されたデジタル信号を所定のビットレート、フォーマット形式で圧縮符号化、または映像圧縮符号化データの復号を行う。
なお、音声については特に図示していないが、音声付き映像を配信する場合には、マイクロホン、音声のアナログ信号をデジタル化するA/D変換器、デジタルデータを符号化する構成を持つことになる。当然、映像記録時には映像と共に音声も同時に収録され、符号・復号処理部1016で映像と音声を多重化することで、音声付映像データを生成することになる。
入力処理部1004は、操作部1005でのユーザ操作を受け付け、操作に応じた制御信号を生成し、CPU1001に供給する。例えば、操作部1005は、ユーザ操作を受け付ける入力デバイスとして、キーボードといった文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイスなどを有する。また、赤外線リモコンなどの遠隔操作可能なものも含む。なお、タッチパネルは、例えば平面的に構成された入力部に対して接触された位置に応じた座標情報が出力されるようにした入力デバイスである。これにより、カメラ1000に対し、ユーザ操作に応じた動作を行わせることができる。
出力処理部1006は、CPU1001がプログラムに従い生成したGUI(Graphical User Interface)などの表示データに基づき、表示部1007に対して表示させるための表示信号を出力する。
なお、操作部1005としてタッチパネルを用いる場合、操作部1005と表示部1007とを一体的に構成することができる。例えば、タッチパネルを光の透過率が表示部1007の表示を妨げないように構成し、表示部1007の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、表示部1007上の表示座標とを対応付ける。これにより、あたかもユーザが表示部1007上に表示された画面を直接的に操作可能であるかのようなGUIを構成することができる。
記録媒体制御部1011は、HDDや不揮発性の半導体メモリなどの記録媒体1012が接続され、CPU1001の制御に基づき、接続された記録媒体1012からのデータの読み出しや、当該記録媒体1012に対するデータの書き込みを行う。なお、記録媒体制御部1011が接続可能な記録媒体1012は、不図示のソケットなどを介して、例えばメモリカードなどの着脱可能な不揮発性の半導体メモリを接続するものとしても良い。
記録媒体1012は、撮影した映像データのほか、CPU1001の制御に必要な情報も記録することが可能である。
通信制御部1008は、CPU1001の制御に基づき、コネクタ(有線)/アンテナ(無線)1009を介して、通信装置2000その他の外部装置との通信を行う。通信方法としては、無線のIEEE802.11やBluetooth(登録商標)、有線のIEEE802.3などを用いることが可能である。
上述したカメラ1000では中央1点AFや顔AFなどのオートフォーカス技術を用いた撮影が可能である。中央1点AFとは撮影画面内の中央位置1点に対してAFを行うことである。顔AFとは顔検出機能によって検出された撮影画面内の顔に対してAFを行うことである。
ここで、顔検出機能について説明する。
CPU1001は顔検出対象の画像データを符号・復号処理部1016に送る。符号・復号処理部1016は、CPU1001の制御に従い、当該画像データに水平方向バンドパスフィルタを作用させる。また、符号・復号処理部1016は、CPU1001の制御に従い、処理された画像データに垂直方向バンドパスフィルタを作用させる。これら水平及び垂直方向のバンドパスフィルタにより、画像データよりエッジ成分が検出される。その後、CPU1001は、検出されたエッジ成分に関してパターンマッチングを行い、目及び鼻、口、耳の候補群を抽出する。そして、CPU1001は、抽出された目の候補群の中から、予め設定された条件(例えば2つの目の距離、傾き等)を満たすものを、目の対と判断し、目の対があるもののみ目の候補群として絞り込む。そして、CPU1001は、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)を対応付け、また、予め設定した非顔条件フィルタを通すことで、顔を検出する。CPU1001は、顔の検出結果に応じて上記顔情報を出力し、処理を終了する。このとき、顔の数などの特徴量を記録媒体1012に記録する。
以上のようにライブビュー表示あるいは再生表示される画像データを解析して、画像データの特徴量を抽出して被写体情報を検出することが可能である。本実施形態では被写体の特徴情報として顔情報を例に挙げたが、これ以外に赤目判定や目の検出、目つむり検出、笑顔検出などの様々な情報がある。
なお、顔AFと同時に顔AE、顔FE、顔WBを行うことができる。顔AEとは検出された顔の明るさに合わせて、画面全体の露出を最適化することである。顔FEとは検出された顔を中心にフラッシュの調光をすることである。顔WBとは、検出された顔の色に合わせて画面全体のホワイトバランスを最適化することである。
なお、ハードウェアの構成は図1に示すものに限定されず、例えば1つのハードウェアが表示制御、通信制御、記録制御、画像処理制御などを行い、カメラ1000の各手段として機能してもよい。また、複数のハードウェアが協働して1つの手段として機能してもよい。
<通信装置の構成>次に、図2を参照して、本発明に係る実施形態の通信装置の構成及び機能の概略について説明する。
図2に示す通信装置(以下、端末)2000において、多くの部分はカメラ1000と同様となるため、カメラ1000と説明が重複するCPU2001〜記録媒体2012までの説明は省略する。符号・復号処理部2013は、CPU2001の制御に基づき、映像圧縮符号化データの復号、および必要に応じて復号したデータの再符号化を行う。
<システム構成>次に、図5を参照して、本実施形態のシステム構成について説明する。
カメラ1000は端末2000との通信を開始すると、予めカメラ1000の記録媒体1012に記録されている遅延時間算出用動画3005を圧縮符号化し、端末2000に送信する。端末2000はカメラ1000から受信した遅延時間算出用動画3005を再生する。カメラ1000は端末2000の表示部2007に表示された映像を撮像し、顔検出を行う。
遅延時間算出用動画3005は、カメラ1000と端末2000が通信を行う際に発生する輻輳遅延の時間を算出するための動画である。また、遅延時間算出用動画3005には、フレームごとに四隅にカメラ1000により検出が容易なパターン3005aが含まれている。また、遅延時間算出用動画3005には、一定時間ごとに顔が表示されるようにカメラ1000により検出が容易な顔3005bが含まれており、好ましくは顔の位置または個数がフレームごとに異なっている。このように、顔が連続して同じ位置に出現しないようにすることで、前回検出された顔との誤検出を防ぐことができる。
カメラ1000は、遅延時間算出用動画3005の圧縮符号化を開始した時刻と、端末2000が受信し、表示部2007に表示された映像をカメラ1000で撮像し、パターンが検出されるまでの時刻との差分から遅延時間を算出する。また、遅延時間算出用動画3005の各フレームの四隅に別の顔もしくは別のパターンを配置することで、カメラ1000はフレームの四隅の位置を把握することができ、フレームの四隅に対するパターンの相対的な位置を把握することができる。
<ライブストリーミング動作の説明>次に、図1ないし図3を参照して、本実施形態のシステムによるライブストリーミング動作について説明する。
図3において、ユーザがカメラ1000において、操作部1005からライブストリーミングモードを実行すると、カメラ1000は、CPU1001の制御により、通信制御部1008を通信可能状態とする。
さらにユーザは端末2000において、操作部2005を操作して通信接続処理およびライブストリーミングに必要なアプリケーションの起動を行う。これに応じて、端末2000のCPU2001は、ROM2002または記録媒体2012に格納された当該プログラムに従い、通信制御部2008を制御し、カメラ1000との通信を開始し、接続処理を行う。
ここで、カメラ1000と端末2000は、通信プロトコルとしてHTTP(Hypertext Transfer Protocol)/TCP(Transmission Control Protocol)を使用するものとする。また、通信接続においてUPnP(Universal Plug and Play)に対応しているものとする。UPnP対応の端末2000は、機器をネットワークに接続すると、DHCP(Dynamic Host Configuration Protocol)または、AutoIPによるIP(Internet Protocol)アドレスの設定を行う。IPアドレスを取得した機器は、ネットワーク上の他の機器を相互に認識するために、「デバイスディスカバリとコントロール」によって、デバイス検索と応答デバイスの種別、サービス機能などの情報取得を行う(ステップ3001)。カメラ1000は、端末2000のデバイス検索要求に対して、機器情報と機器固有情報のプレイリスト取得先情報などを応答する(ステップ3002)。
カメラ1000と端末2000の接続処理が完了すると、カメラ1000はライブストリーミングを開始する。ライブストリーミングを開始すると、カメラ1000のCPU1001は、記録媒体1012に記録されている遅延時間算出用動画3005を符号・復号処理部1016で圧縮符号化し、所定の周期Tごとにフレームを更新する。
なお、本実施形態ではT=1/30秒として、以下説明する。
CPU1001は、上記フレームの保存先と関連させたパス情報を生成する。パス情報は、端末2000がフレームを取得する際の取得先情報として使用する。端末2000は、所定の周期Tを事前に記憶しているか、カメラ1000の機器情報に含めることで機器情報取得時に得ることができているものとする。
端末2000は、ライブストリーミング開始後、約T(秒)後にステップ3002で取得したフレーム取得先へ、フレーム取得要求(HTTP GETメソッド)を行う(ステップ3003)。
カメラ1000は、応答フレームとして、要求されれたフレームを送信する(ステップS3004)。
端末2000は、受信したフレームを符号・復号処理部2013に渡し、復号した後、出力処理部2006を介して、表示部2007で再生表示を行う。また、ライブストリーミングアプリケーションにより、ユーザから端末記録が実行されている場合、復号したデータ、またはフレームからヘッダなどを除いたデータ部を、記録媒体2012に記録する。そして、さらに順次受信するフレームを復号し、受信済みのフレームと結合し記録していく。
ストリーミング中、カメラ1000は、約T(秒)毎にフレーム更新を行う。
端末2000は、約T(秒)毎にフレーム取得要求(ステップ3003)を行う。
なお、端末2000の要求処理(ステップ3003)には端末、またはアプリケーションの固有のIDを付加する。そして、本実施形態のカメラ1000は、最初に要求のあったIDの要求のみに対してストリーミングを行う。つまり、本実施形態のカメラ1000と端末2000は1対1接続でのみストリーミングを行うものとする。
なお、遅延時間算出後、カメラ1000が撮像したストリーミング映像を端末2000に送信する場合は、カメラ1000のCPU1001は、撮像素子1014からの信号出力を開始し、その出力をカメラ信号処理部1015により適切なフレームデータに処理し、符号・復号処理部1016へデータを送出する。
符号・復号処理部1016では、受け取ったフレームデータを所定のビットレート、フォーマット形式で圧縮符号化し、RAM1003または記録媒体1012に保存する。
保存したデータは遅延時間算出用動画3005と同様に処理され、端末2000からのフレーム取得要求(ステップ3003)に応じて、応答フレーム(ステップ3004)として端末2000に送信する。
<カメラの動作説明>次に、図4を参照して、カメラ1000が端末2000と接続確立後、カメラ1000が実行する処理について説明する。なお、以下の処理はカメラ1000のCPU1001が各種プログラムや入力信号に基づきカメラ1000の各部を制御することで実現する。
ステップS4001では、CPU1001は、ライブストリーミング開始に伴う、フレームデータ生成の開始処理を行う。CPU1001は、記録媒体1012から遅延時間算出用動画3005のデータを読み出し、符号・復号処理部1016へデータを渡す。符号・復号処理部1016では、受け取った映像データを所定のビットレート、フォーマット形式で圧縮符号化し、さらに所定の時間長T(本実施形態では1/30秒とする)で分割する処理を開始する。
ステップS4002では、CPU1001は、符号・復号処理部1016によりフレームデータの圧縮符号化を開始する時刻を記録媒体1012に記録する。
ステップS4003では、CPU1001は、フレーム情報の生成を行う。ここでは、生成されたフレームデータの時間長と、当該フレームデータを特定できる保存先アドレス、またはファイル名などに関連付けたパス情報を生成する。ここで、本実施形態の説明では、フレームの時間長Tは1/30秒固定となる。
ステップS4004では、CPU1001は、端末2000からのフレーム取得要求(ステップ3003)を待ち、フレーム取得要求があった場合にはステップS4005へ進む。
ステップS4005では、フレーム取得要求(ステップ3003)に対する応答として、ステップS4001で圧縮符号化したフレームデータの送信を行う(ステップ3004)。
ステップS4006では、CPU1001は、光学系1013により端末2000の表示部2007に表示されている映像を撮像する。このとき、端末2000の表示部2007には、カメラ1000から受信したフレームが表示されている。
ステップS4007では、CPU1001は、フレームの四隅に配置されているパターンが検出されたか否かを判定し、検出された場合はステップS4008へ進み、検出されなかった場合はステップS4010へ進む。
ステップS4008では、CPU1001は、ステップS4006で撮像された映像中から顔が検出されたか否かを判定し、検出された場合はステップS4009へ進み、検出されなかった場合はステップS4010へ進む。なお、遅延時間算出用動画3005は、フレームごとに顔の位置または個数が異なっており、これにより顔の誤検出を防ぐことができる。
ステップS4009では、CPU1001は、ステップS4001で遅延時間算出用動画3005の圧縮符号化を開始してからステップS4008で顔が検出されるまでにかかった時間を算出する。ステップS4002で記録されたフレームの圧縮符号化開始時刻をT1とし、遅延時間算出用動画3005で顔が含まれているフレームをn枚目とし、ステップS4008で顔が検出された時刻をT2とすると、カメラ1000でフレームデータの圧縮符号化を開始してから、端末2000がフレームデータを受信し、表示部2007に表示された映像から顔が検出されるまでの時間は下記式1から算出することができる。
遅延時間(秒)=T2−(T1+T×n)・・・(1)
なお、ステップS4008で検出される顔の数を判定に使用する場合は、顔の個数ごとに上記式1により遅延時間を算出でき、それらの平均を算出することでより正確な遅延時間を算出することができる。
ステップS4010では、処理を終了するか否かの判定を行い、終了する場合以外はステップS4004へ戻る。
本実施形態では、遅延時間算出用動画3005が圧縮前のデータであることを前提として説明した。この場合、実際に撮像されたデータを使用するのとほぼ同じ時間を費やして処理を行うことができる。なお、遅延時間算出用動画3005が圧縮後のデータであった場合は、ステップS4001での圧縮処理とステップS4002のフレーム圧縮符号化開始時刻の記録を省くことができる。また、ステップS4005においてフレーム送信開始時刻を記録することで、端末2000に表示された映像から顔が検出されるまでの通信にのみかかる時間を算出することができる。
[他の実施形態]本発明は、以下の処理を実行することによっても実現される。即ち、上記実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。

Claims (7)

  1. 通信装置と通信可能な撮像装置であって、
    所定の時間ごとに表示されるように顔の画像が含まれる動画を生成し前記通信装置に送信する送信手段と、
    前記通信装置に表示された前記動画を撮像する撮像手段と、
    前記撮像手段により撮像された動画から顔を検出する検出手段と、
    前記動画の生成を開始した時刻と、前記が検出されるまでの時刻との差分から前記通信装置と通信するときの遅延時間を算出する算出手段と、を有することを特徴とする撮像装置。
  2. 前記動画が記録されている第1の記録手段と、
    前記動画の生成を開始した時刻を記録している第2の記録手段と、を更に有することを特徴とする請求項1に記載の撮像装置。
  3. 前記所定の時間ごとに表示される顔は、位置または個数が異なっていることを特徴とする請求項1または2に記載の撮像装置。
  4. 前記撮像手段により撮像された動画を表示する表示手段を更に有することを特徴とする請求項ないしのいずれか1項に記載の撮像装置。
  5. 撮像装置と通信装置が通信可能なシステムであって、
    前記通信装置は、
    所定の時間ごとに表示されるように顔の画像が含まれる動画を前記撮像装置に対して要求する要求手段と、
    前記撮像装置から受信した前記動画を表示する表示手段と、を有し、
    前記撮像装置は、
    前記通信装置からの要求に応答して前記動画を生成し前記通信装置に送信する送信手段と、
    前記通信装置に表示された前記動画を撮像する撮像手段と、
    前記撮像手段により撮像された動画から顔を検出する検出手段と、
    前記動画の生成を開始した時刻と、前記が検出されるまでの時刻との差分から前記通信装置と通信するときの遅延時間を算出する算出手段と、を有することを特徴とするシステム。
  6. 通信装置と通信可能な撮像装置の制御方法であって、
    所定の時間ごとに表示されるように顔の画像が含まれる動画を前記通信装置に送信する送信ステップと、
    前記通信装置に表示された前記動画を撮像する撮像ステップと、
    前記撮像された動画から顔を検出する検出ステップと、
    前記動画の生成を開始した時刻と、前記が検出されるまでの時刻との差分から前記通信装置と通信するときの遅延時間を算出する算出ステップと、を有することを特徴とする撮像装置の制御方法。
  7. コンピュータを、請求項1ないしのいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。
JP2014018829A 2014-02-03 2014-02-03 撮像装置およびその制御方法、システム、並びにプログラム Expired - Fee Related JP6254862B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014018829A JP6254862B2 (ja) 2014-02-03 2014-02-03 撮像装置およびその制御方法、システム、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014018829A JP6254862B2 (ja) 2014-02-03 2014-02-03 撮像装置およびその制御方法、システム、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2015146532A JP2015146532A (ja) 2015-08-13
JP6254862B2 true JP6254862B2 (ja) 2017-12-27

Family

ID=53890584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014018829A Expired - Fee Related JP6254862B2 (ja) 2014-02-03 2014-02-03 撮像装置およびその制御方法、システム、並びにプログラム

Country Status (1)

Country Link
JP (1) JP6254862B2 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11133939A (ja) * 1997-10-29 1999-05-21 Hitachi Ltd 表示装置
JP2002041010A (ja) * 2000-07-27 2002-02-08 Sony Corp 表示制御方法、表示装置および方法、ならびに、情報処理装置
JP2009130820A (ja) * 2007-11-27 2009-06-11 Canon Inc 情報処理装置

Also Published As

Publication number Publication date
JP2015146532A (ja) 2015-08-13

Similar Documents

Publication Publication Date Title
US10594988B2 (en) Image capture apparatus, method for setting mask image, and recording medium
CN109756671B (zh) 使用多个相机记录图像的电子装置及其操作方法
US20150172531A1 (en) Image capturing apparatus, communication apparatus, and control method therefor
JPWO2013132828A1 (ja) 通信システムおよび中継装置
JP2015115839A5 (ja)
JP6173085B2 (ja) 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
KR102622123B1 (ko) 전자 장치의 움직임에 따라 관심 영역에 움직이는 피사체에 대한 움직임과 관련된 임계값을 조정하여 동영상을 촬영하는 전자 장치 및 그 작동 방법
US9706102B1 (en) Enhanced images associated with display devices
US10185387B2 (en) Communication apparatus, communication method, and computer readable recording medium
US9369623B2 (en) Remote-control apparatus and control method thereof, image capturing apparatus and control method thereof, and system
US20170070699A1 (en) Information processing apparatus, image capturing apparatus, and control methods for the same
EP3499880A1 (en) Systems and methods for transmitting a high quality video image from a low power sensor
JP6360300B2 (ja) 通信装置、撮像装置およびそれらの制御方法、並びにプログラム
US11523052B2 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
US10028017B2 (en) Information processing device and method of controlling information processing device
JP2018005091A (ja) 表示制御プログラム、表示制御方法および表示制御装置
JP2014027365A (ja) 撮影機器
JP6254862B2 (ja) 撮像装置およびその制御方法、システム、並びにプログラム
US20150373073A1 (en) Image pickup apparatus, control method and recording medium
JP6719932B2 (ja) 情報設定装置および情報管理装置および情報生成装置およびこれらの制御方法およびプログラム
US20200336647A1 (en) Wireless camera and method of video streaming
JP2017017444A (ja) 撮像装置およびその制御方法、プログラムならびにシステム
JP2019068187A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP6686697B2 (ja) 送信制御プログラム、送信制御方法および送信制御システム
JP2015142360A (ja) 撮像装置及び雲台装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171201

R151 Written notification of patent or utility model registration

Ref document number: 6254862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees