JP2016082356A - 電子機器およびプログラム - Google Patents
電子機器およびプログラム Download PDFInfo
- Publication number
- JP2016082356A JP2016082356A JP2014211033A JP2014211033A JP2016082356A JP 2016082356 A JP2016082356 A JP 2016082356A JP 2014211033 A JP2014211033 A JP 2014211033A JP 2014211033 A JP2014211033 A JP 2014211033A JP 2016082356 A JP2016082356 A JP 2016082356A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- electronic device
- sensing
- information
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Details Of Cameras Including Film Mechanisms (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明の第2の態様によると、電子機器は、モバイル機器から複数の信号を取得する取得部と、取得された複数の信号を用いて、カメラの撮影に関するコマンドを出力する制御部と、を備える。
本発明の第3の態様によると、プログラムは、被写体が備えるセンサによるセンシング信号を取得する処理と、取得したセンシング信号を用いて、被写体を撮像するカメラの撮影タイミングを決定する処理と、をコンピュータに実行させる。
本発明の第4の態様によると、プログラムは、モバイル機器から複数の信号を取得する処理と、取得した複数の信号を用いて、カメラの撮影に関するコマンドを出力する処理と、をコンピュータに実行させる。
(第一の実施形態)
<使用場面の説明>
図1は、本発明の第一の実施形態による撮影システムを説明する図である。図1において、カメラ51と、高機能携帯電話機100と、によって撮影システムが構成される。カメラ51は、三脚52にセットされている。また、カメラ51は無線通信ユニットを搭載する。
無線通信ユニットは、カメラ51の筐体内に搭載される他、カメラ51の筐体外部のアクセサリ端子などに装着させるものでもよい。
図2は、上記カメラ51の構成例を説明するブロック図である。図2において、カメラ51は、撮像光学系11と、撮像素子12と、画像データ受信部13と、画像処理回路14と、LCDモニタ15と、RAM16と、フラッシュメモリ17と、CPU18と、通信制御回路19と、操作部材20と、を備える。
なお、無線通信ユニットがカメラ51の筐体外部のアクセサリとして構成される場合、通信制御回路19は無線通信ユニットに搭載されていてもよい。
自分撮りモードにおいてカメラ51(CPU18)が実行する処理の流れと、センシング機器100が実行する処理の流れについて、図3に例示するフローチャートを参照して説明する。図3(a)は、カメラ51が実行する処理を例示するフローチャートである。図3(b)は、センシング機器100が実行する処理を例示するフローチャートである。
カメラ51のCPU18は、ユーザー操作によって自分撮りモードにセットされると、図3(a)による処理を開始する。ステップS310において、CPU18は、自分撮りモードの処理を起動させてステップS320へ進む。ステップS320において、CPU18は、接続シーケンス処理を実行してステップS330へ進む。接続シーケンス処理では、接続要求を送信した端末機(センシング機器100)との間で上記PTP接続を行う。
なお、あらかじめ焦点調節位置を固定しておく、いわゆる置きピンによって本撮影を行ってもよい。
なお、上記説明では、ステップS370において、CPU18は、人物1が静止したか否かを判定したが、ステップS370は省略してもよい。すなわち、ステップS360において、CPU18は、人物1の位置がカメラ51の撮影画角内であると判定した場合に、ステップS380に進み、CPU18は撮影許可コマンドを出力し、撮影処理を行わせるように構成しても良い。また、その場合に、CPU18が人物1の位置がカメラ51の撮影画角内であると判定した後、所定の時間を経過後に撮影許可コマンドを出力するように構成しても良い。
センシング機器100は、ユーザー操作によって情報提供用のアプリを実行すると、図3(b)による処理を開始する。ステップS710において、センシング機器100は、自動撮りモードの処理を開始してステップS720へ進む。
(1)カメラ51は、人物1が備えるセンシング機器100によるセンシング情報を取得する通信制御回路19と、取得したセンシング情報を用いて、人物1を撮像するカメラ51の撮影タイミングを決定するCPU18と、を備えるようにした。人物1の情報を人物1の近くでセンシングすることにより、人物1から離れた位置でセンシングする場合に比べて高精度のセンシングが行える。このため、高精度のセンシング結果を用いた適切な撮影タイミングで撮影を行い得る。
上記カメラ51は、センシング機器100との間で通信を行うものであれば、デジタルカメラでなくてもよく、銀塩カメラであっても構わない。
また、上記カメラ51は、自分撮りモード用のアプリを実行した別の高機能携帯電話機100やタブレット端末などのモバイル機器によって構成してもよい。また、センシング機器100は、眼鏡型または腕時計型などのウェアラブル端末によって構成してもよい。
上述した説明では、カメラ51のCPU18が、撮影処理(S380)を行うための許可コマンドを出す例を説明したが、ステップS350〜S370に相当する処理をセンシング機器100側で行うようにしてもよい。
移動する人物1がカメラ51の画角内において停止する位置をあらかじめ決めておいてもよい。カメラ51のCPU18またはセンシング機器100は、人物1の移動軌跡に基づいて、カメラ51を基準にする所定の位置(例えば、撮影画角内で右、左、手前、奥)へ人物1が移動した場合に、撮影許可コマンドを出力する。
また、撮影許可コマンドを出力する撮影距離を、あらかじめ決めておいてもよい。カメラ51のCPU18またはセンシング機器100は、人物1の移動軌跡に基づいて、カメラ51を基準にした所定の撮影距離まで人物1が移動した場合に、撮影許可コマンドを出力する。
<使用場面の説明>
図4は、本発明の第二の実施形態による撮影システムを説明する図である。図4において、カメラ51と、複数の高機能携帯電話機(いわゆるスマートフォン)100A〜100Eと、によって撮影システムが構成される。カメラ51は、無線通信ユニットを搭載する。無線通信ユニットは、カメラ51の筐体内に搭載する他に、カメラ51の筐体外部のアクセサリ端子などに装着させてもよい。なお、図4、図5において第一の実施形態の説明で用いた符号と同じ符号が存在する場合、本実施形態における説明を優先して適用する。
なお、カメラ51および自動雲台53は、三脚52にセットする代わりに、部屋の壁や天井に取り付けてもよい。また、カメラ51と自動雲台53は、必ずしも別体である必要は無く、カメラ51に自動雲台53が含まれる構成であっても良い。
高機能携帯電話機に代えて、タブレット端末などのモバイル機器や、眼鏡型または腕時計型などのウェアラブル端末を、センシング機器100A〜100Eとして用いてもよい。
図5は、カメラ51および自動雲台53の構成を例示する図である。カメラ51は、自動雲台53にセットされ、自動雲台53は、三脚52(図4)に取り付けられている。カメラ51および自動雲台53間は、無線通信によって接続される。カメラ51およびセンシング機器100A〜100E間も、無線通信によって接続される。
なお、カメラ51および自動雲台53間の接続は、無線通信接続に代えて有線通信接続を行ってもよい。
なお、カメラ51の筐体外部のアクセサリとして無線通信ユニットを構成した場合、通信ドライバ17および送受信回路18を無線通信ユニットに搭載してもよい。
自動雲台53は、駆動モータ41と、電源コントローラ42と、CPU43と、通信ドライバ44と、送受信回路45と、メモリ46と、を有し、電池33が実装されている。
自動撮影モードにおいてカメラ51(CPU16)が実行する処理の流れと、センシング機器100が実行する処理の流れについて、図6に例示するフローチャートを参照して説明する。図6(a)は、カメラ51のCPU16が実行する処理を例示するフローチャートである。図6(b)は、センシング機器100(100A〜100E)が実行する処理を例示するフローチャートである。
CPU16は、ユーザー操作によって自動撮影モードにセットされると、図6(a)による処理を開始する。ステップS10において、CPU16は、自動撮影モードの処理を起動させてステップS20へ進む。ステップS20において、CPU16は、リクエストハンドラ処理を起動させてステップS30へ進む。リクエストハンドラ処理では、例えば接続要求受付問い合わせ(Inquiry)をブロードキャスト送信する。ブロードキャスト送信するのは、無線通信可能な範囲に存在する多くの端末機(センシング機器100)へ送信するためである。
なお、カメラ51が端末機(センシング機器100)の位置情報を音声情報と別に取得する代わりに、ステップS50で取得する音声情報に位置情報を含めておいてもよい。この場合は、音声情報の中に各端末機(センシング機器100)のIDと、各端末(センシング機器100)の音声取得時刻情報と、各端末(センシング機器100)の位置情報とが付されることになる。
なお、本撮影開始のタイミングの決定は、上述した音声情報の音声レベルに基づく決定の他に、上記類似を判定した音声波形と、あらかじめCPU16内の不揮発性メモリに記録させた基準波形との比較結果に基づいて決定してもよい。CPU16は、両波形間で公知のパターンマッチング処理を行うことにより、両波形が略一致していると判断した場合に、本撮影を開始させる。基準波形は、例えば笑い声、樂曲のフレーズ、感嘆詞などの所定の言葉の音声波形を用いることもできる。
基準波形は、ユーザーが自由にCPU16内の不揮発性メモリへ追加したり、不揮発性メモリから削除したりすることができる。また、音声レベルに基づいて本撮影を開始させたCPU16が、そのときに取得された音声波形を基準波形として不揮発性メモリに保存させてもよい。
なお、音声情報の音声レベルが上記所定のレベルを下回らなくても、本撮影の開始から所定時間が経過した場合に自動撮影を終了させるようにしてもよい。
センシング機器100は、ユーザー操作によって情報提供用のアプリを実行すると、図6(b)による処理を開始する。ステップS510において、センシング機器100は、自動撮影モードの処理を開始してステップS520へ進む。
なお、録音した音声情報に、センシング機器100の位置情報を付してもよい。
(1)カメラ51は、人物A〜Eが備えるセンシング機器100A〜100Eによるセンシング情報を取得する送受信回路18と、取得したセンシング情報を用いて、人物A〜Eを撮像するカメラ51の撮影タイミングを決定するCPU16と、を備えるようにした。人物A〜Eが備えるセンシング機器100A〜100Eを用いることにより、人物A〜Eの情報を人物A〜Eの近くでセンシングすることが可能となり、人物A〜Eから離れた位置でセンシングする場合に比べて高精度のセンシングが行える。このため、高精度のセンシング結果を用いた適切な撮影タイミングで撮影を行い得る。
上記カメラ51は、センシング機器100A〜100Eとの間で通信を行うものであれば、自動撮影モード用のアプリを実行した別の高機能携帯電話機100などのモバイル機器によって構成してもよい。また、センシング機器100A〜100Eは、眼鏡型または腕時計型などのウェアラブル端末によって構成してもよい。
上述した説明では、カメラ51のCPU16が決定した撮影方向へ、自動雲台53を駆動することによってカメラ51の撮影方向を自動制御する例を説明したが、人物が、カメラ51を手持ちして撮影できるように構成してもよい。変形例6においては、カメラ51が決定した撮影すべき方向を、カメラ51のディスプレイ23に表示させる。変形例6の場合は、ディスプレイ23に対する表示コマンドが撮影すべき方向を知らせるコマンドに相当する。ディスプレイ23の表示内容は、例えば第三の実施形態において例示する図11の場合と同様に行わせることができる。
センシング機器100A〜100Eによって検出された振動に基づいて、本撮影開始のタイミングの決定を行うようにしてもよい。CPU16は、所定のセンシング機器(例えば、上述したように類似を判定した音声波形に対応するセンシング機器)から送信された振動情報の振幅が、あらかじめ定めた所定のレベルを超えた場合に、撮影許可コマンドを出力して本撮影を開始させる。
また、人物が踊る場合、踊る人物が携帯するセンシング機器は大きな振動を検出する。このため、踊る人物が携帯するセンシング機器の振動が大きくなったタイミングはシャッターチャンスの可能性が高い。
<使用場面の説明>
図9は、本発明の第三の実施形態による撮影システムを説明する図である。図9において、複数の高機能携帯電話機(いわゆるスマートフォン)100A、100B−1、100B−2によって撮影システムが構成される。
情報提供用のアプリを実行したセンシング機器100B−1、100B−2は、それぞれ人物O、人物Pによってなされたレリーズ操作に応じて撮影処理を実行する。撮影処理自体は、カメラ用のアプリを実行した場合の通常の撮影処理と同様である。
自動撮影用のアプリを実行した自動撮影装置100Aは、上述したように、センシング機器100B−1、100B−2から送信されたセンシング情報に基づいて、撮影方向を決定する。決定した撮影方向は、表示・入力部25の表示面22に表示させる。図11は、表示面22の表示画面を例示する図である。撮影方向の決定方法の詳細については後述する。
自動撮影装置100Aはさらに、センシング機器100B−1、100B−2から送信されたセンシング情報に基づいて、所定のタイミング(例えば、センシング情報の受信回数が所定時間において所定回数(例えば直近の10秒間に10回)を超えた時点)で撮影処理を開始する。
自動撮影モードにおいて自動撮影装置100Aが実行する処理の流れと、センシング機器100B−1、100B−2が実行する処理の流れについて、図12に例示するフローチャートを参照して説明する。図12(a)は、センシング機器100B−1、100B−2が実行する処理を例示するフローチャートである。図12(b)は、自動撮影装置100Aが実行する処理を例示するフローチャートである。
センシング機器100B−1、100B−2は、それぞれユーザー操作によって情報提供用のアプリを実行すると、図12(a)による処理を開始する。センシング機器100B−1および100B−2は同じ処理を行うので、以降は、センシング機器100Bとして説明する。ステップS210において、センシング機器100Bは、情報提供撮影モードの処理を開始してステップS220へ進む。
自動撮影装置100Aは、ユーザー操作によって自動撮影用のアプリを実行すると、図12(b)による処理を開始する。ステップS610において、自動撮影装置100Aは、自動撮影モードの処理を起動させてステップS620へ進む。
(1)自動撮影装置100Aは、センシング機器100Bから複数の信号を取得する通信部28と、取得した複数の信号を用いて、カメラ27の撮影に関するコマンドを出力する制御部30と、を備えるようにした。センシング機器100Bからの複数の信号を用いることで、自動撮影装置100Aでは直接得られない複数の信号を用いて、適切な撮影タイミングで撮影を行い得る。
上記センシング機器100B−1、100B−2、および自動撮影装置100Aは、それぞれ相互に通信を行うものであれば、情報提供用アプリ、自動撮影モード用のアプリを実行した別の高機能携帯電話機100などのモバイル機器や、ウェアラブル端末によって構成してもよい。
<使用場面の説明>
本実施形態では、第三の実施形態の説明において図10に例示したものと同様の高機能携帯電話機100に、センシング機器としての機能と、情報表示装置としての機能と、を備える。センシング機能と情報表示機能とを備えた高機能携帯電話機100は複数台存在し、これらの高機能携帯電話機100を、複数のユーザーがそれぞれ携帯している。
ブロードキャスト送信する理由は、無線通信可能な範囲にセンシング機器100B以外の他の高機能携帯電話機100が存在する場合に、なるべく多くの高機能携帯電話機100へセンシング情報を送るためである。
情報表示装置100Aが実行する処理の流れについて、図14に例示するフローチャートを参照して説明する。図14において、情報表示装置100Aは、ユーザー操作によって情報表示用のアプリを実行すると、図14による処理を開始する。ステップS810において、情報表示装置100Aは、情報表示モードの処理を起動させてステップS820へ進む。
センシング機器100Bの処理は、第三の実施形態の説明において例示した図12の左側のフローチャートによって表すことができる。ただし、図12のステップS240において取得するセンシング情報は、撮影時刻と、位置情報と、撮影に関して付随する情報とを、含む。撮影に関して付随する情報は、上述したように、センシング機器100Bが撮影した画像を解析して得た被写体や撮影シーンの情報、ユーザーが入力したコメントなどである。
(1)遊園地などでキャラクターショーが始まると、複数の人物が、センシング機器100Bを用いて出演中のキャラクターを数多く撮影する。撮影を行ったセンシング機器100Bは、キャラクターショーの開催を知らないで遊園地を訪れた人物が携帯する情報表示装置100Aに対してセンシング情報を通知する。これにより、キャラクターショーの開催を知らなかった人物は、情報表示装置100Aの表示・入力部25の表示面22に表示された通知表示画面をたよりにキャラクターショーの開催場所へ移動し得るから、キャラクターショーを見逃すことがなくなる。
上記高機能携帯電話機100は、それぞれ相互に通信を行うものであれば、センシング機能および情報表示機能を備えたモバイル機器や、ウェアラブル端末によって構成してもよい。
上述した各実施形態におけるカメラ51、高機能携帯電話機100、またはタブレット端末などのモバイル機器へのプログラムの供給は、例えば図15に例示するように、プログラムを格納したパーソナルコンピュータ205から赤外線通信や近距離無線通信によってモバイル機器へ送信することができる。
また、各実施形態やその変形例の一つもしくは複数を、各実施形態と組み合わせることも可能である
16…CPU
18…CPU、送受信回路
19…通信制御回路
20…操作部材
27…カメラ
28…通信部
30…制御部
51…カメラ
100…センシング機器、高機能携帯電話機
100A…自動撮影装置
100A〜100E…センシング機器
Claims (18)
- 被写体が備えるセンサによるセンシング信号を取得する取得部と、前記取得されたセンシング信号を用いて、前記被写体を撮像するカメラの撮影タイミングを決定する制御部と、
を備える電子機器。 - 請求項1に記載の電子機器において、
前記制御部は、さらに撮影に関するコマンドを出力する電子機器。 - 請求項2に記載の電子機器において、
前記センシング信号は、前記被写体の移動情報を含み、
前記制御部は、前記センシング信号に基づいて前記被写体の移動軌跡を演算し、前記移動軌跡に基づき前記撮影タイミングを決定する電子機器。 - 請求項3に記載の電子機器において、
前記制御部は、前記被写体が前記カメラの画角内まで移動したか否かによって前記撮影タイミングを決定する電子機器。 - 請求項4に記載の電子機器において、
前記制御部は、前記画角内で前記被写体が略停止したか否かによって前記撮影タイミングを決定する電子機器。 - 請求項2に記載の電子機器において、
前記センシング信号は、前記被写体の位置とは異なる物理量を含み、
前記制御部は、前記物理量に基づいて前記撮影タイミングを決定する電子機器。 - 請求項6に記載の電子機器において、
前記物理量は音、または振動である電子機器。 - 請求項2に記載の電子機器において、
前記センシング信号は音を含み、
前記制御部は、前記音の信号パターンと基準パターンとの比較に基づいて前記撮影タイミングを決定する電子機器。 - 請求項2に記載の電子機器において、
前記センシング信号は音を含み、
前記取得部は、複数の前記センサでそれぞれセンシングされた複数のセンシング信号を取得し、
前記制御部は、前記複数のセンシング信号に含まれる複数の音のうち類似する音の信号パターンに基づいて前記撮影タイミングを決定する電子機器。 - 請求項9に記載の電子機器において、
前記センシング信号は、前記センサの位置をさらに含み、
前記制御部は、前記類似する音がセンシングされた複数の位置に基づいて、前記カメラの撮影方向を決定する電子機器。 - 請求項10に記載の電子機器において、
前記制御部は、前記類似する音がセンシングされた複数の位置を画角内に含むように前記カメラの画角を制御する電子機器。 - 請求項1から11のいずれか一項に記載の電子機器において、
前記被写体を撮像するカメラをさらに備える電子機器。 - 請求項2から11のいずれか一項に記載の電子機器において、
前記制御部が出力した前記撮影に関するコマンドを前記カメラに送信する送信部をさらに備える電子機器。 - 被写体が備えるセンサによるセンシング信号を取得する処理と、
前記取得したセンシング信号を用いて、前記被写体を撮像するカメラの撮影タイミングを決定する処理と、
をコンピュータに実行させるプログラム。 - モバイル機器から複数の信号を取得する取得部と、
前記取得された複数の信号を用いて、カメラの撮影に関するコマンドを出力する制御部と、
を備える電子機器。 - 請求項15に記載の電子機器において、
前記複数の信号は、撮像部を有する前記モバイル機器の位置と、前記撮像部がレリーズしたことを示す信号と、前記撮像部が撮影した方向を示す信号と、を含む電子機器。 - 請求項16に記載の電子機器において、
前記取得部は、複数の前記モバイル機器のそれぞれから前記複数の信号を取得し、
前記制御部は、複数の前記モバイル機器の各位置から、前記モバイル機器が有する撮像部がそれぞれ撮影した方向を示す少なくとも二つの直線が交差する位置の方向を、前記カメラの撮影すべき方向とする電子機器。 - モバイル機器から複数の信号を取得する処理と、
前記取得した複数の信号を用いて、カメラの撮影に関するコマンドを出力する処理と、
をコンピュータに実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014211033A JP2016082356A (ja) | 2014-10-15 | 2014-10-15 | 電子機器およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014211033A JP2016082356A (ja) | 2014-10-15 | 2014-10-15 | 電子機器およびプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019123749A Division JP6750714B2 (ja) | 2019-07-02 | 2019-07-02 | 電子機器およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016082356A true JP2016082356A (ja) | 2016-05-16 |
Family
ID=55956520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014211033A Pending JP2016082356A (ja) | 2014-10-15 | 2014-10-15 | 電子機器およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016082356A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106488032A (zh) * | 2016-11-04 | 2017-03-08 | 上海传英信息技术有限公司 | 摇晃切换摄像头的方法和移动终端 |
WO2023210052A1 (ja) * | 2022-04-27 | 2023-11-02 | ハイラブル株式会社 | 音声分析装置、音声分析方法及び音声分析プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004354420A (ja) * | 2003-05-27 | 2004-12-16 | Fuji Photo Film Co Ltd | 自動撮影システム |
JP2005286394A (ja) * | 2004-03-26 | 2005-10-13 | Fuji Photo Film Co Ltd | 画像撮影システムおよび画像撮影方法 |
JP2010531080A (ja) * | 2007-05-30 | 2010-09-16 | イーストマン コダック カンパニー | 自律動作のためのカメラコンフィギュレーション |
JP2013251826A (ja) * | 2012-06-01 | 2013-12-12 | Nikon Corp | 移動体通信機および撮像システム |
-
2014
- 2014-10-15 JP JP2014211033A patent/JP2016082356A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004354420A (ja) * | 2003-05-27 | 2004-12-16 | Fuji Photo Film Co Ltd | 自動撮影システム |
JP2005286394A (ja) * | 2004-03-26 | 2005-10-13 | Fuji Photo Film Co Ltd | 画像撮影システムおよび画像撮影方法 |
JP2010531080A (ja) * | 2007-05-30 | 2010-09-16 | イーストマン コダック カンパニー | 自律動作のためのカメラコンフィギュレーション |
JP2013251826A (ja) * | 2012-06-01 | 2013-12-12 | Nikon Corp | 移動体通信機および撮像システム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106488032A (zh) * | 2016-11-04 | 2017-03-08 | 上海传英信息技术有限公司 | 摇晃切换摄像头的方法和移动终端 |
WO2023210052A1 (ja) * | 2022-04-27 | 2023-11-02 | ハイラブル株式会社 | 音声分析装置、音声分析方法及び音声分析プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111837174B (zh) | 头戴式显示器、头戴式显示器协作系统及其方法 | |
US9007464B2 (en) | Photographing apparatus, photographing system, photographing method, and program stored in non-transitory medium in photographing apparatus | |
US8817134B2 (en) | Imaging control device, subject detection method, and program | |
US8730335B2 (en) | Imaging apparatus and imaging system | |
US20150296120A1 (en) | Imaging apparatus and imaging system | |
JP5434339B2 (ja) | 撮像制御装置、撮像システム、撮像方法、プログラム | |
JP2011511348A (ja) | カメラのパースペクティブに基づいてピクチャを共有するためのカメラシステム及び方法 | |
KR20130069123A (ko) | 촬상장치, 촬상 구도 제공 방법 및 컴퓨터 판독가능 기록매체 | |
US8692666B2 (en) | Communication system and communication terminal | |
US20120307080A1 (en) | Imaging apparatus and imaging system | |
JPWO2013084337A1 (ja) | 撮像装置、およびその制御方法、プログラム | |
JP6950793B2 (ja) | 電子機器およびプログラム | |
RU2635873C2 (ru) | Способ и устройство для отображения информации кадрирования | |
US20160088219A1 (en) | Image capture apparatus which controls frame rate based on motion of object, information transmission apparatus, image capture control method, information transmission method, and recording medium | |
EP3621292B1 (en) | Electronic device for obtaining images by controlling frame rate for external moving object through point of interest, and operating method thereof | |
KR101814714B1 (ko) | 스마트폰 카메라 원격 제어 방법 및 시스템 | |
KR20160002330A (ko) | 카메라 제어 장치, 카메라 제어 방법, 및 기록 매체 | |
JP2016213548A (ja) | 撮影システム、撮影方法、検知装置及び撮影装置 | |
JP2016082356A (ja) | 電子機器およびプログラム | |
JP6750714B2 (ja) | 電子機器およびプログラム | |
US11245830B2 (en) | Image capture apparatus and control method for same, and storage medium | |
JP2017215858A (ja) | ウェアラブル機器、情報処理装置、撮影装置、及びそれらの制御方法、並びにプログラム | |
JP2020042262A (ja) | 撮像装置およびその制御方法、プログラム、記憶媒体 | |
US11595565B2 (en) | Image capturing apparatus, method for controlling the same, and recording medium for automatic image capturing of a subject | |
JP2003283976A (ja) | メディア情報記録装置および方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180620 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180626 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180827 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181025 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181113 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190312 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190402 |