JP2019129463A - 撮像装置 - Google Patents
撮像装置 Download PDFInfo
- Publication number
- JP2019129463A JP2019129463A JP2018011026A JP2018011026A JP2019129463A JP 2019129463 A JP2019129463 A JP 2019129463A JP 2018011026 A JP2018011026 A JP 2018011026A JP 2018011026 A JP2018011026 A JP 2018011026A JP 2019129463 A JP2019129463 A JP 2019129463A
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- imaging
- image
- imaging means
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
Abstract
【課題】従来技術の構成では、大まかな撮影条件しか設定できなかった。また、プレビュー確認もできないため、移動体が到達して撮影してみるまで、構図が確認できない。【解決手段】撮像装置は、移動手段により移動可能な第1の撮像手段と、前記第1の撮像手段とは別の第2の撮像手段と、前記第2の撮像手段で撮像された画像をもとに、自由視点映像を生成する自由視点映像生成手段と、前記自由視点映像で撮影視点を指定する撮影視点指定手段と、前記撮影視点指定手段で指定した前記撮影視点に、前記第1の撮像手段を誘導する誘導手段と、を有し、前記第1の撮像手段が、前記撮影視点に到達した場合に、前記第1の撮像手段が撮像を行うことを特徴とする。【選択図】図1
Description
本発明は、移動可能な撮像装置に関し、特に撮影画像の構図を決定する技術に関する。
近年、飛行体などの移動体に撮像装置を搭載し遠隔操作することで、これまで得られなかった視点での撮影が可能になった。ここで、視点とは、どこから対象を見る立脚点の意味と、どこを見る注視点の両方の意味を含むとする。移動体に撮像装置を搭載して撮影する場合、撮像装置のみならず移動体の操作も必要となり、操作が煩雑になってしまう。
従来、これら回避する手段として、あらかじめ登録した撮影位置と被写体情報から移動体を制御して自動的に撮影する手法が知られている(特許文献1)。
しかしながら、上記の特許文献1に開示された従来技術の構成では、大まかな撮影条件しか設定できず、既存のカメラのようにファインダを覗きながら好適な構図を探し決定することはできない。また、プレビュー確認もできないため、移動体が到達して撮影するまで、構図が確認できない。
そこで、本発明は、移動体による撮影において、移動体の煩雑な操作をすることなく、構図を事前に確認しながら決定し撮影できる撮像装置を提供することを目的とする。
上記の目的を達成するために、本発明に係る撮像装置は、
移動手段により移動可能な第1の撮像手段と、前記第1の撮像手段とは別の第2の撮像手段と、前記第2の撮像手段で撮像された画像をもとに、自由視点映像を生成する自由視点映像生成手段と、前記自由視点映像で撮影視点を指定する撮影視点指定手段と、前記撮影視点指定手段で指定した前記撮影視点に、前記第1の撮像手段を誘導する誘導手段と、を有し、前記第1の撮像手段が、前記撮影視点に到達した場合に、前記第1の撮像手段が撮像を行うことを特徴とする。
移動手段により移動可能な第1の撮像手段と、前記第1の撮像手段とは別の第2の撮像手段と、前記第2の撮像手段で撮像された画像をもとに、自由視点映像を生成する自由視点映像生成手段と、前記自由視点映像で撮影視点を指定する撮影視点指定手段と、前記撮影視点指定手段で指定した前記撮影視点に、前記第1の撮像手段を誘導する誘導手段と、を有し、前記第1の撮像手段が、前記撮影視点に到達した場合に、前記第1の撮像手段が撮像を行うことを特徴とする。
本発明に係る撮像装置によれば、移動体の煩雑な操作をすることなく、構図を事前に確認しながら決定し撮影することができる。
以下に、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施の形態の一部を適宜組み合わせて構成してもよい。
以下、図面を参照しながら本発明の好適な実施の形態を説明する。
<実施例1>
本発明では、撮影構図決定に自由視点映像を利用し、自由視点映像中において指定された位置に、自律飛行可能な移動体を派遣し搭載されたカメラで撮影する。これによって、使用者はあらかじめ自由視点映像で構図を確認しながら撮影視点を決定でき、決定した構図(基準構図)で自律的に移動体が撮影できるため、使用者は煩雑な操作をすることなく、移動体による撮影が可能となる。
本発明では、撮影構図決定に自由視点映像を利用し、自由視点映像中において指定された位置に、自律飛行可能な移動体を派遣し搭載されたカメラで撮影する。これによって、使用者はあらかじめ自由視点映像で構図を確認しながら撮影視点を決定でき、決定した構図(基準構図)で自律的に移動体が撮影できるため、使用者は煩雑な操作をすることなく、移動体による撮影が可能となる。
ここで、自由視点映像とは、使用者が自由に視点を指定し視聴することができ、さらに、視点は現実世界に設置したカメラ(自由視点カメラ)の視点映像だけでなく、自由視点カメラとは異なる視点の仮想的なカメラ視点も指定することができる。この仮想的なカメラ視点(仮想カメラ)の映像は、自由視点カメラの各フレーム画像に対し、画像処理を施すことで得られる。
図1は、撮像装置の構成例を示す全体図である。図2は、移動体の構成例を示すブロック図である。図3は、情報処理装置の構成例を示すブロック図である。
図1において撮像装置は、自由視点カメラ100、情報処理装置101、移動体120を備えており、情報処理装置101と自由視点カメラ100、情報処理装置101と移動体120は有線もしくは無線により双方向通信が可能である。また、図1、図2、図3で共通する構成要素には同じ符号を付与する。
図1を参照して、本実施形態の構成を示す全体図について説明する。
自由視点カメラ100は、あらかじめ校正済みであり、カメラの内部パラメータと外部パラメータが既知であるとする。自由視点カメラ100は、情報処理装置101のCPU108からの同期信号によって撮影し、そのフレーム画像を画像識別情報とカメラ識別情報とともに情報処理装置101に送信する。
情報処理装置101は、使用者の操作界面であり、かつ本発明における撮像装置の制御中枢であり、使用者の構図決定操作や撮影操作を認識し、それに応じた構図決定処理や撮影処理で、自由視点カメラ100や移動体120などを制御する。さらに、自由視点カメラ100や移動体120から得られた映像や画像を保持し、仮想カメラ110の自由視点映像の生成、保持、表示を行う。
仮想カメラ110は、現実世界には存在しないカメラ視点を、情報処理装置101における自由視点映像生成によって、あたかもその位置にカメラが存在するかのような視点映像をもたらす。
111は仮想カメラ110視点の生成画像である。
移動体120は、飛行体でありカメラ121を搭載し情報処理装置101から遠隔制御指令によって、自律飛行しての撮影が可能である。
なお、本撮像装置を設置する場所は、実施形態に限定されるものではない。他の例としては、スタジアム、コンサートホール、プール、海上、宇宙などでもよい。また、本撮像装置における移動体120は、実施形態に限定されるものではない。他の例として、車両、飛行艇、潜水艇、船舶、人工衛星などでもよい。
次に、図2を参照して、本実施形態の移動体120の構成例について説明する。
カメラ121は、移動体120に搭載された校正済みカメラである。このカメラ121の撮影画像が、本実施形態の最終的な撮影画像に相当する。
カメラ121は、移動体120に搭載された校正済みカメラである。このカメラ121の撮影画像が、本実施形態の最終的な撮影画像に相当する。
記憶部122は、メモリーであり、カメラ121の撮影画像が記憶される。また、制御部123やフライトコントローラー125で使用されるデータ、変数も記憶される。
制御部123は、移動体120全体を統括して制御する演算処理装置であって、ROMやRAMなどを内蔵し、ROMに格納されたプログラムを実行することで、カメラ121、フライトコントローラー125、電源部128に制御指令を送り制御する。また制御部123は、情報処理装置101からの制御指令に従って、状態通知、待機、撮影ポイントへ飛行、カメラ121の設定、カメラ121による撮影、撮影画像を情報処理装置101へ送信を行う。
通信部124は、他の機器と通信を行う。制御部123は、この通信部124を介して、情報処理装置101と双方向通信することができる。
フライトコントローラー125は、内蔵しているジャイロセンサー、加速度センサー、気圧センサー、GPSなどの情報をもとに、移動体120の姿勢を監視し、モーター126やローター127を制御することで、姿勢を安定化させる。さらに、緯度、経度、高度、姿勢が与えられると、そこに向けて自律飛行する。
モーター126は、ACもしくはDCモーターであり、動力を発生させ、連結されたローター127を回転させる。
ローター127は、回転翼であり、回転することによって飛行に必要な揚力もしくは推力を得る。ローター127の角度や回転数を変えることで、自由に移動することが可能となる。また、不図示であるが、複数のモーター126とローター127があってもよい。
電源部128は、アルカリ電池、リチウム電池などの一次電池や、NiCd電池、NiMH電池、リチウムイオン電池などの二次電池などからなり、各部に必要な電力を供給する。
次に、図3を参照して、本実施形態の情報処理装置101の構成例について説明する。
100は自由視点カメラである。自由視点カメラ100の映像が自由視点映像の元データとなるため、自由視点カメラ100の台数が多ければ多いほど、構図決定に使用する自由視点映像の画質は向上する。自由視点カメラ100は、CPU108からの同期信号に従って、各フレーム画像を撮影して出力し、出力された映像は、CPU108によって記憶部102またはRAM104へ保存される。
記憶部102は、ハードディスクやSSDなどで構成され、自由視点カメラ100の映像、仮想カメラ110の生成画像111、移動体120の撮影画像を記憶される。また、CPU108によって必要に応じて画像は読み出され、表示部106に表示される。
ROM103は、CPU108で使用されるプログラムやデータなどを記憶する。
RAM104は、CPU108で使用されるプログラムやデータや変数などを記憶する。
通信部105は、他の機器と通信を行う。CPU108は、この通信部105を介して、移動体120に対し、いくつかの制御指令を送ることができる。制御指令には、移動体120の位置姿勢や状態を要求する状態通知指令、移動体120を所定の位置で待機させる待機指令、移動体120を撮影ポイントへ飛行させる誘導指令、移動体120のカメラ121のシャッター速度などの設定を送るカメラ設定指令、移動体120のカメラ121で撮影し、撮影画像をCPU108へ送信させる撮影指令などが含まれる。
表示部106は、表示駆動回路と液晶パネルなどからなり、CPU108の制御指令に従い、表示駆動回路を制御し、液晶パネルに使用者から視認可能な情報や画像を表示する。
操作部107は、方向指示、角度指示、決定、キャンセル、表示再生、撮影開始、AFAE開始、メニュー、削除等のスイッチが接続されており、スイッチの状態が検出される。検出された状態は、CPU108に伝えられ、CPU108は状態に応じて各部を制御する。
CPU108は、装置全体を統括して制御する演算処理装置であって、ROM103に格納されたプログラムを実行することで、後述する処理シーケンスを実行する。
また、CPU108は、自由な視点つまり仮想カメラ110の生成画像111の生成も行う。まず、CPU108は、自由視点カメラ100へ同期信号を送ることで映像を取得し、記憶部102に格納する。次に、記憶部102から読み出した同一フレーム画像に、視点画像補完技術(View interpolation)や射影変換を施すことで、仮想カメラ110の生成画像111を生成した後、表示部106で表示し、記憶部102に格納する。また、CPU108は、表示部106へ生成画像111を表示中に、使用者による操作部107への操作を検知すると、適宜視点を更新し新たな生成画像111を表示部106で表示する。
さらに、CPU108は、通信部105を介して、移動体120で取得された撮影画像を受信し、記憶部102に格納したのち、表示部106に表示する。
CPU108は、設定されたシャッター速度、絞り値、ISO感度、画像サイズ、ホワイトバランス、撮影視点等の情報を、表示部106に表示できる。
次に、図4を参照して、本実施形態における撮影処理について説明する。
なお、図4の処理はROM103に格納されたプログラムをCPU108が実行することで実現される。
図4は、使用者が操作部107を操作して処理を開始すると、以下S401から実行する。
S401では、CPU108は撮影構図決定処理を開始し、S402へ進む。
S402では、CPU108は表示部106に初期視点の生成画像111を表示して、S403へ進む。
S403では、CPU108は使用者による操作部107を介した視点変更操作があった場合、S404へ進む。視点変更操作が無かった場合、S405へ進む。
S404では、CPU108は新たに設定された視点に仮想カメラ110位置を設定して、S405へ進む。
S405では、CPU108は生成画像111を生成し、表示部106に表示して、S406へ進む。
S406では、使用者による操作部107を介した撮影開始操作があった場合、S407へ進む。撮影開始操作が無かった場合、S403へ進む。
S407では、CPU108は基準構図の決定処理を行い、生成画像111を基準構図とし、現在の仮想カメラ110情報を記憶部102に保存し、S408へ進む。
S408では、CPU108は記憶部102に保存された仮想カメラ110情報から移動体120を誘導するための撮影ポイント(緯度、経度、高度、カメラ向き、焦点距離などからなる)に変換して、S409へ進む。
ここで、変換にはあらかじめ算出しておいた仮想カメラ110における座標系と、世界座標系(緯度、経度、高度からなる)との変換行列を用いることで、相互に座標の変換が可能となる。
S409では、CPU108は通信部105を介して、移動体120へ撮影ポイントを送信する。次に、移動体120は、通信部124で受信した撮影ポイントと移動体120自身のGPS座標が一致するように移動し、S410へ進む。
S410では、CPU108は移動体120が、撮影ポイントに到達した通知を得た場合、S411へ進む。未到達の場合、S409へ進む。
S411では、CPU108は、移動体120に撮影指令を送り、カメラ121でプレ画像を撮影させる。移動体120は、通信部124を介して、情報処理装置101にプレ画像を送信する。次に、CPU108は、受け取ったプレ画像と基準構図にもとづき、後述する構図ズレ量算出方法によって構図ズレ量を算出し、S412へ進む。
S412では、CPU108は構図ズレ量が所定の閾値より大きい場合、S413へ進む。閾値以下の場合、S414へ進む。
S413では、CPU108はズレ量をフライトコントローラー125に送信し、ズレ量を相殺する方向へ移動体120を移動させて、S414へ進む。
S414では、CPU108は移動体120で撮影処理を行い、撮影画像を受信して、S415へ進む。
S415では、CPU108は受信した撮影画像を記憶部102に格納した後、表示部106に撮影画像を表示し処理を終了する。
次に、図5を参照して、本実施形態における構図ズレ量算出と補正手法について説明する。
一般的に、自由視点映像の視点については、仮想上のカメラであるため、演算誤差の影響しか受けないため、誤差は無視できるほど小さく、安定して構図を決めることができる。
一方で、自律制御可能な移動体120は、その位置決めにGPSや姿勢センサーなどを使用するため位置決め誤差が発生する。たとえ、数cmの撮影視点の違いでも構図は大きく変化するため、位置決め誤差の影響は無視できない。さらに、移動体120に搭載したカメラ121での撮影は、三脚などで固定した撮影ではないため、視点が安定しない。
したがって、仮想カメラ110で決めた基準構図に、実際に移動体120を派遣すると、位置決め誤差により構図ズレが発生する。そこで、構図ズレを補正する手段が必要となる。
したがって、仮想カメラ110で決めた基準構図に、実際に移動体120を派遣すると、位置決め誤差により構図ズレが発生する。そこで、構図ズレを補正する手段が必要となる。
図5(a)は使用者が仮想カメラ110によって指定した生成画像111つまり基準構図に相当し、図5(b)はフライトコントローラー125によって制御され撮影視点に到達したカメラ121のプレ撮影画像となる。この時点では、前述の移動体120の位置決め誤差によって、構図ズレが発生しており、構図ズレ量はこの(a)、(b)2枚の特徴点の対応関係から算出される。
図5(c)は、ブロックマッチング法等により算出された前記2枚の画像間のオプティカルフローである。このオプティカルフローから基準構図に対する移動体120のカメラ運動パラメータを算出することができ、これが構図ズレ量となる。次に、図5(d)のようにフライトコントローラー125によって構図ズレを相殺するように移動することで、構図ズレが解消され、基準構図とカメラ121の構図が一致する。
構図ズレ量は、CPU108で算出され移動体120に送信される。移動体120では、フライトコントローラー125が、構図ズレ補正のための移動量を算出し、その値をもとにモーター126を制御し補正のための移動をする。
ここで、構図ズレ量算出は画像間のオプティカルフローによって算出したが、別の算出アルゴリズムを用いてもよい。また、比較と補正のための移動を複数回行ってもよい。
以上の実施形態によれば、使用者は、移動体による撮影において、移動体の煩雑な操作をすることなく、構図を事前に確認しながら撮影することが可能となる。
<実施例2>
次に、第2の実施形態に係る撮像装置の処理について説明する。
次に、第2の実施形態に係る撮像装置の処理について説明する。
本実施形態では、上述した第1の実施形態において、基準構図のカメラ位置が自由視点カメラ100と同じ場合には、移動体120による撮影ではなく、自由視点カメラ100の画像を撮影画像とする。
なお、本実施形態の撮像装置の構成は、第1の実施形態の図1、図2、図3と同様である。
以下では、実施形態1との共通部分は説明を省略し、実施形態と相違する部分を中心に説明する。
第2の実施形態においては、第1の実施形態の基準構図決定処理に、仮想カメラ110と自由視点カメラ100のカメラ位置が一致するかどうか判定する処理が追加される。
前記処理の追加は、図4中S407基準構図決定に処理を追加することで実現される。S407で基準構図が決定した後、基準構図と自由視点カメラ100のカメラ位置を比較し一致した場合、自由視点カメラ100の画像を撮影画像として記憶部102に格納し、表示部106に表示して処理を終了する。一致しなかった場合には、S408に進む。
以上の実施形態によれば、使用者は、基準構図と自由視点カメラの位置が一致して、物理的に移動体による撮影ができないことを回避することが可能となり、さらに無駄な移動体による撮影をなくすことも可能となる。
<実施例3>
次に、第3の実施形態に係る撮像装置の処理について説明する。
次に、第3の実施形態に係る撮像装置の処理について説明する。
本実施形態では、上述した第1の実施形態において、複数の移動体120もしくは複数の搭載カメラ121がある場合には、それらの中から最も適したものを1つ選択する。
なお、本実施形態の撮像装置の構成は、第1の実施形態の図3と同様である。以下では、実施形態1との共通部分は説明を省略し、実施形態と相違する部分を中心に説明する。
第3の実施形態においては、不図示ではあるが、図1に複数の移動体120もしくは図2に複数のカメラ121があることになる。さらに、第1の実施形態の撮影ポイントへの誘導処理に、あらかじめすべての移動体120の状態(待機位置、電池残量、飛行特性、搭載レンズ、搭載カメラなど)を取得しておき、それらから好適な移動体120を選択する処理が追加される。
前記処理の追加は、図4中S408、S409の処理に、処理を追加することで実現される。まず、S408において、CPU108は全ての移動体120に対して、状態通知指令を送り、得られた移動体120の待機位置をもとに、移動距離の最も少ない、つまり基準構図に最も近い移動体120を選択し、撮影ポイントを算出する。次に、S409では、選択された移動体120のみに、撮影ポイントを送信し誘導する。これにより、移動体120の移動距離を最短に抑えられ、移動待ち時間も最短となる。
ここで、移動体120は移動距離の近さによって選択したが、レンズが好適なもの、搭載カメラが好適なものなどの別の指標を使ってもよい。
以上の実施形態によれば、使用者は、複数の移動体の搭載カメラの中から最適な選択ができる。
100 自由視点カメラ、101 情報処理装置、120 移動体
Claims (4)
- 移動手段により移動可能な第1の撮像手段と、
前記第1の撮像手段とは別の第2の撮像手段と、
前記第2の撮像手段で撮像された画像をもとに、自由視点映像を生成する自由視点映像生成手段と、
前記自由視点映像で撮影視点を指定する撮影視点指定手段と、
前記撮影視点指定手段で指定した前記撮影視点に、前記第1の撮像手段を誘導する誘導手段と、
を有し、前記第1の撮像手段が、前記撮影視点に到達した場合に、前記第1の撮像手段が撮像を行うことを特徴とする撮像装置。 - 前記第1の撮像手段において、前記撮影視点付近に到達した直後にプレ画像を撮像し、前記自由視点映像と前記プレ画像とを比較することで、構図のズレ量を算出する構図ズレ量算出手段と、
前記構図ズレ量をもとに、前記第1の撮像手段を、構図ズレを解消する方向に誘導し撮像することを特徴とする請求項1に記載の撮像装置。 - 前記誘導手段において、前記第1の撮像手段が複数ある場合には、前記第1の撮像手段と前記撮影視点もしくは前記自由視点映像を、撮像手段の位置、搭載レンズ、搭載カメラ、および電池残量の少なくともいずれかを用いて比較し、最も好適な前記第1の撮像手段を選択し誘導し撮影することを特徴する請求項1又は請求項2に記載の撮像装置。
- 前記誘導手段において、前記撮影視点が、前記第2の撮像手段の設置位置と一致する場合には、第1の撮像手段を誘導せずに、前記第2の撮像手段の画像を使うことを特徴とする請求項1乃至請求項3の何れか一項に記載の撮像装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018011026A JP2019129463A (ja) | 2018-01-26 | 2018-01-26 | 撮像装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018011026A JP2019129463A (ja) | 2018-01-26 | 2018-01-26 | 撮像装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019129463A true JP2019129463A (ja) | 2019-08-01 |
Family
ID=67472509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018011026A Pending JP2019129463A (ja) | 2018-01-26 | 2018-01-26 | 撮像装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019129463A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021118560A1 (en) * | 2019-12-11 | 2021-06-17 | Google Llc | Scene lock mode for capturing camera images |
-
2018
- 2018-01-26 JP JP2018011026A patent/JP2019129463A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021118560A1 (en) * | 2019-12-11 | 2021-06-17 | Google Llc | Scene lock mode for capturing camera images |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109952755B (zh) | 飞行路径生成方法、飞行路径生成系统、飞行体以及记录介质 | |
CN105959625B (zh) | 控制无人机追踪拍摄的方法及装置 | |
WO2018072657A1 (zh) | 图像处理的方法、处理图像的装置、多目摄像装置以及飞行器 | |
CN110366670B (zh) | 三维形状推断方法、飞行体、移动平台、程序及记录介质 | |
CN110785993A (zh) | 拍摄设备的控制方法、装置、设备及存储介质 | |
CN113794840B (zh) | 一种视频处理方法、设备、无人机及系统 | |
CN106998413B (zh) | 图像处理设备、摄像设备、图像处理方法和介质 | |
WO2019227441A1 (zh) | 可移动平台的拍摄控制方法和设备 | |
CN112154649A (zh) | 航测方法、拍摄控制方法、飞行器、终端、系统及存储介质 | |
CN113985928A (zh) | 云台的控制方法、控制器和云台 | |
WO2021217371A1 (zh) | 可移动平台的控制方法和装置 | |
WO2020172800A1 (zh) | 可移动平台的巡检控制方法和可移动平台 | |
CN110291777B (zh) | 图像采集方法、设备及机器可读存储介质 | |
CN111034172A (zh) | 控制设备、控制系统、控制方法、程序及存储介质 | |
JP2018007051A (ja) | 撮影機器、移動撮影装置、撮影用移動体及び移動体用撮影制御装置 | |
US11061412B2 (en) | Information processing device and information processing method | |
WO2022151473A1 (zh) | 拍摄控制方法、拍摄控制装置及云台组件 | |
WO2020019175A1 (zh) | 图像处理方法和设备、摄像装置以及无人机 | |
TWI573104B (zh) | 室內監控系統及其方法 | |
KR101600699B1 (ko) | 비행 촬영 시스템 및 그 운용 방법 | |
TWI726536B (zh) | 影像擷取方法及影像擷取設備 | |
JP2019129463A (ja) | 撮像装置 | |
JP7195118B2 (ja) | 情報表示システム、情報表示方法及び情報表示プログラム | |
CN112334853A (zh) | 航线调整方法、地面端设备、无人机、系统和存储介质 | |
JP2020050261A (ja) | 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20191125 |