JP2017529709A - オプティカルフロー場を構築する方法 - Google Patents

オプティカルフロー場を構築する方法 Download PDF

Info

Publication number
JP2017529709A
JP2017529709A JP2016535721A JP2016535721A JP2017529709A JP 2017529709 A JP2017529709 A JP 2017529709A JP 2016535721 A JP2016535721 A JP 2016535721A JP 2016535721 A JP2016535721 A JP 2016535721A JP 2017529709 A JP2017529709 A JP 2017529709A
Authority
JP
Japan
Prior art keywords
imaging device
scenario
mobile platform
movement
optical flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016535721A
Other languages
English (en)
Other versions
JP6240328B2 (ja
Inventor
ウー,ヤンナン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JP2017529709A publication Critical patent/JP2017529709A/ja
Application granted granted Critical
Publication of JP6240328B2 publication Critical patent/JP6240328B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel

Abstract

オプティカルフロー場を構築するシステム、及びオプティカルフロー場を構築して使用する方法。システムは、選択ビデオフレームに対応するオプティカルフロー場を構築することができる。撮像デバイスを有するモバイルプラットフォームの第1の動き及び撮像デバイスの状態に基づいて、オプティカルフロー場を構築することができる。モバイルプラットフォーム上に設置されたセンサ及び/又はモバイルプラットフォーム上に設置された撮像デバイスの測定を用いて、第1の動き及び状態を判定することができる。第1の動きは、モバイルプラットフォームの第1の回転、水平移動及び垂直移動を含むことができる。状態は、撮像デバイスの回転、及び/又はモバイルプラットフォームに対する撮像デバイスの向きを含むことができる。有利なことに、無人航空機などのモバイルプラットフォームを含むビデオアプリケーションを含む広範囲のビデオアプリケーションにシステムを適用することができる。

Description

著作権表示
この特許文献の開示部分は、著作権保護の対象であるものを含む。著作権の所有者は、特許商標局の書類又は記録に見られるが、別の方法であらゆる著作権の権利を有するので、著作権の所有者は、特許文献又は特許開示が複写されることに異存がない。
開示の実施形態は一般的に、モバイルプラットフォームに対応付けられた撮像デバイスによるビデオ撮像に関し、より詳細には、モバイルプラットフォームの動き及び撮像デバイスの状態を判定することによって選択ビデオフレームに対してオプティカルフロー場を構築するシステム及び方法に関する。
ビデオ圧縮の技術分野では、オプティカルフロー場を使用して、ビデオフレーム内の全ての画素に関する動き情報の方向及び速度を実証することができる。オプティカルフロー場が与える情報は、隣接するフレームからフレームの各画素を探索するのに必要な労力を減らすのに役立つことができるので、ビデオの圧縮又は圧縮ビデオの復号に非常に有用である。
従来の技術では、オプティカルフロー場は一般的に、取り込まれた静止画像又はビデオ画像を介した推定によって得られる。これらの手法は、複雑なアルゴリズムを含み、時間がかかる。更に、このような手法は、航空ビデオ撮像アプリケーションなどのリアルタイムアプリケーションに適用できないテクスチャ分解などの技術を含むこともある。
前述のことに鑑みて、迅速且つコスト効果の高い方法でオプティカルフロー場を構築することができる撮像システム及び方法の必要性がある。
ここに開示の第1の態様によれば、オプティカルフロー場を構築する方法であって、
撮像デバイスを有するモバイルプラットフォームの第1の動きを取得するステップと、
モバイルプラットフォームに対する撮像デバイスの状態を得るステップと、
モバイルプラットフォームの第1の動き及び撮像デバイスの状態に基づいてフレームに対して対応するオプティカルフロー場を構築するステップと
を含む方法が示してある。
開示方法の例示的な実施形態において、第1の動きを取得するステップは、モバイルプラットフォームの第1の回転、水平方向におけるモバイルプラットフォームの第1の移動、及び垂直方向におけるモバイルプラットフォームの第2の移動のうち少なくとも1つを判定するステップを含む。
開示方法の別の例示的な実施形態において、状態を得るステップは、撮像デバイスの第2の動き及び位置のうち少なくとも1つを判定するステップを含む。
開示方法の別の例示的な実施形態において、撮像デバイスの第2の動き及び位置のうち少なくとも1つを判定するステップは、ズーム、水平方向における撮像デバイスの第1の回転、及び垂直方向における撮像デバイスの第2の回転のうち少なくとも1つを判定するステップを含む。
開示方法の別の例示的な実施形態において、撮像デバイスの第2の動き及び位置のうち少なくとも1つを判定するステップは、撮像デバイスの向き及び傾斜角のうち少なくとも1つを取得するステップを含む。
開示方法の別の例示的な実施形態において、取得するステップは、モバイルプラットフォーム上に配置された1つ又は複数の第1のセンサを介して第1の動きを取得するステップを含む。
開示方法の別の例示的な実施形態において、構築するステップは、事前分類されたオプティカルフロー場を、モバイルプラットフォームの第1の動き及び/又は撮像デバイスの状態の分類シナリオに対応付けるステップを含む。
開示方法の例示的な実施形態は、モバイルプラットフォームの第1の動き及び撮像デバイスの状態に基づいてモバイルプラットフォーム及び撮像デバイスのシナリオを分類するステップを更に含む。
開示方法の別の例示的な実施形態において、シナリオを分類するステップは、モバイルプラットフォームの第1の動き及び撮像デバイスの状態のシナリオを、事前に定義された基本シナリオに定義するステップを更に含む。
開示方法の別の例示的な実施形態において、モバイルプラットフォームは無人航空機(UAV)である。
開示方法の別の例示的な実施形態において、対応するオプティカルフロー場を構築するステップは、回転ビューを第1の基本シナリオに対応付けるステップを含む。
開示方法の別の例示的な実施形態において、回転ビューを対応付けるステップは、フレームの外側部分における動きがフレームの内側部分における動きよりも非常に速い所定のビューを対応付けるステップを含む。
開示方法の別の例示的な実施形態において、シナリオを定義するステップは、水平面と直交する方向に撮像デバイスが撮影しており、水平面と平行な面でUAVが回転している場合として、第1の基本シナリオを定義するステップを含む。
開示方法の別の例示的な実施形態において、対応するオプティカルフロー場を構築するステップは、サイド移動ビューを第2の基本シナリオに対応付けるステップを含む。
開示方法の別の例示的な実施形態において、サイド移動ビューを対応付けるステップは、フレームの全ての物体が曲線経路に沿って移動している所定のビューを対応付けるステップを含む。
開示方法の別の例示的な実施形態において、シナリオを定義するステップは、水平面と平行な方向に撮像デバイスが撮影しており、水平面と平行な面でUAV又は撮像デバイスが回転している場合として、第2の基本シナリオを定義するステップを含む。
開示方法の別の例示的な実施形態において、対応するオプティカルフロー場を構築するステップは、ズームインビューを第3の基本シナリオに対応付けるステップを含む。
開示方法の別の例示的な実施形態において、ズームインビューを対応付けるステップは、フレームの中心から離れた点が中心点及びフレームから出る点よりも速く移動している所定のビューを対応付けるステップを含む。
開示方法の別の例示的な実施形態において、シナリオを定義するステップは、ズームインしながら、又はUAVが地面の方へ移動しながら、水平面と直交する方向に撮像デバイスが撮影している場合として、第3の基本シナリオを定義するステップを含む。
開示方法の別の例示的な実施形態において、対応するオプティカルフロー場を構築するステップは、ズームアウトビューを第4の基本シナリオに対応付けるステップを含む。
開示方法の別の例示的な実施形態において、ズームアウトビューを対応付けるステップは、フレームの中心から離れた点が中心点及びフレームに入る点よりも速く移動している所定のビューを対応付けるステップを含む。
開示方法の別の例示的な実施形態において、シナリオを定義するステップは、ズームアウトしながら、又はUAVが地面から離れて移動しながら、水平面と直交する方向に撮像デバイスが撮影している場合として、第4の基本シナリオを定義するステップを含む。
開示方法の別の例示的な実施形態において、対応するオプティカルフロー場を構築するステップは、直線移動ビューを第5の基本シナリオに対応付けるステップを含む。
開示方法の別の例示的な実施形態において、直線移動ビューを対応付けるステップは、動きがフレーム内の全画素に対して大域的であるが、フレームの上側部分における画素が相対的に静止しており、フレームの下側部分における近い物体上の画素が相対的に一層速く移動する、所定のビューを対応付けるステップを含む。
開示方法の別の例示的な実施形態において、シナリオを定義するステップは、水平面に対してある特定の角度を有する方向に撮像デバイスが撮影しており、ある特定の速度でUAVが移動している場合として、第5の基本シナリオを定義するステップを含む。
開示方法の別の例示的な実施形態において、撮像デバイスが撮影している方向にUAVが移動している。
開示方法の別の例示的な実施形態において、直線移動ビューを対応付けるステップは、遠い物体を深さ及び/又は局所性によって判定するステップを含み、
フレームの上側部分における物体を遠い物体として通常判定し、同様の深さを有する物体を近い物体として判定する。
開示方法の別の例示的な実施形態において、対応するオプティカルフロー場を構築するステップは、大域的動きビューを第6の基本シナリオに対応付けるステップを含む。
開示方法の別の例示的な実施形態において、大域的動きビューを対応付けるステップは、超高速の大域的な一定の速度で撮像デバイスが移動する所定のビューを対応付けるステップを含む。
開示方法の別の例示的な実施形態において、シナリオを定義するステップは、UAVが静止状態を保持しており、水平面と垂直な面でカメラが回転している場合として、第6の基本シナリオを定義するステップを含む。
開示方法の別の例示的な実施形態において、シナリオを分類するステップは、事前に定義された基本シナリオを結合して結合シナリオを生成するステップと、対応するオプティカルフロー場を結合して対応する結合オプティカルフロー場を生成するステップとを更に含む。
開示方法の別の例示的な実施形態において、オプティカルフロー場を対応付けるステップは、対応する結合オプティカルフロー場を結合シナリオに対応付けるステップを含む。
開示方法の別の例示的な実施形態において、シナリオを分類するステップは、少なくとも1つの学習プロセスを介してシナリオを定義して学習シナリオを生成するステップと、対応する学習オプティカルフロー場を定義するステップとを更に含む。
開示方法の別の例示的な実施形態において、オプティカルフロー場を対応付けるステップは、対応する学習オプティカルフロー場を学習シナリオに対応付けるステップを更に含む。
ここに開示の第2の態様によれば、フレームに対してオプティカルフロー場を選択する方法であって、
上述の実施形態のいずれか1つに記載のシナリオに基づいて対応するオプティカルフロー場を選択するステップを含み、
シナリオはモバイルプラットフォームの第1の動きとモバイルプラットフォームに連結された撮像デバイスの状態とを含む、方法が示してある。
ここに開示の別の態様によれば、上述の実施形態のいずれか1つに記載のフレームに対してオプティカルフロー場を構築するステップを実行するように構成されている撮像システムが示してある。
ここに開示の別の態様によれば、オプティカルフロー場を構築する撮像システムであって、
モバイルプラットフォームと、
モバイルプラットフォームに対応付けられた撮像デバイスとを含み、
モバイルプラットフォーム及び/又は撮像デバイスは、上述の実施形態のいずれか1つに記載のフレームに対してオプティカルフロー場を構築するように構成されている、撮像システムが示してある。
開示システムの例示的な実施形態において、モバイルプラットフォーム及び/又は撮像デバイスは、フレームに対してオプティカルフロー場を構築するプロセッサを含む。
ここに開示の別の態様によれば、上述の実施形態のいずれか1つに記載のフレームに対してオプティカルフロー場を選択する命令を含むコンピュータプログラム製品が示してある。
ここに開示の別の態様によれば、オプティカルフロー場を構築する方法であって、
モバイルプラットフォームの第1の動き及び/又はモバイルプラットフォームに装着された撮像デバイスの第2の動きのうち少なくとも1つを取得するステップと、
モバイルプラットフォームに対する撮像デバイスの位置を得るステップと、
第1の動き、第2の動き及び位置のうち少なくとも1つに基づいてフレームに対して対応するオプティカルフロー場を構築するステップと
を含む方法が示してある。
開示方法の例示的な実施形態において、取得するステップは、モバイルプラットフォーム又は撮像デバイスに対応付けられた1つ又は複数の動きセンサを介して第1の動き及び第2の動きのうち少なくとも1つを取得するステップを含む。
ここに開示の別の態様によれば、オプティカルフロー場を構築する装置であって、
撮像デバイスを有するモバイルプラットフォームの第1の動きを取得するステップと、
モバイルプラットフォームに対する撮像デバイスの状態を得るステップと、
モバイルプラットフォームの第1の動き及び撮像デバイスの状態に基づいてフレームに対して対応するオプティカルフロー場を構築するステップと
のために構成されているプロセッサを含む装置が示してある。
開示装置の例示的な実施形態において、プロセッサは、モバイルプラットフォームの第1の回転、水平方向におけるモバイルプラットフォームの第1の移動、及び垂直方向におけるモバイルプラットフォームの第2の移動のうち少なくとも1つを判定するように構成されている。
開示装置の例示的な実施形態において、プロセッサは、撮像デバイスの第2の動き及び位置のうち少なくとも1つを判定するように構成されている。
開示装置の別の例示的な実施形態において、プロセッサは、ズーム、水平方向における撮像デバイスの第1の回転、及び垂直方向における撮像デバイスの第2の回転のうち少なくとも1つを判定するように構成されている。
開示装置の別の例示的な実施形態において、プロセッサは、撮像デバイスの向き及び傾斜角のうち少なくとも1つを取得するように構成されている。
開示装置の例示的な実施形態は、モバイルプラットフォームの第1の動きを取得する、モバイルプラットフォーム上に配置された1つ又は複数の第1のセンサを更に含む。
開示装置の別の例示的な実施形態において、プロセッサは、事前分類されたオプティカルフロー場を、モバイルプラットフォームの第1の動き及び/又は撮像デバイスの状態の分類シナリオに対応付けるように構成されている。
開示装置の別の例示的な実施形態において、プロセッサは、モバイルプラットフォームの第1の動き及び撮像デバイスの状態に基づいてモバイルプラットフォーム及び撮像デバイスのシナリオを分類するように構成されている。
開示装置の別の例示的な実施形態において、プロセッサは、モバイルプラットフォーム及び撮像デバイスの状態のシナリオを、事前に定義された基本シナリオに定義するように構成されている。
開示装置の別の例示的な実施形態において、モバイルプラットフォームは無人航空機(UAV)である。
開示装置の別の例示的な実施形態において、プロセッサは、回転ビューを第1の基本シナリオに対応付けるように構成されている。
開示装置の別の例示的な実施形態において、回転ビューは、フレームの外側部分における動きがフレームの内側部分における動きよりも非常に速いことを含む。
開示装置の別の例示的な実施形態において、第1の基本シナリオは、水平面と直交する方向に撮像デバイスが撮影しており、水平面と平行な面でUAVが回転している場合として、定義されている。
開示装置の別の例示的な実施形態において、プロセッサは、サイド移動ビューを第2の基本シナリオに対応付けるように構成されている。
開示装置の別の例示的な実施形態において、サイド移動ビューは、フレームの全ての物体が曲線経路に沿って移動していることを含む。
開示装置の別の例示的な実施形態において、第2の基本シナリオは、水平面と平行な方向に撮像デバイスが撮影しており、水平面と平行な面でUAV又は撮像デバイスが回転している場合として、定義されている。
開示装置の別の例示的な実施形態において、プロセッサは、ズームインビューを第3の基本シナリオに対応付けるように構成されている。
開示装置の別の例示的な実施形態において、第3の基本シナリオは、ズームインしながら、又はUAVが地面の方へ移動しながら、水平面と直交する方向に撮像デバイスが撮影している場合として、定義されている。
開示装置の別の例示的な実施形態において、ズームインビューは、フレームの中心から離れた点が中心点及びフレームから出る点よりも速く移動していることを含む。
開示装置の別の例示的な実施形態において、プロセッサは、ズームアウトビューを第4の基本シナリオに対応付けるように構成されている。
開示装置の別の例示的な実施形態において、ズームアウトビューは、フレームの中心から離れた点が中心点及びフレームに入る点よりも速く移動していることを含む。
開示装置の別の例示的な実施形態において、第4の基本シナリオは、ズームアウトしながら、又はUAVが地面から離れて移動しながら、水平面と直交する方向に撮像デバイスが撮影している場合として、定義されている。
開示装置の別の例示的な実施形態において、プロセッサは、直線移動ビューを第5の基本シナリオに対応付けるように構成されている。
開示装置の別の例示的な実施形態において、直線移動ビューは、動きがフレーム内の全画素に対して大域的であるが、フレームの上側部分における画素が相対的に静止しており、フレームの下側部分における近い物体上の画素が相対的に一層速く移動することを含む。
開示装置の別の例示的な実施形態において、第5の基本シナリオは、水平面に対してある特定の角度を有する方向に撮像デバイスが撮影しており、ある特定の速度でUAVが移動している場合として、定義されている。
開示装置の別の例示的な実施形態において、撮像デバイスが撮影している方向にUAVが移動している。
開示装置の別の例示的な実施形態において、直線移動ビューを対応付けるプロセッサは、遠い物体を深さ及び/又は局所性によって判定するように構成されており、
フレームの上側部分における物体を遠い物体として通常判定し、同様の深さを有する物体を近い物体として判定する。
開示装置の別の例示的な実施形態において、プロセッサは、大域的動きビューを第6の基本シナリオに対応付けるように構成されている。
開示装置の別の例示的な実施形態において、大域的動きビューは、超高速の大域的な一定の速度で撮像デバイスが移動することを含む。
開示装置の別の例示的な実施形態において、第6の基本シナリオは、UAVが静止状態を保持しており、水平面と垂直な面でカメラが回転している場合として、定義されている。
開示装置の別の例示的な実施形態において、プロセッサは、事前に定義された基本シナリオを結合して結合シナリオを生成し、対応するオプティカルフロー場を結合して対応する結合オプティカルフロー場を生成するように構成されている。
開示装置の別の例示的な実施形態において、対応する結合オプティカルフロー場を結合シナリオに対応付ける。
開示装置の別の例示的な実施形態において、プロセッサは、少なくとも1つの学習プロセスを介してシナリオを定義して学習シナリオを生成し、対応する学習オプティカルフロー場を定義するように構成されている。
オプティカルフロー場を構築する例示的な方法の実施形態を示す例示的な最上位ブロック図である。 モバイルプラットフォーム上に設置された撮像デバイスからなる、図1の方法を実施する航空ビデオ撮像システムの実施形態を示す例示的な略図である。 撮像デバイスの回転を示す、図2の航空ビデオ撮像システムの代替の実施形態を示す例示的な図である。 モバイルプラットフォームの動きを示す、図2の航空ビデオ撮像システムの別の代替の実施形態を示す例示的な図である。 対応するオプティカルフロー場を構築するステップを方法が含む、図1の方法の実施形態を示す例示的なブロック図である。 センサパラメータのシナリオの異なるカテゴリを構築する手法を方法が含む、図5の方法の代替の実施形態を示す例示的なブロック図である。 シナリオのカテゴリを示す、図7の方法の代替の実施形態を示す例示的なブロック図である。 シナリオのカテゴリに従ってオプティカルフロー場の対応するビューを方法が対応付ける、図5の方法の代替の実施形態を示す例示的なブロック図である。 対応するオプティカルフロー場を選択するステップを方法が含む、図8の方法の代替の実施形態を示す例示的なブロック図である。 図7のセンサパラメータの第1の基本シナリオの回転ビューの実施形態を示す例示的なフレーム図である。 図7のセンサパラメータの第2の基本シナリオのサイド移動ビューの実施形態を示す例示的なフレーム図である。 図7のセンサパラメータの第3の基本シナリオのズームインビューの実施形態を示す例示的なフレーム図である。 図7のセンサパラメータの第5の基本シナリオの直線移動ビューの実施形態を示す例示的なフレーム図である。 図7のセンサパラメータの第6の基本シナリオの大域的動きビューの実施形態を示す例示的なフレーム図である。 図2の航空ビデオ撮像システムの制御コンソールの実施形態を示す例示的なレイアウト図である。 センサ及び事前構築オプティカルフロー場を用いて図1の方法を実施する、撮像システムの実施形態の例示的なブロック図である。 撮像デバイスの状態を検出するセンサ及び撮像デバイスをシステムが含む、図16のシステムの代替の実施形態を示す例示的なブロック図である。
図面は原寸に比例して描かれていないこと、及び同様な構造又は機能の要素は図面全体を通して図示するために全体が同じ参照符号で表されていることに留意すべきである。図面は、好ましい実施形態の説明を容易にすることを単に目的とすることにも留意すべきである。図面は、記載の実施形態のあらゆる態様を示すものではなく、本開示の範囲を限定しない。
オプティカルフロー場を構築する現在利用可能なシステムは、複雑で高価であり、アプリケーションに制限があり、リアルタイムビデオ撮像アプリケーションが不可能であるので、モバイルプラットフォームの動き及びモバイルプラットフォームに対応付けられた撮像デバイスの状態に基づいて選択できるオプティカルフロー場構築システム及び方法は、望ましいことが分かり、航空ビデオ撮像などの撮像アプリケーションの基礎を提供することができる。図1に開示の一実施形態に従って、この結果を達成することができる。
図1は、モバイルプラットフォーム110の第1の動きと撮像デバイス116(図2に一括して示す)の状態とに基づいてオプティカルフロー場を構築する方法200の例示的な実施形態を示す。図1に示すように、222では、モバイルプラットフォーム110を介してモバイルプラットフォーム110の第1の動きを取得することができる。第1の動きは、モバイルプラットフォーム110の移動及び第1の回転のうち少なくとも1つを含むことができ、任意の適当な方法で取得できる。222でモバイルプラットフォーム110の第1の動きを取得する1つの適当な方法は、モバイルプラットフォーム110に対応付けられた1つ又は複数の動きセンサ(図16及び図17に示す)を介して第1の動きを取得するステップを含む。図2を参照して、第1の動きに関する詳細を示して説明する。幾つかの例示的な実施形態では、第1の動きを判定する以外の目的でモバイルプラットフォーム110上に既に設置できるある特定のセンサを介して222で第1の動きを取得することができる。図2〜図9を参照して、センサのパラメータを更に詳しく示して説明する。
226で、モバイルプラットフォーム110に対する撮像デバイス116の状態を得ることができる。状態は、モバイルプラットフォーム110との相対値であり、撮像デバイス116の第2の動きとモバイルプラットフォーム110に対する撮像デバイス116の相対位置とを含む。第2の動きは、撮像デバイス116の第2の回転(又は水平回転)120及び/又は第3の回転(又は垂直回転)122を含むことができる。図4を参照して、撮像デバイス116の第2の動きを更に詳しく示して説明する。撮像デバイス116の相対位置は、横向き及び/又は傾斜角も含むことができる。図4を参照して、撮像デバイス116の相対位置も詳しく示して説明する。
228で、モバイルプラットフォーム110の第1の動き及び/又は撮像デバイス116の状態に基づいて、選択フレームに対して対応するオプティカルフロー場を構築することができる。例示的な実施形態では、モバイルプラットフォーム110の第1の動き及び/又は撮像デバイス116の状態を、異なるシナリオのカタログに分類することができる。各シナリオに対して、対応するオプティカルフロー場を事前構築することができる。シナリオを判定する場合、対応するオプティカルフロー場を228で選択することができる。図11〜図19を参照して、オプティカルフロー場の事前構築及び選択の例を詳しく示して説明する。
モバイルプラットフォーム110の第1の動き及び撮像デバイス116の状態に基づいて対応するオプティカルフロー場を構築するように示して説明しているが、他の適当な情報を使用して対応するオプティカルフロー場を構築することもできる。このような情報は、モバイルプラットフォーム110及び/又は撮像デバイス116の他の動き又は状態を含むことができるが、限定されない。
図2を参照して、撮像デバイス116を有する航空ビデオ撮像システム100を示す。航空ビデオ撮像システム100は、モバイルプラットフォーム110上に設置されたビデオカメラ、例えば無人航空機(UAV)であることができる。図2では、取り付けブラケット112及びテラス、例えばジンバル117を介して、撮像デバイス116をモバイルプラットフォーム110に設置することができる。第1の軸130を中心として第1の回転120(又は垂直回転)を行い、第2の軸131を中心として第2の回転122(又は水平回転)を行うように構成できるレンズ118を、撮像デバイス116に装備することができる。垂直回転120及び/又は第2の回転122は、モバイルプラットフォーム110に対して相対的であることができる。第1の軸130及び第2の軸131は、互いに直交することができ、レンズ118の中心線を通過している第3の軸132と各軸130、131は直交することができる。第1及び第2の回転120、122に対する回転角は、任意の適当な角度を含むことができ、少なくとも第1の限界角度(図示せず)よりも大きいことが好ましい。
図2は、撮像デバイス116の位置及び第2の動きを状態が含むことができる撮像デバイス116の状態を示す。図2では、撮像デバイス116の位置は、例えば、横向き(図示せず)と第3の軸132に対する傾斜角Ωとを含む2つの角度を含むことができる。水平回転角は、第2の軸131に対する水平回転(第2の回転)120の結果であることができる。傾斜角Ωは、第3の軸132から傾斜角Ωを有する撮像デバイス116による垂直回転(第3の回転)122の結果であることができる。撮像デバイス116は、取り付けブラケット112上に設置されたジンバル117を介してこのような回転120、122を行うことができる。要するに、レンズ118は、水平及び/又は垂直に角度回転を行うように構成でき、回転120、122は、モバイルプラットフォーム110に対する撮像デバイス116の水平角及び/又は傾斜角Ωという結果になることができる。図4を参照して、撮像デバイス116の例示的な回転を更に詳しく後述する。
図2では、モバイルプラットフォーム110は、撮像デバイス116を保護するハウジング114を含むことができる。ハウジング114は、第2の回転120及び/又は第3の回転122を自由に行うための十分な空間を撮像デバイス116に与えることができるのが有利である。任意選択的に、ハウジング114は、撮像デバイス116がハウジング114を介して画像を取り込むことを可能にするために透明であることができる。更に、ハウジング114は、撮像デバイス116が所定の場面の画像を取り込むことができる開口部(図示せず)を規定することができる。その開口部を介して画像を取り込むことができ、図2及び図3を参照して説明したように撮像デバイス116が自由回転を行うことを可能にする限り、任意のサイズ、任意の形状及び/又は任意の空間で、ハウジング114を設けることができる。
単に図示するために図2を参照してハウジング形状のように示して説明しているが、ハウジング114は、ブラケット、脚、柱及び/又は任意の他のタイプの支持要素を含む任意の構造的構成であることができるが、これらに限定されない。
図3は、物体(図示せず)、例えば地面上の物体に対するモバイルプラットフォーム110(図2に示す)の第1の動きを示す。図3では、第1の動きは、最大6方向における最大3軸に沿った移動、即ち、x軸に沿った前後移動150、y軸に沿った左右移動152及び/又はz軸に沿った上下移動154を含むことができる。z軸は、図2の第2の軸131と同軸である、又は第2の軸131と平行であることができる。撮像デバイス116(図2に示す)は、モバイルプラットフォーム110と一緒に移動する。図15を参照して更に詳しく後述するように任意の適切な制御器によって、モバイルプラットフォーム110の方向150、152、154の何れかにおける移動を行うことができる。
代替的及び/又は追加的に、図3に示すように、モバイルプラットフォーム110の第1の動きは、上述の移動150、152、154に加えて、水平面(図示せず)と平行な面でのz軸を中心とした第1の回転124を含むことができる。モバイルプラットフォーム110が回転すると、撮像デバイス116はモバイルプラットフォーム110と一緒に移動する。水平面と平行な面と水平面との間の角度が10度(10°)未満である場合、水平面と平行な面でモバイルプラットフォーム110を考えることができる。モバイルプラットフォーム110に対応付けられた移動センサ(図示せず)によって、各第1の動き150、152、154、124を測定及び/又は実行することができる。図16を参照して、モバイルプラットフォーム110の第1の動きに関する追加詳細を示して後述する。単に図示するために図3を参照して3つの移動150、152、154及び1つの第1の回転124を有するように示して説明しているが、モバイルプラットフォーム110は任意の所望の方法で移動することができ、これらの移動をセンサによって測定することができる。
図4は、例示的な平面関係、図2の撮像デバイス116の第2の回転120及び第3の回転122を示す。図4は、モバイルプラットフォーム面140と、面140と平行であることができる水平レンズ面142と、モバイルプラットフォーム面140及び水平レンズ面142の両方と垂直であることができる垂直面144とを示す。モバイルプラットフォーム面140は、例えば、無人航空機(「UAV」)のプロペラによって規定される面であることができる。水平レンズ面142は、モバイルプラットフォーム面140と平行な方向にレンズ118が撮影している場合にレンズ118によって規定される面であることができる。更に、第1の軸130(図2に示す)は、水平レンズ面142で延びることができ、垂直面144と垂直であることができ、第2の軸131(図2に示す)は、両方の面140、142と垂直であることができる。第2の軸131は、撮像デバイス116(図2に示す)が回転するにつれて第2の軸131を中心として回転できる垂直面144で延びることができる。
図4は、2つの回転、撮像デバイス116の第2の回転120及び第3の回転122を示す。図4に示すように、第2の回転120は、第1の軸130を中心として垂直面144で行われることができ、第3の回転122は、第1の軸130と垂直であることができる第2の軸131を中心として水平面142で行われることができる。更に、第2の回転120は、少なくとも第1の限界角度(図示せず)であることができ、第3の回転122は、少なくとも第2の限界角度(図示せず)であることができる。
図2を参照して示して上述したように、モバイルプラットフォーム110に対応付けられた取り付けブラケット112の一部であることができるジンバル117を介して第2及び第3の回転120、122を行うことができる。好ましい実施形態において、ジンバル117は、2つの軸130、131を中心として制御可能に回転することができる。ジンバル117及び/又は撮像デバイス116に対応付けられた動きセンサ(図17に示す)によって、ジンバル117の第2及び第3の回転120、122の両方を測定及び/又は実行することができる。2つの回転120、122だけを有するように示して説明しているが、撮像デバイス116は、ズームイン及びズームアウトを含む他の動作(図示せず)を行うことができるが、これらに限定されない。1つ又は複数のセンサは、これらの動作を測定して、測定データをシステム100に提供することができる。
更に、図2を参照して示して説明したように、撮像デバイス116の状態は、2つの位置を含むことができる。水平レンズ面142に対して10度(±10°)の角度内の方向に中心線132がある場合、水平に撮影しているとして、撮像デバイス116を考えることができ、水平レンズ面142に対して80度(80°)よりも大きく100度(100°)よりも小さい角度内の方向に中心線132がある場合、地面の方へ撮影しているとして、撮像デバイス116を考えることができる。
図3及び図4のモバイルプラットフォーム110の第1の動き及び撮像デバイス116の状態を、関連センサパラメータを介して取得されたデータに基づいて異なるシナリオのカタログに分類することができる。
図5は、250で対応するオプティカルフロー場を構築する前に210でモバイルプラットフォーム110及び撮像デバイス116(図2に一括して示す)のシナリオを分類するステップを含む方法200を示す。210で、図7及び図8に示して説明するように、シナリオをカテゴリに分類することができる。モバイルプラットフォーム110の第1の動き及び撮像デバイス116の状態に基づいて分類を行うことができる。分類されたシナリオに従って、250で、対応するオプティカルフロー場を構築して各シナリオに対応付けることができる。
対応するオプティカルフロー場を各シナリオに対して構築する前にモバイルプラットフォーム110及び撮像デバイス116のシナリオを分類するように示して説明しているが、モバイルプラットフォーム110及び撮像デバイス116のシナリオを分類する前にオプティカルフロー場を構築することもできる。後者の場合、オプティカルフロー場に対してモバイルプラットフォーム110及び撮像デバイス116のシナリオを算出する前に各オプティカルフロー場の特性に基づいてオプティカルフロー場を構築することができる。
図6は、210でモバイルプラットフォーム110及び撮像デバイス116(図2に一括して示す)のシナリオを分類する3つの手法を示す方法200の別の代替の実施形態を示す。図6では、212でモバイルプラットフォーム110及び撮像デバイス116の複数のシナリオを定義することができる。シナリオは、モバイルプラットフォーム110の第1の動き及び/又は撮像デバイス116の状態を反映する事前に定義された基本シナリオであることができる。
図3及び図4を参照して上述したように、シナリオは、モバイルプラットフォーム110の第1の動き及び/又は撮像デバイス116の状態を反映する。モバイルプラットフォーム110及び/又は撮像デバイス116に対応付けられた移動センサ(図示せず)は、モバイルプラットフォーム110及び/又は撮像デバイス116の移動及び回転120、122、150、152、154、124を含む第1の動き及び状態を測定する。幾つかの事前に定義された基本シナリオにおいて、第1の動き及び/又は状態は、実際の操作で一般的に見られ、212で、対応するオプティカルフロー場を事前に定義することができる。
214で、シナリオを分類する別の手法は、2つ又は複数の事前に定義された基本シナリオを結合するステップを含むことができる。事前に定義された基本シナリオを結合して、1つ又は複数の結合シナリオカテゴリを生成することができる。事前に定義された基本シナリオを結合する場合、対応するオプティカルフロー場の結合にベクトル演算を適用することができる。例えば、2つの事前に定義された基本シナリオを結合する場合、ベクトル重ね合わせを適用することができる。
216で、学習プロセスを介してシナリオの新規のカテゴリを生成することができる。新規に生成されたカテゴリは、メモリ290(図16に示す)などの記憶装置に記憶されたシナリオに含めることができる。記憶装置は、データベース又は任意のタイプのデータ記憶構造物であることができる。学習プロセスは、手動プロセス及び/又は自動プロセスを含むことができる。手動プロセスを採用する場合、記録システムを利用して、学習シナリオの手動選択及び生成を行うことができる。更に、216で、新規選択及び/又は生成学習シナリオは、対応するオプティカルフロー場に対応付けることができる。
単に図示するために212、214及び216の順序に3つの手法でシナリオを分類するように示して説明しているが、他の適当な手法及び/又は他の順序をシナリオの分類に適用することができる。
図7は、事前に定義された基本シナリオ720、結合基本シナリオ740及び学習シナリオ760の3つのカテゴリにシナリオを分類することができる、図6の分類シナリオの例示的な構造を示す。図7に示すように、モバイルプラットフォーム110及び撮像デバイス116の6つの事前に定義された基本シナリオは、第1の基本シナリオ721、第2の基本シナリオ723、第3の基本シナリオ725、第4の基本シナリオ727、第5の基本シナリオ728及び第6の基本シナリオ729を含むことができる。
図7では、水平面と平行な面でモバイルプラットフォーム110が回転しており、水平面と直交する方向に撮像デバイス116が撮影している場合として、第1の基本シナリオ721を定義することができる。水平面と平行な方向に撮像デバイス116が撮影しており、水平面と平行な面でモバイルプラットフォーム110又は撮像デバイス116が回転している場合として、第2の基本シナリオ723を定義することができる。ズームインしながら、又はモバイルプラットフォーム110が地面の方へ移動しながら、水平面と直交する方向に撮像デバイス116が撮影している場合として、第3の基本シナリオ725を定義することができる。ズームアウトしながら、又はモバイルプラットフォーム110が地面から離れて移動しながら、水平面と直交する方向に撮像デバイス116が撮影している場合として、第4の基本シナリオ727を定義することができる。水平面に対してある特定の角度を有する方向に撮像デバイス116が撮影しており、ある特定の速度でモバイルプラットフォーム110が移動している場合として、第5の基本シナリオ728を定義することができる。モバイルプラットフォーム110が静止状態を保持しており、水平面と垂直な面で撮像デバイス116が回転している場合として、第6の基本シナリオ729を定義することができる。
図7では、事前に定義された基本シナリオ720の結合を740で示す。結合シナリオは、事前に定義された基本シナリオ720のうち2つ又は複数の任意の結合からなることができる。結合シナリオは、1つ又は複数の結合シナリオ740及び/又は1つ又は複数の学習シナリオ760を含むこともできる。
図7は、図6を参照して説明したように一連の操作中に学習された任意のシナリオであることができる学習シナリオ760のカテゴリも示す。学習シナリオは、即時に及び/又は所定の時間後に設定された作業に含めることができる。
単に図示するために図7を参照してシナリオの3つのカテゴリ及び6つの事前に定義された基本シナリオ720を含むように示して説明しているが、センサパラメータのシナリオカテゴリ及び/又は事前に定義された基本シナリオ720の数は、要望通り、任意の適当な数であることができる。
図8は、方法200の代替の実施形態を示す。図8を参照して、対応するオプティカルフロー場を構築する1つの方法を228で示す。810で、モバイルプラットフォーム110及び撮像デバイス116の基本シナリオ720(図7に示す)を定義することができる。オプティカルフロー場の対応するビューを、各事前に定義された基本シナリオ720に対応付けることができる。
811で、第1の基本シナリオの場合、対応する回転ビュー(図10を参照して更に詳しく後述する)を812で対応付ける。図7を参照して説明したように、このシナリオでは、水平面と直交する方向に撮像デバイス116が撮影しており、水平面と平行な面でモバイルプラットフォーム110が回転している。
813で、第2の基本シナリオの場合、対応するサイド移動ビュー(図11を参照して更に詳しく後述する)を814で対応付ける。図7を参照して説明したように、このシナリオでは、水平面と平行な方向に撮像デバイス116が撮影しており、水平面と平行な面でモバイルプラットフォーム110及び/又は撮像デバイス116が回転している。
815で、第3の基本シナリオの場合、対応するズームインビュー(図12を参照して更に詳しく後述する)を816で対応付ける。図7を参照して説明したように、このシナリオでは、ズームインしながら、又はモバイルプラットフォーム110が地面の方へ移動しながら、水平面と直交する方向に撮像デバイス116が撮影している。
817で、第4の基本シナリオの場合、対応するズームアウトビュー(図12を参照して更に詳しく後述する)を818で対応付ける。図7を参照して説明したように、このシナリオでは、ズームアウトしながら、又はモバイルプラットフォーム110が地面から離れて移動しながら、水平面と直交する方向に撮像デバイス116が撮影している。
819で、第5の基本シナリオの場合、対応する直線移動ビュー(図13を参照して更に詳しく後述する)を820で対応付ける。図7を参照して説明したように、このシナリオでは、水平面に対してある特定の角度を有する方向に撮像デバイス116が撮影しており、ある特定の速度でモバイルプラットフォーム110が移動している。
821で、第6の基本シナリオの場合、対応する大域的動きビュー(図14を参照して更に詳しく後述する)を822で対応付ける。図7を参照して説明したように、このシナリオでは、モバイルプラットフォーム110が静止状態を保持しており、水平面と垂直な面で撮像デバイス116が回転している。
図9は、図5の方法200の例示的な実施形態を示す。図9では、追加の手続き910を方法200の工程に取り入れる。910で、センサパラメータのシナリオに基づいて、対応するオプティカルフロー場を選択して返す。図7を参照して説明したように、明らかなシナリオは、事前に定義された基本シナリオ、結合基本シナリオ及び学習シナリオを含む。例示的な例として、事前定義基本に対する対応する関係を、図8を参照して説明する。
910で、分類シナリオを判定する場合、ビデオ圧縮などの画像処理の目的で、シナリオに対応付けられたオプティカルフロー場を選択することができる。
ここで図10を参照して、対応するオプティカルフロー場を用いて、図8の第1の基本シナリオ811としてのフレーム715の回転ビュー716の実施形態を示す。図8を参照して説明したように、第1の事前に定義された基本シナリオ811は2つの条件からなり、図3、図4、図7及び図8を参照して説明したように、最初の条件は、モバイルプラットフォーム110(図2に示す)の第1の動きが水平面と平行な面で回転することをからなることであり、次の条件は、撮像デバイス116(図2に示す)の状態が水平面と直交する方向に撮影する位置からなることである。第1の事前に定義された基本シナリオ811に対する2つの条件を満たす場合、方法200(図9に示す)は、図10の対応する回転ビュー716を選択することができる。回転ビュー716では、フレーム内の全ベクトルは、中心点710を中心として循環していることができ、外側部分、例えば714における画素が、フレーム715の内側部分、例えば712における画素よりも非常に速く移動していることができる。
図10に示すように、回転ビュー716において、最も外側の部分、例えば部分714における画素が、中心710を中心として最も速く移動し、最も内側の部分、例えば部分712における画素が、非常に遅く移動する。他の部分における画素の移動速度は、中心710までの画素の距離に左右される。
図11を参照して、対応するオプティカルフロー場を用いて、図8の第2の事前に定義された基本シナリオ813としてのフレーム730のサイド移動ビュー731の実施形態を示す。図8を参照して説明したように、第2の事前に定義された基本シナリオ813は2つの条件からなることができ、図3、図4、図7及び図8を参照して説明したように、最初の条件は、モバイルプラットフォーム110の第1の動き又は撮像デバイス116(図2に一括して示す)の第2の動きが水平面と平行な面で回転することをからなることであり、次の条件は、撮像デバイス116の位置が水平面と平行な方向に撮影することをからなることである。第2の事前に定義された基本シナリオ813に対する2つの条件を満たす場合、方法200(図9に示す)は、対応するサイド移動ビュー731を選択することができる。サイド移動ビュー731では、フレーム730内の全ベクトル、例えば732及び734は、曲線経路に従って移動していることができる。フレーム730の画素移動を表すベクトルは、フレーム730全体にわたって均一であることができる。
図11に示すように、フレーム730内の画素を、フレーム730の任意の1つの部分内で方向及び大きさが同一又は同様であるとみなすことができる。フレーム730の任意の2つの部分の間で、ベクトルは、大きさが同一又は同様であるが、方向は異なることができる。
ここで図12を参照して、対応するオプティカルフロー場を用いて、図8の第3の事前に定義された基本シナリオ815としてのフレーム750のズームインビュー751の実施形態を示す。図8を参照して説明したように、第3の事前に定義された基本シナリオ815は2つの条件からなり、図3、図4、図7及び図8を参照して説明したように、最初の条件は、撮像デバイス116の位置が水平面と直交する方向に撮影することからなることであり、次の条件は、撮像デバイス116の第2の動きがズームインすることからなること、又はモバイルプラットフォーム110の第1の動きが地面の方へ移動することからなることである。第3の事前に定義された基本シナリオ815に対する2つの条件を満たす場合、方法200(図9に示す)は、図12の対応するズームインビュー751を選択することができる。ズームインビュー751では、中心点710から遠い画素は、中心点710に近い画素よりも速く移動していることができる。フレーム750内の全画素は、外向きに放射していることができる。
図12の小さい変形例に関して、対応するオプティカルフロー場を用いて、図8の第4の事前に定義された基本シナリオ817としてのフレーム750のズームアウトビュー753(図示せず)の実施形態を示す。図8を参照して説明したように、第4の事前に定義された基本シナリオ817は2つの条件をからなり、図3、図4、図7及び図8を参照して説明したように、最初の条件は、撮像デバイス116の位置が水平面と直交する方向に撮影することからなることであり、次の条件は、撮像デバイス116の第2の動きがズームアウトすることからなること、又はモバイルプラットフォーム110の第1の動きが地面から離れて移動することからなることである。ズームインビュー751と同様に、ズームアウトビュー751では、中心点710から遠い画素は、中心点710に近い画素よりも速く移動していることができる。ズームインビュー751と違って、ズームアウトビュー753では、フレーム750内の画素は、フレーム750の外側から来て、内向きに放射していることができる。
図12に示すように、外側の部分、例えば754における画素が、中心710を中心として最も速く移動し、内側の部分、例えば752における画素が、非常に遅く移動する。ズームインビュー751における画素の移動速度は、中心710までの画素の距離に左右される。撮像デバイス116がズームインしている場合、画素は、中心点710からフレーム750に入り、最も内側の部分から外向きに外側部分へ移動し、フレーム750から出る。撮像デバイス116がズームアウトしている場合、画素は、フレーム750に入り、アウトバウンドから最も外側の部分及び内側部分に移動し、中心点710で消える。
ここで図13を参照して、対応するオプティカルフロー場を用いて、図8の第5の事前に定義された基本シナリオ819としてのフレーム770の直線移動ビュー771の実施形態を示す。図8を参照して説明したように、第5の事前に定義された基本シナリオ819は2つの条件からなり、図3、図4、図7及び図8を参照して説明したように、最初の条件は、撮像デバイス116の位置が水平面に対してある特定の角度Ωを有する方向に撮影することからなることであり、次の条件は、モバイルプラットフォーム110の第2の動きがある特定の速度で移動することからなることである。第5の事前に定義された基本シナリオ819に対する2つの条件を満たす場合、方法200(図10に示す)は、図13の対応する直線移動ビュー771を選択することができる。
直線移動ビュー771では、図13に示すように、はるかに遠い物体を表す、フレーム770の上側部分における画素は、相対的に静止していることができ、より近いビュー又は物体を表す、フレーム770の下側部分における画素は、相対的に速く移動していることができる。更に、このシナリオは、モバイルプラットフォーム110が飛び去っている場合のビューを表す。
図13に示すように、直線移動ビュー771では、上側部分における画素は、この画素が遠い物体を表すので、ほとんど静止していることができ、下側部分における下側部分の画素は、上側部分の画素よりも非常に速く移動することができる。下側部分における画素は、図13に示すように、ある角度でフレームの上側部分から下側部分に移動しており、フレーム770から外に移動することができる。
図14を参照して、対応するオプティカルフロー場を用いて、第6の事前に定義された基本シナリオ821としてのフレーム790の大域的動きビュー791の実施形態を示す。図8を参照して説明したように、第6の事前に定義された基本シナリオ821は2つの条件からなり、図3、図4、図7及び図8を参照して説明したように、最初の条件は、モバイルプラットフォーム110の第1の動きが静止状態を保持することからなることであり、次の条件は、撮像デバイス116の第2の動きが、第1の限界よりも大きい、水平面と垂直な面で回転することからなることである。第6の事前に定義された基本シナリオ821に対する2つの条件を満たす場合、方法200(図10に示す)は、図14の対応する大域的動きビュー791を選択する。大域的動きビュー791では、フレーム790内の画素は、例えば、速度ベクトル(例えば、792及び794)によって表される動きでフレームの上側部分からフレームの下側部分へ、1つの方向に大域的に移動しており、フレーム790の下側部分からフレームの外に移動することができる。
このシナリオ821では、全ベクトル(例えば、ベクトル792及び794)は、方向及び大きさが同一又は同様である。従って、フレーム790の画素を、フレーム790全体にわたって大域的動きを有するとみなすことができる。
図15は、UAV110(図2に示す)の移動を実行する例示的な制御コンソール800を示す。図15に示すように、コンソール800は、1つ又は複数のジョイスティック810、820、及び電源スイッチ830からなることができる。ジョイスティック810、820は、図15に示すように、縦揺れ、偏揺れ、スロットル及び/又は横揺れの動作を介して移動を実行するのにUAV110を制御する。追加的及び/又は代替的に、コンソール800は、撮像デバイス116(図2に示す)の動作を行う別のセットの制御(図15に図示せず)を有することができ、又は、別個の制御コンソール(図示せず)を用いて、撮像デバイス116を制御することができる。別個の制御コンソールは、例えば、携帯電話で動作するモバイルアプリであることができる。
制御コンソール800は、図15に示すものと同様なゲームコンソールを含む、任意のタイプの遠隔制御器、及びコンピュータ、携帯電話、タブレットで動作する任意のアプリ、及びUAV110及び/又は撮像デバイス116に関する機能を制御する制御機能を果たすことができる任意の他のモバイルプラットフォームであることができる。
図16は、モバイルプラットフォーム110の第1の動き及び撮像デバイス111の状態を利用して対応するオプティカルフロー場を構築することができる撮像システム300の例示的な実施形態を示す。撮像システム300は、モバイルプラットフォーム110の第1の動き用の1つ又は複数の第1のセンサ、及び撮像デバイス116の状態用の1つ又は複数の第2のセンサを含むことができる。図16に示すように、第1及び第2のセンサのうち少なくとも1つをプロセッサ280に対応付けることができる。図3及び図4を参照して示して上述したように、第1の回転センサ251は、第1の軸131を中心としてプラットフォーム110の回転を測定する。第1の回転センサ251は、慣性測定ユニット(「IMU」)であることができる。代替的及び/又は追加的に、第1の動きの第1の移動センサ252及び第2の移動センサ253を、同じIMU又は他の速度デバイスによって実現することができる。
各第1のセンサ251〜253は、事前分類オプティカルフロー場111を選択するベースとして使用できるモバイルプラットフォーム110の第1の動きの測定をプロセッサ280に与えることができる。例示的な実施形態では、位置センサ310及び第2の動きセンサ320を含む、撮像デバイス116用の第2のセンサのうち少なくとも1つの測定と、第1の動きの測定を結合することができる。
単に図示するためにモバイルプラットフォーム110の第1の動き用の第1のセンサ251〜253及び撮像デバイス116の第2のセンサ310、320を対応付けるように示して説明しているが、オプティカルフロー場を選択するために、他の適当な動き及び状態の測定をプロセッサ280に対応付けることもできる。多少言い方を変えれば、モバイルプラットフォーム110の第1の動き及び撮像デバイス116の状態用の第1及び第2のセンサのうち少なくとも1つを含むことができる複数の適当なセンサに、プロセッサ280を対応付けることができる。
図16に示すように、プロセッサ280をメモリ290に対応付けることができる。メモリ290の例は、ランダムアクセスメモリ(「RAM」)、スタティックRAM、ダイナミックRAM、読み取り専用メモリ(「ROM」)、プログラマブルROM、消去可能プログラマブルROM、電気的消去可能プログラマブルROM、フラッシュメモリ、セキュアデジタル(「SD」)カードなどを含むことができる。メモリ290を使用して、事前分類シナリオ及び対応するオプティカルフロー場111を含むプリロードデータを記憶することができるが、これらに限定されない。プロセッサ280は、第1の動き用の第1のセンサ及び撮像デバイス116の状態用の第2のセンサを介して取得されたモバイルプラットフォーム110の第1の動きに基づいてシナリオを判定することができる。例示的な実施形態では、シナリオが事前分類シナリオのうちの1つと一致する場合、プロセッサ280は、対応するオプティカルフロー場を選択することができる。
プロセッサ280は、現在入手可能なビデオ機器に使用できる任意の市販のグラフィックチップを含むことができる。例えば、プロセッサ280は、撮像デバイス111用に特別製造された特注設計のグラフィックチップであることができる。プロセッサ280は、2D(又は3D)場面のレンダリング、又は他のグラフィックス、MPEG−2/MPEG−4の復号、テレビ出力、又は多数のディスプレイを接続する機能を高速化する1つ又は複数の追加チップを含むことができ、又はこれらの追加チップと通信するように構成できる。追加的及び/又は代替的に、プロセッサ280は、1つ又は複数の汎用マイクロプロセッサ(例えば、単一又はマルチコアプロセッサ)、特定用途向け集積回路、特定用途向け命令セットプロセッサ、グラフィックス処理装置、物理処理装置、デジタル信号処理装置、コプロセッサ、ネットワーク処理装置、音声処理装置、暗号化処理装置などを含むことができる。
シナリオを判定して対応するオプティカルフロー場111を選択するモバイルプラットフォーム110の第1の動き用の第1のセンサ及び撮像デバイス116の状態用の第2のセンサと操作可能にプロセッサ280を接続することができる。プロセッサ280と第1及び第2のセンサとの間の接続は、有線及び/又は無線リンクであることができる。プロセッサ280は、画僧処理に関する様々な操作を含む、ここに記載の方法100の何れかを実行するように構成できるが、これらに限定されない。幾つかの実施形態では、プロセッサ280は、画僧処理に関する特定の操作を処理する専用ハードウエアを含むことができる。
幾つかの他の実施形態では、メモリ290は、画僧処理に関する様々な操作を含む、ここに記載の方法の何れかを実行するようにプログラムされたソフトウェア製品を記憶するのに使用できるが、これらに限定されない。
図17は、撮像デバイス116の位置センサ310及び第2の動きセンサ320を含む撮像デバイス116(図2に示す)の状態用の第2のセンサを示すシステム300の例示的な実施形態を示す。図17では、撮像デバイス116の位置センサ310は、撮像デバイス116の横向きを測定する向きセンサ312、及び撮像デバイス116の傾斜角(図4に一括して示す)を検出する角度センサ314を含むことができる。向きセンサ312及び角度センサ314は、ジンバル117(図2に示す)に対応付けられた少なくとも1つのセンサであることができる。
単に図示するために向きセンサ312及び角度センサ314を有するように示して説明しているが、他の適当なセンサを使用して、撮像デバイス116の位置310を検出することができる。
撮像デバイス116の第2の動きセンサ320は、ズームセンサ322、第2の回転センサ324及び第3の回転センサ326を含むことができる。ズームセンサ322は、ズームインの動き及び/又はズームアウトの動きを検出する、撮像デバイス116に対応付けられた少なくとも1つのセンサを含むことができる。第2の回転センサ324及び第3の回転センサ326は、撮像デバイス116の水平回転及び垂直回転を検出する、ジンバル117に対応付けられた1つ又は複数の動きセンサを含むことができる。
単に図示するためにズームセンサ322及び回転センサ324、326を有するように示して説明しているが、他の適当なセンサを使用して、撮像デバイス116の第2の動き320を検出することができる。
記載の実施形態は、様々な修正及び代替の形態が可能であり、実施形態の特定の例が、図面で例示されており、ここに詳しく記載されている。しかし、記載の実施形態は、開示の具体的な形態又は方法に限定されるべきではなく、それとは反対に、本開示は、全ての修正、均等物及び代替物を含むことが理解されるものとする。
開示の実施形態は一般的に、モバイルプラットフォームに対応付けられた撮像デバイスによるビデオ撮像に関し、より詳細には、モバイルプラットフォームの動き及び撮像デバイスの状態を判定することによって選択ビデオフレームに対してオプティカルフロー場を構築する方法に関する。
前述のことに鑑みて、迅速且つコスト効果の高い方法でオプティカルフロー場を構築することができる方法の必要性がある。
図12の小さい変形例に関して、対応するオプティカルフロー場を用いて、図8の第4の事前に定義された基本シナリオ817としてのフレーム750のズームアウトビュー753(図示せず)の実施形態を示す。図8を参照して説明したように、第4の事前に定義された基本シナリオ817は2つの条件をからなり、図3、図4、図7及び図8を参照して説明したように、最初の条件は、撮像デバイス116の位置が水平面と直交する方向に撮影することからなることであり、次の条件は、撮像デバイス116の第2の動きがズームアウトすることからなること、又はモバイルプラットフォーム110の第1の動きが地面から離れて移動することからなることである。ズームインビュー751と同様に、ズームアウトビュー75では、中心点710から遠い画素は、中心点710に近い画素よりも速く移動していることができる。ズームインビュー751と違って、ズームアウトビュー753では、フレーム750内の画素は、フレーム750の外側から来て、内向きに放射していることができる。
図16は、モバイルプラットフォーム110の第1の動き及び撮像デバイス11の状態を利用して対応するオプティカルフロー場を構築することができる撮像システム300の例示的な実施形態を示す。撮像システム300は、モバイルプラットフォーム110の第1の動き用の1つ又は複数の第1のセンサ、及び撮像デバイス116の状態用の1つ又は複数の第2のセンサを含むことができる。図16に示すように、第1及び第2のセンサのうち少なくとも1つをプロセッサ280に対応付けることができる。図3及び図4を参照して示して上述したように、第1の回転センサ251は、第1の軸131を中心としてプラットフォーム110の回転を測定する。第1の回転センサ251は、慣性測定ユニット(「IMU」)であることができる。代替的及び/又は追加的に、第1の動きの第1の移動センサ252及び第2の移動センサ253を、同じIMU又は他の速度デバイスによって実現することができる。
シナリオを判定して対応するオプティカルフロー場111を選択するモバイルプラットフォーム110の第1の動き用の第1のセンサ及び撮像デバイス116の状態用の第2のセンサと操作可能にプロセッサ280を接続することができる。プロセッサ280と第1及び第2のセンサとの間の接続は、有線及び/又は無線リンクであることができる。プロセッサ280は、画僧処理に関する様々な操作を含む、ここに記載の方法00の何れかを実行するように構成できるが、これらに限定されない。幾つかの実施形態では、プロセッサ280は、画僧処理に関する特定の操作を処理する専用ハードウエアを含むことができる。

Claims (74)

  1. オプティカルフロー場を構築する方法であって、
    撮像デバイスを有するモバイルプラットフォームの第1の動きを取得するステップと、
    前記モバイルプラットフォームに対する前記撮像デバイスの状態を得るステップと、
    モバイルプラットフォームの前記第1の動き及び前記撮像デバイスの前記状態に基づいてフレームに対して対応するオプティカルフロー場を構築するステップと
    を含む方法。
  2. 前記第1の動きを取得する前記ステップは、前記モバイルプラットフォームの第1の回転、水平方向における前記モバイルプラットフォームの第1の移動、及び垂直方向における前記モバイルプラットフォームの第2の移動のうち少なくとも1つを判定するステップを含む、請求項1に記載の方法。
  3. 前記状態を得る前記ステップは、前記撮像デバイスの第2の動き及び位置のうち少なくとも1つを判定するステップを含む、請求項1又は2に記載の方法。
  4. 前記撮像デバイスの前記第2の動き及び前記位置のうち前記少なくとも1つを判定する前記ステップは、ズーム、水平方向における前記撮像デバイスの第1の回転、及び垂直方向における前記撮像デバイスの第2の回転のうち少なくとも1つを判定するステップを含む、請求項3に記載の方法。
  5. 前記撮像デバイスの前記第2の動き及び前記位置のうち前記少なくとも1つを判定する前記ステップは、前記撮像デバイスの向き及び傾斜角のうち少なくとも1つを取得するステップを含む、請求項4に記載の方法。
  6. 前記取得するステップは、前記モバイルプラットフォーム上に配置された1つ又は複数の第1のセンサを介して前記第1の動きを取得するステップを含む、請求項1乃至5の何れか1項に記載の方法。
  7. 前記構築するステップは、事前分類されたオプティカルフロー場を、前記モバイルプラットフォームの前記第1の動き又は前記撮像デバイスの前記状態の分類シナリオの少なくとも一方に対応付けるステップを含む、請求項1乃至6の何れか1項に記載の方法。
  8. 前記モバイルプラットフォームの前記第1の動き及び前記撮像デバイスの前記状態に基づいて前記モバイルプラットフォーム及び前記撮像デバイスの前記シナリオを分類するステップを更に含む、請求項7に記載の方法。
  9. 前記シナリオを分類する前記ステップは、前記モバイルプラットフォームの前記第1の動き及び前記撮像デバイスの前記状態の前記シナリオを、事前に定義された基本シナリオに定義するステップを更に含む、請求項8に記載の方法。
  10. 前記モバイルプラットフォームは無人航空機(UAV)である、請求項9に記載の方法。
  11. 前記対応するオプティカルフロー場を構築する前記ステップは、回転ビューを第1の基本シナリオに対応付けるステップを含む、請求項1乃至10の何れか1項に記載の方法。
  12. 前記回転ビューを対応付ける前記ステップは、フレームの外側部分における動きが前記フレームの内側部分における動きよりも非常に速い所定のビューを対応付けるステップを含む、請求項11に記載の方法。
  13. 前記シナリオを定義する前記ステップは、水平面と直交する方向に前記撮像デバイスが撮影しており、前記水平面と平行な面で前記UAVが回転している場合として、前記第1の基本シナリオを定義するステップを含む、請求項12に記載の方法。
  14. 前記対応するオプティカルフロー場を構築する前記ステップは、サイド移動ビューを第2の基本シナリオに対応付けるステップを含む、請求項1乃至10の何れか1項に記載の方法。
  15. 前記サイド移動ビューを対応付ける前記ステップは、前記フレームの全ての物体が曲線経路に沿って移動している所定のビューを対応付けるステップを含む、請求項14に記載の方法。
  16. 前記シナリオを定義する前記ステップは、水平面と平行な方向に前記撮像デバイスが撮影しており、前記水平面と平行な面で前記UAV又は前記撮像デバイスが回転している場合として、前記第2の基本シナリオを定義するステップを含む、請求項15に記載の方法。
  17. 前記対応するオプティカルフロー場を構築する前記ステップは、ズームインビューを第3の基本シナリオに対応付けるステップを含む、請求項1乃至10の何れか1項に記載の方法。
  18. 前記ズームインビューを対応付ける前記ステップは、フレームの中心から離れた点が前記中心点及び前記フレームから出る点よりも速く移動している所定のビューを対応付けるステップを含む、請求項17に記載の方法。
  19. 前記シナリオを定義する前記ステップは、ズームインしながら、又は前記UAVが地面の方へ移動しながら、前記水平面と直交する方向に前記撮像デバイスが撮影している場合として、前記第3の基本シナリオを定義するステップを含む、請求項18に記載の方法。
  20. 前記対応するオプティカルフロー場を構築する前記ステップは、ズームアウトビューを第4の基本シナリオに対応付けるステップを含む、請求項1乃至10の何れか1項に記載の方法。
  21. 前記ズームアウトビューを対応付ける前記ステップは、フレームの中心から離れた点が前記中心点及び前記フレームに入る点よりも速く移動している所定のビューを対応付けるステップを含む、請求項20に記載の方法。
  22. 前記シナリオを定義する前記ステップは、ズームアウトしながら、又は前記UAVが地面から離れて移動しながら、前記水平面と直交する方向に前記撮像デバイスが撮影している場合として、前記第4の基本シナリオを定義するステップを含む、請求項21に記載の方法。
  23. 前記対応するオプティカルフロー場を構築する前記ステップは、直線移動ビューを第5の基本シナリオに対応付けるステップを含む、請求項1乃至10の何れか1項に記載の方法。
  24. 前記直線移動ビューを対応付ける前記ステップは、前記動きが前記フレーム内の全画素に対して大域的であるが、前記フレームの上側部分における前記画素が相対的に静止しており、前記フレームの下側部分における近い物体上の前記画素が相対的に一層速く移動する、所定のビューを対応付けるステップを含む、請求項23に記載の方法。
  25. 前記シナリオを定義する前記ステップは、前記水平面に対してある特定の角度を有する方向に前記撮像デバイスが撮影しており、ある特定の速度で前記UAVが移動している場合として、前記第5の基本シナリオを定義するステップを含む、請求項24に記載の方法。
  26. 前記撮像デバイスが撮影している前記方向に前記UAVが移動している、請求項25に記載の方法。
  27. 前記直線移動ビューを対応付ける前記ステップは、遠い物体を深さ又は局所性の少なくとも一方によって判定するステップを含み、
    前記フレームの上側部分における前記物体を遠い物体として通常判定し、同様の深さを有する物体を近い物体として判定する、請求項26に記載の方法。
  28. 前記対応するオプティカルフロー場を構築する前記ステップは、大域的動きビューを第6の基本シナリオに対応付けるステップを含む、請求項1乃至10の何れか1項に記載の方法。
  29. 前記大域的動きビューを対応付ける前記ステップは、超高速の大域的な一定の速度で前記撮像デバイスが移動する所定のビューを対応付けるステップを含む、請求項28に記載の方法。
  30. 前記シナリオを定義する前記ステップは、前記UAVが静止状態を保持しており、前記水平面と垂直な面で前記カメラが回転している場合として、前記第6の基本シナリオを定義するステップを含む、請求項29に記載の方法。
  31. シナリオを分類する前記ステップは、前記事前に定義された基本シナリオを結合して結合シナリオを生成するステップと、前記対応するオプティカルフロー場を結合して対応する結合オプティカルフロー場を生成するステップとを更に含む、請求項30に記載の方法。
  32. 前記オプティカルフロー場を対応付ける前記ステップは、前記対応する結合オプティカルフロー場を前記結合シナリオに対応付けるステップを含む、請求項31に記載の方法。
  33. シナリオを分類する前記ステップは、少なくとも1つの学習プロセスを介して前記シナリオを定義して学習シナリオを生成するステップと、対応する学習オプティカルフロー場を定義するステップとを更に含む、請求項11乃至32の何れか1項に記載の方法。
  34. 前記オプティカルフロー場を対応付ける前記ステップは、前記対応する学習オプティカルフロー場を前記学習シナリオに対応付けるステップを更に含む、請求項33に記載の方法。
  35. フレームに対してオプティカルフロー場を選択する方法であって、
    請求項11乃至34の何れか1項に記載のシナリオに基づいて対応するオプティカルフロー場を選択するステップを含み、
    前記シナリオはモバイルプラットフォームの第1の動きと前記モバイルプラットフォームに連結された撮像デバイスの状態とを含む、方法。
  36. 請求項35に記載のフレームに対して前記オプティカルフロー場を構築するステップを実行するように構成されている撮像システム。
  37. オプティカルフロー場を構築する撮像システムであって、
    モバイルプラットフォームと、
    前記モバイルプラットフォームに対応付けられた撮像デバイスとを含み、
    前記モバイルプラットフォーム又は前記撮像デバイスの少なくとも一方は、請求項11乃至34の何れか1項に記載のフレームに対して前記オプティカルフロー場を構築するように構成されている、撮像システム。
  38. 前記モバイルプラットフォーム又は前記撮像デバイスの少なくとも一方は、前記フレームに対して前記オプティカルフロー場を構築するプロセッサを含む、請求項37に記載の撮像システム。
  39. 請求項35に記載のフレームに対して前記オプティカルフロー場を選択する命令を含むコンピュータプログラム製品。
  40. オプティカルフロー場を構築する方法であって、
    モバイルプラットフォームの第1の動き又は前記モバイルプラットフォームに装着された撮像デバイスの第2の動きのうち少なくとも1つを取得するステップと、
    前記モバイルプラットフォームに対する撮像デバイスの位置を得るステップと、
    前記第1の動き、前記第2の動き及び前記位置のうち少なくとも1つに基づいてフレームに対して対応するオプティカルフロー場を構築するステップと
    を含む方法。
  41. 前記取得するステップは、前記モバイルプラットフォーム又は前記撮像デバイスに対応付けられた1つ又は複数の動きセンサを介して前記第1の動き及び前記第2の動きのうち少なくとも1つを取得するステップを含む、請求項40に記載の方法。
  42. オプティカルフロー場を構築する装置であって、
    撮像デバイスを有するモバイルプラットフォームの第1の動きを取得するステップと、
    前記モバイルプラットフォームに対する前記撮像デバイスの状態を得るステップと、
    モバイルプラットフォームの前記第1の動き及び前記撮像デバイスの前記状態に基づいてフレームに対して対応するオプティカルフロー場を構築するステップと
    のために構成されているプロセッサを含む装置。
  43. 前記プロセッサは、前記モバイルプラットフォームの第1の回転、水平方向における前記モバイルプラットフォームの第1の移動、及び垂直方向における前記モバイルプラットフォームの第2の移動のうち少なくとも1つを判定するように構成されている、請求項42に記載の装置。
  44. 前記プロセッサは、前記撮像デバイスの第2の動き及び位置のうち少なくとも1つを判定するように構成されている、請求項42又は43に記載の装置。
  45. 前記プロセッサは、ズーム、水平方向における前記撮像デバイスの第1の回転、及び垂直方向における前記撮像デバイスの第2の回転のうち少なくとも1つを判定するように構成されている、請求項44に記載の装置。
  46. 前記プロセッサは、前記撮像デバイスの向き及び傾斜角のうち少なくとも1つを取得するように構成されている、請求項45に記載の装置。
  47. 前記モバイルプラットフォームの前記第1の動きを取得する、前記モバイルプラットフォーム上に配置された1つ又は複数の第1のセンサを更に含む、請求項42乃至46の何れか1項に記載の装置。
  48. 前記プロセッサは、事前分類されたオプティカルフロー場を、前記モバイルプラットフォームの前記第1の動き又は前記撮像デバイスの前記状態の分類シナリオの少なくとも一方に対応付けるように構成されている、請求項42乃至47の何れか1項に記載の装置。
  49. 前記プロセッサは、前記モバイルプラットフォームの前記第1の動き及び前記撮像デバイスの前記状態に基づいて前記モバイルプラットフォーム及び前記撮像デバイスの前記シナリオを分類するように構成されている、請求項48に記載の装置。
  50. 前記プロセッサは、前記モバイルプラットフォーム及び前記撮像デバイスの前記状態の前記シナリオを、事前に定義された基本シナリオに定義するように構成されている、請求項49に記載の装置。
  51. 前記モバイルプラットフォームは無人航空機(UAV)である、請求項50に記載の装置。
  52. 前記プロセッサは、回転ビューを第1の基本シナリオに対応付けるように構成されている、請求項42乃至51の何れか1項に記載の装置。
  53. 前記回転ビューは、フレームの外側部分における動きが前記フレームの内側部分における動きよりも非常に速いことを含む、請求項52に記載の装置。
  54. 前記第1の基本シナリオは、水平面と直交する方向に前記撮像デバイスが撮影しており、前記水平面と平行な面で前記UAVが回転している場合として、定義されている、請求項53に記載の装置。
  55. 前記プロセッサは、サイド移動ビューを第2の基本シナリオに対応付けるように構成されている、請求項42乃至51の何れか1項に記載の装置。
  56. 前記サイド移動ビューは、前記フレームの全ての物体が曲線経路に沿って移動していることを含む、請求項55に記載の装置。
  57. 前記第2の基本シナリオは、水平面と平行な方向に前記撮像デバイスが撮影しており、前記水平面と平行な面で前記UAV又は前記撮像デバイスが回転している場合として、定義されている、請求項56に記載の装置。
  58. 前記プロセッサは、ズームインビューを第3の基本シナリオに対応付けるように構成されている、請求項42乃至51の何れか1項に記載の装置。
  59. 前記第3の基本シナリオは、ズームインしながら、又は前記UAVが地面の方へ移動しながら、前記水平面と直交する方向に前記撮像デバイスが撮影している場合として、定義されている、請求項58に記載の装置。
  60. 前記ズームインビューは、フレームの中心から離れた点が前記中心点及び前記フレームから出る点よりも速く移動していることを含む、請求項59に記載の装置。
  61. 前記プロセッサは、ズームアウトビューを第4の基本シナリオに対応付けるように構成されている、請求項42乃至51の何れか1項に記載の装置。
  62. 前記ズームアウトビューは、フレームの中心から離れた点が前記中心点及び前記フレームに入る点よりも速く移動していることを含む、請求項61に記載の装置。
  63. 前記第4の基本シナリオは、ズームアウトしながら、又は前記UAVが地面から離れて移動しながら、前記水平面と直交する方向に前記撮像デバイスが撮影している場合として、定義されている、請求項62に記載の装置。
  64. 前記プロセッサは、直線移動ビューを第5の基本シナリオに対応付けるように構成されている、請求項42乃至51の何れか1項に記載の装置。
  65. 前記直線移動ビューは、前記動きが前記フレーム内の全画素に対して大域的であるが、前記フレームの上側部分における前記画素が相対的に静止しており、前記フレームの下側部分における近い物体上の前記画素が相対的に一層速く移動することを含む、請求項64に記載の装置。
  66. 前記第5の基本シナリオは、前記水平面に対してある特定の角度を有する方向に前記撮像デバイスが撮影しており、ある特定の速度で前記UAVが移動している場合として、定義されている、請求項65に記載の装置。
  67. 前記撮像デバイスが撮影している前記方向に前記UAVが移動している、請求項66に記載の装置。
  68. 前記直線移動ビューを対応付ける前記プロセッサは、遠い物体を深さ又は局所性の少なくとも一方によって判定するように構成されており、
    前記フレームの上側部分における前記物体を遠い物体として通常判定し、同様の深さを有する物体を近い物体として判定する、請求項67に記載の装置。
  69. 前記プロセッサは、大域的動きビューを第6の基本シナリオに対応付けるように構成されている、請求項42乃至51の何れか1項に記載の装置。
  70. 前記大域的動きビューは、超高速の大域的な一定の速度で前記撮像デバイスが移動することを含む、請求項69に記載の装置。
  71. 前記第6の基本シナリオは、前記UAVが静止状態を保持しており、前記水平面と垂直な面で前記カメラが回転している場合として、定義されている、請求項70に記載の装置。
  72. 前記プロセッサは、前記事前に定義された基本シナリオを結合して結合シナリオを生成し、前記対応するオプティカルフロー場を結合して対応する結合オプティカルフロー場を生成するように構成されている、請求項71に記載の装置。
  73. 前記対応する結合オプティカルフロー場を前記結合シナリオに対応付ける、請求項72に記載の装置。
  74. 前記プロセッサは、少なくとも1つの学習プロセスを介して前記シナリオを定義して学習シナリオを生成し、対応する学習オプティカルフロー場を定義するように構成されている、請求項73に記載の装置。
JP2016535721A 2015-07-31 2015-07-31 オプティカルフロー場を構築する方法 Active JP6240328B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2015/085760 WO2017020182A1 (en) 2015-07-31 2015-07-31 System and method for constructing optical flow fields

Publications (2)

Publication Number Publication Date
JP2017529709A true JP2017529709A (ja) 2017-10-05
JP6240328B2 JP6240328B2 (ja) 2017-11-29

Family

ID=57942155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016535721A Active JP6240328B2 (ja) 2015-07-31 2015-07-31 オプティカルフロー場を構築する方法

Country Status (5)

Country Link
US (2) US10321153B2 (ja)
EP (1) EP3329461B1 (ja)
JP (1) JP6240328B2 (ja)
CN (1) CN107924567A (ja)
WO (1) WO2017020182A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102609467B1 (ko) * 2023-06-29 2023-12-04 주식회사 네스앤텍 Gnss 이상 상황에서의 영상 항법을 사용하는 자동 비행방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180186472A1 (en) * 2016-12-30 2018-07-05 Airmada Technology Inc. Method and apparatus for an unmanned aerial vehicle with a 360-degree camera system
US10612951B2 (en) * 2017-05-31 2020-04-07 Pixart Imaging Inc. Optical flow sensor, methods, remote controller device, and rotatable electronic device
WO2020013525A1 (en) * 2018-07-11 2020-01-16 Samsung Electronics Co., Ltd. In-vehicle infotainment system communicating with unmanned aerial vehicle and method of operating the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005323021A (ja) * 2004-05-07 2005-11-17 Fuji Photo Film Co Ltd 車載撮像システム、および撮像方法
JP2008104181A (ja) * 2006-10-17 2008-05-01 Harman Becker Automotive Systems Gmbh センサ支援ビデオ圧縮
US20090225300A1 (en) * 2007-03-05 2009-09-10 Geoffrey Louis Barrows Translational Optical Flow Sensor
WO2011123758A1 (en) * 2010-04-03 2011-10-06 Centeye, Inc. Vision based hover in place

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5257209A (en) * 1990-06-26 1993-10-26 Texas Instruments Incorporated Optical flow computation for moving sensors
US20030213892A1 (en) * 2002-05-17 2003-11-20 Sarnoff Corporation Method and apparatus for determining optical flow
KR101133753B1 (ko) * 2004-07-26 2012-04-09 삼성전자주식회사 감지 소자를 내장한 액정 표시 장치
US7454038B1 (en) * 2004-11-18 2008-11-18 Adobe Systems Incorporated Using directional weighting functions while computing optical flow through belief propagation
BRPI0606477A2 (pt) * 2005-01-07 2009-06-30 Gesturetek Inc sensor de inclinação baseado em fluxo ótico
US7760911B2 (en) * 2005-09-15 2010-07-20 Sarnoff Corporation Method and system for segment-based optical flow estimation
US8031777B2 (en) 2005-11-18 2011-10-04 Apple Inc. Multipass video encoding and rate control using subsampling of frames
US20100079605A1 (en) 2008-09-29 2010-04-01 William Marsh Rice University Sensor-Assisted Motion Estimation for Efficient Video Encoding
WO2010084521A1 (ja) * 2009-01-20 2010-07-29 本田技研工業株式会社 ウインドシールド上の雨滴を同定するための方法及び装置
US20120033896A1 (en) * 2010-08-08 2012-02-09 Geoffrey Louis Barrows Visual Motion Processing with Offset Downsampling
KR101623064B1 (ko) 2011-03-09 2016-05-20 니폰덴신뎅와 가부시키가이샤 영상 부호화 장치, 영상 부호화 방법 및 영상 부호화 프로그램
CN102509071B (zh) * 2011-10-14 2016-04-13 江南大学 光流计算系统和方法
US9451163B2 (en) 2012-05-11 2016-09-20 Qualcomm Incorporated Motion sensor assisted rate control for video encoding
CN102707724B (zh) * 2012-06-05 2015-01-14 清华大学 一种无人机的视觉定位与避障方法及系统
CN104156932A (zh) * 2013-05-13 2014-11-19 哈尔滨点石仿真科技有限公司 一种基于光流场聚类的运动目标分割方法
CN103913588B (zh) * 2014-04-10 2016-06-22 深圳市大疆创新科技有限公司 无人飞行器的飞行参数的测量方法及装置
JP6391694B2 (ja) * 2015-07-31 2018-09-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd ビデオ符号化方法及びシステム
US20170253330A1 (en) * 2016-03-04 2017-09-07 Michael Saigh Uav policing, enforcement and deployment system
US10955838B2 (en) * 2016-09-26 2021-03-23 Dji Technology, Inc. System and method for movable object control

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005323021A (ja) * 2004-05-07 2005-11-17 Fuji Photo Film Co Ltd 車載撮像システム、および撮像方法
JP2008104181A (ja) * 2006-10-17 2008-05-01 Harman Becker Automotive Systems Gmbh センサ支援ビデオ圧縮
US20090225300A1 (en) * 2007-03-05 2009-09-10 Geoffrey Louis Barrows Translational Optical Flow Sensor
WO2011123758A1 (en) * 2010-04-03 2011-10-06 Centeye, Inc. Vision based hover in place

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102609467B1 (ko) * 2023-06-29 2023-12-04 주식회사 네스앤텍 Gnss 이상 상황에서의 영상 항법을 사용하는 자동 비행방법

Also Published As

Publication number Publication date
US10904562B2 (en) 2021-01-26
EP3329461B1 (en) 2021-04-07
US20170188046A1 (en) 2017-06-29
EP3329461A4 (en) 2018-07-25
US20190273945A1 (en) 2019-09-05
JP6240328B2 (ja) 2017-11-29
US10321153B2 (en) 2019-06-11
EP3329461A1 (en) 2018-06-06
CN107924567A (zh) 2018-04-17
WO2017020182A1 (en) 2017-02-09

Similar Documents

Publication Publication Date Title
US9667862B2 (en) Method, system, and computer program product for gamifying the process of obtaining panoramic images
CN107836012B (zh) 投影图像生成方法及其装置、图像像素与深度值之间的映射方法
KR101569600B1 (ko) 증강 현실 표현을 위한 2차원 이미지 캡쳐
US10904562B2 (en) System and method for constructing optical flow fields
US9325861B1 (en) Method, system, and computer program product for providing a target user interface for capturing panoramic images
JP5613041B2 (ja) カメラ装置、画像処理システムおよび画像処理方法
WO2017020150A1 (zh) 一种图像处理方法、装置及摄像机
JP2022501684A (ja) 撮影に基づく3dモデリングシステムおよび方法、自動3dモデリング装置および方法
GB2593335A (en) Method and apparatus for 3-D auto tagging
WO2013112237A1 (en) Mobile device configured to compute 3d models based on motion sensor data
US11272153B2 (en) Information processing apparatus, method for controlling the same, and recording medium
CN111737518A (zh) 基于三维场景模型的图像展示方法、装置及电子设备
US10565803B2 (en) Methods and apparatuses for determining positions of multi-directional image capture apparatuses
JP5804892B2 (ja) カメラ姿勢算出装置
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
US20160381257A1 (en) Sphere panorama image capturing device
US10929575B2 (en) Modelling system and method
CN113450254A (zh) 图像处理方法、装置、电子设备和计算机可读存储介质
WO2021168804A1 (zh) 图像处理方法、图像处理装置和图像处理系统
CN110036411B (zh) 生成电子三维漫游环境的装置和方法
JP2019080174A (ja) 画像処理装置、撮像システム、通信システム、画像処理方法、およびプログラム
Chew et al. Panorama stitching using overlap area weighted image plane projection and dynamic programming for visual localization
CN112702513B (zh) 一种双光云台协同控制方法、装置、设备及存储介质
JP2020204973A (ja) 情報処理装置、プログラム及び情報処理システム
CN110933295B (zh) 拍摄方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171102

R150 Certificate of patent or registration of utility model

Ref document number: 6240328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250