JP2017529709A - オプティカルフロー場を構築する方法 - Google Patents
オプティカルフロー場を構築する方法 Download PDFInfo
- Publication number
- JP2017529709A JP2017529709A JP2016535721A JP2016535721A JP2017529709A JP 2017529709 A JP2017529709 A JP 2017529709A JP 2016535721 A JP2016535721 A JP 2016535721A JP 2016535721 A JP2016535721 A JP 2016535721A JP 2017529709 A JP2017529709 A JP 2017529709A
- Authority
- JP
- Japan
- Prior art keywords
- imaging device
- scenario
- mobile platform
- movement
- optical flow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 118
- 238000003384 imaging method Methods 0.000 claims abstract description 235
- 230000033001 locomotion Effects 0.000 claims abstract description 192
- 238000000034 method Methods 0.000 claims abstract description 124
- 238000004590 computer program Methods 0.000 claims description 2
- 238000005259 measurement Methods 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 12
- 239000013598 vector Substances 0.000 description 9
- 238000013459 approach Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000036316 preload Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/527—Global motion vector estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
Abstract
Description
この特許文献の開示部分は、著作権保護の対象であるものを含む。著作権の所有者は、特許商標局の書類又は記録に見られるが、別の方法であらゆる著作権の権利を有するので、著作権の所有者は、特許文献又は特許開示が複写されることに異存がない。
撮像デバイスを有するモバイルプラットフォームの第1の動きを取得するステップと、
モバイルプラットフォームに対する撮像デバイスの状態を得るステップと、
モバイルプラットフォームの第1の動き及び撮像デバイスの状態に基づいてフレームに対して対応するオプティカルフロー場を構築するステップと
を含む方法が示してある。
フレームの上側部分における物体を遠い物体として通常判定し、同様の深さを有する物体を近い物体として判定する。
上述の実施形態のいずれか1つに記載のシナリオに基づいて対応するオプティカルフロー場を選択するステップを含み、
シナリオはモバイルプラットフォームの第1の動きとモバイルプラットフォームに連結された撮像デバイスの状態とを含む、方法が示してある。
モバイルプラットフォームと、
モバイルプラットフォームに対応付けられた撮像デバイスとを含み、
モバイルプラットフォーム及び/又は撮像デバイスは、上述の実施形態のいずれか1つに記載のフレームに対してオプティカルフロー場を構築するように構成されている、撮像システムが示してある。
モバイルプラットフォームの第1の動き及び/又はモバイルプラットフォームに装着された撮像デバイスの第2の動きのうち少なくとも1つを取得するステップと、
モバイルプラットフォームに対する撮像デバイスの位置を得るステップと、
第1の動き、第2の動き及び位置のうち少なくとも1つに基づいてフレームに対して対応するオプティカルフロー場を構築するステップと
を含む方法が示してある。
撮像デバイスを有するモバイルプラットフォームの第1の動きを取得するステップと、
モバイルプラットフォームに対する撮像デバイスの状態を得るステップと、
モバイルプラットフォームの第1の動き及び撮像デバイスの状態に基づいてフレームに対して対応するオプティカルフロー場を構築するステップと
のために構成されているプロセッサを含む装置が示してある。
フレームの上側部分における物体を遠い物体として通常判定し、同様の深さを有する物体を近い物体として判定する。
Claims (74)
- オプティカルフロー場を構築する方法であって、
撮像デバイスを有するモバイルプラットフォームの第1の動きを取得するステップと、
前記モバイルプラットフォームに対する前記撮像デバイスの状態を得るステップと、
モバイルプラットフォームの前記第1の動き及び前記撮像デバイスの前記状態に基づいてフレームに対して対応するオプティカルフロー場を構築するステップと
を含む方法。 - 前記第1の動きを取得する前記ステップは、前記モバイルプラットフォームの第1の回転、水平方向における前記モバイルプラットフォームの第1の移動、及び垂直方向における前記モバイルプラットフォームの第2の移動のうち少なくとも1つを判定するステップを含む、請求項1に記載の方法。
- 前記状態を得る前記ステップは、前記撮像デバイスの第2の動き及び位置のうち少なくとも1つを判定するステップを含む、請求項1又は2に記載の方法。
- 前記撮像デバイスの前記第2の動き及び前記位置のうち前記少なくとも1つを判定する前記ステップは、ズーム、水平方向における前記撮像デバイスの第1の回転、及び垂直方向における前記撮像デバイスの第2の回転のうち少なくとも1つを判定するステップを含む、請求項3に記載の方法。
- 前記撮像デバイスの前記第2の動き及び前記位置のうち前記少なくとも1つを判定する前記ステップは、前記撮像デバイスの向き及び傾斜角のうち少なくとも1つを取得するステップを含む、請求項4に記載の方法。
- 前記取得するステップは、前記モバイルプラットフォーム上に配置された1つ又は複数の第1のセンサを介して前記第1の動きを取得するステップを含む、請求項1乃至5の何れか1項に記載の方法。
- 前記構築するステップは、事前分類されたオプティカルフロー場を、前記モバイルプラットフォームの前記第1の動き又は前記撮像デバイスの前記状態の分類シナリオの少なくとも一方に対応付けるステップを含む、請求項1乃至6の何れか1項に記載の方法。
- 前記モバイルプラットフォームの前記第1の動き及び前記撮像デバイスの前記状態に基づいて前記モバイルプラットフォーム及び前記撮像デバイスの前記シナリオを分類するステップを更に含む、請求項7に記載の方法。
- 前記シナリオを分類する前記ステップは、前記モバイルプラットフォームの前記第1の動き及び前記撮像デバイスの前記状態の前記シナリオを、事前に定義された基本シナリオに定義するステップを更に含む、請求項8に記載の方法。
- 前記モバイルプラットフォームは無人航空機(UAV)である、請求項9に記載の方法。
- 前記対応するオプティカルフロー場を構築する前記ステップは、回転ビューを第1の基本シナリオに対応付けるステップを含む、請求項1乃至10の何れか1項に記載の方法。
- 前記回転ビューを対応付ける前記ステップは、フレームの外側部分における動きが前記フレームの内側部分における動きよりも非常に速い所定のビューを対応付けるステップを含む、請求項11に記載の方法。
- 前記シナリオを定義する前記ステップは、水平面と直交する方向に前記撮像デバイスが撮影しており、前記水平面と平行な面で前記UAVが回転している場合として、前記第1の基本シナリオを定義するステップを含む、請求項12に記載の方法。
- 前記対応するオプティカルフロー場を構築する前記ステップは、サイド移動ビューを第2の基本シナリオに対応付けるステップを含む、請求項1乃至10の何れか1項に記載の方法。
- 前記サイド移動ビューを対応付ける前記ステップは、前記フレームの全ての物体が曲線経路に沿って移動している所定のビューを対応付けるステップを含む、請求項14に記載の方法。
- 前記シナリオを定義する前記ステップは、水平面と平行な方向に前記撮像デバイスが撮影しており、前記水平面と平行な面で前記UAV又は前記撮像デバイスが回転している場合として、前記第2の基本シナリオを定義するステップを含む、請求項15に記載の方法。
- 前記対応するオプティカルフロー場を構築する前記ステップは、ズームインビューを第3の基本シナリオに対応付けるステップを含む、請求項1乃至10の何れか1項に記載の方法。
- 前記ズームインビューを対応付ける前記ステップは、フレームの中心から離れた点が前記中心点及び前記フレームから出る点よりも速く移動している所定のビューを対応付けるステップを含む、請求項17に記載の方法。
- 前記シナリオを定義する前記ステップは、ズームインしながら、又は前記UAVが地面の方へ移動しながら、前記水平面と直交する方向に前記撮像デバイスが撮影している場合として、前記第3の基本シナリオを定義するステップを含む、請求項18に記載の方法。
- 前記対応するオプティカルフロー場を構築する前記ステップは、ズームアウトビューを第4の基本シナリオに対応付けるステップを含む、請求項1乃至10の何れか1項に記載の方法。
- 前記ズームアウトビューを対応付ける前記ステップは、フレームの中心から離れた点が前記中心点及び前記フレームに入る点よりも速く移動している所定のビューを対応付けるステップを含む、請求項20に記載の方法。
- 前記シナリオを定義する前記ステップは、ズームアウトしながら、又は前記UAVが地面から離れて移動しながら、前記水平面と直交する方向に前記撮像デバイスが撮影している場合として、前記第4の基本シナリオを定義するステップを含む、請求項21に記載の方法。
- 前記対応するオプティカルフロー場を構築する前記ステップは、直線移動ビューを第5の基本シナリオに対応付けるステップを含む、請求項1乃至10の何れか1項に記載の方法。
- 前記直線移動ビューを対応付ける前記ステップは、前記動きが前記フレーム内の全画素に対して大域的であるが、前記フレームの上側部分における前記画素が相対的に静止しており、前記フレームの下側部分における近い物体上の前記画素が相対的に一層速く移動する、所定のビューを対応付けるステップを含む、請求項23に記載の方法。
- 前記シナリオを定義する前記ステップは、前記水平面に対してある特定の角度を有する方向に前記撮像デバイスが撮影しており、ある特定の速度で前記UAVが移動している場合として、前記第5の基本シナリオを定義するステップを含む、請求項24に記載の方法。
- 前記撮像デバイスが撮影している前記方向に前記UAVが移動している、請求項25に記載の方法。
- 前記直線移動ビューを対応付ける前記ステップは、遠い物体を深さ又は局所性の少なくとも一方によって判定するステップを含み、
前記フレームの上側部分における前記物体を遠い物体として通常判定し、同様の深さを有する物体を近い物体として判定する、請求項26に記載の方法。 - 前記対応するオプティカルフロー場を構築する前記ステップは、大域的動きビューを第6の基本シナリオに対応付けるステップを含む、請求項1乃至10の何れか1項に記載の方法。
- 前記大域的動きビューを対応付ける前記ステップは、超高速の大域的な一定の速度で前記撮像デバイスが移動する所定のビューを対応付けるステップを含む、請求項28に記載の方法。
- 前記シナリオを定義する前記ステップは、前記UAVが静止状態を保持しており、前記水平面と垂直な面で前記カメラが回転している場合として、前記第6の基本シナリオを定義するステップを含む、請求項29に記載の方法。
- シナリオを分類する前記ステップは、前記事前に定義された基本シナリオを結合して結合シナリオを生成するステップと、前記対応するオプティカルフロー場を結合して対応する結合オプティカルフロー場を生成するステップとを更に含む、請求項30に記載の方法。
- 前記オプティカルフロー場を対応付ける前記ステップは、前記対応する結合オプティカルフロー場を前記結合シナリオに対応付けるステップを含む、請求項31に記載の方法。
- シナリオを分類する前記ステップは、少なくとも1つの学習プロセスを介して前記シナリオを定義して学習シナリオを生成するステップと、対応する学習オプティカルフロー場を定義するステップとを更に含む、請求項11乃至32の何れか1項に記載の方法。
- 前記オプティカルフロー場を対応付ける前記ステップは、前記対応する学習オプティカルフロー場を前記学習シナリオに対応付けるステップを更に含む、請求項33に記載の方法。
- フレームに対してオプティカルフロー場を選択する方法であって、
請求項11乃至34の何れか1項に記載のシナリオに基づいて対応するオプティカルフロー場を選択するステップを含み、
前記シナリオはモバイルプラットフォームの第1の動きと前記モバイルプラットフォームに連結された撮像デバイスの状態とを含む、方法。 - 請求項35に記載のフレームに対して前記オプティカルフロー場を構築するステップを実行するように構成されている撮像システム。
- オプティカルフロー場を構築する撮像システムであって、
モバイルプラットフォームと、
前記モバイルプラットフォームに対応付けられた撮像デバイスとを含み、
前記モバイルプラットフォーム又は前記撮像デバイスの少なくとも一方は、請求項11乃至34の何れか1項に記載のフレームに対して前記オプティカルフロー場を構築するように構成されている、撮像システム。 - 前記モバイルプラットフォーム又は前記撮像デバイスの少なくとも一方は、前記フレームに対して前記オプティカルフロー場を構築するプロセッサを含む、請求項37に記載の撮像システム。
- 請求項35に記載のフレームに対して前記オプティカルフロー場を選択する命令を含むコンピュータプログラム製品。
- オプティカルフロー場を構築する方法であって、
モバイルプラットフォームの第1の動き又は前記モバイルプラットフォームに装着された撮像デバイスの第2の動きのうち少なくとも1つを取得するステップと、
前記モバイルプラットフォームに対する撮像デバイスの位置を得るステップと、
前記第1の動き、前記第2の動き及び前記位置のうち少なくとも1つに基づいてフレームに対して対応するオプティカルフロー場を構築するステップと
を含む方法。 - 前記取得するステップは、前記モバイルプラットフォーム又は前記撮像デバイスに対応付けられた1つ又は複数の動きセンサを介して前記第1の動き及び前記第2の動きのうち少なくとも1つを取得するステップを含む、請求項40に記載の方法。
- オプティカルフロー場を構築する装置であって、
撮像デバイスを有するモバイルプラットフォームの第1の動きを取得するステップと、
前記モバイルプラットフォームに対する前記撮像デバイスの状態を得るステップと、
モバイルプラットフォームの前記第1の動き及び前記撮像デバイスの前記状態に基づいてフレームに対して対応するオプティカルフロー場を構築するステップと
のために構成されているプロセッサを含む装置。 - 前記プロセッサは、前記モバイルプラットフォームの第1の回転、水平方向における前記モバイルプラットフォームの第1の移動、及び垂直方向における前記モバイルプラットフォームの第2の移動のうち少なくとも1つを判定するように構成されている、請求項42に記載の装置。
- 前記プロセッサは、前記撮像デバイスの第2の動き及び位置のうち少なくとも1つを判定するように構成されている、請求項42又は43に記載の装置。
- 前記プロセッサは、ズーム、水平方向における前記撮像デバイスの第1の回転、及び垂直方向における前記撮像デバイスの第2の回転のうち少なくとも1つを判定するように構成されている、請求項44に記載の装置。
- 前記プロセッサは、前記撮像デバイスの向き及び傾斜角のうち少なくとも1つを取得するように構成されている、請求項45に記載の装置。
- 前記モバイルプラットフォームの前記第1の動きを取得する、前記モバイルプラットフォーム上に配置された1つ又は複数の第1のセンサを更に含む、請求項42乃至46の何れか1項に記載の装置。
- 前記プロセッサは、事前分類されたオプティカルフロー場を、前記モバイルプラットフォームの前記第1の動き又は前記撮像デバイスの前記状態の分類シナリオの少なくとも一方に対応付けるように構成されている、請求項42乃至47の何れか1項に記載の装置。
- 前記プロセッサは、前記モバイルプラットフォームの前記第1の動き及び前記撮像デバイスの前記状態に基づいて前記モバイルプラットフォーム及び前記撮像デバイスの前記シナリオを分類するように構成されている、請求項48に記載の装置。
- 前記プロセッサは、前記モバイルプラットフォーム及び前記撮像デバイスの前記状態の前記シナリオを、事前に定義された基本シナリオに定義するように構成されている、請求項49に記載の装置。
- 前記モバイルプラットフォームは無人航空機(UAV)である、請求項50に記載の装置。
- 前記プロセッサは、回転ビューを第1の基本シナリオに対応付けるように構成されている、請求項42乃至51の何れか1項に記載の装置。
- 前記回転ビューは、フレームの外側部分における動きが前記フレームの内側部分における動きよりも非常に速いことを含む、請求項52に記載の装置。
- 前記第1の基本シナリオは、水平面と直交する方向に前記撮像デバイスが撮影しており、前記水平面と平行な面で前記UAVが回転している場合として、定義されている、請求項53に記載の装置。
- 前記プロセッサは、サイド移動ビューを第2の基本シナリオに対応付けるように構成されている、請求項42乃至51の何れか1項に記載の装置。
- 前記サイド移動ビューは、前記フレームの全ての物体が曲線経路に沿って移動していることを含む、請求項55に記載の装置。
- 前記第2の基本シナリオは、水平面と平行な方向に前記撮像デバイスが撮影しており、前記水平面と平行な面で前記UAV又は前記撮像デバイスが回転している場合として、定義されている、請求項56に記載の装置。
- 前記プロセッサは、ズームインビューを第3の基本シナリオに対応付けるように構成されている、請求項42乃至51の何れか1項に記載の装置。
- 前記第3の基本シナリオは、ズームインしながら、又は前記UAVが地面の方へ移動しながら、前記水平面と直交する方向に前記撮像デバイスが撮影している場合として、定義されている、請求項58に記載の装置。
- 前記ズームインビューは、フレームの中心から離れた点が前記中心点及び前記フレームから出る点よりも速く移動していることを含む、請求項59に記載の装置。
- 前記プロセッサは、ズームアウトビューを第4の基本シナリオに対応付けるように構成されている、請求項42乃至51の何れか1項に記載の装置。
- 前記ズームアウトビューは、フレームの中心から離れた点が前記中心点及び前記フレームに入る点よりも速く移動していることを含む、請求項61に記載の装置。
- 前記第4の基本シナリオは、ズームアウトしながら、又は前記UAVが地面から離れて移動しながら、前記水平面と直交する方向に前記撮像デバイスが撮影している場合として、定義されている、請求項62に記載の装置。
- 前記プロセッサは、直線移動ビューを第5の基本シナリオに対応付けるように構成されている、請求項42乃至51の何れか1項に記載の装置。
- 前記直線移動ビューは、前記動きが前記フレーム内の全画素に対して大域的であるが、前記フレームの上側部分における前記画素が相対的に静止しており、前記フレームの下側部分における近い物体上の前記画素が相対的に一層速く移動することを含む、請求項64に記載の装置。
- 前記第5の基本シナリオは、前記水平面に対してある特定の角度を有する方向に前記撮像デバイスが撮影しており、ある特定の速度で前記UAVが移動している場合として、定義されている、請求項65に記載の装置。
- 前記撮像デバイスが撮影している前記方向に前記UAVが移動している、請求項66に記載の装置。
- 前記直線移動ビューを対応付ける前記プロセッサは、遠い物体を深さ又は局所性の少なくとも一方によって判定するように構成されており、
前記フレームの上側部分における前記物体を遠い物体として通常判定し、同様の深さを有する物体を近い物体として判定する、請求項67に記載の装置。 - 前記プロセッサは、大域的動きビューを第6の基本シナリオに対応付けるように構成されている、請求項42乃至51の何れか1項に記載の装置。
- 前記大域的動きビューは、超高速の大域的な一定の速度で前記撮像デバイスが移動することを含む、請求項69に記載の装置。
- 前記第6の基本シナリオは、前記UAVが静止状態を保持しており、前記水平面と垂直な面で前記カメラが回転している場合として、定義されている、請求項70に記載の装置。
- 前記プロセッサは、前記事前に定義された基本シナリオを結合して結合シナリオを生成し、前記対応するオプティカルフロー場を結合して対応する結合オプティカルフロー場を生成するように構成されている、請求項71に記載の装置。
- 前記対応する結合オプティカルフロー場を前記結合シナリオに対応付ける、請求項72に記載の装置。
- 前記プロセッサは、少なくとも1つの学習プロセスを介して前記シナリオを定義して学習シナリオを生成し、対応する学習オプティカルフロー場を定義するように構成されている、請求項73に記載の装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2015/085760 WO2017020182A1 (en) | 2015-07-31 | 2015-07-31 | System and method for constructing optical flow fields |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017529709A true JP2017529709A (ja) | 2017-10-05 |
JP6240328B2 JP6240328B2 (ja) | 2017-11-29 |
Family
ID=57942155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016535721A Active JP6240328B2 (ja) | 2015-07-31 | 2015-07-31 | オプティカルフロー場を構築する方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10321153B2 (ja) |
EP (1) | EP3329461B1 (ja) |
JP (1) | JP6240328B2 (ja) |
CN (1) | CN107924567A (ja) |
WO (1) | WO2017020182A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102609467B1 (ko) * | 2023-06-29 | 2023-12-04 | 주식회사 네스앤텍 | Gnss 이상 상황에서의 영상 항법을 사용하는 자동 비행방법 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180186472A1 (en) * | 2016-12-30 | 2018-07-05 | Airmada Technology Inc. | Method and apparatus for an unmanned aerial vehicle with a 360-degree camera system |
US10612951B2 (en) * | 2017-05-31 | 2020-04-07 | Pixart Imaging Inc. | Optical flow sensor, methods, remote controller device, and rotatable electronic device |
WO2020013525A1 (en) * | 2018-07-11 | 2020-01-16 | Samsung Electronics Co., Ltd. | In-vehicle infotainment system communicating with unmanned aerial vehicle and method of operating the same |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005323021A (ja) * | 2004-05-07 | 2005-11-17 | Fuji Photo Film Co Ltd | 車載撮像システム、および撮像方法 |
JP2008104181A (ja) * | 2006-10-17 | 2008-05-01 | Harman Becker Automotive Systems Gmbh | センサ支援ビデオ圧縮 |
US20090225300A1 (en) * | 2007-03-05 | 2009-09-10 | Geoffrey Louis Barrows | Translational Optical Flow Sensor |
WO2011123758A1 (en) * | 2010-04-03 | 2011-10-06 | Centeye, Inc. | Vision based hover in place |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5257209A (en) * | 1990-06-26 | 1993-10-26 | Texas Instruments Incorporated | Optical flow computation for moving sensors |
US20030213892A1 (en) * | 2002-05-17 | 2003-11-20 | Sarnoff Corporation | Method and apparatus for determining optical flow |
KR101133753B1 (ko) * | 2004-07-26 | 2012-04-09 | 삼성전자주식회사 | 감지 소자를 내장한 액정 표시 장치 |
US7454038B1 (en) * | 2004-11-18 | 2008-11-18 | Adobe Systems Incorporated | Using directional weighting functions while computing optical flow through belief propagation |
BRPI0606477A2 (pt) * | 2005-01-07 | 2009-06-30 | Gesturetek Inc | sensor de inclinação baseado em fluxo ótico |
US7760911B2 (en) * | 2005-09-15 | 2010-07-20 | Sarnoff Corporation | Method and system for segment-based optical flow estimation |
US8031777B2 (en) | 2005-11-18 | 2011-10-04 | Apple Inc. | Multipass video encoding and rate control using subsampling of frames |
US20100079605A1 (en) | 2008-09-29 | 2010-04-01 | William Marsh Rice University | Sensor-Assisted Motion Estimation for Efficient Video Encoding |
WO2010084521A1 (ja) * | 2009-01-20 | 2010-07-29 | 本田技研工業株式会社 | ウインドシールド上の雨滴を同定するための方法及び装置 |
US20120033896A1 (en) * | 2010-08-08 | 2012-02-09 | Geoffrey Louis Barrows | Visual Motion Processing with Offset Downsampling |
KR101623064B1 (ko) | 2011-03-09 | 2016-05-20 | 니폰덴신뎅와 가부시키가이샤 | 영상 부호화 장치, 영상 부호화 방법 및 영상 부호화 프로그램 |
CN102509071B (zh) * | 2011-10-14 | 2016-04-13 | 江南大学 | 光流计算系统和方法 |
US9451163B2 (en) | 2012-05-11 | 2016-09-20 | Qualcomm Incorporated | Motion sensor assisted rate control for video encoding |
CN102707724B (zh) * | 2012-06-05 | 2015-01-14 | 清华大学 | 一种无人机的视觉定位与避障方法及系统 |
CN104156932A (zh) * | 2013-05-13 | 2014-11-19 | 哈尔滨点石仿真科技有限公司 | 一种基于光流场聚类的运动目标分割方法 |
CN103913588B (zh) * | 2014-04-10 | 2016-06-22 | 深圳市大疆创新科技有限公司 | 无人飞行器的飞行参数的测量方法及装置 |
JP6391694B2 (ja) * | 2015-07-31 | 2018-09-19 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | ビデオ符号化方法及びシステム |
US20170253330A1 (en) * | 2016-03-04 | 2017-09-07 | Michael Saigh | Uav policing, enforcement and deployment system |
US10955838B2 (en) * | 2016-09-26 | 2021-03-23 | Dji Technology, Inc. | System and method for movable object control |
-
2015
- 2015-07-31 CN CN201580081672.2A patent/CN107924567A/zh active Pending
- 2015-07-31 WO PCT/CN2015/085760 patent/WO2017020182A1/en active Application Filing
- 2015-07-31 EP EP15874389.8A patent/EP3329461B1/en active Active
- 2015-07-31 JP JP2016535721A patent/JP6240328B2/ja active Active
-
2017
- 2017-03-14 US US15/458,522 patent/US10321153B2/en not_active Expired - Fee Related
-
2019
- 2019-05-17 US US16/415,891 patent/US10904562B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005323021A (ja) * | 2004-05-07 | 2005-11-17 | Fuji Photo Film Co Ltd | 車載撮像システム、および撮像方法 |
JP2008104181A (ja) * | 2006-10-17 | 2008-05-01 | Harman Becker Automotive Systems Gmbh | センサ支援ビデオ圧縮 |
US20090225300A1 (en) * | 2007-03-05 | 2009-09-10 | Geoffrey Louis Barrows | Translational Optical Flow Sensor |
WO2011123758A1 (en) * | 2010-04-03 | 2011-10-06 | Centeye, Inc. | Vision based hover in place |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102609467B1 (ko) * | 2023-06-29 | 2023-12-04 | 주식회사 네스앤텍 | Gnss 이상 상황에서의 영상 항법을 사용하는 자동 비행방법 |
Also Published As
Publication number | Publication date |
---|---|
US10904562B2 (en) | 2021-01-26 |
EP3329461B1 (en) | 2021-04-07 |
US20170188046A1 (en) | 2017-06-29 |
EP3329461A4 (en) | 2018-07-25 |
US20190273945A1 (en) | 2019-09-05 |
JP6240328B2 (ja) | 2017-11-29 |
US10321153B2 (en) | 2019-06-11 |
EP3329461A1 (en) | 2018-06-06 |
CN107924567A (zh) | 2018-04-17 |
WO2017020182A1 (en) | 2017-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9667862B2 (en) | Method, system, and computer program product for gamifying the process of obtaining panoramic images | |
CN107836012B (zh) | 投影图像生成方法及其装置、图像像素与深度值之间的映射方法 | |
KR101569600B1 (ko) | 증강 현실 표현을 위한 2차원 이미지 캡쳐 | |
US10904562B2 (en) | System and method for constructing optical flow fields | |
US9325861B1 (en) | Method, system, and computer program product for providing a target user interface for capturing panoramic images | |
JP5613041B2 (ja) | カメラ装置、画像処理システムおよび画像処理方法 | |
WO2017020150A1 (zh) | 一种图像处理方法、装置及摄像机 | |
JP2022501684A (ja) | 撮影に基づく3dモデリングシステムおよび方法、自動3dモデリング装置および方法 | |
GB2593335A (en) | Method and apparatus for 3-D auto tagging | |
WO2013112237A1 (en) | Mobile device configured to compute 3d models based on motion sensor data | |
US11272153B2 (en) | Information processing apparatus, method for controlling the same, and recording medium | |
CN111737518A (zh) | 基于三维场景模型的图像展示方法、装置及电子设备 | |
US10565803B2 (en) | Methods and apparatuses for determining positions of multi-directional image capture apparatuses | |
JP5804892B2 (ja) | カメラ姿勢算出装置 | |
US11062422B2 (en) | Image processing apparatus, image communication system, image processing method, and recording medium | |
US20160381257A1 (en) | Sphere panorama image capturing device | |
US10929575B2 (en) | Modelling system and method | |
CN113450254A (zh) | 图像处理方法、装置、电子设备和计算机可读存储介质 | |
WO2021168804A1 (zh) | 图像处理方法、图像处理装置和图像处理系统 | |
CN110036411B (zh) | 生成电子三维漫游环境的装置和方法 | |
JP2019080174A (ja) | 画像処理装置、撮像システム、通信システム、画像処理方法、およびプログラム | |
Chew et al. | Panorama stitching using overlap area weighted image plane projection and dynamic programming for visual localization | |
CN112702513B (zh) | 一种双光云台协同控制方法、装置、设备及存储介质 | |
JP2020204973A (ja) | 情報処理装置、プログラム及び情報処理システム | |
CN110933295B (zh) | 拍摄方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170816 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171003 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171026 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6240328 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |