JP2020120363A - 映像処理装置、映像処理方法、及び映像処理プログラム - Google Patents

映像処理装置、映像処理方法、及び映像処理プログラム Download PDF

Info

Publication number
JP2020120363A
JP2020120363A JP2019012524A JP2019012524A JP2020120363A JP 2020120363 A JP2020120363 A JP 2020120363A JP 2019012524 A JP2019012524 A JP 2019012524A JP 2019012524 A JP2019012524 A JP 2019012524A JP 2020120363 A JP2020120363 A JP 2020120363A
Authority
JP
Japan
Prior art keywords
moving image
motion vector
camera
angular velocity
spatial frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019012524A
Other languages
English (en)
Other versions
JP7197785B2 (ja
Inventor
大樹 中村
Daiki Nakamura
大樹 中村
五味 裕章
Hiroaki Gomi
裕章 五味
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2019012524A priority Critical patent/JP7197785B2/ja
Priority to PCT/JP2020/001000 priority patent/WO2020158382A1/ja
Priority to US17/310,237 priority patent/US11756215B2/en
Publication of JP2020120363A publication Critical patent/JP2020120363A/ja
Application granted granted Critical
Publication of JP7197785B2 publication Critical patent/JP7197785B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

【課題】軽い計算負荷で動画像から当該動画像を撮影したカメラの動きを比較的精度良く推定することが可能な映像処理装置、映像処理方法、及び映像処理プログラムを実現する。【解決手段】本開示に係る映像処理装置100は、動画像の低空間周波数成分を抽出する空間周波数フィルタ部10と、空間周波数フィルタ部10を通過した動画像に基づいて動画像を撮影したカメラの角速度を算出する角速度算出部70とを備えることを特徴とする。【選択図】図1

Description

この開示は、動画像から当該動画像を撮影したカメラの動きを推定することが可能な映像処理装置、映像処理方法、及び映像処理プログラムに関する。
近年、動画像から、当該動画像を撮影したカメラの角速度等を計算する技術の開発が進められている。例えば、非特許文献1〜3には、エピポーラ幾何によるカメラの並進速度・角速度の推定について開示されており、これらの技術を用いることで、視覚運動に関する研究に利用したり、カメラの手ぶれを補正して視聴者に見易い映像を提供することが可能となる。
″エピポーラ幾何″、[online]、平成30年、[平成30年11月22日検索]、インターネット〈URL:http://labs.eecs.tottori-u.ac.jp/sd/Member/oyamada/OpenCV/html/py_tutorials/py_calib3d/py_epipolar_geometry/py_epipolar_geometry.html〉 佐藤淳、"コンピュータビジョン―視覚の幾何学"、コロナ社 Gary Bradski & Adrian Kaehler 著,松田晃一訳、"詳解 OpenCV −コンピュータビジョンライブラリを使った画像処理・認識"、オライリージャパン B. D. Lucas & T. Kanade、"An Iterative Image Registration Technique with an Application to Stereo Vision"、Proceedings of Imaging Understanding Workshop (1981) 、p.121 - 130
しかし、非特許文献1〜3では、カメラの並進速度および角速度の推定にエピポーラ幾何を用いているために、フレーム間対応点検出等の為の計算負荷が大きいという問題がある。
計算負荷を少なくする方法としては、非特許文献4のような輝度勾配法を用いて映像から動きベクトルを推定し、その推定結果に基づいてカメラの並進速度および角速度を推定する方法も考えられる。だがこの場合、カメラの並進速度や角速度とは無関係な動きベクトルの影響を強く受けるため、カメラの並進速度及び角速度の推定精度が低下してしまう問題がある。
従って、かかる点に鑑みてなされた本開示の目的は、エピポーラ幾何による方法よりも軽い計算負荷で動画像から当該動画像を撮影したカメラの動きを比較的精度良く推定することが可能な映像処理装置、映像処理方法、及び映像処理プログラムを実現することにある。
上記課題を解決するため、本開示に係る映像処理装置は、
動画像の低空間周波数成分を抽出する空間周波数フィルタ部と、
前記空間周波数フィルタ部を通過した前記動画像に基づいて前記動画像を撮影したカメラの角速度を算出する角速度算出部と
を備えることを特徴とする。
また、上記課題を解決するため、本開示に係る映像処理方法は、
動画像の低空間周波数成分を抽出するステップと、
低空間周波数成分を抽出した前記動画像に基づいて前記動画像を撮影したカメラの角速度を算出するステップと
を含むことを特徴とする。
また、上記課題を解決するため、本開示に係る映像処理プログラムは、コンピュータを上述の映像処理装置として機能させるプログラムであることを特徴とする。
本開示によれば、軽い計算負荷で動画像から当該動画像を撮影したカメラの動きを比較的精度良く推定することが可能な映像処理装置、映像処理方法、及び映像処理プログラムを実現することができる。
本開示の一実施形態に係る映像処理装置の構成を示すブロック図である。 図1の空間周波数フィルタ部の構成を示すブロック図である。 本開示の一実施形態に係る映像処理方法の処理手順を示すフローチャートである。 本開示の一実施形態に係る映像処理装置により推定された動画像の平均動きベクトルとジャイロセンサによるカメラの角速度との相関を確認する手法を示すブロック図である。 図4に示す手法による、動画像の平均動きベクトルとジャイロセンサによるカメラ角速度との相関確認結果を示す図である。 図4に示す手法による、動画像の平均動きベクトルとジャイロセンサによるカメラ角速度との相関確認結果を示す図である。 図4に示す手法による、動画像の平均動きベクトルとジャイロセンサによるカメラ角速度との相関確認結果を示す図である。
以下、本開示の一実施形態に係る映像処理装置100について、図面を参照して説明する。
図1に示すように、本実施形態に係る映像処理装置100は、入力された動画像の輝度の低空間周波数成分を抽出する空間周波数フィルタ部10と、空間周波数フィルタ部10を通過した動画像に対して、輝度勾配法によって動画像の動きベクトルを推定する動きベクトル推定部30と、動画像内の複数の領域の動きベクトルを平均化して平均動きベクトルを算出する平均動きベクトル算出部50と、平均動きベクトルからカメラの角速度を算出する角速度算出部70とを備えている。なお、上述の各機能部は、図1に図示しない制御部により制御されるように構成してもよい。
以下では、各フレーム画像の各画素値をI(x,y)と表記する。ここで、x,yはそれぞれ画像の横方向および縦方向の画素インデックスである。動画像は各フレーム画像の時系列であり、tを時間インデックスとしてフレームtにおける画素値をI(x,y,t)と表記する。なお、以下では、画素値の記号を用いて「画像I(x,y)」と表現することもあるが、これは画像の全ての画素値を指すものとする。本実施形態に係る空間周波数フィルタ部10は、図2に示すように、動画像I(x,y,t)を構成する各フレーム画像I(x,y)の入力に対してフーリエ変換を行って周波数データ
(以降、文中ではI~(fx,fy)と記載する)を出力するフーリエ変換部12と、周波数データI~(fx,fy)に対して事前に定義した周波数重みF(fx,fy)で重み付けして低空間周波数成分を通過させる低空間周波数フィルタ部14と、フィルタ処理された周波数データ
(以降、文中ではI~’(fx,fy)と記載する)に対して逆フーリエ変換を行ってフィルタ処理された画像I’(x,y)を出力する逆フーリエ変換部16とを備えている。フィルタ処理された画像I’(x,y)は、元の画像I(x,y)の低空間周波数成分を抽出した画像である。ここで、I~(fx,fy)は周波数データの(fx,fy)要素の値であり、F(fx,fy)は(fx,fy)要素に対応する重みである。なお、上記I~(fx,fy)、I~’(fx,fy)及びI’(x,y)の算出は、以下の数式により行うことができる。
まず、フーリエ変換部12により画像I(x,y)をフーリエ変換することで生成される周波数データI~(fx,fy)は、以下の数式(1)で求められる。
ここで、
とおけば、数式(1)の右辺は
となり、空間周波数fx,fyの組ごとに固定の重みw(x,y)を適用する並列フィルタ処理である。
次に、低空間周波数フィルタ部14によりフィルタ処理された周波数データI~’(fx,fy)は、以下の数式(2)で求められる。
ここで、F(fx,fy)は、事前に定義した空間周波数fx,fyの組に対応する周波数重みである。
次に、逆フーリエ変換部16によりフィルタ処理された周波数データI~’(fx,fy)を逆フーリエ変換することで生成されるフィルタ処理された画像I’(x,y)は、以下の数式(3)で求められる。
数式(1)のフーリエ変換と同様に、
とおけば、数式(3)の右辺は
となり、画素位置x,yの組ごとに固定の重みw’(fx,fy)を適用する並列フィルタ処理である。
このように、空間周波数フィルタ部10における処理は、数式(1)〜(3)の順に実行する多段フィルタ処理であり、数式(1),(3)は並列処理が可能な並列フィルタ処理である。すなわち、空間周波数フィルタ部10における処理は、条件分岐を含まない多段並列フィルタ処理であり、計算負荷が軽い。また、数式(1)、(3)における処理は、高速フーリエ変換(Fast Fourier Transform)を用いることで更に計算負荷を抑制することが可能である。
なお、低空間周波数フィルタ部14によるフィルタ処理における最適カットオフ空間周波数fx cut[cycle/deg.]は、動画像を撮影したカメラのフレームレートft[frame/s]と、カメラの最大角速度vmax[deg./s]に基づいて、以下の数式(4)に示すように定めることができる。
また、数式(4)は、以下の数式(5)のように変形することができる。
数式(5)は、時間周波数に関するサンプリング定理を意味している。最大角速度vmax[deg./s]で動く空間周波数fx cut[cycle/deg.]の縞の動きを確実に記録するためには、vmax*fx cut[frame/s]の2倍以上のフレームレートが必要である。逆に、フレームレートがft[frame/s]の場合にはft/2vmax[cycle/deg.]以下の空間周波数であれば、カメラが回転したときに生じた映像動きを確実に表現している。従って、最適カットオフ周波数は数式(4)に示すように定めることができる。
なお、本実施形態において空間周波数フィルタ部10は、ローパスフィルタとして機能するように構成したが、この態様には限定されず、主に低空間周波数成分を通過させるバンドパスフィルタとして構成してもよい。また、本実施形態において空間周波数フィルタ部10は、フーリエ変換を用いて空間周波数領域で実現するように構成したが、この態様には限定されず、フーリエ変換の性質より、周波数重みF(fx,fy)を逆フーリエ変換したフィルタG(x,y)を用いて実空間領域で画像I(x,y)とフィルタG(x,y)との畳み込み演算として実現するように構成してもよい。
本実施形態に係る動きベクトル推定部30は、低空間周波数成分を抽出した動画像I’(x,y)から動きベクトルを推定する。この動きベクトルの推定は、例えば非特許文献4に示す動画像中の輝度勾配から動きベクトルを推定するLucas−Kanade法によって行うことができる。しかし、この態様には限定されず、参考文献1に示す一般化勾配法など様々な手法を用いることができる。
(参考文献1)三池、長、三浦、杉村、“一般化勾配法によるオプティカルフローの検出:不均一照明下での物体運動の計測”、情報処理学会論文誌:コンピュータビジョンとイメージメディア(CVIM)(2008)
本実施形態で動きベクトルの推定に用いているLucas−Kanade法は、動画像中の局所的な輝度勾配から各画素位置の動きベクトルを推定する手法であり、空間周波数フィルタ部10における処理と同様に計算過程に条件分岐を含まない多段並列処理である。従って、エピポーラ幾何によるカメラの動き推定などと比較して計算負荷を大幅に抑制することができる。
平均動きベクトル算出部50は、動きベクトル推定部30で生成された動きベクトルを平均化して平均動きベクトルを生成する。平均動きベクトルを生成するに際しては、動画像の全領域で平均値を算出してもよいし、動画像の一部の領域で平均値を算出してもよい。動画像の一部の領域の動きベクトルを用いる場合には、例えば光があまり当たらないためにノイズを多く含むような領域を計算対象から除外したり、後述するように動く対象物が存在する領域を計算対象から除外してもよい。除外すべき領域の特定に際しては、例えば、参考文献2のような動きベクトルの自己評価手法を用いることができる。
(参考文献2)安藤繁、“画像の時空間微分算法を用いた速度ベクトル分布計測システム”、計測自動制御学会論文集(1986) 22(12)、p.1330-1336、インターネット〈URL:https://doi.org/10.9746/sicetr1965.22.1330〉
上述の動きベクトルの計算に際しては、物体追跡技術を用いて動画像内の動く対象物を追跡し、当該対象物及びその近傍を除いた領域の画像から動きベクトルを計算するよう構成しても良いし、動きベクトルを出力する際に当該対象物及びその近傍を除いた領域の動きベクトルを出力するように構成してもよい。動画像から当該動画像を撮影したカメラの角速度を推定するに際しては、実際に動いている対象物を動きベクトルの計算対象から除外した方が、計算された動きベクトルがカメラの動きに起因した動きベクトルのみになるため、角速度の推定精度が高くなるものと考えられる。
角速度算出部70は、平均動きベクトル算出部50で生成された平均動きベクトルから、動画像を撮影したカメラの角速度を算出する。カメラの動きには、回転方向の動きと並進方向の動きが存在するが、カメラの動きに起因する動画像の動き(ぶれ)は、主にカメラの回転方向の動きに起因している。従って、角速度算出部70は、動画像の上下方向及び左右方向の動きベクトルがカメラの回転方向の動きに対応していると仮定してカメラの角速度を算出する。
図1において、空間周波数フィルタ部10、動きベクトル推定部30、平均動きベクトル算出部50、及び角速度算出部70における各処理は、例えば、所定のプログラムを映像処理装置100が備えるCPU(Central Processing Unit)やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)で実行させることによって、ソフトウエア処理として実現することができる。しかし、この態様には限定されず、各機能部における処理は、例えばASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、又はFPGA(Field Programmable Gate Array)等によってハードウエア処理として実現するように構成してもよい。
上記所定のプログラムは、映像処理装置100内又は外部の図示しない記憶部に格納される。記憶部は、読取り可能な記憶媒体を含み、当該記憶媒体には、磁気ディスク記憶媒体、磁気カセット、磁気テープ、その他の磁気及び光学記憶装置(例えば、CD(Compact Disk)、レーザーディスク(登録商標)、DVD(登録商標)(Digital Versatile Disc)、フロッピー(登録商標)ディスク及びブルーレイディスク(登録商標))、EPROM、EEPROM若しくはフラッシュメモリ等の書換え可能でプログラム可能なROM若しくは情報を格納可能な他の有形の記憶媒体又はこれらいずれかの組合せが含まれる。
次に、本実施形態に係る映像処理方法の手順について図3を用いて説明する。
まず、映像処理装置100は、空間周波数フィルタ部10により、入力された動画像I(x,y,t)に対して低空間周波数フィルタ処理を行う(ステップS101)。空間周波数フィルタ部10は、動画像I(x,y,t)を構成する各フレームの画像I(x,y)の入力に対してフーリエ変換部12によりフーリエ変換を行って周波数データI~(fx,fy)を出力する。次に、映像処理装置100は、当該周波数データI~(fx,fy)に対して低空間周波数フィルタ部14により事前に定義した周波数重みF(fx,fy)で重み付けして低空間周波数成分を通過させる。最後に、映像処理装置100は、フィルタ処理された周波数データI~’(fx,fy)に対して逆フーリエ変換部16により逆フーリエ変換を行ってフィルタ処理された画像I’(x,y)を出力する。
次に、映像処理装置100は、ステップS101において低空間周波数成分を抽出した画像I’(x,y)の時系列(動画像)から、動きベクトル推定部30により動きベクトルを計算する(ステップS103)。動きベクトルの計算は、動画像の全領域に対して行ってもよいし、カメラの動きを推定するのに適した領域を選択して行うようにしてもよい。
次に、映像処理装置100は、平均動きベクトル算出部50によりステップS103で推定した動画像の動きベクトルから平均動きベクトルを推定する(ステップS105)。平均動きベクトルの算出は、動画像の全領域に対して行ってもよいし、カメラの動きを推定するのに適した領域の動きベクトルを選択して平均化するようにしてもよい。
次に、映像処理装置100は、ステップS105で算出された平均動きベクトルから、角速度算出部70により動画像を撮影したカメラの角速度を算出する(ステップS107)。
以上の実施形態では、解析的な手法に基づいて、低空間周波数成分を抽出した動画像からカメラの角速度を算出する例を説明したが、解析的な手法に限らず、機械学習等を用いても良い。
一例として、角速度算出部70を機械学習で代替させる場合について説明する。この場合、角速度算出部70が角速度推定用学習済みモデルを備えるように構成する。角速度推定用学習済みモデルは、適当な初期値を設定したモデル(ニューラルネットワーク等)に平均動きベクトルと角速度データとの組からなる学習用データを与え、予め学習させておく。学習方法については周知の機械学習法を用いれば良い。そして、角速度算出部70では、角速度推定用学習済みモデルにステップS105で算出された平均動きベクトルを入力することで、モデルから出力される結果をカメラ角速度の算出結果(角速度の推定値)として用いる。
解析的手法で動きベクトルから角速度を求める場合においても、カメラレンズの光学収差等に起因する動きベクトルの推定誤差等をあらかじめ補正係数として与えるようにしておくことで、同様に動きベクトルの推定誤差等の補正が可能である。
同様に、平均動きベクトル算出部50を機械学習で代替させることも可能である。つまり、動きベクトルを入力とし、平均動きベクトルを出力するようにモデルを学習させておき、平均動きベクトル算出部50は、この学習済みモデルを用いて入力された動きベクトルを平均動きベクトルに変換して出力する。この場合において、モデルの入力として、動きベクトルだけでなく動画像(または動画像の特徴量)も入力として加えてモデルを学習させることで、平均動きベクトル算出部50において、動画像と動きベクトルを入力として、平均動きベクトルを出力させることが可能である。これにより、カメラレンズの光学収差等に起因する動きベクトルの推定誤差等を考慮した平均動きベクトルの推定結果を得ることが期待できる。
また、学習用データとして、動画像とカメラの角速度との組の集合を用意し、動画像を入力としてカメラの角速度を出力するようなモデルを学習させておけば、動きベクトル推定部30、平均動きベクトル算出部50、角速度算出部70を、学習済みモデルに基づいて動画像から直接カメラの角速度の推定結果を得るような1つの処理ブロックで代替させることも可能である。
以上述べたように、本実施形態に係る映像処理装置100は、動画像の低空間周波数成分を抽出する空間周波数フィルタ部10と、空間周波数フィルタ部10を通過した動画像に基づいて動画像を撮影したカメラの角速度を算出する角速度算出部70とを備えるように構成した。このような構成の採用によって、以下に述べるように動画像からカメラの角速度と相関が高い動きベクトルを抽出してカメラの角速度を精度よく推定することができる。
映像(動画像)中に含まれる動きベクトルは、カメラ運動に起因した動きベクトルもあれば、物理的に動く物体に起因した動きベクトルも存在する。一般的に、カメラ運動に起因した動きベクトルは大域的な輝度成分の変化(大域的な輝度変化)として表出されやすく、物理的に動く物体に起因した動きベクトルは局所的な輝度成分の変化(局所的な輝度変化)として表出されやすい傾向がある。言い換えれば、大域的な輝度変化はカメラ運動(カメラの角速度)との相関性が高いといえる。
Lucas−Kanade法のような輝度勾配に基づく動きベクトル推定手法は、その動きベクトルがどのような要因で生じたかを区別しない。空間周波数フィルタを適用する前の原映像に輝度勾配法を適用すると、カメラ運動と相関の高い動きベクトルのほかに、物理的に動く物体等と相関の高い動きベクトルも多く算出されることになり、これらの区別ができないため、カメラ運動を精度よく推定することが難しくなる。
これに対して、空間周波数フィルタ部10を通過した動画像には大域的な輝度変化が多く含まれる一方で、局所的な輝度変化が抑えられるので、カメラの角速度との相関が高い大域的な輝度変化に基づく動きベクトルが算出されやすくなる。事前に入力する映像から高空間周波数成分をカットしておくことで、動きベクトル推定に用いる手法自体は変更することなく、原映像を入力とする場合よりも精度よく、カメラの角速度を推定することが可能となるのである。
なお、上述したように、映像からカメラの角速度を求めるに際しては、周知の輝度勾配法を用いる他、機械学習等を用いることも可能である。この場合も、映像を入力としてカメラの角速度を出力するモデルの入力として、低空間周波数成分のみを含む画像を用いることで、カメラの角速度と相関の高い特徴が抽出されやすくなるので、出力されるカメラ角速度の推定精度向上が期待できる。
以上説明したように、本発明は、動画像の低空間周波数成分を抽出する空間周波数フィルタ部10を備え、空間周波数フィルタ部10により低空間周波数成分を抽出した画像に基づいて、カメラの角速度を推定することを特徴とする。
また、本実施形態では、空間周波数フィルタ部10を通過した動画像に対して、輝度勾配法によって動きベクトルを推定する動きベクトル推定部30をさらに備え、角速度算出部70は、動きベクトルから動画像を撮影したカメラの角速度を算出するように構成した。このような構成の採用によって、動画像から輝度勾配法によって動きベクトルを推定する際に、カメラの角速度と相関が高い大域的な輝度変化に基づく動きベクトルが算出され易くなるため、カメラの角速度をより精度良く推定することができる。また、計算負荷の軽い輝度勾配法によって推定した動きベクトルを用いてカメラの角速度を推定するため、先行技術を用いた場合と比較して計算負荷を低減することができる。
また、本実施形態では、動画像内の領域の動きベクトルを平均化して平均動きベクトルを算出する平均動きベクトル算出部50を更に備え、角速度算出部70は、平均動きベクトルから動画像を撮影したカメラの角速度を算出するように構成した。このような構成の採用によって、動画像内に動く対象物などカメラの角速度推定を阻害する物が写り込んでいる場合にも、動画像の全領域又は一部の領域の動きベクトルの平均値を用いることで、カメラの角速度の推定精度を高めることができる。
また、本実施形態では、空間周波数フィルタ部10のカットオフ周波数は、動画像を撮影したカメラのフレームレートと、カメラの最大角速度に基づいて定められるように構成した。このような構成の採用によって、時間方向のエイリアシングを抑えることができ、カメラが回転したときの輝度勾配を確実に検出することができる。
また、空間周波数フィルタ部10のカットオフ周波数は、後述する実施例に記載のように、動画像に含まれる動く対象物の大きさもしくは速度の少なくとも何れかに基づいて定められるように構成してもよい。
また、本実施形態では、動きベクトル推定部30において動きベクトルの推定に用いる輝度勾配法として、Lucas−Kanade法を利用するように構成した。このような構成の採用によって、低空間周波数フィルタ処理と動きベクトル推定を、計算過程に条件分岐や対応点探索を含まない多段並列処理で行うことができるため、動画像から当該動画像を撮影したカメラの動き(角速度)を推定するための計算負荷を抑制することができる。
また、本実施形態に係る映像処理方法は、動画像の低空間周波数成分を抽出するステップと、低空間周波数成分を抽出した前記動画像に基づいて前記動画像を撮影したカメラの角速度を算出するステップとを含むように構成した。このような構成の採用によって、動画像からカメラの角速度との相関が高い動きを抽出してカメラの角速度を精度よく推定することができる。
本開示を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各構成部、各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部やステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。
例えば、本実施形態では、1つの映像処理装置100が、空間周波数フィルタ部10、動きベクトル推定部30、平均動きベクトル算出部50、角速度算出部70を備えるように構成したが、この態様には限定されない。例えば、空間周波数フィルタ部10及び動きベクトル推定部30による処理をサーバ上で行い、平均動きベクトル算出部50及び角速度算出部70による処理をPC(Personal Computer)、スマートフォン又はタブレットPC内で行うように構成してもよい。
次に、本実施形態に係る映像処理装置100によって動画像から推定された、当該動画像を撮影したカメラの角速度の推定精度の検証を行った。カメラの角速度の推定精度の検証は、図4の右上に示すように、人物の頭部に動画像撮影用のカメラに加えてジャイロセンサを搭載し、ジャイロセンサから取得した人物の頭部の各軸周りの角速度を、カメラで撮影された動画像(図4の左上に示す)から推定された平均動きベクトルと比較することにより行った。なお、ジャイロセンサの出力と動画像の平均動きベクトルとの比較に際しては、頭部のy軸周りの回転により動画像上にx軸方向の動きが発生し、頭部のx軸周りの回転により動画像上にy軸方向の動きが発生することから、動画像のx軸方向の動きベクトル
(以降、文中ではv~ x(t)と記載する)を頭部(ジャイロセンサ)のy軸周りの角速度ωy(t) と比較し、動画像のy軸方向の動きベクトルv~ (t)を頭部(ジャイロセンサ)のx軸周りの角速度ωx(t)と比較した。図5A~図5Cに比較結果を示す。
図5Aの上段には、人物の頭部にカメラを装着してボール遊びを行っている様子を撮影した動画像について、当該動画像から推定される平均動きベクトルと、カメラに隣接して配置されたジャイロセンサから出力される角速度とを比較した結果を示している。帯域制限をかけていない場合(比較例1)、x軸方向及びy軸方向の平均動きベクトルと各ジャイロセンサの値との相関係数は、それぞれ0.51と0.49であったのに対して、空間周波数が0.1cpd(cycle per degree)(本実施例においては、画角82°に対し映像640pixelのため,1cpd=82/640(cycle/pixel)である)の低空間周波数フィルタをかけた場合(実施例1)には、x軸方向及びy軸方向の平均動きベクトルと各ジャイロセンサの値との相関係数は、それぞれ0.69と0.73へと向上した。これは、動画像の0.1cpd以下の空間周波数成分を抽出することにより、より精度よく頭部回転(カメラ運動)に起因した動きベクトルが推定できることを示している。言い換えれば、0.1cpd以下の低空間周波数フィルタを通過させた画像には、頭部回転(カメラ運動)に起因した大域的な輝度変化が多く(十分に)含まれ、ボールの動きに起因した局所的な輝度変化は抑制されるため、カメラの回転運動をより精度よく推定できたと考えられる。従って、ボールなど動く対象物の影響を抑制するための、例えば動く対象物の大きさや対象物の速さに応じたカットオフ周波数のフィルタを動画像に応じて定めるように構成してもよい。
このボール遊びの例では、0.1〜0.4cpdのバンドパスフィルタを採用した場合(実施例2)には、x軸方向及びy軸方向の動きベクトルと各ジャイロセンサの値との相関係数は、それぞれ0.39と0.56であり、帯域制限無し(比較例1)と比較して殆ど相関係数の改善は見られなかった。これは、ボール遊びの動画像では、動く対象物であるボールの動きに起因した局所的な輝度勾配を含む画像情報が0.1〜0.4cpdのバンドパスフィルタを通過した動画像にも相当程度含まれているが、ボールはカメラとは無関係に動いているため、カメラの動きとは相関性の低い動きが動きベクトルとして抽出されやすくなってしまうと考えられる。0.4cpd以上のハイパスフィルタを採用した場合(比較例2)には、x軸方向及びy軸方向の動きベクトルと各ジャイロセンサの値との相関係数は、それぞれ0.16と0.13であり、頭部回転(カメラ運動)に起因した動きベクトルの計算に必要な大域的な輝度勾配を含む画像情報が殆ど含まれていないと考えられる。
図5Aの下段には、人物の頭部にカメラを装着して屋外で散歩を行っている様子を撮影した動画像について、当該動画像から推定される平均動きベクトルと、カメラに隣接して配置されたジャイロセンサから出力される角速度とを比較した結果を示している。帯域制限をかけていない場合(比較例1)、x軸方向及びy軸方向の平均動きベクトルと各ジャイロセンサの値との相関係数は、それぞれ0.32と0.42であったのに対して、カットオフ周波数が0.1cpdの低空間周波数フィルタをかけた場合(実施例1)には、x軸方向及びy軸方向の動きベクトルと各ジャイロセンサの値との相関係数は、それぞれ0.61と0.67へと向上した。これは、ボール遊びの場合と同様に、動画像から動きベクトルを計算する際に、動画像の0.1cpd以下の空間周波数成分を抽出することにより頭部回転(カメラ運動)に起因した大域的な輝度勾配を含む画像情報をより多く抽出することができるからであると考えられる。
図5Bの上段には、人物の頭部にカメラを装着して学会のポスター発表を傾聴している様子を撮影した動画像について、当該動画像から推定される平均動きベクトルと、カメラに隣接して配置されたジャイロセンサから出力される角速度とを比較した結果を示している。帯域制限をかけていない場合(比較例1)、x軸方向及びy軸方向の平均動きベクトルと各ジャイロセンサの値との相関係数は、それぞれ0.53と0.64であったのに対して、空間周波数が0.1cpdの低空間周波数フィルタをかけた場合(実施例1)には、x軸方向及びy軸方向の動きベクトルとジャイロセンサとの相関係数は、それぞれ0.81と0.78へと向上した。これは、先の例と同様に、動画像から動きベクトルを推定する際に、動画像の0.1cpd以下の空間周波数成分を抽出することにより頭部回転(カメラ運動)に起因した大域的な輝度勾配を含む画像情報をより多く抽出することができるからであると考えられる。但し、この学会ポスターの例では、0.1〜0.4cpdのバンドパスフィルタを採用した場合(実施例2)においても、特にx軸方向の動きベクトルとジャイロセンサの値との相関係数が、0.82へと改善が見られている。これは、学会ポスター発表の傾聴においては、動画像に写り込む対象物の大部分が動かないため、局所的な輝度勾配による動きであっても比較的カメラの角速度との相関が得られ易いためと考えられる。従って、0.1〜0.4cpdというボール遊びの例では動きベクトルとカメラの角速度との相関が取りづらかった帯域の動画像であっても、比較的高い相関が得られるものと考えられる。
図5Bの下段には、人物の頭部にカメラを装着して廊下でジョギングしている状態を撮影した動画像について、当該動画像から推定される平均動きベクトルと、カメラに隣接して配置されたジャイロセンサから出力される角速度とを比較した結果を示している。帯域制限をかけていない場合(比較例1)、x軸方向及びy軸方向の平均動きベクトルと各ジャイロセンサの値との相関係数は、それぞれ0.55と0.25であったのに対して、空間周波数が0.1cpdの低空間周波数フィルタをかけた場合(実施例1)には、x軸方向及びy軸方向の平均動きベクトルと各ジャイロセンサの値との相関係数は、それぞれ0.72と0.58へと向上した。これは、先の例と同様に、動画像から動きベクトルを推定する際に、動画像の0.1cpd以下の空間周波数成分を抽出することにより頭部回転(カメラ運動)に起因した動きベクトルの計算に必要な大域的な輝度勾配を含む画像情報を選択的に抽出することができるからであると考えられる。但し、このジョギングの例では、0.1〜0.4cpdのバンドパスフィルタを採用した場合(実施例2)においても、特にy軸方向の動きベクトルとジャイロセンサの値との相関係数が、0.50へと改善が見られている。これは、ジョギングしている状態を撮影した動画像では、y軸方向への撮影者の移動速度が速いために高空間周波数成分における時間方向のエイリアシングが生じy軸方向の動き推定誤差が大きくなっているところ、0.1〜0.4cpdのバンドパスフィルタを通過させることでエイリアシングの影響が減り、y軸方向の動き推定精度が向上したと考えられる。
図5Cの上段には、人物の頭部にカメラを装着し、キャッチボールしている状態を撮影した動画像について、当該動画像から推定される平均動きベクトルと、カメラに隣接して配置されたジャイロセンサから出力される角速度とを比較した結果を示している。帯域制限をかけていない場合(比較例1)、x軸方向及びy軸方向の平均動きベクトルと各ジャイロセンサの値との相関係数は、それぞれ0.28と0.13であったのに対して、空間周波数が0.1cpdの低空間周波数フィルタをかけた場合(実施例1)には、x軸方向及びy軸方向の平均動きベクトルと各ジャイロセンサの値との相関係数は、それぞれ0.42と0.72へと向上した。これは、先の例と同様に、動画像から動きベクトルを推定する際に、動画像の0.1cpd以下の空間周波数成分を抽出することにより頭部回転(カメラ運動)に起因した大域的な輝度勾配を含む画像情報を選択的に抽出することができるからであると考えられる。但し、このキャッチボールの例では、0.1〜0.4cpdのバンドパスフィルタを採用した場合(実施例2)においても、特にy軸方向の平均動きベクトルとジャイロセンサの値との相関係数が、0.54へと改善が見られている。これは、キャッチボールしている状態を撮影した動画像では、動く対象物であるボールの動きが速く、ボールの動きに起因する局所的な輝度勾配を含む画像情報がカメラの角速度と動画像上のy軸方向の動きとの相関を悪化させる要因となっているところ、0.1〜0.4cpdのバンドパスフィルタによって、ボールの動きに起因する局所的な輝度勾配を含む画像情報が抑えられ、y軸方向の動きベクトルとカメラの角速度との相関を向上させているものと考えられる。これは、図5Cの下段のゴロの捕球についても同様である。
10 空間周波数フィルタ部
12 フーリエ変換部
14 空間周波数フィルタ部
16 逆フーリエ変換部
30 動きベクトル推定部
50 平均動きベクトル算出部
70 角速度算出部
100 映像処理装置

Claims (7)

  1. 動画像の低空間周波数成分を抽出する空間周波数フィルタ部と、
    前記空間周波数フィルタ部を通過した前記動画像に基づいて前記動画像を撮影したカメラの角速度を算出する角速度算出部と
    を備えることを特徴とする映像処理装置。
  2. 前記空間周波数フィルタ部を通過した前記動画像に対して、勾配法によって動きベクトルを推定する動きベクトル推定部をさらに備え、
    前記角速度算出部は、前記動きベクトルから前記動画像を撮影したカメラの角速度を算出することを特徴とする請求項1に記載の映像処理装置。
  3. 前記動画像内の領域の前記動きベクトルを平均化して平均動きベクトルを算出する平均動きベクトル算出部を更に備え、
    前記角速度算出部は、該平均動きベクトルから前記動画像を撮影したカメラの角速度を算出する、請求項2に記載の映像処理装置。
  4. 前記空間周波数フィルタ部のカットオフ周波数は、前記動画像を撮影したカメラのフレームレートと、該カメラの最大角速度に基づいて定められる、請求項1から3の何れか一項に記載の映像処理装置。
  5. 前記空間周波数フィルタ部のカットオフ周波数は、前記動画像に含まれる動く対象物の大きさもしくは速度の少なくとも何れかに基づいて定められる、請求項1から4のいずれか一項に記載の映像処理装置。
  6. 動画像の低空間周波数成分を抽出するステップと、
    低空間周波数成分を抽出した前記動画像に基づいて前記動画像を撮影したカメラの角速度を算出するステップと
    を含むことを特徴とする映像処理方法。
  7. コンピュータを、請求項1から5のいずれか一項に記載の映像処理装置として機能させるための映像処理プログラム。

JP2019012524A 2019-01-28 2019-01-28 映像処理装置、映像処理方法、及び映像処理プログラム Active JP7197785B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019012524A JP7197785B2 (ja) 2019-01-28 2019-01-28 映像処理装置、映像処理方法、及び映像処理プログラム
PCT/JP2020/001000 WO2020158382A1 (ja) 2019-01-28 2020-01-15 映像処理装置、映像処理方法、及び映像処理プログラム
US17/310,237 US11756215B2 (en) 2019-01-28 2020-01-15 Image processing device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019012524A JP7197785B2 (ja) 2019-01-28 2019-01-28 映像処理装置、映像処理方法、及び映像処理プログラム

Publications (2)

Publication Number Publication Date
JP2020120363A true JP2020120363A (ja) 2020-08-06
JP7197785B2 JP7197785B2 (ja) 2022-12-28

Family

ID=71842163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019012524A Active JP7197785B2 (ja) 2019-01-28 2019-01-28 映像処理装置、映像処理方法、及び映像処理プログラム

Country Status (3)

Country Link
US (1) US11756215B2 (ja)
JP (1) JP7197785B2 (ja)
WO (1) WO2020158382A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11838630B2 (en) * 2020-06-04 2023-12-05 Canon Kabushiki Kaisha Image capturing apparatus, control method therefor, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04117077A (ja) * 1989-10-17 1992-04-17 Mitsubishi Electric Corp 動きベクトル検出装置
JPH05233815A (ja) * 1992-02-21 1993-09-10 Canon Inc 動きベクトル検出装置
JP2006098541A (ja) * 2004-09-28 2006-04-13 Nikon Corp カメラ
JP2015105975A (ja) * 2013-11-28 2015-06-08 キヤノン株式会社 像振れ補正装置及びその制御方法、プログラム、記憶媒体

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2239575B (en) 1989-10-17 1994-07-27 Mitsubishi Electric Corp Motion vector detecting apparatus and image blur correcting apparatus, and video camera including such apparatus
US6741652B1 (en) 1992-02-21 2004-05-25 Canon Kabushiki Kaisha Movement vector detecting device
US5617166A (en) * 1994-02-03 1997-04-01 Nikon Corporation Camera capable of reducing image blur
US6734901B1 (en) * 1997-05-20 2004-05-11 Canon Kabushiki Kaisha Vibration correction apparatus
JP3697471B2 (ja) * 1998-04-28 2005-09-21 コニカミノルタフォトイメージング株式会社 振れ補正装置
EP3404479A1 (en) * 2002-12-25 2018-11-21 Nikon Corporation Blur correction camera system
US8395672B2 (en) * 2007-07-13 2013-03-12 Panasonic Corporation Imaging device that detects inclination of image and apparatus in a rolling direction
JP5204785B2 (ja) * 2007-12-03 2013-06-05 パナソニック株式会社 画像処理装置、撮影装置、再生装置、集積回路及び画像処理方法
US8494225B2 (en) * 2010-02-19 2013-07-23 Julian L. Center Navigation method and aparatus
JP5583992B2 (ja) * 2010-03-09 2014-09-03 パナソニック株式会社 信号処理装置
JP6040338B2 (ja) * 2014-03-25 2016-12-07 富士フイルム株式会社 手ぶれ補正装置、撮像装置
JP6448218B2 (ja) * 2014-05-12 2019-01-09 キヤノン株式会社 撮像装置、その制御方法および情報処理システム
US9210306B1 (en) * 2014-05-31 2015-12-08 Apple Inc. Method and system for a single frame camera module active alignment tilt correction
KR102149391B1 (ko) * 2015-02-23 2020-08-28 삼성전기주식회사 손떨림 보정 장치 및 이를 포함하는 카메라 모듈
WO2017014071A1 (ja) * 2015-07-22 2017-01-26 ソニー株式会社 カメラモジュール、固体撮像素子、電子機器、および撮像方法
JP6727791B2 (ja) * 2015-11-05 2020-07-22 キヤノン株式会社 追尾制御装置および追尾制御方法、撮像装置
WO2017090458A1 (ja) * 2015-11-26 2017-06-01 ソニー株式会社 撮影装置、および撮影方法、並びにプログラム
JP2017116840A (ja) * 2015-12-25 2017-06-29 オリンパス株式会社 撮像装置
JP6674264B2 (ja) * 2016-01-26 2020-04-01 キヤノン株式会社 像振れ検出装置及び方法、及び撮像装置
JP6604908B2 (ja) * 2016-06-10 2019-11-13 キヤノン株式会社 画像処理装置、その制御方法、および制御プログラム
US10868961B2 (en) * 2016-08-05 2020-12-15 Sony Corporation Imaging device, solid-state image sensor, camera module, drive control unit, and imaging method
US10911675B2 (en) * 2017-12-28 2021-02-02 Samsung Electronics Co., Ltd. Method for providing shake correction, signal processing device performing the method, and imaging device including the signal processing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04117077A (ja) * 1989-10-17 1992-04-17 Mitsubishi Electric Corp 動きベクトル検出装置
JPH05233815A (ja) * 1992-02-21 1993-09-10 Canon Inc 動きベクトル検出装置
JP2006098541A (ja) * 2004-09-28 2006-04-13 Nikon Corp カメラ
JP2015105975A (ja) * 2013-11-28 2015-06-08 キヤノン株式会社 像振れ補正装置及びその制御方法、プログラム、記憶媒体

Also Published As

Publication number Publication date
US20220130057A1 (en) 2022-04-28
US11756215B2 (en) 2023-09-12
JP7197785B2 (ja) 2022-12-28
WO2020158382A1 (ja) 2020-08-06

Similar Documents

Publication Publication Date Title
JP6937809B2 (ja) 制約ベースの回転平滑化を介してデジタルビデオを安定化するためのシステムおよび方法
US10404917B2 (en) One-pass video stabilization
US8290212B2 (en) Super-resolving moving vehicles in an unregistered set of video frames
CN104469139B (zh) 图像捕获装置和图像捕获方法
Lee et al. Simultaneous localization, mapping and deblurring
KR20150037369A (ko) 영상의 노이즈를 저감하는 방법 및 이를 이용한 영상 처리 장치
WO2012138828A2 (en) Kalman filter approach to augment object tracking
KR101051389B1 (ko) 적응적 배경 기반의 객체 검출 및 추적 장치 및 방법
CN109711241B (zh) 物体检测方法、装置与电子设备
WO2018098862A1 (zh) 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备
US10860891B2 (en) Memory-guide simulated pattern recognition method
JP2015524946A (ja) 画像解像度が改善された超解像画像を形成するための方法及び測定装置
WO2020158382A1 (ja) 映像処理装置、映像処理方法、及び映像処理プログラム
JP2021120814A (ja) 学習プログラム、学習方法、及び情報処理装置
JP5709255B2 (ja) 画像処理方法および監視装置
JP4751871B2 (ja) 撮像対象検出装置および方法
JP6154759B2 (ja) カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム
Gottfried et al. Time of flight motion compensation revisited
KR101350460B1 (ko) 영상의 모션 블러를 제거하는 방법 및 장치
Rajakaruna et al. Image deblurring for navigation systems of vision impaired people using sensor fusion data
Muthuswamy et al. Salient motion detection through state controllability
Florez et al. Video stabilization taken with a snake robot
JP2007018269A (ja) 映像中の動き確率計算方法、映像中の動き確率マップ計算方法、変化検出方法、及びプログラム
Barber et al. Inferring changes in intrinsic parameters from motion blur
Wang et al. SID: Sensor-Assisted Image Deblurring System for Mobile Devices

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221128

R150 Certificate of patent or registration of utility model

Ref document number: 7197785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150