JP2013143102A - 移動物体検出装置、移動物体検出方法およびプログラム - Google Patents

移動物体検出装置、移動物体検出方法およびプログラム Download PDF

Info

Publication number
JP2013143102A
JP2013143102A JP2012004379A JP2012004379A JP2013143102A JP 2013143102 A JP2013143102 A JP 2013143102A JP 2012004379 A JP2012004379 A JP 2012004379A JP 2012004379 A JP2012004379 A JP 2012004379A JP 2013143102 A JP2013143102 A JP 2013143102A
Authority
JP
Japan
Prior art keywords
matrix
frames
sparse
segmentation
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012004379A
Other languages
English (en)
Inventor
Shinichi Nakajima
伸一 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012004379A priority Critical patent/JP2013143102A/ja
Publication of JP2013143102A publication Critical patent/JP2013143102A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】ノイズが移動物体として検出される。
【解決手段】移動物体検出装置は、順序が規定された複数のフレームを含む動画を取得する動画取得部と、動画取得部により取得された動画に含まれる複数のフレームごとに、フレームを複数の領域にセグメント化するプリセグメンテーション部と、動画取得部により取得された複数のフレームを1個の行列で表した動画行列を、低ランク行列とスパース行列との和に分解するスパース推定をするにあたり、プリセグメンテーション部によりセグメント化された複数の領域に対応する行列要素の組ごとにスパース性を誘起してスパース行列を推定する推定部と、複数のフレームにおける、推定部により推定されたスパース行列において有意な値を有する行列要素に対応する領域が、移動物体の画像である旨を出力する出力部とを備える。
【選択図】図1

Description

本発明は、移動物体検出装置、移動物体検出方法およびプログラムに関する。
複数のフレームを含む動画から移動物体を検出する移動体物体検出装置及びその方法が知られている(例えば、非特許文献1参照)。
[非特許文献1] Emmanuel J. Candes, Xiaodong Li, Yi Ma, and John Wright、"Robust Principal Component Analysis?"、[on line]、2009年12月17日、The Computing Research Repository、abs/0912.5399、[2011年12月12日検索]、インターネット<URL:http://arxiv.org/corr/home>
しかしながら、上述の移動物体の検出方法では、異なる時間において出没する高周波のノイズ、例えばランダムノイズが移動物体として検出されるという課題がある。
本発明の第1の態様においては、順序が規定された複数のフレームを含む動画を取得する動画取得部と、前記動画取得部により取得された前記動画に含まれる前記複数のフレームごとに、フレームを複数の領域にセグメント化するプリセグメンテーション部と、前記動画取得部により取得された前記複数のフレームを1個の行列で表した動画行列を、低ランク行列とスパース行列との和に分解するスパース推定をするにあたり、前記プリセグメンテーション部によりセグメント化された前記複数の領域に対応する行列要素の組ごとにスパース性を誘起して前記スパース行列を推定する推定部と、前記複数のフレームにおける、前記推定部により推定された前記スパース行列において有意な値を有する行列要素に対応する領域が、移動物体の画像である旨を出力する出力部とを備える移動物体検出装置を提供する。
本発明の第2の態様においては、順序が規定された複数のフレームを含む動画を取得する動画取得段階と、前記動画取得段階で取得された前記動画に含まれる前記複数のフレームごとに、フレームを複数の領域にセグメント化するプリセグメンテーション段階と、前記動画取得段階で取得された前記複数のフレームを1個の行列で表した動画行列を、低ランク行列とスパース行列との和に分解するスパース推定をするにあたり、前記プリセグメンテーション段階でセグメント化された前記複数の領域に対応する行列要素の組ごとにスパース性を誘起して前記スパース行列を推定する推定段階と、前記複数のフレームにおける、前記推定段階推定された前記スパース行列において有意な値を有する行列要素に対応する領域が、移動物体の画像である旨を出力する出力段階とを備える移動物体検出方法が提供される。
本発明の第3の態様においては、コンピュータを制御するプログラムであって、前記コンピュータに、順序が規定された複数のフレームを含む動画を取得する動画取得手順と、前記動画取得手順で取得された前記動画に含まれる前記複数のフレームごとに、フレームを複数の領域にセグメント化するプリセグメンテーション部と、前記動画取得手順で取得された前記複数のフレームを1個の行列で表した動画行列を、低ランク行列とスパース行列との和に分解するスパース推定をするにあたり、前記プリセグメンテーション手順でセグメント化された前記複数の領域に対応する行列要素の組ごとにスパース性を誘起して前記スパース行列を推定する推定手順と、前記複数のフレームにおける、前記推定手順で推定された前記スパース行列において有意な値を有する行列要素に対応する領域が、移動物体の画像である旨を出力する出力手順とを実行させるプログラムを提供する。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
移動物体検出装置10の全体構成を示すブロック図である。 動画取得部12が取得する動画の一例を説明する図である。 動画取得部12が取得した動画MVのデータ形式を説明する図である。 プリセグメンテーション部14が生成するセグメントテーブルSTを説明する図である。 動画行列生成部16が、動画MVのデータから動画行列Yを生成する過程を説明する図である。 推定部18が推定する低ランク行列を説明する図である。 推定部18が推定するスパース行列を説明する図である。 移動物体検出装置10による移動物体の検出処理を説明するフローチャートである。 ステップSt20のスパース推定処理のフローチャートである。 ステップSt22の出力処理のフローチャートである。 出力部20が出力するバックグラウンドの画像を説明する図である。 出力部20が出力する移動物体MBの画像を説明する図である。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、移動物体検出装置10の全体構成を示すブロック図である。移動物体検出装置10は、動画取得部12と、プリセグメンテーション部14と、動画行列生成部16と、推定部18と、出力部20と、格納部22とを備える。移動物体検出装置10は、撮像部26及び表示部28と接続されている。撮像部26の一例は、それぞれが二次元の画像からなる複数のフレームFLを含む動画MVを撮像でき、固定されたビデオカメラ等である。尚、以下、各フレームFLが白黒の画像であるとして説明する。
移動物体検出装置10は、パーソナルコンピュータに組み込まれてもよく、デジタルカメラ等の動画撮影装置に組み込まれてもよい。また移動物体検出装置10の上記各機能はコンピュータプログラムとしてCD−ROM等によりパーソナルコンピュータ等にインストールされてもよいし、インターネット上にアプリケーションサービスプロバイダにより提供されてもよい。
動画取得部12は、撮像部26と接続され、情報を入出力する。特に動画取得部12は、順序Tn(n=1、2・・q)が規定された複数のフレームFLを含む動画MVを撮像部26から取得する。動画取得部12は、取得した動画MVを格納部22に格納する。
プリセグメンテーション部14は、動画取得部12により取得されて、格納部22に格納された上記動画MVを格納部22から読み出す。プリセグメンテーション部14は、動画MVに含まれる複数のフレームFLごとに、当該フレームFLを別個に複数の領域にセグメント化する。セグメント化の一例として、プリセグメンテーション部14は、各フレームFLに含まれる、座標が連続する画素PX間で輝度データXi,j(Tn)の値が予め定められた範囲内となる画素群が作る領域に、各フレームFLを分割して、当該領域にセグメントIDを付与する。プリセグメンテーション部14は、セグメントIDを画素PXの座標i,j及び順序Tnを対応付けたセグメントテーブルSTを格納部22に格納する。
動画行列生成部16は、動画取得部12により取得され、時系列の順序が対応付けられた複数のフレームFL(3−modeテンソル)を、各フレームの画素を一列に並べることによって動画行列Yを生成して、格納部22に格納する。よって、動画行列Yの行列要素Yi,j(Tn)は各画素PXの輝度データから生成される。
推定部18は、ロバストPCAにおける移動物体検出法による下記式(1)に示すように、動画行列生成部16が生成した動画行列Yを、低ランク行列要素Li,j(Tn)とスパース行列要素Si,j(Tn)との和で表す、スパース推定をする。尚、εはノイズである。式においては、添え字i,j(Tn)を省略する。
Y=L+S+ε (1)
ここで、推定部18は、上記スパース推定をするにあたり、プリセグメンテーション部14によりセグメント化された複数の領域に対応する行列要素Yi,j(Tn)の組ごとにスパース性を誘起して、スパース行列要素Si,j(Tn)を推定する。この場合に例えば、推定部18は、l−正則化された最小化問題を解くことによってスパース行列要素Si,j(Tn)を推定する。スパース推定についてはさらに後述する。
出力部20は、複数のフレームFLにおける、推定部18により推定されたスパース行列要素Si,j(Tn)において有意な値を有する動画行列Yの行列要素Yi,j(Tn)に対応する領域を特定する。さらに出力部20は、当該領域が移動物体MBの画像である旨を出力する。出力部20は、検出した移動物体を表示部28に出力する。表示部28は、液晶表示装置、有機EL表示装置等を適用できる。
この場合に、出力部20は、同一のセグメントIDの中に含まれる有意な値を有するスパース行列要素Si,j(Tn)の個数を算出する。有意な値とは、スパース行列要素Si,j(Tn)が「0」でない値のことである。尚、有意な値を、スパース行列要素Si,j(Tn)が絶対値が予め定められた値以上としてもよい。出力部20は、算出した有意な値の個数が、格納部22に格納されている個数閾値以上か否かを判定する。出力部20は、有意な値の個数が個数閾値以上と判定すると、当該セグメントIDの領域は移動物体MBであると判定する。一方、出力部20は、個数が個数閾値未満と判定すると、当該セグメントIDの領域はノイズまたはバックグラウンドと判定する。
図2は、動画取得部12が取得する動画の一例を説明する図である。図2に示すように、動画取得部12が取得する動画MVは、順序Tnが規定された複数のフレームFLを含む。各フレームFLの縦方向の座標は1からNまでとし、各フレームFLの横方向の座標は1からMまでとする。図2に示す動画MVでは、ビル、木等の静止物体SBを含むバックグラウンドと、車等の移動物体MBとが撮像されている。
動画MVを取得した段階では、各フレームFLの被写体のいずれが移動物体MBか、バックグラウンドに含まれる静止物体SBは未知である。移動物体検出装置10では、出力部20が移動物体MBの画像とバックグラウンドの画像とを区別して出力する。
図2において、上述したプリセグメンテーション部14は、時間順序T1のフレームFLを、例えば、ビルの壁G001、木の葉の部分G050、木の幹の部分、車のボディG021、ランダムノイズN0を含む雲G013等にセグメント化する。
図3は、動画取得部12が取得した動画MVのデータ形式を説明する図である。動画MVのフレームFLの各画素PXには、輝度データXi,j(Tn)が割り当てられている。輝度データXi,j(Tn)は、画素PXの座標i,j及び順序Tnと関連付けられている。この輝度データXi,j(Tn)に基づいて、複数のフレームFLを含む動画MVが構成され、必要に応じて表示部28に表示される。
図4は、プリセグメンテーション部14が生成するセグメントテーブルSTを説明する図である。図4に示すように、セグメントテーブルSTは、各フレームFLにおける画素Xijの座標i,jと、フレームFLの順序Tnとに対応付けられたセグメントID(Gn(n=001、002・・))を含む。プリセグメンテーション部14は、画面上の座標的に連続していて、輝度データXi,j(Tn)が近い画素群の領域の各には同じセグメントIDを付与することによって、セグメント化する。例えば、図4に示すように、プリセグメンテーション部14は、縦方向に連続する座標(1、1)と座標(2、1)の輝度データXi,j(Tn)が類似していれば、同じセグメントID(G001)を付与して、横方向に連続する座標(1、1)と座標(1、2)の輝度データXi,j(Tn)が類似していれば同じセグメントID(G001)を付与する。
プリセグメンテーション部14は、異なるフレームFLにおいては、異なるセグメントIDを付与する。従って、プリセグメンテーション部14は、順序T1のフレームFLのセグメントIDがG050で終了すると、順序T2のフレームFLのセグメントIDはG051以降を使用する。
図5は、動画行列生成部16が、動画MVのデータから動画行列Yを生成する過程を説明する図である。動画行列生成部16は、動画MVの各フレームFLのデータを一つの列ベクトルで表現する。例えば、順序T1のフレームFLでは、動画行列生成部16は、1列目の最後の輝度データXi,1(T1)の次に2列目の輝度データX1,2(T1)からXi,2(T1)を続ける。動画行列生成部16は、これをj列まで繰り返して、順序T1のフレームFLをベクトル化する。更に、動画行列生成部16は、ベクトル化された各フレームFLの輝度データXi,j(Tn)を順序Tnの順に並べて行列要素Yi,j(Tn)として、動画MVの輝度データXi,j(Tn)から動画行列Yを生成する。
図6は、推定部18によって推定される低ランク行列を説明する図である。図6に示すように、低ランク行列は、動画行列Yと同じN行M列の行列である。各行列要素Yi,jは、静止物体SBの画像の各座標i,jの輝度データXi,j(Tn)に対応する。よって、低ランク行列要素Li,j(Tn)に基づいて画像を表示すると、静止物体SBの画像、即ちバックグラウンドの画像が表示される。
図7は、推定部18によって推定されるスパース行列を説明する図である。スパース行列要素Si,j(Tn)は、動画行列Yと同じN行M列の行列である。スパース行列要素Si,j(Tn)の多くは、「0」である。スパース行列要素Si,j(Tn)において、「*」で示す「0」でない行列要素をノンゼロの行列要素と呼ぶ。スパース行列要素Si,j(Tn)において、ノンゼロの行列要素は、移動物体MBの画像の各座標i,jの輝度データXi,j(Tn)に対応する。よって、スパース行列要素Si,j(Tn)に基づいて画像を表示すると、移動物体MBの画像が表示される。
次に、上述した移動物体検出装置10による移動物体の検出処理について説明する。図8は、移動物体検出装置10による移動物体の検出処理を説明するフローチャートである。
図8に示すように、動画取得部12が、複数のフレームFLを含む動画MVのデータを撮像部26から取得して、格納部22に格納する(St10)。次に、プリセグメンテーション部14は、動画MVの各フレームFLのデータをセグメント化して、セグメンテーションテーブルSTを生成する(St12)。プリセグメンテーション部14は、生成したセグメンテーションテーブルSTを格納部22に格納する(St14)。
次に、動画行列生成部16は、動画MVから動画行列Yを生成する(St16)。動画行列生成部16は、生成した動画行列Yを格納部22に格納する(St18)。
推定部18は、スパース推定によって、動画行列Yの行列要素Yi,j(Tn)を低ランク行列要素Li,j(Tn)と、スパース行列要素Si,j(Tn)との和に分解するスパース推定処理を実行する(St20)。
出力部22は、スパース行列要素Si,j(Tn)及びセグメンテーションテーブルSTに基づいて、移動物体MBとノイズとを区別した後、静止物体SB及び移動物体MBの画像を出力する出力処理を実行する(St22)。
図9は、ステップSt20のスパース推定処理のフローチャートである。スパース推定処理の一例は、式(2)に示すl−正則化における最小化問題をグループLASSOにより解くことによって、低ランク行列要素Li,j(Tn)及びスパース行列要素Si,j(Tn)を得る。
Figure 2013143102
最小化問題を解く場合、推定部18は、式(2)のαに特定の値を代入するととともに(St30)、式(2)のβに特定の値を代入する(St32)。ここで、α、βは調整パラメータであって、α>0、β>0である。α、βを調整することにより、除去するノイズの程度を制御できる。また、α、βを調整することにより、移動物体MBとして捉える物体の単位時間当たりの移動量の閾値を制御できる。
次に、式(2)を解いて、極小値となる低ランク行列要素Li,j(Tn)及びスパース行列要素Si,j(Tn)の推定量を算出する(St34)。式(2)の解法の一例を示す。
Figure 2013143102
式(3)及び式(4)を解くことによって、式(2)の低ランク行列要素Li,j(Tn)及びスパース行列要素Si,j(Tn)の最適値が算出される。ここで、l(L,S,Y)は上記式(2)の目的関数である。
式(3)は、スパース行列要素Si,j(Tn)を初期値に固定して、評価関数lの最小値を算出することにより、そのときの低ランク行列要素Li,j(Tn)を導出する。式(4)は、式(3)で導出された低ランク行列Lを固定した状態で、評価関数lの最小値を算出することにより、そのときのスパース行列要素Si,j(Tn)を導出する。
さらに、式(4)により算出されたスパース行列要素Si,j(Tn)によって、式(3)を解く。これを繰り返すことによって、L,Sの両方に対して評価関数lが極小となるL、S、すなわち、求めたい低ランク行列要素Li,j(Tn)およびスパース行列要素Si,j(Tn)を得る。上記繰り返しの計算は、アルゴリズムarg1をコンピュータに実行させることにより実行される。
図10は、ステップSt22の出力処理のフローチャートである。図11は、出力部20が出力する静止物体SBを含むバックグラウンドの画像を説明する図である。図12は、出力部20が出力する移動物体MBの画像を説明する図である。
図10に示すように、出力部20は、セグメント化された各領域のノンゼロのスパース行列要素Si,j(Tn)の個数が個数閾値以上か否かを判定する(St40)。出力部20は、ノンゼロのスパース行列要素Si,j(Tn)の個数が個数閾値以上と判定すると(St40:Yes)、その領域の画像を移動物体MBとして、格納部22に格納する(St42)。一方、出力部20は、ノンゼロのスパース行列要素Si,j(Tn)の個数が個数閾値以上でないと判定すると(St40:No)、その領域の画像をノイズとして、格納部22に格納する(St44)。
この後、出力部20は、全ての領域に対してステップSt40の処理が終了するまでステップSt40以下を繰り返す。出力部20は、全ての領域に対してステップSt40の処理が終了したと判定すると(St46:Yes)、静止物体SB及び移動物体MBを別々の画像として出力する。例えば、出力部20は、図11に示すように、ビル、木、雲等の静止物体SBであるバックグラウンドの画像を表示部28に表示する。また、出力部20は、図12に示すように、移動物体MBである車の画像を表示部28に表示する。
上述したように、移動物体検出装置10は、動画行列Yの行列要素Yi,j(Tn)をセグメント化して、極めて小さいセグメントとなるノイズと、一定の大きさのセグメントとなる移動物体MBとを区別することができる。これにより、移動物体検出装置10は、より正確に移動物体MBを検出することができる。例えば、図2の時刻T1のフレームにおいて雲G0013に含まれていたランダムノイズN0は、次の時刻T2には含まれていないので移動物体であるとご認識される恐れがあるが、本実施形態によれば、図11に示すように、これはノイズであるとして移動物体MBから排除することができる。この結果、暗い環境での撮影時において、ISO感度を上げてノイズが多くなった場合でも、移動物体MBを正確に検出することができる。また、(2)は凸問題なので、上記アルゴリズムによって、低ランク行列要素Li,j(Tn)及びスパース行列要素Si,j(Tn)の大域最適値を算出することができる。
次に、上述のステップSt20のスパース推定処理の他の例について説明する。他の例として、ステップSt20のスパース推定処理をベイズ推定法によって解く。この場合、まず、一般化行列分解によって、式(5)から式(9)に示す尤度関数及び事前分布を仮定して確率モデルを立てる。この確率モデルに変分ベイズ法を適用すると、式(10)から式(17)を得ることができる。これを繰り返すことによって、式(5)から式(9)で示されるモデルにおける、低ランク行列要素Li,j(Tn)及びスパース行列要素Si,j(Tn)のベイズ推定値の近似値を算出することができる。このベイズ推定法の場合、C、C、C、Cも計算の過程で算出することができるので、調整パラメータなしで低ランク行列要素Li,j(Tn)及びスパース行列要素Si,j(Tn)を算出できる。
Figure 2013143102
また、別の確率モデルとして、次の式(18)から式(21)を仮定して、低ランク行列要素Li,j(Tn)及びスパース行列要素Si,j(Tn)を算出してもよい。
Figure 2013143102
上述の実施形態では、各フレームFLが、二次元の画像からなる例を説明したが、MPEG形式等のように、各フレームFLが二次元の画像となっていない場合、各フレームFLを二次元の画像に変換する。
上述の実施形態では、各フレームFLを白黒の画像としたが、RGBまたはCMYを原色とするカラー画像としてもよい。この場合、元データが式(22)に示す4−modeテンソルとなるが、動画行列を生成する場合、式(23)に示すように3成分の色方向も縦ベクトルに取り込む。この場合、プリセグメンテーション部14は、同じ座標及び順序の3色成分は同じセグメントIDを付与する。
Figure 2013143102
Figure 2013143102
上述の実施形態では、プリセグメンテーション部14が、異なるフレームFLに異なるセグメントIDを付与する例を説明したが、プリセグメンテーション部14が、異なるフレームFLにおいても、同じ静止物体SB及び同じ移動物体MBに同じセグメントIDを付与してもよい。この場合、プリセグメンテーション部14は、連続するフレームFLの輝度データXi,j(Tn)に基づいて、同じ静止物体SB及び同じ移動物体MBを判別する。一例として、プリセグメンテーション部14は、順序が連続するフレームFLとフレームFLとの間で輝度データXi,j(Tn)が閾値(例えば、80%)以上重複するセグメントの対があったとき、これらを同じ静止物体SBまたは同じ移動物体MBと判定する。
プリセグメンテーションを時刻を含めた3次元で行なっても、同様の推定ができる。この場合に、プリセグメンテーション部14は、時刻Tnが異なるフレームFL間においても同一の被写体とみなせる場合には同一のセグメントIDを付与する。さらに、推定部18は、上記スパース推定をするにあたり、上記プリセグメンテーションによるセグメントIDを用いる。これにより、時刻Tnが異なるフレームFL間にまたがってスパース項のグルーピングをさらに大きくとることができるので、より的確に移動物体を検出することができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 移動物体検出装置
12 動画取得部
14 プリセグメンテーション部
16 動画行列生成部
18 推定部
26 撮像部
28 表示部

Claims (7)

  1. 順序が規定された複数のフレームを含む動画を取得する動画取得部と、
    前記動画取得部により取得された前記動画に含まれる前記複数のフレームごとに、フレームを複数の領域にセグメント化するプリセグメンテーション部と、
    前記動画取得部により取得された前記複数のフレームを1個の行列で表した動画行列を、低ランク行列とスパース行列との和に分解するスパース推定をするにあたり、前記プリセグメンテーション部によりセグメント化された前記複数の領域に対応する行列要素の組ごとにスパース性を誘起して前記スパース行列を推定する推定部と、
    前記複数のフレームにおける、前記推定部により推定された前記スパース行列において有意な値を有する行列要素に対応する領域が、移動物体の画像である旨を出力する出力部と
    を備える移動物体検出装置。
  2. 前記推定部は、グループLASSOによって、スパース行列を推定する請求項1に記載の移動物体検出装置。
  3. 前記推定部は、ベイズ推定法によって、スパース行列を推定する請求項1に記載の移動物体検出装置。
  4. 前記プリセグメンテーション部は、前記複数のフレーム間で別個にセグメント化を実行する請求項1から3のいずれか1項に記載の移動物体検出装置。
  5. 前記プリセグメンテーション部は、前記複数のフレームにまたがってセグメント化を実行する請求項1から3のいずれか1項に記載の移動物体検出装置。
  6. 順序が規定された複数のフレームを含む動画を取得する動画取得段階と、
    前記動画取得段階で取得された前記動画に含まれる前記複数のフレームごとに、フレームを複数の領域にセグメント化するプリセグメンテーション段階と、
    前記動画取得段階で取得された前記複数のフレームを1個の行列で表した動画行列を、低ランク行列とスパース行列との和に分解するスパース推定をするにあたり、前記プリセグメンテーション段階でセグメント化された前記複数の領域に対応する行列要素の組ごとにスパース性を誘起して前記スパース行列を推定する推定段階と、
    前記複数のフレームにおける、前記推定段階で推定された前記スパース行列において有意な値を有する行列要素に対応する領域が、移動物体の画像である旨を出力する出力段階と
    を備える移動物体検出方法。
  7. コンピュータを制御するプログラムであって、前記コンピュータに、
    順序が規定された複数のフレームを含む動画を取得する動画取得手順と、
    前記動画取得手順で取得された前記動画に含まれる前記複数のフレームごとに、フレームを複数の領域にセグメント化するプリセグメンテーション手順と、
    前記動画取得手順で取得された前記複数のフレームを1個の行列で表した動画行列を、低ランク行列とスパース行列との和に分解するスパース推定をするにあたり、前記プリセグメンテーション手順でセグメント化された前記複数の領域に対応する行列要素の組ごとにスパース性を誘起して前記スパース行列を推定する推定手順と、
    前記複数のフレームにおける、前記推定手順で推定された前記スパース行列において有意な値を有する行列要素に対応する領域が、移動物体の画像である旨を出力する出力手順と
    を実行させるプログラム。
JP2012004379A 2012-01-12 2012-01-12 移動物体検出装置、移動物体検出方法およびプログラム Pending JP2013143102A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012004379A JP2013143102A (ja) 2012-01-12 2012-01-12 移動物体検出装置、移動物体検出方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012004379A JP2013143102A (ja) 2012-01-12 2012-01-12 移動物体検出装置、移動物体検出方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2013143102A true JP2013143102A (ja) 2013-07-22

Family

ID=49039622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012004379A Pending JP2013143102A (ja) 2012-01-12 2012-01-12 移動物体検出装置、移動物体検出方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2013143102A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217436A (zh) * 2014-09-16 2014-12-17 西安电子科技大学 基于多特征联合稀疏图的sar图像分割方法
CN104376571A (zh) * 2014-12-01 2015-02-25 武汉大学 一种基于形状相关性活动轮廓模型的超声图像分割方法
KR101556603B1 (ko) 2014-12-30 2015-10-01 연세대학교 산학협력단 랭크 정보를 이용한 영상 분리 장치 및 그 방법
CN106097374A (zh) * 2016-06-24 2016-11-09 西安电子科技大学 基于稀疏低秩与Atlas集的3D MRI胰腺分割方法
WO2017109860A1 (ja) * 2015-12-22 2017-06-29 株式会社ニコン 画像処理装置
CN107451954A (zh) * 2017-05-23 2017-12-08 南京邮电大学 基于图像低秩性质的迭代像素插值方法
CN109584273A (zh) * 2018-11-21 2019-04-05 西安电子科技大学 一种基于自适应收敛参数的运动目标检测方法
JP2020124220A (ja) * 2020-05-07 2020-08-20 株式会社ニコン 画像処理装置
CN111970156A (zh) * 2020-08-27 2020-11-20 广州华多网络科技有限公司 网络故障根因分析方法、装置、计算机设备及存储介质

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217436A (zh) * 2014-09-16 2014-12-17 西安电子科技大学 基于多特征联合稀疏图的sar图像分割方法
CN104376571A (zh) * 2014-12-01 2015-02-25 武汉大学 一种基于形状相关性活动轮廓模型的超声图像分割方法
KR101556603B1 (ko) 2014-12-30 2015-10-01 연세대학교 산학협력단 랭크 정보를 이용한 영상 분리 장치 및 그 방법
JPWO2017109860A1 (ja) * 2015-12-22 2018-08-23 株式会社ニコン 画像処理装置
WO2017109860A1 (ja) * 2015-12-22 2017-06-29 株式会社ニコン 画像処理装置
CN106097374A (zh) * 2016-06-24 2016-11-09 西安电子科技大学 基于稀疏低秩与Atlas集的3D MRI胰腺分割方法
CN106097374B (zh) * 2016-06-24 2018-11-30 西安电子科技大学 基于稀疏低秩与Atlas集的3D MRI胰腺分割方法
CN107451954A (zh) * 2017-05-23 2017-12-08 南京邮电大学 基于图像低秩性质的迭代像素插值方法
CN109584273A (zh) * 2018-11-21 2019-04-05 西安电子科技大学 一种基于自适应收敛参数的运动目标检测方法
CN109584273B (zh) * 2018-11-21 2022-11-18 西安电子科技大学 一种基于自适应收敛参数的运动目标检测方法
JP2020124220A (ja) * 2020-05-07 2020-08-20 株式会社ニコン 画像処理装置
JP6999118B2 (ja) 2020-05-07 2022-01-18 株式会社ニコン 画像処理装置
CN111970156A (zh) * 2020-08-27 2020-11-20 广州华多网络科技有限公司 网络故障根因分析方法、装置、计算机设备及存储介质
CN111970156B (zh) * 2020-08-27 2023-04-18 广州华多网络科技有限公司 网络故障根因分析方法、装置、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
JP2013143102A (ja) 移動物体検出装置、移動物体検出方法およびプログラム
TWI672667B (zh) 訓練用於影像處理神經網路模型的方法及裝置和電腦可讀儲存媒體
KR102295403B1 (ko) 깊이 추정 방법 및 장치, 전자 기기, 프로그램 및 매체
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
US10412462B2 (en) Video frame rate conversion using streamed metadata
JP2012032370A (ja) 欠陥検出方法、欠陥検出装置、学習方法、プログラム、及び記録媒体
KR20130142913A (ko) 이벤트 기반 이미지 처리 장치 및 그 장치를 이용한 방법
JP2022122984A (ja) 画像処理システム、画像処理方法及びプログラム
CN104700412B (zh) 一种视觉显著图的计算方法
CN111340101B (zh) 稳定性评估方法、装置、电子设备和计算机可读存储介质
JP2015095897A (ja) シーンから取得されたビデオを処理する方法
JP2019204193A (ja) 画像処理装置、画像処理方法及びプログラム
CN106169173A (zh) 一种图像插值方法
Zhou et al. Windowed bundle adjustment framework for unsupervised learning of monocular depth estimation with u-net extension and clip loss
TW201113833A (en) Detecting method and system for moving object
JP2015530649A (ja) ビデオシーケンスの画像の色をサンプル化する方法および色クラスタリングへの適用
JP2016167681A (ja) 画像生成装置および画像生成方法
JP2004356747A (ja) 画像のマッチング方法および装置
JP2014110020A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2015093131A5 (ja)
Zhang et al. Dehazing with improved heterogeneous atmosphere light estimation and a nonlinear color attenuation prior model
JP2016148588A (ja) デプス推定モデル生成装置及びデプス推定装置
JP2015197818A (ja) 画像処理装置およびその方法
JP2014149788A (ja) 物体領域境界推定装置、物体領域境界推定方法及び物体領域境界推定プログラム
JP2014164525A (ja) 物体数推定方法、物体数推定装置、及び物体数推定プログラム