JP6171651B2 - 画像処理プログラム及び画像処理装置 - Google Patents

画像処理プログラム及び画像処理装置 Download PDF

Info

Publication number
JP6171651B2
JP6171651B2 JP2013147795A JP2013147795A JP6171651B2 JP 6171651 B2 JP6171651 B2 JP 6171651B2 JP 2013147795 A JP2013147795 A JP 2013147795A JP 2013147795 A JP2013147795 A JP 2013147795A JP 6171651 B2 JP6171651 B2 JP 6171651B2
Authority
JP
Japan
Prior art keywords
image
frame
moving
distribution model
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013147795A
Other languages
English (en)
Other versions
JP2015022351A (ja
Inventor
北 耕次
耕次 北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Precision Co Ltd
Original Assignee
Noritsu Precision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Precision Co Ltd filed Critical Noritsu Precision Co Ltd
Priority to JP2013147795A priority Critical patent/JP6171651B2/ja
Priority to US14/323,250 priority patent/US9202286B2/en
Publication of JP2015022351A publication Critical patent/JP2015022351A/ja
Application granted granted Critical
Publication of JP6171651B2 publication Critical patent/JP6171651B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、動画の中から動体を検出するための画像処理プログラム及び画像処理装置に関する。
従来より、背景画像を用いて、動画の中から動体を検出することが行われている。典型的には、この場合、動画に含まれる各フレームと背景画像との差分画像が導出され、これらの差分画像の二値化画像に現れる領域が動体を写す領域として検出される。
そして、このような背景画像の各画素に対しては、複数の背景値(背景を表す画素値)が設定されることがある。これは、例えば、背景の草木が風で揺らぎ、ある画素において草木を写す状態と空を写す状態とが繰り返される場合に、これらの両方を背景として認識できるようにするためである。また、画面内に何らかの物体が現れ、これが一定期間以上移動しない場合には、ある時点からはこの物体を検出対象となる動体として捉えるよりも、背景と捉えた方が適切となる場合もあるからである。
以上のような複数の背景値を設定するためには、複数の分布の山を合成することにより得られる混合分布モデルを利用することができる(特許文献1,2参照)。上述の草木の揺らぎの例で言うと、これらの分布の山の1つが、草木を表す画素値(第1の背景値)の確率分布を表し、別の1つが、空を表す画素値(第2の背景値)の確率分布を表すことになる。
そして、従来、このような混合分布モデルは、各画素に対し、その画素の時間軸に沿って得られる多数の画素値のデータに基づいて、統計的に作成される。ここで、特許文献1では、一定の準備時間が過ぎ、1つの画素について十分な数の画素値が得られるまでは、背景値を決定するための混合分布モデルが作成されないようになっている。一方、特許文献2では、最初の画素値が得られた初期段階では、その1点の画素値のデータのみから、分布の山が作成される。具体的には、その1点の画素値が分布の平均の初期値とされ、予め定められている初期値がその平均値を中心とする分布の範囲(分散等)とされる。また、特許文献2では、混合分布モデルの更新時において、既存の分布の山に分類できないような画素値が得られた場合にも、その1点の画素値を分類する分布の山が同様に作成される。なお、このような飛び値は、別の背景が現れたとき等に現れる。
特開2011−123742号公報 特開2013−65151号公報
以上のような方法で混合分布モデルが作成される場合、初期段階では動体を検出することができないか(特許文献1の場合)、又は検出の精度が不安定になる(特許文献2の場合)。つまり、特許文献2のように、現実の多数の画素値のデータを用いることなく、最初の画素値のデータのみから初期の混合分布モデルが作成される場合には、そのようなモデルが現実を適切にモデリングしたものである可能性は低く、その後しばらくは誤検出が生じ易くなる。同様に、混合分布モデルの更新時に飛び値が現れた場合にも、その後しばらくは誤検出が生じ易くなり得る。
本発明は、初期段階及び/又は背景画像の更新時において適切な背景値を設定し、高精度に動体の検出を行うことができる画像処理プログラム及び画像処理装置を提供することを目的とする。
本発明の第1観点に係る画像処理プログラムは、動画の中から動体を検出するための画像処理プログラムであって、前記動画の背景画像を経時的に更新しながら作成するステップと、前記背景画像に基づいて、前記動画の中から前記動体を経時的に検出するステップとをコンピュータに実行させる。前記背景画像を作成するステップは、各注目画素に対し、状況に応じて1から複数の分布モデルを有する混合分布モデルを導出するステップと、前記混合分布モデルに基づいて、前記1から複数の分布モデルに対応する1から複数の背景の画素値を導出するステップとを含む。前記混合分布モデルを導出するステップは、前記動画に含まれる第1フレームにおける前記注目画素を含む局所領域内の複数の画素の画素値から、前記分布モデルを新規作成するステップと、前記動画に含まれる前記第1フレームと異なる第2フレームにおける前記注目画素の画素値から、既存の前記分布モデルを更新するステップとを含む。
ここでは、各注目画素に対し、1から複数の背景値を決定するための、1から複数の分布モデルを有する混合分布モデルが、更新されながら作成される。そして、混合分布モデルに含まれる分布モデルの作成時には、例えば、十分な数のフレームが得られていない初期段階において、注目画素の画素値だけでなく、その注目画素の周辺の画素の画素値も用いられる。別の例としては、混合分布モデルの更新時に、既存の分布モデルに分類することができない飛び値が現れた場合にも、注目画素の周辺の画素値を用いて、分布モデルを作成することが考えられる。そして、その後、別のフレームが得られると、その別のフレームにおける同じ注目画素の画素値を用いて、既存の分布モデルが更新される。すなわち、ここでは、分布モデルの新規作成時に、注目画素の画素値だけでなく、その周辺の画素の画素値が用いられる。言い換えると、1枚のフレーム内の注目画素を中心とする局所領域内で得られる画素値の分布と、注目画素における時間的な画素値の分布とが概ね等しいとの仮定の下、後者の分布が得られる前においては、これが注目画素の周辺の画素値で代用される。その結果、たとえノイズを多く含む動画であったとしても、そのようなノイズの影響(画素値のバラつき)を正しく評価することができる。従って、初期段階及び/又は背景画像の更新時において適切な背景値を設定し、高精度に動体の検出を行うことができる。
本発明の第2観点に係る画像処理プログラムは、第1観点に係る画像処理プログラムであって、前記分布モデルを新規作成するステップでは、前記混合分布モデルが存在しない場合に、前記分布モデルが新規作成される。ここでは、初期段階において適切な背景値を設定し、高精度に動体の検出を行うことができる。
本発明の第3観点に係る画像処理プログラムは、第1又は第2観点に係る画像処理プログラムであって、前記分布モデルを新規作成するステップでは、前記第1フレームにおける前記注目画素の画素値が既存の前記分布モデルのいずれにも含まれない場合に、前記分布モデルが新規作成される。ここでは、背景画像の更新時において適切な背景値を設定し、高精度に動体の検出を行うことができる。
本発明の第4観点に係る画像処理プログラムは、第1から第3観点のいずれかに係る画像処理プログラムであって、前記検出された動体の写るフレームを表示するステップをさらにコンピュータに実行させる。ここでは、動体の検索結果をユーザが目で見て確認することができる。
本発明の第5観点に係る画像処理プログラムは、第4観点に係る画像処理プログラムであって、前記表示するステップでは、前記動画に含まれる互いに近接したフレームの両方に前記動体が存在すると検出された場合に、前記両動体間のオプティカルフローの方向と、前記両動体間での重心の移動方向とが一致する場合、前記両動体の一方は、表示対象とされない。
動画内には、微小時間間隔で多数のフレームが配列されている。従って、動画の画面内を動体が移動する場合には、動画には少しずつ位置や形状の異なる動体を写すフレームが多数含まれることになる。そのため、仮に動体の検出されたフレームを全て検索結果として表示するとなると、ユーザは、同じ物体が写っている膨大な量のフレームを1枚1枚確認しなければならなくなる。一方で、動画のタイムライン上で互いに近接したフレームに写る動体間のオプティカルフローの方向と、重心の移動方向とが一致すれば、そのような動体は同じ物体であると予想される。従って、ここでは、このような一致が確認された場合には、一方の動体を表示対象としないことで、検索結果として同じ物体を写すフレームが重複して表示されることを抑制している。従って、ここでは、検索結果の冗長性が抑制され、ユーザが検索結果を確認し易くなっている。
本発明の第6観点に係る画像処理プログラムは、第4又は第5観点に係る画像処理プログラムであって、前記動体の色の設定を受け付けるステップをさらにコンピュータに実行させる。前記表示するステップでは、前記設定された色と非類似の色を有する前記動体は、表示対象とされない。
ここでは、ユーザが、検索対象の色に関する属性を設定することができる。そして、この属性値は、検索に利用され、この属性値と非類似の色の動体は、表示対象とされない。従って、検索結果として、ユーザが探していない動体を写すフレームが表示されることが抑制される。従って、検索の精度が向上し、ユーザが検索結果を確認し易くなっている。
本発明の第7観点に係る画像処理プログラムは、第4から第6観点のいずれかに係る画像処理プログラムであって、前記動体のサイズ及び/又は形状の設定を受け付けるステップをさらにコンピュータに実行させる。前記表示するステップでは、前記設定されたサイズ及び/又は形状と非類似のサイズ及び/又は形状を有する前記動体は、表示対象とされない。
ここでは、ユーザが、検索対象のサイズ及び/又は形状に関する属性を設定することができる。そして、この属性値は、検索に利用され、この属性値と非類似のサイズ及び/又は形状の動体は、表示対象とされない。従って、検索結果として、ユーザが探していない動体を写すフレームが表示されることが抑制される。従って、検索の精度が向上し、ユーザが検索結果を確認し易くなっている。
本発明の第8観点に係る画像処理プログラムは、第1から第7観点のいずれかに係る画像処理プログラムであって、前記動画において同じフレームが連続して出現するか否かを判断するステップをさらにコンピュータに実行させる。前記動画において同じフレームが連続して出現すると判断される場合、前記連続する同じフレームの一部のフレームに対しては、前記背景画像を作成するステップ及び前記動体を検出するステップが省略される。
動画には、その撮影や記録時の条件等によっては、タイムラインに沿って同じフレームが複数枚ずつ連続するような態様で記録されることがある。例えば、記録装置のフレームレートが、撮像装置のフレームレートより大きいような場合である。この例において、さらに具体的な例を挙げると、撮像装置のフレームレートが1FPSで、記録装置のフレームレートが30FPSである場合、記録された動画のタイムライン上では、同じフレームが概ね30枚ずつ連続して配列されることになる。そして、このような複数枚の同じフレームに対し、背景画像の作成及び動体の検出の処理を繰り返すのは、非効率である。
従って、ここでは、背景画像の作成及び動体の検出の前に、動画内に同じフレームが連続して出現するか否かが判断される。そして、同じフレームであると判断されたフレームの一部に対しては、背景画像の作成及び動体の検出が実行されない。その結果、背景画像の作成及び動体の検出を効率的に実行することができる。
なお、同じフレームを複数枚のフレームとして記録したはずであっても、アナログノイズ等の様々なノイズの影響により、それらのフレームが完全に同じにはならないことがある。しかしながら、厳密には「類似フレーム」であっても、その差がノイズ分の程度の微小なものである場合には、「同じフレーム」であるものとする。
本発明の第9観点に係る画像処理装置は、動画の中から動体を検出するための画像処理装置であって、前記動画の背景画像を経時的に更新しながら作成する背景作成部と、前記背景画像に基づいて、前記動画の中から前記動体を経時的に検出する動体検出部とを備える。前記背景作成部は、各注目画素に対し、状況に応じて1から複数の分布モデルを有する混合分布モデルを導出するモデル導出部と、前記混合分布モデルに基づいて、前記1から複数の分布モデルに対応する1から複数の背景の画素値を導出する背景値導出部とを含む。前記モデル導出部は、前記動画に含まれる第1フレームにおける前記注目画素を含む局所領域内の複数の画素の画素値から、前記分布モデルを新規作成し、前記動画に含まれる前記第1フレームと異なる第2フレームにおける前記注目画素の画素値から、既存の前記分布モデルを更新する。ここでは、第1観点と同様の効果を奏することができる。
本発明によれば、各注目画素に対し、1から複数の背景値を決定するための、1から複数の分布モデルを有する混合分布モデルが、更新されながら作成される。そして、混合分布モデルに含まれる分布モデルの作成時には、例えば、十分な数のフレームが得られていない初期段階において、注目画素の画素値だけでなく、その注目画素の周辺の画素の画素値も用いられる。別の例としては、混合分布モデルの更新時に、既存の分布モデルに分類することができない飛び値が現れた場合にも、注目画素の周辺の画素値を用いて、分布モデルを作成することが考えられる。そして、その後、別のフレームが得られると、その別のフレームにおける同じ注目画素の画素値を用いて、既存の分布モデルが更新される。すなわち、ここでは、分布モデルの新規作成時に、注目画素の画素値だけでなく、その周辺の画素の画素値が用いられる。言い換えると、1枚のフレーム内の注目画素を中心とする局所領域内で得られる画素値の分布と、注目画素における時間的な画素値の分布とが概ね等しいとの仮定の下、後者の分布が得られる前においては、これが注目画素の周辺の画素値で代用される。その結果、たとえノイズを多く含む動画であったとしても 、 そのようなノイズの影響(画素値のバラつき)を正しく評価することができる。従って、初期段階及び/又は背景画像の更新時において適切な背景値を設定し、高精度に動体の検出を行うことができる。
本発明の一実施形態に係る画像処理装置の構成を示すブロック図。 動体検出処理の実行前のメイン画面を示す図。 サイズ設定画面を示す図。 検索エリア設定画面を示す図。 検索エリア設定画面を示す別の図。 検索エリア設定画面を示すさらに別の図。 動体検出処理の流れをフローチャート。 動体検出処理の実行中のメイン画面を示す図。 動体検出処理の実行後のメイン画面を示す別の図。 ポップアップウィンドウが表示された状態のメイン画面を示す図。 背景作成処理を示すフローチャート。 混合分布モデルを説明するための概念図。
以下、図面を参照しつつ、本発明の一実施形態に係る画像処理プログラム及び画像処理装置について説明する。
<1.画像処理装置のハードウェア構成>
図1に示す画像処理装置1は、本発明に係る画像処理装置の一実施形態である。画像処理装置1は、ハードウェアとしては、汎用のパーソナルコンピュータである。画像処理装置1には、本発明に係る画像処理プログラムの一実施形態である画像処理プログラム2が、これを格納するCD−ROM、USBメモリ等のコンピュータが読み取り可能な記録媒体60等から提供され、インストールされている。画像処理プログラム2は、動画に対する画像処理を支援するためのアプリケーションソフトウェアであり、動画の中から動体を自動的に検出する機能を有している。画像処理プログラム2は、画像処理装置1に後述する動作に含まれるステップを実行させる。なお、ここでいう動画とは、MEPGやAVI等の動画用のファイル形式で保存されているデータに限られず、静止画用のファイル形式で保存されている多数の静止画群であっても、画像処理装置1により時間軸に沿った配列が認識され得るデータセットをも含むものとする。このとき、静止画群の時間軸に沿った配列は、ファイル名や画像ファイルのヘッダに格納されている値に基づいて、認識され得る。また、本明細書において、「群」という場合には、その要素数は複数とは限らず、1つであってもよい。
画像処理装置1は、ディスプレイ10、入力部20、記憶部30及び制御部40を有する。これらの部10〜40は、互いにバス線やケーブル等5を介して接続されており、適宜、通信可能である。ディスプレイ10は、液晶ディスプレイ等から構成され、後述する画面等をユーザに対し表示する。入力部20は、マウス及びキーボート等から構成され、画像処理装置1に対するユーザからの操作を受け付ける。記憶部30は、ハードディスク等から構成される不揮発性の記憶領域であり、画像処理プログラム2は、記憶部30内に格納されている。制御部40は、CPU、ROM及びRAM等から構成される。
制御部40は、記憶部30内に格納されている画像処理プログラム2を読み出して実行することにより、仮想的に表示制御部41、パラメータ設定部42、リサイズ部43、同一性判断部44、マスク設定部45、背景作成部46及び動体検出部47として動作する。特に、背景作成部46は、後述する動体検出処理が実行される際には、モデル導出部46A及び背景値導出部46Bとして動作する。各部41〜47,46A,46Bの動作については、後述する。
<2.再生処理>
制御部40は、ユーザが入力部20を介して所定の操作を行ったことを検知すると、画像処理プログラム2を起動する。画像処理プログラム2が起動されると、表示制御部41は、図2に示すメイン画面W1をディスプレイ10上に表示する。なお、画像処理プログラム2の命令によりディスプレイ10上に表示される画面、ボタンその他の全ての要素の表示は、表示制御部41により制御される。
メイン画面W1上には、再生エリアT1、再生ボタンT2、コマ送りボタンT3及びタイムラインバーT4が配置されている。表示制御部41は、再生エリアT1内で、ユーザにより指定された動画を再生可能である。ユーザは、例えば、ディスプレイ10上に表示されている動画ファイルのアイコン又は静止画ファイル群が保存されているフォルダのアイコンをメイン画面W1上にドラッグアンドドロップすることにより、再生の対象となる動画を指定することができる。このとき、再生エリアT1内に最初に表示されるフレームは、例えば、動画に含まれるフレーム群のうち、先頭のフレームである。
再生ボタンT2は、動画の再生の命令をユーザから受け付ける。表示制御部41は、ユーザにより再生ボタンT2が押下されたことが検知されると、再生エリアT1内で、動画に含まれるフレーム群をタイムラインに沿って順次コマ送りの形式で表示させる。なお、再生は、再生ボタンT2が押下された時点で再生エリアT1内に表示されていたフレームから開始する。また、再生ボタンT2は、再生の停止の命令をユーザから受け付ける。表示制御部41は、再生中にユーザにより再生ボタンT2が押下されたことが検知されると、再生エリアT1内の表示を、その時点で表示されているフレームに固定する。
コマ送りボタンT3は、再生エリアT1内に表示されるフレームを、動画のタイムラインに沿って1つ後のフレームへ切り替える命令をユーザから受け付ける。
タイムラインバーT4は、動画のタイムラインを図式的に示すオブジェクトである。タイムラインバーT4は、そのバーが延びる方向に、動画に含まれるフレーム数で等分に分割されている。タイムラインバーT4上の左からn番目の分割領域は、動画のタイムライン上でn番目のフレームに対応する(nは、自然数)。
タイムラインバーT4は、動画に含まれる任意のフレームの選択をユーザから受け付ける。従って、ユーザが、タイムラインバーT4上で特定の分割領域をクリック等により選択すると、再生エリアT1内に表示されるフレームは、選択された分割領域に対応するフレームに直ちに切り替えられる。
<3.動体検出処理>
以下、動画に写る動体を自動的に検索する動体検出処理について説明する。この処理は、例えば、防犯カメラで撮影された膨大な量の監視映像の中から、被疑者や被疑車両等を探し出すのに利用することができる。動体検出処理による検索の結果は、表示制御部41により、メイン画面W1上の検索結果エリアT5内に表示される(図9参照)。このとき、検索結果エリアT5内には、動画に含まれるフレーム群のうち、検索対象となる動体が検出されたフレームのサムネイル画像が一覧表示される。以下では、事前準備として、動体検出処理で用いられるパラメータを設定する作業の流れについて説明した後、動体検出処理の流れについて詳細に説明する。
<3−1.パラメータの設定>
動体検出処理で用いられるパラメータの1つは、検索対象となる動体の色を特定するパラメータ(以下、色パラメータP1という)である。色パラメータP1の設定は、メイン画面W1上の色設定プルダウンメニューT6を介して受け付けられ、本実施形態では、指定なし、赤、青、緑、黄色、白、黒の中から選択することができる。プルダウンメニューT6上で色パラメータP1として特定の色が設定されると、後に検索結果エリアT5内では、動体検出処理により検出された動体のうち、ここで設定された色と類似する色を有する動体を写すフレームのみが表示されることになる。従って、色パラメータP1の設定は、例えば、ユーザである警察等の捜査機関が赤色の被疑車両や黒い服を着た被疑者を探している場合等、検索対象となる動体の色が予め分かっている場合に利用することができる。一方、検索対象となる動体の色が予め分からない場合には、「指定なし」を選択する。パラメータ設定部42は、色設定プルダウンメニューT6内で設定されている値を色パラメータP1として認識する。
また、動体検出処理で用いられる別のパラメータは、検索対象となる動体のサイズ及び形状を特定するパラメータ(以下、それぞれをサイズパラメータP2、形状パラメータP3いう)である。サイズパラメータP2及び形状パラメータP3の設定は、図3に示すサイズ設定画面W2上で受け付けられる。サイズ設定画面W2は、メイン画面W1上の「大きさを指定する」と併記されたチェックボックスT7にチェックを入れた状態で、メイン画面W1上の検索ボタンT8を押下されたことが検知された時に表示される画面である。サイズ設定画面W2上には、再生エリアT1内で現在表示されているのと同じフレームを表示するフレームエリアU1が表示される。また、フレームエリアU1内では、ユーザがマウス操作により自在にサイズ、形状及び位置を変更することが可能な矩形の補助枠U2が表示される。ユーザは、この補助枠U2のサイズ及び形状を調整することで、サイズパラメータP2及び形状パラメータP3を設定することができる。
具体的には、パラメータ設定部42は、補助枠U2で囲まれたエリアの面積をサイズパラメータP2として認識し、同エリアのアスペクト比を形状パラメータP3として認識する。つまり、ユーザは、検索対象の凡その大きさと、検索対象が横長であるか縦長であるかといった凡その形状を指定することができる。そして、補助枠U2の変形によりパラメータP2,P3として特定のサイズ及び形状が設定されると、後に検索結果エリアT5内では、動体検出処理により検出された動体のうち、ここで設定されたサイズ及び形状に近い動体のみが検出結果として表示されることになる。従って、パラメータP2,P3の設定は、検索対象となる動体の凡そのサイズ及び形状が予め分かっている場合に利用することができる。例えば、車両を検索しているのであれば、画面内での車両の凡そのサイズ及び形状は予想し得るから、これを設定することができる。一方、検索対象となる動体のサイズ及び形状が予め分からない場合には、メイン画面W1上でチェックボックスT7を外しておけばよい。なお、補助枠U2の位置は、パラメータP2,P3の設定に影響しない。しかしながら、補助枠U2をフレームエリアU1内の任意の位置に配置できることは、例えば、フレームエリアU1内に表示されている自動車や道路、人の像を基準に、検索対象となる被疑車両等のサイズや形状を適切に設定するのに役立つ。
ユーザによりサイズ設定画面W2上のOKボタンU3が押下されたことが検知されると、サイズ設定画面W2に代えて、図4に示す検索エリア設定画面W3が表示される。検索エリア設定画面W3は、動体検出処理で用いられるもう1つのパラメータである、動画の画面内での動体の検索範囲を特定するパラメータ(以下、エリアパラメータP4いう)の設定を受け付ける画面である。なお、検索エリア設定画面W3は、メイン画面W1上のチェックボックスT7でチェックを外した状態で、メイン画面W1上の検索ボタンT8を押下されたことが検知された時にも、表示される。
検索エリア設定画面W3上には、サイズ設定画面W2上でと同じく、再生エリアT1内で現在表示されているのと同じフレームを表示するフレームエリアU4が表示される。また、フレームエリアU4内には、補助枠U2と同様の、ユーザがマウス操作により自在にサイズ、形状及び位置を変更することが可能な矩形の補助枠U5が表示される。ユーザは、この補助枠U5のサイズ、形状及び位置を調整することで、エリアパラメータP4を設定することができる。具体的には、パラメータ設定部42は、補助枠U5で囲まれたエリアをエリアパラメータP4として認識する。検索エリア設定画面W3内で特定のエリアが設定されると、動体検出処理では、設定された特定のエリア内においてのみ、動体の存否が判断される。
なお、補助枠U5のデフォルト値は、図4に示すとおり、動画の画面全体である。従って、動画の画面内全体で動体の検出を行いたい場合には、補助枠U5の操作は不要である。また、検索エリア設定画面W3上では、追加ボタンU8等を利用して補助枠U5を複数個配置することができる。これにより、補助枠U5を重ねて複雑な形状の検索範囲を設定したり、不連続の検索範囲を設定したりすることが可能となる。また、検索エリア設定画面W3上の「設定エリアをマスク表示」と併記されたチェックボックスU6にチェックが入ると、図5に示すように、エリアパラメータP4として設定されている検索範囲以外のマスク領域に半透明のマスクが表示される。この機能により、ユーザは、たとえ複雑な形状の検索範囲を指定したとしても、どこが検索範囲でどこが検索範囲外であるのかをすぐに確認することができる。また、防犯カメラの監視映像等には、図6に示すように、画面内の所定の位置に時間等の字幕情報が表示されることがある。そして、字幕情報は、動画内で時々刻々変化するため、これは動体を検出する上でのノイズとなり得る。従って、字幕情報が含まれる場合には、補助枠U5を用いてこの領域をマスクすることで、検索の精度を向上させることができる。
そして、制御部40は、ユーザにより検索エリア設定画面W3上のOKボタンU7が押下されたことを検知すると、図7の動体検出処理を開始する。また、このとき、検索エリア設定画面W3は閉じられ、メイン画面W1に戻る。
<3−2.動体検出処理の詳細>
次に、図7を参照しつつ、動体検出処理の流れについて詳細に説明する。以下、処理の対象となる動画に含まれるフレームを、F1,F2,・・・,Fn(nは、フレームの枚数)と表す。
図7に示すとおり、動体検出処理に含まれるステップS1〜S12は、フレームF1,F2,・・・,Fnに対し順に繰り返し実行される。まず、ステップS1において、制御部40は、フレームFiを処理するためのメモリ(仮想メモリを含む)を確保し、動画の中からフレームFiを取得する。
続いて、リサイズ部43が、フレームFiの画像サイズを判断し、所定のサイズよりも大きければ、フレームFiを縮小する(ステップS2)。本実施形態における所定のサイズとは、短辺のピクセル数であり、例えば、360である。サイズ縮小は、アスペクト比を維持するように行なわれる。サイズ縮小のアルゴリズムは、バイキュービック、ニアレストネイバー等、適宜選択することができる。なお、ステップS2での画像サイズの縮小により、以後の処理負荷が抑制されるとともに、後述する画像処理においてノイズの影響による誤判定も抑制される。フレームFi内に写る微小変化の影響がキャンセルされるからである。以下では、特に断らない限り、縮小後のフレームiについても、フレームiと呼ぶ。
次に、同一性判断部44が、フレームFiがタイムライン上で1つ前のフレームFi-1と同じ画像であるか否かを判断する。そして、同じであると判断された場合には、フレームFiに対する以後の処理を省略し、タイムライン上で1つ後のフレームFi+1に対する処理に移る(ステップS3)。具体的には、ステップS3では、同一性判断部44は、各画素についてのフレームFiの画素値とフレームFi-1の画素値との差を算出し、これらの差の標準偏差を算出する。そして、この標準偏差が閾値以上であれば、異なる画像であると判断し、閾値よりも小さければ、同じ画像であると判断する。これにより、フレームFi,Fi-1間にアナログノイズ等による微小な差があったとしても、これらを同じフレームと判断することができる。
次に、マスク設定部45が、エリアパラメータP4の値を参照し、必要に応じて、ユーザにより設定された検索範囲のみが残るように、フレームFiからマスク領域を削除する(ステップS4)。なお、以下では、特に断らない限り、マスク領域の削除されたフレームFiについても、フレームFiと呼ぶ。
次に、ステップS5において、背景作成部46が、フレームFiの背景画像Giを作成する背景作成処理を実行する。背景画像Giも、ユーザにより設定された検索範囲内の画像である。背景画像Giは、既に取得され、メモリ上に展開されているフレームF1,F2,・・・,Fi-1の画像値のデータに基づいて作成される。背景画像Giを作成するためのアルゴリズムについては、後述する。
次に、動体検出部47が、フレームFiと背景画像Giとの差分画像Hiを作成する(ステップS6)。差分画像Hiは、各画素について、フレームFiの画素値と背景画像Giの画素値との差をその画素の画素値とする画像である。
次に、動体検出部47は、所定の閾値を用いて、差分画像Hiを二値化する。そして、動体検出部47は、この二値化画像に対してラベリング処理を施すことで、フレームFi上で動体の存在するエリア(以下、動体エリア)として、L個(L≧0)のエリアを検出する(ステップS7)。ただし、ここで検出される動体エリアは、最終的に動体エリアとして決定されるエリアの候補(以下、候補エリア)である。
続いて、動体検出部47は、サイズパラメータP2及び形状パラメータP3の値を参照し、以上の候補エリアを絞り込む(ステップS8)。具体的には、動体検出部47は、各候補エリアに対し、上下及び左右方向の4つの端点を基準として、候補エリアを囲む矩形状のエリアA1を設定する。そして、各候補エリアについて、エリアA1のサイズとサイズパラメータP2の値との差が閾値よりも大きければ、当該エリアを候補エリアから落選させる。例えば、c1・P2≦(エリアA1のサイズ)≦c2・P2を満たさない場合には、落選となる(c1,c2は定数であり、例えば、c1=0.6,c2=1.2とすることができる)。同様に、各候補エリアについて、エリアA1のアスペクト比と形状パラメータP3の値との差が閾値よりも大きければ、当該エリアを候補エリアから落選させる。例えば、c3・P3≦(エリアA1のアスペクト比=短辺サイズ/長辺サイズ)≦c4・P3を満たさない場合には、落選となる(c3,c4は定数であり、例えば、c3=0.6,c4=1.2とすることができる)。さらに、各候補エリアについて、エリアA1において候補エリアの占める比率が小さすぎる場合にも、当該エリアを候補エリアから落選させる。なお、ステップS8において、ユーザにより設定されたパラメータP2,P3との比較により候補エリアを除外するのは、ユーザが探していない動体を写すフレームが検索結果として表示されるのを防止するためである。また、パラメータP2,P3が設定されていない場合には、以上の判断は省略される。
続いて、動体検出部47は、動体の移動方向に着目して、ステップS8をクリアした候補エリアをさらに絞り込む(ステップS9)。具体的には、動体検出部47は、1つ前のフレームFi-1に対してステップS8が実行されたか、実行された場合にはステップS8の実行後において候補エリアが存在していたかを判断する。そして、フレームFi-1においてそのような候補エリアが存在していた場合には、フレームFi内の候補エリアが、フレームFi-1におけるそのような候補エリアと同じ物体の像であるか否かを、総当たりで判断する。なお、ステップS9において、隣接フレームFi,Fi-1間で候補エリアに写る物体の同一性のチェックを行うのは、同じ動体の像が検索結果として何枚も表示されるのを防止するためである。
ステップS9では、フレームFi内の特定の候補エリアとフレームFi-1内の特定の候補エリアとが同じ物体の像であるか否かを判断するために、フレームFi内の特定の候補エリアのオプティカルフローが算出される。また、フレームFi内の特定の候補エリアとフレームFi-1内の特定の候補エリアの重心間の移動方向も算出される。そして、動体検出部47は、このオプティカルフローに含まれる全ての動きベクトルのベクトル平均と、この重心間の移動方向とが一致するか否かを判断し、一致していれば、これら2つの候補エリアを同じ動体の像であると判断する。一方、これらの方向が一致していなければ、比較されたこれら2つの候補エリアを異なる物体の像であると判断する。なお、ここでは、両ベクトルが完全に一致していなくても、一定程度類似していれば、一致しているものと判断される。動体検出部47は、フレームFi内の候補エリアが、フレームFi-1内のいずれかの候補エリアと同じ物体の像であると判断された場合には、当該エリアを候補エリアから落選させる。そして、ステップS9をクリアした候補エリアが、フレームFi内における最終的な動体エリアとして決定される。
また、本実施形態では、以上のオプティカルフローの算出に当たり、ブロック単位でのテンプレートマッチングが行われる。具体的には、動体検出部47は、フレームFi内の特定の候補エリアをブロック単位に分割する。そして、フレームFi-1内の特定の候補エリアを含む周辺領域内で、各ブロックの像を正規化相互相関によるテンプレートマッチングにより探索する。そして、互いにマッチしたブロックとブロックを結ぶことにより、動きベクトルが算出される。
次に、ステップS10において、動体検出部47は、ステップS9をクリアした動体エリアの数を判断し、1以上であれば、ステップS11に進み、0であれば、ステップS11,S12をスキップして、処理の対象が次のフレームFi+1に移る。検索対象となる動体が検出されなかったフレームFiは、ステップS12において検索結果として表示される必要がないからである。
次に、ステップS11において、動体検出部47は、ステップS9をクリアした各動体エリアに対し、代表色を判断する。代表色とは、例えば、各動体エリア内の全画素における彩度や濃度等の値を適宜組み合わせることで表現される。続いて、動体検出部47は、色パラメータP1の値と各動体エリアの代表色との色空間内での距離を算出する。そして、この距離が閾値よりも小さいか否かを判断し、小さいと判断される代表色が1つでも存在する場合には、ステップS12に進む。一方、小さいと判断される代表色が1つも存在しない場合には、ステップS12をスキップして、処理の対象が次のフレームFi+1に移る。ユーザが探していない動体を写すフレームが、ステップS12において検索結果として表示されるのを防止するためである。なお、パラメータP1の値は、ステップS11の開始直後に参照され、この値が「指定なし」の場合には、以上の判断は省略される。
ステップS12では、表示制御部41が、メイン画面W1上の検索結果エリアT5内に、フレームFiのサムネイル画像を表示する(図8参照)。なお、このときのフレームFiとは、ユーザにより設定された検索範囲だけでなく、フレームFi全体である。そして、i=1,2,・・・,nに対する以上のステップS1〜S12が終了すると、動体検出処理が終了する。
なお、図8には、動体検出処理の実行中のメイン画面W1が示されているが、最終的に多数のフレームが検出されると、図9に示すように、検索結果エリアT5内の横にスクロールバーT9が表示される。従って、ユーザは、どれだけ多くのフレームが検出されようとも、全ての検索結果を確認することができる。また、色設定プルダウンメニューT6は、動体検出処理の実行後においても有効化されている。そして、ユーザによりこの設定値が変更されると、検索結果エリアT5内のサムネイル画像の表示は、変更後の設定色に合わせて更新される。なお、ステップS11で計算された代表色の情報は、動体検出処理の終了後も消去されることはなく、各動体エリアに関連付けて記憶されている。従って、表示制御部41は、動体検出処理の実行後に設定色が変更されたとしても、この情報を利用して、検索結果エリアT5内の表示を瞬時に切り替えることができる。
また、検索結果エリアT5内の各サムネイル画像は、選択を受け付けている。具体的には、ユーザがマウスカーソルを特定のサムネイル画像上に重ねている間は、そのサムネイル画像の拡大画像を表示するポップアップウィンドウW4が、検索結果エリアT5の近傍に表示される(図10参照)。従って、ユーザは、まず、サイズは小さいが同時に多数表示されるサムネイル画像の一覧を確認して、重要そうなフレームを迅速に探すことができる。そして、そのときに、もう少し詳細に確認したいと思うサムネイル画像が発見された場合には、そのサムネイル画像にマウスを重ねるだけの簡単操作で、その拡大画像を確認することができる。さらに、ユーザは、ポップアップウィンドウW4内の拡大画像でも十分でないと思えば、サムネイル画像をクリックすることができる。このとき、クリック選択されたサムネイル画像の元画像が、ポップアップウィンドウW4よりも更に大きな再生エリアT1内に表示される。よって、ユーザは、動体の検索結果を手際よく詳細に検討することができる。
<3−3.背景作成処理>
以下、図11を参照しつつ、上述のステップS5における背景作成処理について説明する。背景作成処理は、フレームFiの背景画像Giを作成する処理であり、ここでは、各画素に対し、1から最大でM個(Mは、2以上の整数であり、本実施形態では、M=7)の背景の画素値(以下、背景値)が導出される。以下、フレームFi内で現在選択されている座標(x,y)の画素を画素Cx,yと呼び、その画素値をDx,yと表す。ただし、x=1,2,・・・,X,y=1,2,・・・,Yであり、Xは、フレームFiの横のピクセル数であり、Yは、フレームFiの縦のピクセル数である。
まず、背景作成処理の概要について説明しておくと、この処理では、各画素Cx,yに対し、混合分布モデルEが作成され、この混合分布モデルEに従って、1から最大でM個の背景値が設定される。混合分布モデルとは、状況に応じて1から最大でM個の分布モデルejを合成した確率分布モデルであり、図12には、3つの分布モデルからなる場合の混合分布モデルEを図示している。分布モデルejは、平均をμjとし、分散をσ2 jとする正規分布である。
図11に示すとおり、以下のステップS21〜S26は、フレームFi内に含まれる各画素に対して繰り返し実行される。まず、ステップS21では、背景作成部46は、エリアパラメータP4の値を参照し、現在選択されている座標(x,y)がユーザにより設定された検索範囲内の点であるか否かを判断する。そして、座標(x,y)が検索範囲内にあると判断される場合には、ステップS22に進み、そうでない場合には、座標(x,y)に対する以後の処理を省略し、次の座標(x+1,y)又は(x,y+1)に対する処理に移る。ユーザにより設定された検索範囲外で、無駄に背景画像Giを作成するのを防止するためである。
ステップS22では、モデル導出部46Aが、現在の画素値Dx,yが既存の分布モデルejのいずれかに含まれるか否かを判断する。具体的には、既存の各分布モデルejに対し、画素値Dx,yがその分布モデルejにおいて現れる確率が閾値以上となるか否かを判断する。そして、画素値Dx,yが現れる確率が閾値以上となる分布モデルejが存在すると判断される場合には、画素値Dx,yをその分布モデルejに含まれるものと判断し、ステップS24に進む。一方、そのような分布モデルejが存在しないと判断される場合には、ステップS23に進む。なお、動体検出処理の開始後、最初にステップS22が実行されるときには、分布モデルejは1つも存在しておらず、言い換えると、混合分布モデルEが存在していない。従って、最初のステップS22の後は必ず、処理はステップS23に進むことになる。
ステップS23では、モデル導出部46Aが、分布モデルejを新規作成する。具体的には、フレームFiにおける画素Cx,yを含む局所領域(本実施形態では、画素Cx,yを中心とする7×7の領域)内の全ての画素の画素値の分布が、新たな分布モデルejとされる。すなわち、画素値Dx,yとその周辺の画素値とを用いて、新たな分布モデルejの平均μj及び分散σ2 jが導出される。ただし、平均μjについては、画素Cx,yの画素値Dx,yをそのまま用いてもよい。
一方、ステップS24では、モデル導出部46Aは、直前のステップS22で画素値Dx,yが含まれると判断された既存の分布モデルejを更新する。具体的には、画素値Dx,yを用いて、その既存の分布モデルejの平均μj及び分散σ2 jを更新する。更新後のμj,σ2 jをそれぞれμj’,σ2 j としたとき、μj’,σ2 j’は、以下の式で表される。
μj’=μj・w1+Dx,y・(1−w1
σ2 j’=σ2 j・w2+(Dx,y−μj2・(1−w2
ただし、0<w1<1、かつ、0<w2<1である。
ステップS23及びステップS24が終了すると、処理はステップS25に進む。ステップS25では、背景値導出部46Bが、現在の混合分布モデルEから画素Cx,yの背景値を導出する。具体的には、現在の混合分布モデルEに含まれている分布モデルejの平均値μj±αの領域が、画素Cx,yの背景値Bjとして設定される(図12参照)。αは分散σ2 jに応じて決定される値である。このように、各背景値Bjは、一定の範囲を有している。なお、本実施形態では、背景値Bjは、1から最大でM個の分布モデルejの全てに対しそれぞれ算出される。しかしながら、最大でM個の分布モデルejの一部に対してのみ、背景値Bjを作成するようにしてもよい。ただし、草木の揺れや空の雲の動きなど、複数の背景を評価できるようにする観点からは、最大で複数個の背景値Bjを作成できるようにしておくことが重要である。
続くステップS26では、モデル導出部46Aが、混合分布モデルEに含まれる分布モデルejが所定の条件を満たすか否かを判断し、所定の条件を満たすと判断される場合には、その分布モデルejを消滅させる。これは、分布モデルejの数を最大M個までにするために必要な処理である。具体的には、混合分布モデルEを正規化し(面積を1にする)、このとき一定のサイズ以下の面積となる分布モデルejを消滅させる。ただし、分布モデルejが新規作成直後に消滅させられてしまうことを防ぐため、新規作成されてから一定の期間が過ぎるまでは、ここでの判断に用いられる面積の値に一定の係数が掛けられて、底上げされる。そして、フレームFi内の全ての画素Cx,yに対する以上のステップS21〜S26が終了すると、全ての画素Cx,yに対し1又は複数個の背景値が決定されたことになり(ただし、マスク領域内の画素Cx,yは除かれる)、背景作成処理が終了する。
<4.特徴>
上記実施形態では、各注目画素に対し、1から複数の背景値Bjを決定するための、1から複数の分布モデルejを有する混合分布モデルEが、時々刻々、更新されてゆく。そして、十分な数のフレームが得られていない初期段階においては、注目画素Cx,yの画素値だけでなく、その注目画素Cx,yの周辺の画素の画素値も用いられる。さらに、上記実施形態では、混合分布モデルEの更新時に、既存の分布モデルejに分類することができない飛び値が現れた場合にも、注目画素Cx,yの周辺の画素値を用いて、分布モデルejが作成される。そして、その後、別のフレームが得られると、その別のフレームにおける同じ注目画素の画素値を用いて、既存の分布モデルejが更新される。すなわち、ここでは、分布モデルejの新規作成時に、注目画素Cx,yの画素値だけでなく、その周辺の画素の画素値が用いられる。言い換えると、1枚のフレーム内の注目画素Cx,yを中心とする局所領域内で得られる画素値の分布と、注目画素Cx,yにおける時間的な画素値の分布とが概ね等しいとの仮定の下、後者の分布が得られる前においては、これが注目画素Cx,yの周辺の画素値で代用される。その結果、たとえノイズを多く含む動画であったとしても、そのようなノイズの影響を正しく評価することができる。従って、初期段階及び/又は背景画像Giの更新時において適切な背景値Bjを設定し、高精度に動体の検出を行うことができる。
<5.変形例>
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。例えば、以下の変更が可能である。また、以下の変形例の要旨は、適宜組み合わせることができる。
<5−1>
上記実施形態では、所定の選択肢の中から色パラメータP1が選択されたが、例えば、画面上に色パレットを容易しておくなどして、任意の色を指定できるようにしてもよい。また、単色だけではなく、複数の色を指定できるようにしてもよく、この場合、例えば、赤の車両と白の車両の両方を検出することができる。
<5−2>
オプティカルフローの算出の方法は、上述したものに限られず、公知の技術で適宜代用することができる。
<5−3>
上記実施形態では、分布モデルejの新規作成時においてのみ、注目画素Cx,yを含む周辺領域内の画素値が利用された。しかしながら、分布モデルejが新規作成されてからその分布モデルejに含まれる画素値が一定量を超えるまでは、当該モデルの更新時にも、周辺領域内の画素値を利用してもよい。
<5−4>
上記実施形態では、ステップS11において、各動体エリアに対し代表色を決定しているが、フレーム毎に代表色を決定してもよい。すなわち、1枚のフレームに複数の動体エリアが存在する場合においては、そのような複数の動体エリアを代表する色をフレームの代表色として設定してもよい。
<5−5>
上記実施形態では、背景画像Giが各フレームFiに対し算出されたが、何枚か(例えば、10枚)のフレームが得られる度に更新されるようにしてもよい。
<5−6>
上記実施形態では、検索対象となる物体のサイズ及び形状の両方を検索条件として設定可能としたが、サイズだけ又は形状だけを設定可能としてもよい。また、サイズや形状の指定の仕方は上述したものに限られない。例えば、矩形の補助枠U2に代えて、任意の形状の補助枠で検索対象の形状を指定できるようにしてもよい。
1 画像処理装置(コンピュータ)
2 画像処理プログラム
46 背景作成部
46A モデル導出部
46B 背景値導出部
47 動体検出部

Claims (9)

  1. 動画の中から動体を検出するための画像処理プログラムであって、
    前記動画の背景画像を経時的に更新しながら作成するステップと、
    前記背景画像に基づいて、前記動画の中から前記動体を経時的に検出するステップと
    をコンピュータに実行させ、
    前記背景画像を作成するステップは、各注目画素に対し、
    状況に応じて1から複数の分布モデルを有する混合分布モデルを導出するステップと、
    前記混合分布モデルに基づいて、前記1から複数の分布モデルに対応する1から複数の背景の画素値を導出するステップと
    を含み、
    前記混合分布モデルを導出するステップは、
    前記動画に含まれる第1フレームにおける前記注目画素を含む局所領域内の複数の画素の画素値から、前記分布モデルを新規作成するステップと、
    前記動画に含まれる前記第1フレームと異なる第2フレームにおける前記注目画素の画素値から、既存の前記分布モデルを更新するステップと
    を含む、
    画像処理プログラム。
  2. 前記分布モデルを新規作成するステップでは、前記混合分布モデルが存在しない場合に、前記分布モデルが新規作成される、
    請求項1に記載の画像処理プログラム。
  3. 前記分布モデルを新規作成するステップでは、前記第1フレームにおける前記注目画素の画素値が既存の前記分布モデルのいずれにも含まれない場合に、前記分布モデルが新規作成される、
    請求項1又は2に記載の画像処理プログラム。
  4. 前記検出された動体の写るフレームを表示するステップ
    をさらにコンピュータに実行させる、
    請求項1から3のいずれかに記載の画像処理プログラム。
  5. 前記表示するステップでは、前記動画に含まれる互いに近接したフレームの両方に前記動体が存在すると検出された場合に、前記両動体間のオプティカルフローの方向と、前記両動体間での重心の移動方向とが一致する場合、前記両動体の一方は、表示対象とされない、
    請求項4に記載の画像処理プログラム。
  6. 前記動体の色の設定を受け付けるステップ
    をさらにコンピュータに実行させ、
    前記表示するステップでは、前記設定された色と非類似の色を有する前記動体は、表示対象とされない、
    請求項4又は5に記載の画像処理プログラム。
  7. 前記動体のサイズ及び/又は形状の設定を受け付けるステップ
    をさらにコンピュータに実行させ、
    前記表示するステップでは、前記設定されたサイズ及び/又は形状と非類似のサイズ及び/又は形状を有する前記動体は、表示対象とされない、
    請求項4から6のいずれかに記載の画像処理プログラム。
  8. 前記動画において同じフレームが連続して出現するか否かを判断するステップ、
    をさらにコンピュータに実行させ、
    前記動画において同じフレームが連続して出現すると判断される場合、前記連続する同じフレームの一部のフレームに対しては、前記背景画像を作成するステップ及び前記動体を検出するステップが省略される、
    請求項1から7のいずれかに記載の画像処理プログラム。
  9. 動画の中から動体を検出するための画像処理装置であって、
    前記動画の背景画像を経時的に更新しながら作成する背景作成部と、
    前記背景画像に基づいて、前記動画の中から前記動体を経時的に検出する動体検出部と
    を備え、
    前記背景作成部は、各注目画素に対し、
    状況に応じて1から複数の分布モデルを有する混合分布モデルを導出するモデル導出部と、
    前記混合分布モデルに基づいて、前記1から複数の分布モデルに対応する1から複数の背景の画素値を導出する背景値導出部と
    を含み、
    前記モデル導出部は、
    前記動画に含まれる第1フレームにおける前記注目画素を含む局所領域内の複数の画素の画素値から、前記分布モデルを新規作成し、
    前記動画に含まれる前記第1フレームと異なる第2フレームにおける前記注目画素の画素値から、既存の前記分布モデルを更新する、
    画像処理装置。
JP2013147795A 2013-07-16 2013-07-16 画像処理プログラム及び画像処理装置 Active JP6171651B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013147795A JP6171651B2 (ja) 2013-07-16 2013-07-16 画像処理プログラム及び画像処理装置
US14/323,250 US9202286B2 (en) 2013-07-16 2014-07-03 Image processing apparatus, computer-readable medium storing an image processing program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013147795A JP6171651B2 (ja) 2013-07-16 2013-07-16 画像処理プログラム及び画像処理装置

Publications (2)

Publication Number Publication Date
JP2015022351A JP2015022351A (ja) 2015-02-02
JP6171651B2 true JP6171651B2 (ja) 2017-08-02

Family

ID=52343605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013147795A Active JP6171651B2 (ja) 2013-07-16 2013-07-16 画像処理プログラム及び画像処理装置

Country Status (2)

Country Link
US (1) US9202286B2 (ja)
JP (1) JP6171651B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9298836B1 (en) * 2015-07-07 2016-03-29 Yext, Inc. Suppressing duplicate listings on multiple search engine web sites from a single source system given a synchronized listing is unknown
US10249174B2 (en) * 2015-07-31 2019-04-02 Siemens Industry, Inc. Wireless emergency alert notifications
US11006668B2 (en) * 2016-02-12 2021-05-18 Altria Client Services Llc Aerosol-generating system with electrodes
JP6615847B2 (ja) * 2017-11-08 2019-12-04 株式会社東芝 画像処理装置、画像処理システム、画像処理方法、およびプログラム
KR102261881B1 (ko) * 2019-11-29 2021-06-04 연세대학교 산학협력단 스킵 코드를 이용한 효율적인 객체 검출 방법 및 장치

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001045465A (ja) * 1999-07-29 2001-02-16 Nec Eng Ltd 遠隔監視方式
US20070058837A1 (en) * 2005-09-15 2007-03-15 Honeywell International Inc. Video motion detection using block processing
JP4631806B2 (ja) * 2006-06-05 2011-02-16 日本電気株式会社 物体検出装置、物体検出方法および物体検出プログラム
JP2010003177A (ja) * 2008-06-20 2010-01-07 Secom Co Ltd 画像処理装置
JP5388829B2 (ja) 2009-12-11 2014-01-15 セコム株式会社 侵入物体検知装置
JP5763965B2 (ja) * 2011-05-11 2015-08-12 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2013065151A (ja) * 2011-09-16 2013-04-11 Sony Corp 画像処理装置、画像処理方法、および、プログラム

Also Published As

Publication number Publication date
US20150023554A1 (en) 2015-01-22
US9202286B2 (en) 2015-12-01
JP2015022351A (ja) 2015-02-02

Similar Documents

Publication Publication Date Title
JP4840426B2 (ja) 電子機器、ぼけ画像選別方法及びプログラム
JP6524997B2 (ja) 画像処理装置
US9589595B2 (en) Selection and tracking of objects for display partitioning and clustering of video frames
JP6171651B2 (ja) 画像処理プログラム及び画像処理装置
US9514225B2 (en) Video recording apparatus supporting smart search and smart search method performed using video recording apparatus
KR20160013984A (ko) 비디오 편집을 위한 터치 최적화 디자인
JP6924932B2 (ja) 移動体追跡方法、移動体追跡装置、およびプログラム
JP2018005555A (ja) 画像処理装置、情報処理装置、および方法、並びにプログラム
JP2011254240A (ja) 画像処理装置、画像処理方法およびプログラム
US10169682B2 (en) Image processing device
JP6191160B2 (ja) 画像処理プログラムおよび画像処理装置
US10789987B2 (en) Accessing a video segment
US10643096B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP5776471B2 (ja) 画像表示システム
JP2010245983A (ja) 映像構造化装置,映像構造化方法および映像構造化プログラム
JP2021111228A (ja) 学習装置、学習方法、及びプログラム
KR20190088688A (ko) 비디오 시놉시스를 이용한 범죄 확인 방법
JP2014229092A (ja) 画像処理装置、画像処理方法、および、そのプログラム
US10685238B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US10497103B2 (en) Information processing apparatus, information processing system, information processing method, and recording medium
KR102594092B1 (ko) 딥러닝을 활용한 이미지 내 객체 제거 방법 및 이를 위한 연산장치
KR101563822B1 (ko) 동영상 편집 방법 및 장치
JP4904316B2 (ja) 特定シーン抽出装置及び特定シーン抽出プログラム
JP2012133459A (ja) 画像評価装置、及び方法、並びにプログラム、そのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP3882396B2 (ja) 動画処理装置及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170619

R150 Certificate of patent or registration of utility model

Ref document number: 6171651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250