JP2015197816A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2015197816A
JP2015197816A JP2014075716A JP2014075716A JP2015197816A JP 2015197816 A JP2015197816 A JP 2015197816A JP 2014075716 A JP2014075716 A JP 2014075716A JP 2014075716 A JP2014075716 A JP 2014075716A JP 2015197816 A JP2015197816 A JP 2015197816A
Authority
JP
Japan
Prior art keywords
feature
image processing
superpixel
region
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014075716A
Other languages
English (en)
Other versions
JP6445775B2 (ja
JP2015197816A5 (ja
Inventor
東條 洋
Hiroshi Tojo
洋 東條
矢野 光太郎
Kotaro Yano
光太郎 矢野
トゥアン クワン ファム
Quang Pham Tuan
トゥアン クワン ファム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014075716A priority Critical patent/JP6445775B2/ja
Priority to EP15000909.0A priority patent/EP2927873B1/en
Priority to CN201510146165.4A priority patent/CN104980622B/zh
Priority to US14/674,722 priority patent/US9691155B2/en
Priority to KR1020150045880A priority patent/KR101802146B1/ko
Publication of JP2015197816A publication Critical patent/JP2015197816A/ja
Publication of JP2015197816A5 publication Critical patent/JP2015197816A5/ja
Priority to US15/606,572 priority patent/US10438361B2/en
Application granted granted Critical
Publication of JP6445775B2 publication Critical patent/JP6445775B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 メモリの消費量及び処理コストを増大させることなく、撮像装置の動きによる入力画像のずれに伴う誤検知の回避を実現するための技術を提供すること。
【解決手段】 映像入力手段と、前記映像入力手段で取得した画像をそれぞれの画素の属性が類似する複数の領域に分割する領域分割手段と、前記領域分割手段で分割したそれぞれの領域から特徴を抽出する特徴抽出手段と、背景の特徴から生成された背景モデルを予め記憶した背景モデル記憶手段と、前記特徴抽出手段で抽出した特徴と、前記背景モデル中の特徴と、を比較して前記領域毎に背景か否かを判定する特徴比較手段とを備えることを特徴とする。
【選択図】 図1

Description

本発明は、動画像からの物体検知技術に関するものである。
カメラで撮影した画像から物体を検知する技術として、背景差分法が開示されている。背景差分法においては、固定したカメラにおいて予め被写体がいない背景の画像を撮影し、その特徴を背景モデルとして記憶しておく。そしてその後、カメラから入力された画像中の特徴と背景モデル中の特徴との差分を求め、異なる領域を前景(物体)として検知する。
例えば、特許文献1では、画素値を特徴として背景モデルを生成し、画素単位に差分を算出して物体の検知を行っている。このように画素単位で背景モデルを生成すると高解像になるほど多くのメモリを消費し、処理コストも増大する。そこで、特許文献2では、入力画像を8×8画素ブロックに分割し、離散コサイン変換(Discrete Cosine Transform)にて符号化した結果であるDCT係数を特徴として用いている。
特許第2950267号 特許第4653155号
Radhakrishna Achanta, Appu Shaji, Kevin Smith, Aurelien Lucchi, Pascal Fua, and Sabine Susstrunk. SLIC Superpixels. EPFL Technical Report 149300, June 2010 Felzenszwalb, P., Huttenlocher, D. Efficient graph-based image segmentation. International Journal of Computer Vision. 2004
しかしながら、背景差分法ではカメラが固定されていることを前提としているために、振動などによってカメラに動きが生じると次のような問題が生じる。すなわち、画像内に動く物体がなくても、入力画像がカメラの動きによってずれることにより、特許文献1の方法では時間的に連続している入力画像間で同一の座標にある画像内容が変化する。例えば、赤いドアと青い壁の境界付近の画素は、赤から青へといったように急激に画素値が変化してしまう。また、特許文献2の方法では、赤いドアと青い壁の境界を含むブロックでは、含まれている赤と青の画素の割合が変化してしまう。結果として、特許文献1の方法であっても特許文献2の方法であっても、背景に存在する強いエッジを伴う境界付近においては、誤検知が生じてしまう。
特許文献1の方法であれば、同じ画素値をもつ画素の座標がずれただけであるので、近傍の画素も比較対象に加えれば、誤検知を防ぐことが可能である。しかし、この方法では、メモリ量や処理コストの問題を克服することができない。また、特許文献2の方法では、メモリ量や処理コストは抑えることができるが、ブロックの特徴そのものが変化してしまうので、誤検知の問題は克服できない。従って、従来の技術では、メモリの消費と処理コストを増大させることなくカメラの動きによる入力画像のずれに伴う誤検知の発生を避けることができなかった。
本発明はこのような問題に鑑みてなされたものであり、メモリの消費量及び処理コストを増大させることなく、撮像装置の動きによる入力画像のずれに伴う誤検知の回避を実現するための技術を提供する。
本発明の一様態は、映像入力手段と、前記映像入力手段で取得した画像をそれぞれの画素の属性が類似する複数の領域に分割する領域分割手段と、前記領域分割手段で分割したそれぞれの領域から特徴を抽出する特徴抽出手段と、背景の特徴から生成された背景モデルを予め記憶した背景モデル記憶手段と、前記特徴抽出手段で抽出した特徴と、前記背景モデル中の特徴と、を比較して前記領域毎に背景か否かを判定する特徴比較手段とを備えることを特徴とする。
本発明の構成によれば、メモリの消費量及び処理コストを増大させることなく、撮像装置の動きによる入力画像のずれに伴う誤検知の回避を実現することができる。
コンピュータのハードウェア構成例を示すブロック図。 画像処理装置の機能構成例を示すブロック図。 画像処理装置が行う処理のフローチャート。 ステップS304における処理の詳細を示すフローチャート。 安定度に応じた閾値の求め方及び閾値を安定度に応じて求める意義を説明する図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、動画像を構成する各フレームの画像を順次取得し、該取得した画像から物体が写っている領域を検出する画像処理装置の一様態について説明する。先ず、本実施形態に係る画像処理装置の機能構成例について、図2のブロック図を用いて説明する。なお、図2の構成はあくまでも一例であり、同等以上の機能を実現する構成であれば、如何なる構成を採用しても構わない。
映像入力部201は、動画像を構成する各フレームの画像(フレーム画像)を順次取得し、該取得したフレーム画像を後段の領域分割部202に対して送出する。各フレームの画像は、ビデオカメラから順次送出されるものであっても構わないし、外部装置から、例えばストリーミングなどの技術でもって転送されてくるものであっても構わない。
領域分割部202は、映像入力部201から受けたフレーム画像を、画像特徴(属性)が類似する領域を単位に分割する。特徴抽出部203は、領域分割部202が分割したそれぞれの領域について、該領域から画像特徴を抽出する処理を行う。近傍領域選択部205は、背景モデル記憶部204に格納されている領域毎の情報から、領域分割部202が分割した領域に近接する領域の情報を読み出して特徴比較部206に送出する。
特徴比較部206は、領域分割部202が分割したそれぞれの領域について、該領域から抽出した画像特徴と、該領域について近傍領域選択部205が背景モデル記憶部204から読み出した情報と、を比較する。
物体領域出力部207は、特徴比較部206による比較結果に応じて、フレーム画像について分割したそれぞれの領域のうち、物体が写っている領域を特定し、該特定した領域に係る情報を出力する。
特徴更新部208及び安定度算出部209は、背景モデル記憶部204に格納されている背景モデルを更新する。
次に、フレーム画像から物体が写っている領域を検出するために本実施形態に係る画像処理装置が行う処理について、同処理のフローチャートを示す図3を用いて説明する。
ステップS301では、映像入力部201は、1フレーム分のフレーム画像を取得し、該取得したフレーム画像を、後段の領域分割部202に対して送出する。
ステップS302では、領域分割部202は、映像入力部201から受けたフレーム画像を、画像特徴が類似している領域を単位に分割する。ここで、近年、輝度や色などの画像特徴が類似している画素群から成る小領域(Superpixelと呼ばれている)を単位に画像を分割する手法が提案されている(例えば、非特許文献1及び2を参照のこと)。
画像分割の手法によっては、Superpixelのサイズがほぼ一定になるもの(非特許文献1)や、画像の内容によって大きく異なるもの(非特許文献2)が存在するが、以下の共通した性質がある。すなわち、Superpixel分割では、輝度や色が類似する画素をまとめることにより、輝度や色が大きく変化する強いエッジの部分で分割されることになる。強いエッジは画像に含まれる物体の境界に見られるため、物体の境界付近のSuperpixelの境界は物体の境界と一致するという性質がある。本実施形態ではこのようなSuperpixelの性質を利用する。
そして領域分割部202は、フレーム画像を、画像特徴が類似している領域(すなわちSuperpixel)を単位に分割すると、フレーム画像を構成する各画素に対し、該画素が属するSuperpixelに固有のラベル番号を割り当てると共に、該領域のフレーム画像内における重心位置を、画像処理装置が管理するメモリに登録する。
ステップS303では、特徴抽出部203は、領域分割部202が分割したそれぞれのSuperpixelから画像特徴を抽出する。Superpixel単位で画像特徴を抽出することにより、動画像を撮像する撮像装置の動きに伴ってフレーム画像内にずれが起こっても、画像特徴の変化が起きなくなる。前述の赤いドアと青い壁の境界の例では、フレーム画像内にずれが起こっても、赤いドアと青い壁の境界には常にSuperpixelの境界が存在するため、赤と青が混じり合ったSuperpixelから画像特徴を抽出するようなことはない。従って、物体境界付近であってもフレーム画像間で一貫した特徴を抽出することができる。
本実施形態では、Superpixelから抽出する画像特徴として、該Superpixel内の各画素のそれぞれの色成分の平均画素値(例えばR,G,Bのそれぞれの成分についての平均画素値)である色特徴を用いる。この他、RGBなどの色空間を色成分ごとに分割しておき、Superpixel内のそれぞれの画素の色値のヒストグラムを生成するようにしてもよい。色空間は特にRGBの色空間に限定されるものではなく、YCbCrやCIELABなどの色空間を使用しても構わない。もちろん、色特徴として適用可能なものは他にも考えられる。
また、本実施形態では、Superpixelから抽出する画像特徴として、該Superpixelの形状を規定する情報である形状特徴も用いる。この「Superpixelの形状を規定する情報」は、例えば、Superpixelの境界上の画素の画素位置であっても構わないし、Superpixel内の各画素の画素位置であっても構わないし、Superpixel内の画素数(Superpixelの面積)であっても構わない。
この他、所定値以上のエッジ強度をもつ領域境界の画素数が周長に対して占める割合を画像特徴として用いてもよい。後述するように、強いエッジに囲まれているほどSuperpixelは安定すると考えられるため、Superpixelの形状を特徴づけるものと見なせるからである。また、各画素の画素位置を(x, y)で表した場合のx座標の二次モーメント、y座標の二次モーメント、xyモーメント、或いは、境界線のフーリエ記述子を用いてもよい。
特徴抽出部203は、フレーム画像を構成する各画素に割り当てたラベル番号を用いて、同じラベル番号が割り当てられている画素群から成る領域、すなわちSuperpixelを特定し、該特定したSuperpixelから画像特徴(色特徴及び形状特徴)を抽出する。特徴抽出部203は、フレーム画像におけるそれぞれのSuperpixelについて、該Superpixelから抽出したn(nは2以上の整数)個の画像特徴をn次元の特徴ベクトル(上記の例ではSuperpixel内の各画素のそれぞれの色成分の平均画素値と、該Superpixelの形状を規定する情報(ここでは面積とする)と、から成る4次元ベクトル)として上記のメモリに登録する。
ステップS304における処理を説明する前に、背景モデル記憶部204が保持する情報について説明する。背景モデル記憶部204には、Superpixelごとの画像特徴の時間的統計量(安定度を含む)が、該Superpixelのラベル番号、重心座標と共に、背景モデルとして登録されている。
ここで、「安定度」とは、Superpixelが時間的に見てどの程度安定しているかを示す量である。動画像では、照明、ホワイトバランス、ノイズなどの変化が生じるため、フレーム画像間で同じ位置の画素でも、その輝度や色は異なる。動画像の各フレーム画像をSuperpixel分割した場合、各Superpixelは以下のようになる。前述の通り、強いエッジを伴う物体境界とSuperpixelの境界は一致するため、フレーム画像間でSuperpixelの色特徴は変化しても形状特徴は変化しにくい。しかしながら、強いエッジを伴わない、輝度や色がなだらかに異なっている領域(照明の当たり方が均一でないカーペットの床など)においては、フレーム画像間でSuperpixelの形状特徴は変化しやすくなる。これは、わずかな各画素の輝度や色の変動もSuperpixel分割結果に影響するからである。結果として、Superpixelに含まれる色の割合も変わる。即ち、Superpixelが不安定になると画像特徴の差が生まれやすくなり、照明の変動などによって誤検知が生じることがある。そこで、安定度を、Superpixelの画像特徴を時間的に見た時のばらつき具合で表すこととする。安定度を求める手法として本実施形態では、特定領域に対応するSuperpixelで画像特徴の各要素の確率分布をガウシアンモデルで近似する方法を挙げる。なお、ここでは説明上、一つのSuperpixel(Superpixel X)に着目するが、全てのSuperpixelについて同様に扱うものとする。tフレーム目のSuperpixel Xの特徴ベクトルをFt(n次元)としたとき、確率密度関数ηは以下の式になる。
Figure 2015197816
なお、nは特徴ベクトルの次元数、μtはtフレーム目までの各フレームにおけるSuperpixel Xの特徴ベクトルの平均ベクトル(n次元)、Σtはその共分散行列(n×n次元)である。添え字のtはtフレーム目であることを示している。後述するようにμt、Σtはフレーム単位で更新される。なお、本実施形態では特徴ベクトルFtは、色特徴であるRGB各成分のSuperpixel内の平均値と、形状特徴である面積と、の4次元の要素からなる。演算を容易にするために特徴ベクトルFtの各次元は互いに独立であり、更に色特徴は各成分とも標準偏差は同じ値σc,tを取るものとし、形状特徴の標準偏差はσs,tであるとする。
Figure 2015197816
σc,t、σs,tが小さくなるほどSuperpixelはより安定していることになる。そこで、これらを安定度として使用する。然るに本実施形態では、Superpixelごとの背景モデルには、該Superpixelの平均ベクトルμt、該Superpixelにおける画像特徴の標準偏差σc,ts,t(安定度)、該Superpixelのラベル番号、重心座標、が含まれているものとする。
このような前提の元で近傍領域選択部205が行う処理(ステップS304)について、図4のフローチャートを用いて説明する。なお、図4のフローチャートは、フレーム画像中のある1つのSuperpixel(着目Superpixel)に対する処理を示しており、実際には、フレーム画像中のそれぞれのSuperpixelについて図4のフローチャートに従った処理を実行することになる。
ステップS401では、背景モデル記憶部204から未だ読み出していないSuperpixelの重心位置を読み出す。上記の通り、背景モデル記憶部204には、それぞれのSuperpixelの重心位置が登録されているので、本ステップでは、未だ読み出されていない重心位置を読み出す。図4のフローチャートでは、ステップS401の処理を実行するたびに、例えば、ラベル番号が小さい順に、対応する重心位置を1つ読み出す。
ステップS402では、着目Superpixelの重心位置と、ステップS401で読み出した重心位置と、の間の距離を求める。ここでは、重心位置間のユークリッド距離を求めるものとするが、例えば、2つのSuperpixelの重なりの面積の、一方のSuperpixelの面積に対する割合を求めても構わない。
ステップS403では、ステップS401で読み出した重心位置と同じ背景モデルに含まれている安定度を背景モデル記憶部204から読み出す。例えば、ステップS401でラベル番号=1のSuperpixelの重心位置を読み出した場合、ステップS403では、ラベル番号=1のSuperpixelの安定度を読み出す。
ステップS404では、ステップS403で読み出した安定度に応じた閾値を求める。なお、安定度に応じた閾値の求め方、及び閾値を安定度に応じて求める意義については後述する。
ステップS405では、ステップS402で求めた距離とステップS404で求めた閾値との大小比較を行う。この大小比較の結果、ステップS402で求めた距離がステップS404で求めた閾値よりも小さい場合には、処理はステップS406に進み、ステップS402で求めた距離がステップS404で求めた閾値よりも大きい場合には、処理はステップS407に進む。
ステップS406では、ステップS401で読み出した重心位置と同じ背景モデルに含まれているラベル番号を、画像処理装置内の不図示のメモリに登録する。例えば、ステップS401でラベル番号=1のSuperpixelの重心位置を読み出した場合、ステップS406では、ラベル番号=1をメモリに登録する。
ここで、安定度に応じた閾値の求め方、及び閾値を安定度に応じて求める意義について、図5を用いて説明する。閾値を安定度に関係なく固定値にしてしまうと次のような問題が生じる。図5(a)に示す如く、503で示す重心位置を有するSuperpixel501と、504で示す重心位置を有するSuperpixel502と、が位置しているとする。Superpixel501は水平方向の幅が非常に短いものとなっている。ここで、図5(a)に示した状態からずれた撮像位置姿勢でもって撮像されたフレーム画像が図5(b)のフレーム画像であるとする。このとき、Superpixel501はSuperpixel505となっており、その重心位置507は重心位置503から若干ずれている。また、Superpixel502はSuperpixel506となっており、その重心位置508は重心位置504から若干ずれている。
図5(a)と図5(b)とを重ねた状態を図5(c)に示す。ここで、上記の閾値が固定であった場合、重心位置503を中心とし且つ該閾値を半径とする円509、重心位置504を中心とし且つ該閾値を半径とする円510を設定することができる。ここで、Superpixel505を着目Superpixelとすると、その重心位置507は、円510内に位置しており、重心位置504から閾値の距離以内に位置していることになる。このとき、ステップS406では、Superpixel502のラベル番号を、Superpixel505に近接するSuperpixelのラベル番号としてメモリに登録することになるのであるが、本来であれば、Superpixel501のラベル番号をメモリに登録するのが正しい。このように、短い方の幅が閾値より狭いSuperpixelについては、正しいSuperpixelを選択することができなくなることがある。
これに対応するためには、閾値を大きくしてより広い範囲から着目Superpixelに対応するSuperpixelを選択すればよい。しかしながら、Superpixelが不安定な場合は、背景モデルに対応しないSuperpixelが偶然類似の形状となってしまうことがあり、結果として誤検知が誘発される。そこで、形状特徴の安定度(標準偏差)σs,tを用いて、閾値T1を以下の式で決定するようにする。
Figure 2015197816
なお、Sは平均的なSuperpixelの重心位置の間隔、αは規定の閾値である。Sは、画像の全画素数をN、一つの画像をSuperpixelに分割する数をKとするとS=√(N/K)より求めることができる。Superpixelの形状が安定しているほど抽出される特徴量が安定しているため、選択されても、特徴比較部206及び物体領域出力部207において正しく判定を行える。従って、安定度が高いほどより広い範囲からの選択を可能とする。式(3)において形状が安定しているほどσs,tは小さくなるため、閾値の値は大きくなり、より広い範囲を近傍として扱えるようになる。然るに、このような性質を有するように閾値を求めることができるのであれば、安定度から閾値を求める方法は上記の方法に限るものではない。
図4に戻って、ステップS407では、背景モデル記憶部204に格納されている全てのSuperpixelの背景モデルについてステップS401〜S406の処理を行ったか否かを判断する。この判断の結果、背景モデル記憶部204に格納されている全てのSuperpixelの背景モデルについてステップS401〜S406の処理を行った場合には、処理はステップS305に進む。一方、背景モデル記憶部204に格納されている全てのSuperpixelの背景モデルのうち未だステップS401〜S406の処理の対象となっていない背景モデルが残っている場合には、処理はステップS401に戻る。
図4のフローチャートに従った処理を実行することで、背景モデル記憶部204に格納されているSuperpixelごとの背景モデルのうち、着目Superpixelの近傍に位置するSuperpixelの背景モデル中のラベル番号をメモリに登録することができる。
図3に戻って、次に、ステップS305では、特徴比較部206は、フレーム画像のそれぞれのSuperpixelから取得した特徴ベクトルと、該Superpixelについてメモリに登録したラベル番号と同じ背景モデルに含まれている平均ベクトルと、を比較する。
具体的には、フレーム画像における着目Superpixelについて、以下に示す2つの式(式(4)、(5))を同時に満たす場合、該着目Superpixelは、背景であると判断する。これらの式におけるFtは、フレーム画像における着目Superpixelの特徴ベクトルであり、μtは、着目Superpixelについてメモリに登録したラベル番号と同じ背景モデルに含まれている平均ベクトルである。また、iは特徴のn次元ベクトルのうちのi次元目であり、k,lは所定の定数である。
Figure 2015197816
前述の通り、Superpixelが不安定になるほど(σc,ts,tが大きくなるほど)特徴の差が生じやすくなる。そこで、式(4)、式(5)のように閾値を安定度であるσc,ts,tに応じて大きな差分を許容するようにする。これにより、不安定なSuperpixelによって誘発される誤検知を防ぐことが可能になる。
また、本実施形態では特徴として色特徴と形状特徴の両方を用いている。色特徴のみを用いると、背景に検知対象である物体と似た色をもつSuperpixelが存在すると誤検知が生じてしまう。例えば、赤い花瓶が置いてある前を赤い色のシャツを着た人物が通過すると、それぞれの形状は明らかに異なるにも関わらず、色が似ていれば背景と判定してしまう。Superpixelの形状は物体の形状を反映している。そこで、形状特徴を使用することによりこの誤検知を防いでいる。なお、着目Superpixelについてメモリに登録したラベル番号が複数個の場合には、この複数個のラベル番号のうち、着目Superpixelの重心位置との距離が最小となる重心位置と同じ背景モデルに含まれているラベル番号を採用すればよい。
このような処理を、フレーム画像中のそれぞれのSuperpixelについて行うことで、該Superpixelが背景であるか否かを判断することができる。
次に、ステップS306では、物体領域出力部207は、フレーム画像中のそれぞれのSuperpixelのうち背景と判断されなかったSuperpixel、即ち、物体が写っているものと判断されたSuperpixelを表す情報を生成して出力する。例えば、フレーム画像を構成する各画素に対し、該画素が背景と判断されたSuperpixelに属する場合には値「0」を割り当て、該画素が背景ではないと判断されたSuperpixelに属する場合には値「1」を割り当てる。そして、フレーム画像を構成するそれぞれの画素に割り当てた値から成る画像をマスク画像として出力する。このマスク画像において、値「1」が割り当てられた画素から成る領域が、背景と判断されなかったSuperpixel、即ち、物体が写っている領域と判断されたSuperpixelである。
次に、ステップS307では特徴更新部208は、背景モデル記憶部204に登録されているそれぞれのSuperpixelの平均ベクトルμtのうち、背景と判断されたフレーム画像中のSuperpixelの特徴ベクトルとの比較で用いた平均ベクトルμtを更新する。この更新は、以下の式(6)に従って行われる。
Figure 2015197816
ρは式(1)の計算結果ηの値を用いる。例えば、フレーム画像中の背景と判断されたSuperpixel AについてステップS304でSuperpixel P及びSuperpixel Qのラベル番号がメモリに登録されており、且つSuperpixel Pの重心位置よりもSuperpixel Qの重心位置の方がSuperpixel Aの重心位置に近い場合、Superpixel Qの平均ベクトルを、Superpixel Aの特徴ベクトルを用いて更新する。なお、μの初期値については、初めに入力されたフレーム画像から取得された特徴ベクトルをそのままμとして用いる。
次に、ステップS308では、安定度算出部209は、Superpixel毎に画像特徴が時間軸に対して安定であるかどうかを示す値を安定度として算出する。安定度については上記の通り、ガウシアンモデルで表現した際の標準偏差σとして算出される。安定度は、起動時には適当な初期値を与えるが、フレーム毎に以下の式(7)、(8)に従って更新する。
Figure 2015197816
なお、μtは式(6)で更新された結果を用いる。tフレーム目における特徴ベクトルFと平均ベクトルμtとの差分(Ft−μt)は、どのくらいその特徴ベクトルが安定しているかを表している量である。つまり差分が小さいものが続けばその特徴ベクトルは安定していることになる。これを(t-1)フレームまでの特徴ベクトルから算出されたσt-1に反映させることにより、時間方向に対する特徴ベクトルの安定度を示すσc,ts,tを得ることができる。ρとして式(1)の計算結果ηを用いる。なお、σc,ts,tの初期値については、σc,t=0,σs,t=0とする。
このように、本実施形態では、映像入力によって取得した画像を属性が類似する画素からなる複数の小領域に分割(領域分割)し、分割した小領域から該属性に基づいて特徴を抽出する(特徴抽出)。一方で、この抽出した特徴からなる背景モデルを予め記憶しておき(背景モデル記憶)、特徴抽出で抽出した特徴と、背景モデル中の特徴と、を比較して小領域毎に背景か否かを判定する(特徴比較)。
このような構成により、従来技術のカメラの動きに伴う課題を解決することができる。メモリの消費と処理コストの増大を抑制するために画像を分割するが、分割領域の形状やサイズではなく、含まれる画素の色などの属性が均一になるように分割する(Superpixel分割)。そして、同じ属性に基づいた特徴量を抽出するので、画面ずれが起きても物体境界付近の特徴が変化しなくなるため、誤検知を避けることが可能になる。
また、Superpixel境界の形状特徴を利用することにより、Superpxiel内の色特徴が背景モデルと入力画像で類似する場合であっても、誤検出を防ぐことが可能になる。また、Superpixelが不安定となることによって生じる課題も、Superpixelの安定度を導入して安定度に応じて特徴量比較の際の閾値を変更したり、近傍領域選択の範囲を変更したりすることにより、解消することが可能となっている。
[第2の実施形態]
図2に示した各機能部は1つの画像処理装置内に納めても良いが、1以上の機能部を外部機器に含めても良く、その場合、画像処理装置はこの外部機器とネットワークを介してデータ通信可能に接続されている必要がある。もちろん、図2に示した各機能部を1つのチップ上にまとめても構わない。
また、図2の構成は、背景モデル記憶部204としても機能するメモリと、図2において背景モデル記憶部204以外の各機能部の機能をプロセッサに実行させるためのコンピュータプログラムを実行可能な該プロセッサと、を有するコンピュータであれば、図2に示した構成を有する画像処理装置として機能することができる。このようなコンピュータのハードウェア構成例について、図1のブロック図を用いて説明する。なお、図1に示した構成は、第1の実施形態で説明した画像処理装置に適用可能なコンピュータの一構成例に過ぎず、第1の実施形態で説明した画像処理装置と同等以上の機能を有する構成であれば、如何なる構成を採用しても構わない。
CPU101は、ROM102やRAM103に格納されているコンピュータプログラムやデータを用いて各種の処理を実行することで、本コンピュータの動作制御を行うと共に、第1の実施形態で説明した画像処理装置が行うものとして説明した各処理を実行する。
ROM102には、本コンピュータの設定データやブートプログラムなどが格納されている。RAM103は、2次記憶装置104からロードされたコンピュータプログラムやデータ、画像入力装置105から入力された各フレームの画像、ネットワークI/F(インターフェース)108を介して外部から受信したデータを記憶するためのエリアを有する。更にRAM103は、CPU101が各種の処理を実行する際に用いるワークエリアも有する。すなわち、RAM103は、各種のエリアを適宜提供することができる。
2次記憶装置104は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。この2次記憶装置104には、OS(オペレーティングシステム)や、図2において背景モデル記憶部204を除く各機能部の機能をCPU101に実現させるためのコンピュータプログラムやデータが保存されている。このデータには、上記の説明において既知の情報として取り扱ったものも含まれている。2次記憶装置104に保存されているコンピュータプログラムやデータは、CPU101による制御に従って適宜RAM103にロードされ、CPU101による処理対象となる。なお、背景モデル記憶部204など、第1の実施形態でメモリとして説明したものは、RAM103や2次記憶装置104で構成することができる。
画像入力装置105は、本コンピュータに動画像を構成する各フレームの画像を入力するための装置であり、例えば、ビデオカメラである。
入力装置106は、キーボードやマウスなどにより構成されており、本コンピュータのユーザが操作することで、各種の指示をCPU101に対して入力することができる。
表示装置107は、CRTや液晶画面などにより構成されており、CPU101による処理結果を画像や文字などでもって表示することができる。例えば、画像入力装置105によって本コンピュータに入力された各フレームの画像や、該画像に対する物体検知の結果などを表示することができる。
ネットワークI/F108は、本コンピュータをLANやインターネットなどのネットワークに接続するためのもので、本コンピュータはこのネットワークI/F108を介して外部機器とのデータ通信を行うことができる。もちろん、画像入力装置105が本コンピュータに入力するものとして説明した各フレームの画像は、外部の機器からストリーミングなどの技術でもって送信されてもよく、その場合、この各フレームの画像はネットワークI/F108を介して本コンピュータに入力されることになる。上記の各部は何れも、バス109に接続されている。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
201:映像入力部 202:領域分割部 203:特徴抽出部 204:背景モデル記憶部 206:特徴比較部

Claims (10)

  1. 映像入力手段と、
    前記映像入力手段で取得した画像をそれぞれの画素の属性が類似する複数の領域に分割する領域分割手段と、
    前記領域分割手段で分割したそれぞれの領域から特徴を抽出する特徴抽出手段と、
    背景の特徴から生成された背景モデルを予め記憶した背景モデル記憶手段と、
    前記特徴抽出手段で抽出した特徴と、前記背景モデル中の特徴と、を比較して前記領域毎に背景か否かを判定する特徴比較手段と
    を備えることを特徴とする画像処理装置。
  2. 前記属性は、少なくとも色または輝度を含むことを特徴とする請求項1に記載の画像処理装置。
  3. 前記特徴抽出手段で抽出する特徴は領域の境界の形状特徴を含むことを特徴とする請求項1に記載の画像処理装置。
  4. 前記形状特徴は、前記領域の境界の周長に対する所定値以上のエッジ強度を持つ領域境界の長さの割合であることを特徴とする請求項3に記載の画像処理装置。
  5. 前記背景モデルは、前記特徴抽出手段で背景の領域より抽出した特徴から求めた時間的統計量を含むことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 更に、
    前記領域より抽出された特徴が時間的に安定していることを示す安定度を算出する安定度算出手段を備え、
    前記背景モデルの時間的統計量は前記安定度を含み、
    前記特徴比較手段は前記安定度に基づいて領域が物体領域か否かを判定する
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 更に、
    前記特徴比較手段で比較する前記背景モデル中の領域を、前記映像入力手段で取得した画像の領域の近傍より前記安定度に基づいて選択する選択手段を備えることを特徴とする請求項6に記載の画像処理装置。
  8. 更に、
    前記特徴比較手段による判定の結果に基づいて物体領域を出力する出力手段を備えることを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
  9. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の領域分割手段が、取得した画像をそれぞれの画素の属性が類似する複数の領域に分割する領域分割工程と、
    前記画像処理装置の特徴抽出手段が、前記領域分割工程で分割したそれぞれの領域から特徴を抽出する特徴抽出工程と、
    前記画像処理装置の特徴比較手段が、前記特徴抽出工程で抽出した特徴と、背景の特徴から生成された背景モデル中の特徴と、を比較して前記領域毎に背景か否かを判定する特徴比較工程と
    を備えることを特徴とする画像処理方法。
  10. コンピュータを、請求項1乃至8の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2014075716A 2014-04-01 2014-04-01 画像処理装置、画像処理方法 Active JP6445775B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2014075716A JP6445775B2 (ja) 2014-04-01 2014-04-01 画像処理装置、画像処理方法
EP15000909.0A EP2927873B1 (en) 2014-04-01 2015-03-27 Image processing apparatus and image processing method
CN201510146165.4A CN104980622B (zh) 2014-04-01 2015-03-30 图像处理装置及图像处理方法
US14/674,722 US9691155B2 (en) 2014-04-01 2015-03-31 Image processing apparatus and image processing method for finding background regions in an image
KR1020150045880A KR101802146B1 (ko) 2014-04-01 2015-04-01 화상처리장치 및 화상처리방법
US15/606,572 US10438361B2 (en) 2014-04-01 2017-05-26 Image processing apparatus and image processing method for finding background regions in an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014075716A JP6445775B2 (ja) 2014-04-01 2014-04-01 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2015197816A true JP2015197816A (ja) 2015-11-09
JP2015197816A5 JP2015197816A5 (ja) 2017-05-25
JP6445775B2 JP6445775B2 (ja) 2018-12-26

Family

ID=52814773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014075716A Active JP6445775B2 (ja) 2014-04-01 2014-04-01 画像処理装置、画像処理方法

Country Status (5)

Country Link
US (2) US9691155B2 (ja)
EP (1) EP2927873B1 (ja)
JP (1) JP6445775B2 (ja)
KR (1) KR101802146B1 (ja)
CN (1) CN104980622B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017224110A (ja) * 2016-06-14 2017-12-21 トヨタ自動車株式会社 物体判別装置
JP2019067369A (ja) * 2017-09-30 2019-04-25 キヤノン株式会社 画像処理装置および方法並びに監視システム
JP2019067377A (ja) * 2017-09-30 2019-04-25 キヤノン株式会社 画像処理装置及び方法及び監視システム
JP2020021243A (ja) * 2018-07-31 2020-02-06 グローリー株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
US10643096B2 (en) 2016-09-23 2020-05-05 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7953277B2 (en) * 2006-09-05 2011-05-31 Williams Robert C Background separated images for print and on-line use
CN104346801B (zh) * 2013-08-02 2018-07-20 佳能株式会社 图像构图评估装置、信息处理装置及其方法
US10042048B1 (en) 2014-02-20 2018-08-07 National Technology & Engineering Solutions Of Sandia, Llc Superpixels for improved structure and terrain classification using multiple synthetic aperture radar image products
JP6445775B2 (ja) * 2014-04-01 2018-12-26 キヤノン株式会社 画像処理装置、画像処理方法
JP2016134803A (ja) 2015-01-20 2016-07-25 キヤノン株式会社 画像処理装置及び画像処理方法
US9389311B1 (en) * 2015-02-19 2016-07-12 Sandia Corporation Superpixel edges for boundary detection
JP6555906B2 (ja) 2015-03-05 2019-08-07 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
WO2016181550A1 (ja) * 2015-05-14 2016-11-17 オリンパス株式会社 画像処理装置
JP6736270B2 (ja) * 2015-07-13 2020-08-05 キヤノン株式会社 画像処理装置及び画像処理装置の作動方法
JP6624877B2 (ja) * 2015-10-15 2019-12-25 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN106897965B (zh) * 2015-12-14 2020-04-28 国基电子(上海)有限公司 彩色图像处理系统及彩色图像处理方法
TWI599905B (zh) * 2016-05-23 2017-09-21 緯創資通股份有限公司 惡意碼的防護方法、系統及監控裝置
CN106373126B (zh) * 2016-09-04 2018-09-18 河北工业大学 基于融合类测地线和边界对比的图像显著性检测方法
GB2565775A (en) * 2017-08-21 2019-02-27 Nokia Technologies Oy A Method, an apparatus and a computer program product for object detection
US11095814B2 (en) 2018-05-25 2021-08-17 Canon Kabushiki Kaisha Image processing apparatus and image processing method
CN109271538A (zh) * 2018-08-20 2019-01-25 深圳和而泰智能控制股份有限公司 一种图片存储方法及相关设备
US10733742B2 (en) * 2018-09-26 2020-08-04 International Business Machines Corporation Image labeling
CN109859236B (zh) * 2019-01-02 2021-04-23 广州大学 运动物体检测方法、系统、计算设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187732A (ja) * 1998-12-22 2000-07-04 Nippon Telegr & Teleph Corp <Ntt> 文字領域判定方法および装置およびこの方法を記録した記録媒体
JP2010058903A (ja) * 2008-09-03 2010-03-18 Hitachi Ltd 画像認識装置
JP2012085233A (ja) * 2010-10-14 2012-04-26 Sharp Corp 映像処理装置、映像処理方法、及びプログラム
US20120251003A1 (en) * 2011-03-23 2012-10-04 Kabushiki Kaisha Toshiba Image processing system and method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2950267B2 (ja) 1996-12-24 1999-09-20 日本電気株式会社 背景画像生成方法および背景画像生成装置
AU2006252252B2 (en) 2006-12-22 2009-10-01 Canon Kabushiki Kaisha Image processing method and apparatus
CN102637253B (zh) * 2011-12-30 2014-02-19 清华大学 基于视觉显著性和超像素分割的视频前景目标提取方法
CN102722891B (zh) * 2012-06-12 2014-08-27 大连理工大学 一种图像显著度检测的方法
CN103413316B (zh) * 2013-08-24 2016-03-02 西安电子科技大学 基于超像素和优化策略的sar图像分割方法
CN103578119B (zh) * 2013-10-31 2017-02-15 苏州大学 基于超像素的Codebook动态场景中目标检测方法
JP6445775B2 (ja) * 2014-04-01 2018-12-26 キヤノン株式会社 画像処理装置、画像処理方法
JP6482195B2 (ja) 2014-07-02 2019-03-13 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP2016134803A (ja) 2015-01-20 2016-07-25 キヤノン株式会社 画像処理装置及び画像処理方法
JP6525635B2 (ja) 2015-02-25 2019-06-05 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6555906B2 (ja) 2015-03-05 2019-08-07 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187732A (ja) * 1998-12-22 2000-07-04 Nippon Telegr & Teleph Corp <Ntt> 文字領域判定方法および装置およびこの方法を記録した記録媒体
JP2010058903A (ja) * 2008-09-03 2010-03-18 Hitachi Ltd 画像認識装置
JP2012085233A (ja) * 2010-10-14 2012-04-26 Sharp Corp 映像処理装置、映像処理方法、及びプログラム
US20120251003A1 (en) * 2011-03-23 2012-10-04 Kabushiki Kaisha Toshiba Image processing system and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XU FANG,外3名: "Object Detection in Dynamic Scenes Based on Codebook with Superpixels", IEEE 2013 2ND IAPR ASIAN CONFERENCE ON PATTERN RECOGNITION, JPN6018011715, November 2013 (2013-11-01), pages 430 - 434, XP032581754, ISSN: 0003910885, DOI: 10.1109/ACPR.2013.118 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017224110A (ja) * 2016-06-14 2017-12-21 トヨタ自動車株式会社 物体判別装置
US10643096B2 (en) 2016-09-23 2020-05-05 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2019067369A (ja) * 2017-09-30 2019-04-25 キヤノン株式会社 画像処理装置および方法並びに監視システム
JP2019067377A (ja) * 2017-09-30 2019-04-25 キヤノン株式会社 画像処理装置及び方法及び監視システム
JP2020021243A (ja) * 2018-07-31 2020-02-06 グローリー株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
JP7130488B2 (ja) 2018-07-31 2022-09-05 グローリー株式会社 画像処理装置、画像処理方法、および、画像処理プログラム

Also Published As

Publication number Publication date
KR20150114437A (ko) 2015-10-12
JP6445775B2 (ja) 2018-12-26
CN104980622A (zh) 2015-10-14
EP2927873A1 (en) 2015-10-07
US9691155B2 (en) 2017-06-27
US20150279049A1 (en) 2015-10-01
US10438361B2 (en) 2019-10-08
US20170263008A1 (en) 2017-09-14
KR101802146B1 (ko) 2017-11-28
CN104980622B (zh) 2019-01-18
EP2927873B1 (en) 2019-05-08

Similar Documents

Publication Publication Date Title
JP6445775B2 (ja) 画像処理装置、画像処理方法
JP7429542B2 (ja) 拡張現実、仮想現実、ロボティクスに適したグラフィカルな基準マーカ識別
JP6501092B2 (ja) オブジェクトセグメンテーションのための前景マスク補正のための画像処理装置及び方法
JP6889417B2 (ja) 一連の画像の画像内のオブジェクト境界安定化のための画像処理装置及び方法
US9202126B2 (en) Object detection apparatus and control method thereof, and storage medium
AU2016225841B2 (en) Predicting accuracy of object recognition in a stitched image
US10096117B2 (en) Video segmentation method
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
JP7192582B2 (ja) 物体追跡装置および物体追跡方法
WO2013145589A1 (ja) 画像処理装置、撮像装置および画像処理方法
US9477885B2 (en) Image processing apparatus, image processing method and image processing program
US20160253554A1 (en) Determination device and determination method
CN109903265B (zh) 一种图像变化区域侦测阀值设定方法、系统及其电子装置
CN112749645A (zh) 基于监控视频的服装颜色检测方法、装置和设备
CN112507767A (zh) 脸部辨识方法及其相关电脑系统
US10643096B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US9842260B2 (en) Image processing apparatus and image processing method of performing image segmentation
WO2023160061A1 (zh) 图像中运动对象的确定方法、装置、电子设备和存储介质
JP2005025568A (ja) 頭部領域抽出装置
CN115423795A (zh) 静帧检测方法、电子设备及存储介质
JP6855175B2 (ja) 画像処理装置、画像処理方法およびプログラム
US20210034915A1 (en) Method and apparatus for object re-identification
US9852352B2 (en) System and method for determining colors of foreground, and computer readable recording medium therefor
JP2023026293A (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
Raj et al. Shadow Processing Method of High Resolution Remote Sensing Image Using IOBA Matching

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170403

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181130

R151 Written notification of patent or utility model registration

Ref document number: 6445775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151