JP6774915B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP6774915B2
JP6774915B2 JP2017150740A JP2017150740A JP6774915B2 JP 6774915 B2 JP6774915 B2 JP 6774915B2 JP 2017150740 A JP2017150740 A JP 2017150740A JP 2017150740 A JP2017150740 A JP 2017150740A JP 6774915 B2 JP6774915 B2 JP 6774915B2
Authority
JP
Japan
Prior art keywords
image
background
difference
temporary
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017150740A
Other languages
English (en)
Other versions
JP2019028926A (ja
Inventor
広夢 宮下
広夢 宮下
和樹 岡見
和樹 岡見
広太 竹内
広太 竹内
弘員 柿沼
弘員 柿沼
長田 秀信
秀信 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017150740A priority Critical patent/JP6774915B2/ja
Publication of JP2019028926A publication Critical patent/JP2019028926A/ja
Application granted granted Critical
Publication of JP6774915B2 publication Critical patent/JP6774915B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Description

本発明は、カメラ画像から被写体の領域を特定する技術に関する。
ある画像から所望の人物や物体だけを前景として検出する技術は、画像処理分野において広く知られている。これを実現する方法として、あらかじめ被写体が存在しない画を撮影して背景画像とし、同じ画角で被写体が映った画を入力画像として、入力画像と背景画像の差分を取ることで、被写体の領域を検出する背景差分法がある。また、画角内の撮影環境に緑や青など特定色のスクリーンを敷いておき、被写体が映った入力画像のうち、その特定の色相に該当する画素を検出して削除することで、残った領域を前景として検出するキーイング法などが提案されている。これらの被写体抽出手法は動画像に適用することが可能であり、動画中のある被写体だけをまったく異なる動画像に重畳する合成演出などに応用されている。
特許文献1では、被写体領域を求める上で、動画像のフレームを小領域に分割し、各領域で輝度値や色、ウェーブレット特徴、テクスチャ特徴、オプティカルフローなどの複数の特徴量を抽出している。また、各特徴が前景と背景をクラス分けする分離度(尤度)を求め、より尤度の高い複合的な特徴量を求めるためにフィッシャー判別を用いている。これらの処理により、前景と背景とが異なる動きをする動画像の場合でも動画像を前景と背景とに分離することができる。
非特許文献1では、カラー画像と同時にセンサ画像を取得しており、センサ画像によって被写体のおおまかな領域を検出している。この手法では前景と背景の境界部分を未知画素とし、各未知画素についてカラー画像中の色情報を近傍の画素と比較することで、前景または背景のラベルを付け直している。これらの処理により、前景を高速かつ精緻に検出することができる。
特許第4455980号公報
宮下広夢、外4名、"センサとカメラを活用した高速・高精度な被写体抽出"、電子情報通信学会MVE研究会、信学技報、2016年
特許文献1では、背景に動きがある場合でも動画像を前景と背景とに分離できるとしているが、そのためには被写体の色や形状から、あらかじめ特徴量を選定しておくことが前提となっている。そのため、想定していない被写体を前景として分離できる保証はない。また、各特徴量の計算、それら特徴量の分離度の計算、分離度に基づいた小領域の統合など、多くの計算処理が必要となっている。そのため、被写体によっては特徴量の算出に多大な計算を要し、解像度が高い動画像の場合などでは、高速に処理することができず、コマ落ちなどが発生してしまう恐れがある。
非特許文献1では、撮影機器としてカメラに加えてセンサを必要としており、例えば深度差や温度差などの前景と背景の関係によって、デプスセンサやサーモセンサなどを使い分ける必要がある。そのため、カメラだけを用いた撮影方法と比較すると、撮影機器の費用が著しく増大する可能性があり、また、センサとカメラの位置合わせ(キャリブレーション)の作業コストも発生する。
本発明は、上記事情を鑑みてなされたものであり、カメラワークや照明の変化などを伴った動画像についても、精緻かつ高速に前景となる被写体の領域を特定することを目的とする。
以上の課題を解決するため、請求項1に係る画像処理装置は、移り変わる背景を連続撮影した複数の背景画像のうちすべての2つの組み合わせについて背景画像の差分画像を二値化した二値化画像を予め生成しておき、背景前に被写体を含むカメラ画像を受信した場合、前記複数の背景画像のうちいずれかを仮の背景画像とし、前記カメラ画像と前記仮の背景画像との差分画像を二値化したクエリ用二値化画像を生成する差分計算部と、前記クエリ用二値化画像と前記仮の背景画像を組の一方とするすべての二値化画像とについて各画素の論理積をそれぞれ求め、真値の総画素数が最大の二値化画像を構成する組で前記仮の背景画像ではない背景画像を2つ目の仮の背景画像とし、前記カメラ画像と2つの仮の背景画像との2つの差分画像のうち真値の総画素数が低い差分画像に対応する仮の背景画像を真の背景画像とする背景決定部と、を備えることを特徴とする。
請求項2に係る画像処理装置は、請求項1に記載の画像処理装置において、前記差分計算部は、移動するカメラまたは照明器具の位置情報または移動後の経過時間を用いて前記複数の背景画像から仮の背景画像を特定することを特徴とする。
請求項3に係る画像処理装置は、請求項1または2に記載の画像処理装置において、前記差分計算部は、前記二値化画像および前記クエリ用二値化画像をそれぞれ構成する画像領域全体を複数の小領域に分け、真値を少なくとも1つ有する小領域内のすべての真理値を真値に変更し、前記背景決定部は、前記小領域ごとに前記各画素の論理積を求めることを特徴とする。
請求項4に係る画像処理装置は、請求項1ないし3のいずれかに記載の画像処理装置において、前記差分計算部は、前記カメラ画像と前記仮の背景画像との差分画像に対して、前記カメラ画像に含まれる被写体を被覆したマスク画像を適用することにより、前記クエリ用二値化画像を生成することを特徴とする。
請求項5に係る画像処理方法は、画像処理装置で行う画像処理方法において、前記画像処理装置は、移り変わる背景を連続撮影した複数の背景画像のうちすべての2つの組み合わせについて背景画像の差分画像を二値化した二値化画像を予め生成しておくステップと、背景前に被写体を含むカメラ画像を受信した場合、前記複数の背景画像のうちいずれかを仮の背景画像とし、前記カメラ画像と前記仮の背景画像との差分画像を二値化したクエリ用二値化画像を生成するステップと、前記クエリ用二値化画像と前記仮の背景画像を組の一方とするすべての二値化画像とについて各画素の論理積をそれぞれ求め、真値の総画素数が最大の二値化画像を構成する組で前記仮の背景画像ではない背景画像を2つ目の仮の背景画像とし、前記カメラ画像と2つの仮の背景画像との2つの差分画像のうち真値の総画素数が低い差分画像に対応する仮の背景画像を真の背景画像とするステップと、を行うことを特徴とする。
請求項6に係る画像処理プログラムは、請求項1ないし4のいずれかに記載の画像処理装置としてコンピュータを機能させることを特徴とする。
本発明によれば、カメラワークや照明などの変化を伴った動画像についても、精緻かつ高速に前景となる被写体の領域を特定することができる。
画像処理システムの全体構成を示す図である。 画像処理部の機能ブロック構成を示す図である。 実施例1での撮影環境を示す上空図である。 実施例1での事前撮影時に動作する画像処理部の機能ブロック構成を示す図である。 実施例1での事前撮影フローを示す図である。 実施例1での背景画像の例を示す図である。 実施例1での背景画像の差分画像と当該差分画像の変化領域画像の例を示す図である。 実施例1での被写体撮影時に動作する画像処理部の機能ブロック構成を示す図である。 実施例1での被写体撮影フローを示す図である。 実施例1でのカメラ画像の例を示す図である。 実施例1での差分画像と二値化画像とクエリ画像の例を示す図である。 実施例1での論理積画像の例を示す図である。 実施例1での真の背景画像の決定時に参照する参考図である。 実施例1での被写体の抽出結果を示す図である。 実施例2での撮影環境を示す上空図である。 実施例2での背景画像の例を示す図である。 実施例2でのカメラ画像とマスク画像の例を示す図である。 実施例2での差分画像と二値化画像とグリッド画像とクエリ画像の例を示す図である。 実施例2での論理積画像の例を示す図である。
以下、本発明を実施する一実施の形態について図面を用いて説明する。
本実施の形態に係る画像処理システム1の全体構成を図1に示す。当該画像処理システム1は、複数の機器によって構成される。まず、動画像を撮影するためのカメラ部10は、主に通常のビデオカメラが想定され、例えばHDMI(High-Definition Multimedia Interface)やSDI(Serial Digital Interface)などの規格に則って画像処理部30に動画像を逐次送信する。また、位置測定部20は、カメラ部10に取り付けられた加速度センサやGPS(Global Positioning System)受信機など、主にカメラ部10の位置やその変化を測定し、測定データを位置情報として画像処理部30に逐次送信する。なお、本実施の形態では、位置情報として、絶対時刻や外部接続の機器からの信号など、カメラ部10の位置座標そのものを測定しない場合も想定する。画像処理部30は、動画像から被写体の領域を特定する機能を持つ。操作インタフェース部40は、その機能に対する監視や操作をユーザが実施するための端末である。また、出力部50は、通常のプロジェクタやディスプレイなどが想定され、画像処理部30で合成した動画像を表示する。
次に、画像処理部30の機能について説明する。図2は、画像処理部30の機能ブロック構成を示す図である。画像処理部30(画像処理装置)は、図2に示した通り、画像入力部301と、位置情報入力部302と、背景登録部303と、背景画像記憶部304と、差分計算部305と、変化領域画像記憶部306と、背景決定部307と、被写体抽出部308と、画像出力部309と、を備えて構成される。
画像入力部301は、カメラ部10で撮影された動画像を画像処理部30の内部に入力する機能部である。
位置情報入力部302は、位置測定部20で測定されたカメラ部10の位置情報を画像処理部30の内部に入力する機能部である。位置情報とは、上述したように、例えば、カメラ部10の緯度経度、撮影開始後の経過時間などである。
背景登録部303は、入力された動画像のうち撮像空間の背景のみが撮影された背景画像を、当該背景画像とともに入力された位置情報に関連付けて背景画像記憶部304に登録する機能部である。
差分計算部305は、移り変わる背景を連続撮影した複数の背景画像のうちすべての2つの組み合わせについて背景画像の差分画像を二値化した変化領域画像(二値化画像)を予め生成しておき、変化領域画像記憶部306に記憶させておく機能部である。
また、差分計算部305は、背景前に被写体を含むカメラ画像を受信した場合、複数の背景画像のうちいずれかを仮の背景画像とし、カメラ画像と仮の背景画像との差分画像を被写体を除いて二値化したクエリ画像(クエリ用二値化画像)を生成する機能部である。
背景決定部307は、クエリ画像と仮の背景画像を組の一方とするすべての変化領域画像とについて各画素の論理積をそれぞれ求め、真値の総画素数が最大の変化領域画像を構成する組で仮の背景画像ではない背景画像を2つ目の仮の背景画像とし、カメラ画像と2つの仮の背景画像(仮の背景画像および2つ目の背景画像)との2つの差分画像のうち真値の総画素数が低い差分画像に対応する仮の背景画像を真の背景画像として決定する機能部である。
被写体抽出部308は、決定された真の背景画像を背景画像記憶部304から取得し、当該真の背景画像を用いて、画像入力部301で入力していたカメラ画像から被写体を抽出する機能部である。
画像出力部309は、抽出された被写体に対して異なる動画像を重畳するなどの合成演出処理を行い出力部50へ出力する機能部である。
次に、画像処理システム1の処理動作について説明する。本実施の形態では、カメラ部10をスライド移動させ背景を変化させながら撮影する処理動作(実施例1)と、照明器具をスライド移動させ照明を変化させながら撮影する処理動作(実施例2)と、について説明する。
<実施例1>
実施例1では、カメラ部10が直線状に移動するような撮影環境を例として説明する。図3は、撮影環境の簡易的な俯瞰図であり、上部の白い矩形領域Aは撮影対象となる空間を示す。撮影対象となる空間には背景となる物体が設置されており、図中左から多肉植物の鉢、ブロック玩具の家および花壇、観葉植物の植木鉢とする。前景となる被写体Bはブロック玩具の車で、被写体撮影時には、図中左から右に向かって進むものとする。下部の図形はカメラ(カメラ部10)を示しており、近傍の横線はカメラを直線状に移動させるためのトラッキングレールとする。カメラは前景となる車を追いかけるようにトラッキングレール上を平行移動するのみであり、それ以外のズームやパン・チルト操作はできないものとする。
本実施例では、あらかじめ背景だけを撮影しておく事前撮影フローと、被写体が撮影空間に入った状態で撮影し、動画像上の被写体の領域を特定する被写体撮影フローと、の2つのフローを行う。
まず、事前撮影フローについて、図4に示す事前撮影時に動作する画像処理部30の機能ブロック構成と、図5に示すフローチャートにそって処理を具体的に説明する。
画像入力部301は、カメラ部10からカメラ画像が送信されるたびに受信し、位置情報入力部302は、当該カメラ画像に対応する位置情報を受信する(ステップS101)。本実施例では、位置情報としてカメラ移動の経過時間が受信されるものとする。
次に、背景登録部303は、カメラ画像を背景画像として背景画像記憶部304に登録する(ステップS102)。このとき、画像の付加情報(メタデータ)として、位置情報を併せて登録する。
図6に登録された背景画像の例を示す。ここでは、左列のBは登録された背景画像を示す記号であり、nが通番と位置情報を兼ねるものとする。中央列の画像は入力されたカメラ画像であり、これが背景画像に該当する。右列は撮影環境を俯瞰したイメージ図であり、それぞれカメラの位置が異なっている。すなわち、B10からB50へと進むにしたがって、カメラが左側から右側へ横方向に移動しており、背景画像も多肉植物の植木鉢から観葉植物の植木鉢に向かって変化していることを示している。
続いて、操作インタフェース部40からの指示によって背景画像の登録が終了すると、差分計算部305は、すべての背景画像の2つの組み合わせについて変化領域画像を生成する。
まず、差分計算部305は、2つの背景画像を背景画像記憶部304から取得し、互いに同一位置の画素ごとに画素値の差の絶対値を計算する(ステップS103)。この結果を差分画像という。さらに、差分計算部305は、差分画像をある閾値で二値化した画像を生成し、これを変化領域画像として変化領域画像記憶部306に登録する(ステップS104)。
図6に示した5つの背景画像が背景画像記憶部304に登録されている場合の変化領域画像の例を図7に示す。なお、図7では、特に組の一方がB30である変化領域画像のみ示している。左列が背景領域画像を示す記号、中央列が背景画像の組の差分画像、右列が差分画像を二値化した変化領域画像である。
例えば、|B10−B30|は、B10とB30の背景画像を組みとした変化領域画像を示す。|B30−B30|のように背景画像が同一である場合には、変化領域画像の画素はすべて偽値(false)となるため、この計算は省略してもよい。また、画素ごとに差の絶対値を計算するため、|B10−B30|と|B30−B10|のように組が同じ場合では変化領域画像が等しくなるので、これも省略してもよい。
なお、差分画像を二値化する閾値は、操作インタフェース部40によってユーザが指定する。または、閾値を自動的に設定してもよく、例えば差分画像のヒストグラムを作成して平均値・分散値や画素数をもとに、画像の変化した領域が画像全体の特定の割合になるように設定する。
また、カメラ画像や背景画像の輝度値成分など特定の色成分だけを抽出してから差分画像を生成することで、さらに計算量の削減を図ってもよい。また、カメラ画像や背景画像の解像度を縮小して差分画像を生成してもよい。これらを採用した場合、以降の被写体撮影フローにおいて差分計算部305や背景決定部307は同様の処理を実施する。
つぎに、被写体撮影フローについて、図8に示す被写体撮影時に動作する画像処理部30の機能ブロック構成と、図9に示すフローチャートにそって処理を具体的に説明する。
被写体撮影フローは、画像入力部301がカメラ画像を受信するたびに実施される。画像入力部301と位置情報入力部302には、事前撮影フローと同じ形式でカメラ画像と位置情報がそれぞれ入力されるものとする。図10に被写体撮影フローで入力されたカメラ画像の例を示す。左列がカメラ画像を示す記号、中央列がカメラ画像、右列が撮影環境を俯瞰したイメージ図に対応する。ここで、ブロック玩具の車が前景となる。以降、カメラ画像Pが入力されたときの処理を例に説明する。このとき、直前に入力されたカメラ画像Pn−1に対する処理は完了しているものとする。
まず、差分計算部305は、カメラ画像とともに入力された位置情報をもとに、背景画像記憶部304から背景である確率が高い背景画像を仮の背景画像Bとして取得する(ステップS201)。例えば、位置情報がトラッキングレールの始点からのカメラの移動距離である場合、同じ位置情報が付加された背景画像を仮の背景画像Bとして取得する。位置情報がカメラ移動の経過時間である場合であっても同様の方法で背景である確率が高い背景画像を取得できる。
次に、差分計算部305は、カメラ画像Pと仮の背景画像Bの差分画像|P−B|を生成する(ステップS202)。
ここで、事前撮影フローと被写体撮影フローでカメラの移動速度が異なる場合、カメラ画像内の背景に対応しない背景画像を取得する可能性がある。図11の上段は、前フレームでのカメラ画像Pn−1と、それに対応する真の背景画像B20の差分画像|Pn−1−B20|を示している。中段は、現フレームでのカメラ画像Pと、それに対応する仮の背景画像B30の差分画像|P−B30|を示している。|Pn−1−B20|よりも|P−B30|の画素値の総数が著しく高いことがわかるが、これは仮の背景画像B30がカメラ画像Pに正しく対応していないことを示唆している。
このとき、カメラ画像と仮の背景画像との差分画像の画素値が十分に小さい場合や、過去の差分画像と比較して大きく変化していないことが検知できた場合は、この仮の背景画像を真の背景画像として決定し、以降の背景画像を決定する処理を省略してもよい。
そうでない場合、差分計算部305は、図11のように、カメラ画像と仮の背景画像との差分画像と、前フレームの差分画像との差分を計算し、二値化してクエリ画像とする(ステップS203)。
以降、背景決定部307は、差分計算部305から入力されたクエリ画像と仮の背景画像をもとに、真の背景画像を決定する処理を実施する。なお、「前フレームの差分画像との差分」を計算するのは、「カメラ画像と仮の背景画像との差分画像」から被写体を排除するためである。この後に行う論理積演算対象の互いの画像がともに背景となるように調整している。但し、必ずしも前フレームで被写体のみが抽出されているとは限らず、被写体が動いている場合はクエリ画像中から被写体の領域を完全に取り除くことは難しいので、「前フレームの差分画像との差分」を計算する処理を省略してもよい。
続いて、背景決定部307は、仮の背景画像が組の一方となるすべての変化領域画像を取得し、クエリ画像と取得したすべての変化領域画像について、互いに同一位置の画素ごとに、各画素の論理積を求めた論理積画像を生成する(ステップS204)。
図12は仮の背景画像がB30であるときの論理積画像を示す。B30が組の一方となるすべての変化領域画像、すなわち|B10−B30|から|B50−B30|までの変化領域画像と、クエリ画像とで画素ごとの論理積を計算している。
なお、|B30−B30|の画素はすべて偽値のため、この計算を省略してもよい。さらに、仮の背景画像と真の背景画像の位置情報が非常に近いと仮定できるとき、取得する変化領域画像を制限してもよい。例えば仮の背景画像がB30のとき、位置情報が近いB20とB40からなる変化領域画像、すなわち|B20−B30|と|B40−B30|だけを取得し、位置情報が遠いB10とB50からなる変化領域画像、すなわち|B10−B30|と|B50−B30|を取得せず、処理を省略してもよい。
次に、背景決定部307は、生成した論理積画像の総画素値を計算する(ステップS205)。論理積画像は二値化されているため、真値である画素の数が総画素値となる。この総画素数が最大となる変化領域画像を特定し、その変化領域画像を構成する組のうち、仮の背景画像ではない背景画像を2番目の仮の背景画像とする(ステップS206)。例えば図12の場合、総画素数が最大となる論理積画像はQ∧|B40−B30|であり、仮の背景画像はB30であるため、2番目の仮の背景画像はB40となる。
次に、背景決定部307は、差分計算部305からカメラ画像と仮の背景画像の差分画像を取得し、さらにカメラ画像と2番目の仮の背景画像の差分画像を生成して、それら2つの差分画像を比較し、真値の総画素値が低い差分画像に対応する仮の背景画像を真の背景画像として決定する(ステップS207)。
図13に、カメラ画像と仮の背景画像の差分画像|P−B30|と、カメラ画像と2番目の背景画像の差分画像|P−B40|を示す。|P−B40|は|P−B30|よりも真値の総画素値が低いため、この例ではB40が真の背景画像として決定される。
次に、被写体抽出部308は、画像入力部301が入力していたカメラ画像を取得し、また、背景決定部307から指示された真の背景画像を背景画像記憶部304から取得して、当該真の背景画像を用いてカメラ画像から被写体抽出を抽出する(ステップS208)。
この被写体抽出の処理については、差分画像を生成して二値化するものをはじめとして、一般的に用いられている手法を利用する。図14の上段にカメラ画像Pから被写体を抽出した結果を示す。カメラ画像Pの前景であるブロック玩具の車の領域が真値で、それ以外の背景に該当する領域が偽値で表されている。
最後に、画像出力部309は、被写体抽出部308から入力されたカメラ画像や被写体抽出の結果をもとに、動画像の合成などを施して出力部50へ結果画像を出力する(ステップS209)。図14の下段ではカメラ画像のうち前景に該当する画素のみ画素値を残し、背景に該当する画素を白色に変換した場合を示している。この他に、背景に該当する画素を別の画像の画素に置き換えるなどの合成により、前景であるブロック玩具の車がまったく異なる画像に重畳されて表示されるといった演出が可能になる。
<実施例2>
次に、図15の俯瞰図で示すように、カメラ部10が固定されており、照明器具Cがレールに沿って移動するような撮影環境を例として説明する。なお、基本的な動作は実施例1に則ったものとし、実施例2では特に実施例1で述べられなかった異なる動作について、具体的に説明する。
図16は、事前撮影フローにおいて、背景画像記憶部304に登録された背景画像を示している。本実施例で位置情報は照明器具が移動を開始してからの経過時刻とする。図中右列は各背景画像に対応する撮影環境の俯瞰図である。照明器具が左から右に移動するにつれ、背景画像中の照明が変化していることがわかる。事前撮影フローでは、実施例1と同様に、すべての背景画像の2つの組み合わせについて変化領域画像が生成され、変化領域画像記憶部306に予め記憶されている。
図17の上段は、被写体撮影フローで入力されたカメラ画像を示している。このブロック玩具のヒトを前景として、以降の処理ではその領域を特定する。本実施例では、前フレームの差分画像が取得できないものとする。一方で、被写体の動く範囲が動画像上で非常に限定されているものとする。そこで、操作インタフェース部40により被写体の動く範囲を図17中段のように指定することで、図17下段のような被写体を被覆したマスク画像を生成する。このマスク画像では真値が背景の主な領域を示し、偽値が前景の主な領域を示すものとする。
その後、被写体撮影フローにおいて、カメラ画像と位置情報が差分計算部305に入力されると、差分計算部305は、まず、当該位置情報をもとに、背景画像記憶部304から仮の背景画像Bを選択する。本実施例では仮の背景画像としてB10が選択されたものとする。
次に、差分計算部305は、カメラ画像Pと仮の背景画像Bの差分画像を計算する。図18上段はその例を示しており、左から、差分画像を示す記号、画素ごとに画素値の差の絶対値を計算した差分画像、その差分画像を二値化した画像、グリッドで構成した差分画像を示す。なお、(32×28)は、グリッド化された各小領域の画素サイズを示す。
グリッドは、画像領域全体を小領域に分割するための格子線である。変化領域画像やクエリ画像などの画像間での論理積演算を、複数の画素を含む小領域ごとに行うことで、以降の処理において計算量をさらに削減できる。例えば、グリッドで構成した差分画像を得るために、カメラ画像と仮の背景画像の差分の絶対値を二値化した画像を小領域ごとにスキャンし、真値が1つでもあった場合に小領域内のすべての真理値を真値に変換・変更する。このとき、他の基準で小領域を真値にしてもよく、例えば、小領域の面積の半分以上が真値のときに基準を満たすものとしてもよい。なお、グリッドを採用する場合には、事前撮影フローにおいても、差分計算部305でグリッドによる変化領域画像の変換を実施しておく。
次に、図18下段のように、差分計算部305は、グリッドで構成した差分画像とマスク画像の画素ごとの論理積を小領域ごとに計算し、計算した画像をクエリ画像とする。なお、図中Mはマスク画像を意味する。マスク画像は、カメラ画像と仮の背景画像の差分を求めるときに適用してもよい。
その後、背景決定部307は、差分計算部305から入力されたクエリ画像と仮の背景画像から、真の背景画像を決定する処理を実施する。図19に仮の背景画像がB10であるときの論理積画像を示す。左列は論理積画像を示す記号であり、右列は論理積画像を示す。背景決定部307は、変化領域画像記憶部306から仮の背景画像を組の一方とする変化領域画像を取得し、各変化領域画像について、画素ごとにクエリ画像との論理積を計算し、真値の総画素値を求める。
そして、背景決定部307は、真値の総画素値が最大の論理積画像に対応する変化領域画像を構成する背景画像の組のうち、仮の背景画像とは異なる背景画像を2番目の仮の背景画像とする。図19では論理積画像Q∧|B20−B10|が最大の総画素値を持ち、仮の背景画像がB10であるため、2番目の仮の背景画像はB20となる。
以降、実施例1と同様の処理を行い、被写体を抽出した結果を出力部50へ出力する。
<効果1>
従来の手法では、被写体を含むカメラ画像に対して、複数の背景画像との間で画素値の差分をすべて計算して真の背景画像を特定する。しかし、当該従来の手法では、すべての背景画像と間で差分計算を行うため、差分計算に係る計算量が非常に多くなり、カメラ画像から被写体を高速に抽出することができない。
一方、本実施の形態では、複数の背景画像のうちすべての2つの組み合わせについて背景画像の差分画像を事前に計算し、かつ、当該差分画像を二値化した変化領域画像を予め生成しておく。そして、背景前に被写体を含むカメラ画像を受信した場合、複数の背景画像のうちいずれかを仮の背景画像とし、カメラ画像と仮の背景画像との差分画像を被写体を除いて二値化したクエリ画像を生成する。そして、クエリ画像と仮の背景画像を組の一方とするすべての変化領域画像とについて各画素の論理積をそれぞれ求め、真値の総画素数が最大の変化領域画像を構成する組で仮の背景画像ではない背景画像を2つ目の仮の背景画像とし、カメラ画像と2つの仮の背景画像との2つの差分画像のうち真値の総画素数が低い差分画像に対応する仮の背景画像を真の背景画像とする。
つまり、本実施の形態では、複数の背景画像について、すべての2つの背景画像間の差を示す変化領域画像を予め生成しておき、仮の背景画像をもとに複数の変化領域画像から2つ目の仮の背景画像を特定し、それら2つの仮の背景画像の中から真の背景画像を決定するので、複数の背景画像のすべてではなく、その一部の背景画像を用いて真の背景画像を特定することができる。また、背景画像の差分画像を二値化した変化領域画像を用いるので、差分計算を論理演算に置き換えることができる。その結果、カメラワークや照明の変化などを伴った動画像についても、精緻かつ高速に前景となる被写体の領域を特定することができる。
<効果2>
本実施の形態では、移動するカメラまたは照明器具の位置情報または移動後の経過時間を用いて複数の背景画像から仮の背景画像を特定するので、変化領域画像の取得数を抑えることができ、2つ目の仮の背景画像をより精度よく特定することができる。
位置情報がない場合、仮の背景画像は、固定値やランダム値、または、過去の画像フレームで採用した値から特定するしかない。そのため、仮の背景画像の信頼性が低く、2つ目の仮の背景画像を特定するために、その値を組とするすべての変化領域画像を取得する必要がある。
一方、本実施の形態で述べたように、位置情報を用いて、仮の背景画像と、その仮の背景画像の近傍にある背景画像の組から得た変化領域画像だけを取得すれば、2つ目の仮の背景画像を高精度に特定することができる。
<効果3>
本実施の形態では、画像領域を画素領域よりも大きい小領域に区分するグリッド化処理を行い、当該小領域ごとに画像間の論理積計算を行うので、計算処理の回数や負担をさらに削減することができる。
<効果4>
本実施の形態では、カメラ画像と仮の背景画像の差分画像(グリッド画像)に対してマスク画像を用いて論理積計算を行うので、被写体の色や動きの影響を受けずに真の背景を特定することができる。
以上、本実施の形態では、実施例1と実施例2とについてそれぞれ説明したが、それら2つの実施例を組み合わせることも可能である。
最後に、本実施の形態で説明した画像処理システム1は、上記機能を備えるコンピュータなどで実現可能である。また、画像処理システム1としてコンピュータを機能させるための画像処理プログラム、当該画像処理プログラムの記憶媒体を作成することも可能である。
1…画像処理システム
10…カメラ部
20…位置測定部
30…画像処理部
40…操作インタフェース部
50…出力部
301…画像入力部
302…位置情報入力部
303…背景登録部
304…背景画像記憶部
305…差分計算部
306…変化領域画像記憶部
307…背景決定部
308…被写体抽出部
309…画像出力部

Claims (6)

  1. 移り変わる背景を連続撮影した複数の背景画像のうちすべての2つの組み合わせについて背景画像の差分画像を二値化した二値化画像を予め生成しておき、背景前に被写体を含むカメラ画像を受信した場合、前記複数の背景画像のうちいずれかを仮の背景画像とし、前記カメラ画像と前記仮の背景画像との差分画像を二値化したクエリ用二値化画像を生成する差分計算部と、
    前記クエリ用二値化画像と前記仮の背景画像を組の一方とするすべての二値化画像とについて各画素の論理積をそれぞれ求め、真値の総画素数が最大の二値化画像を構成する組で前記仮の背景画像ではない背景画像を2つ目の仮の背景画像とし、前記カメラ画像と2つの仮の背景画像との2つの差分画像のうち真値の総画素数が低い差分画像に対応する仮の背景画像を真の背景画像とする背景決定部と、
    を備えることを特徴とする画像処理装置。
  2. 前記差分計算部は、
    移動するカメラまたは照明器具の位置情報または移動後の経過時間を用いて前記複数の背景画像から仮の背景画像を特定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記差分計算部は、
    前記二値化画像および前記クエリ用二値化画像をそれぞれ構成する画像領域全体を複数の小領域に分け、真値を少なくとも1つ有する小領域内のすべての真理値を真値に変更し、
    前記背景決定部は、
    前記小領域ごとに前記各画素の論理積を求めることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記差分計算部は、
    前記カメラ画像と前記仮の背景画像との差分画像に対して、前記カメラ画像に含まれる被写体を被覆したマスク画像を適用することにより、前記クエリ用二値化画像を生成することを特徴とする請求項1ないし3のいずれかに記載の画像処理装置。
  5. 画像処理装置で行う画像処理方法において、
    前記画像処理装置は、
    移り変わる背景を連続撮影した複数の背景画像のうちすべての2つの組み合わせについて背景画像の差分画像を二値化した二値化画像を予め生成しておくステップと、
    背景前に被写体を含むカメラ画像を受信した場合、前記複数の背景画像のうちいずれかを仮の背景画像とし、前記カメラ画像と前記仮の背景画像との差分画像を二値化したクエリ用二値化画像を生成するステップと、
    前記クエリ用二値化画像と前記仮の背景画像を組の一方とするすべての二値化画像とについて各画素の論理積をそれぞれ求め、真値の総画素数が最大の二値化画像を構成する組で前記仮の背景画像ではない背景画像を2つ目の仮の背景画像とし、前記カメラ画像と2つの仮の背景画像との2つの差分画像のうち真値の総画素数が低い差分画像に対応する仮の背景画像を真の背景画像とするステップと、
    を行うことを特徴とする画像処理方法。
  6. 請求項1ないし4のいずれかに記載の画像処理装置としてコンピュータを機能させることを特徴とする画像処理プログラム。
JP2017150740A 2017-08-03 2017-08-03 画像処理装置、画像処理方法および画像処理プログラム Active JP6774915B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017150740A JP6774915B2 (ja) 2017-08-03 2017-08-03 画像処理装置、画像処理方法および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017150740A JP6774915B2 (ja) 2017-08-03 2017-08-03 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2019028926A JP2019028926A (ja) 2019-02-21
JP6774915B2 true JP6774915B2 (ja) 2020-10-28

Family

ID=65476273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017150740A Active JP6774915B2 (ja) 2017-08-03 2017-08-03 画像処理装置、画像処理方法および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6774915B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023145599A1 (ja) * 2022-01-25 2023-08-03 株式会社Preferred Networks 画像処理装置、画像処理方法、画像処理プログラム及びロボット制御システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0614351B2 (ja) * 1986-09-26 1994-02-23 コニカ株式会社 2値画像の処理方法及び2値画像の処理装置
JPH0721388A (ja) * 1993-06-23 1995-01-24 Toshiba Corp 画像認識装置
JPH07105381A (ja) * 1993-10-05 1995-04-21 N T T Data Tsushin Kk 監視装置及び監視装置のための画像処理方式
JP3647030B2 (ja) * 2000-08-31 2005-05-11 株式会社日立国際電気 物体検出方法及び物体検出装置及び物体検出プログラム
JP2011211628A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
JP2019028926A (ja) 2019-02-21

Similar Documents

Publication Publication Date Title
CN108810418B (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
US11282224B2 (en) Information processing apparatus and information processing method
CN108024107B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
US8988317B1 (en) Depth determination for light field images
KR101121034B1 (ko) 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품
US20150278996A1 (en) Image processing apparatus, method, and medium for generating color image data
JP2017520050A5 (ja)
KR101223046B1 (ko) 정지장면의 연속프레임 영상에 기반한 영상분할장치 및 방법
JP2016151955A (ja) 画像処理装置、撮像装置、距離計測装置、および画像処理方法
KR101441786B1 (ko) 피사체 판정 장치, 피사체 판정 방법, 및 기록 매체
JP7223079B2 (ja) 画像処理装置およびその制御方法、ならびに撮像装置
KR20110025621A (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 기억 매체
TWI425445B (zh) 用於判斷一移動平台之自我運動量的方法以及偵測系統
US20160098863A1 (en) Combining a digital image with a virtual entity
JP2008117305A (ja) 画像処理装置
JP7092615B2 (ja) 影検出装置、影検出方法、影検出プログラム、学習装置、学習方法、及び学習プログラム
JP7163049B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6774915B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6585668B2 (ja) 物体検出装置
KR101733125B1 (ko) 배경스크린이 필요 없는 크로마키 영상 합성 방법
US9709874B2 (en) Device and method for image processing used for tracking pursued subject
CN116704111B (zh) 图像处理方法和设备
KR101367673B1 (ko) 깊이 카메라 정보를 이용한 색상 영상 시퀀스에 대한 움직임 추정 영역 설정 방법 및 그 설정 시스템
CN115880643B (zh) 一种基于目标检测算法的社交距离监测方法和装置
JP2014191685A (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201005

R150 Certificate of patent or registration of utility model

Ref document number: 6774915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150