JP2019125269A - Method and device suitable for foreground/background separation - Google Patents
Method and device suitable for foreground/background separation Download PDFInfo
- Publication number
- JP2019125269A JP2019125269A JP2018006759A JP2018006759A JP2019125269A JP 2019125269 A JP2019125269 A JP 2019125269A JP 2018006759 A JP2018006759 A JP 2018006759A JP 2018006759 A JP2018006759 A JP 2018006759A JP 2019125269 A JP2019125269 A JP 2019125269A
- Authority
- JP
- Japan
- Prior art keywords
- background
- foreground
- image
- boundary
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Circuits (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、固定カメラで撮影した入力画像の背景から前景を分離する前景背景分離に好適な方法および装置に係り、特に、背景差分法により生成した差分マスク画像を用いた前景背景分離に好適な方法および装置に関する。 The present invention relates to a method and apparatus suitable for foreground separation, which separates the foreground from the background of an input image taken by a fixed camera, and in particular, for foreground separation using a difference mask image generated by background subtraction. Method and apparatus
在宅勤務者がTV会議時などで自身の映像を送信する際、プライバシー保護のため、背景(自宅背景)と前景(人物上半身)とを分離して自宅背景を秘匿する技術が求められる。さらにその際、軽処理であること、またジェスチャーを表示するために人物形状通りに正確に分離することも求められる。 When a home worker transmits his / her own video at a TV conference or the like, a technique for separating the background (home background) and the foreground (human body upper body) and concealing the home background for privacy protection is required. Furthermore, at that time, it is also required to be light processing and to accurately separate into a human shape in order to display a gesture.
深度センサから得られた距離情報を用いて前景を背景から分離する方法もあるが、深度センサを実装していない普及型の光学カメラから得られた画像・映像から人物の前景を静止した背景から分離するアプローチがいくつか提案されている。 There is also a method of separating the foreground from the background using distance information obtained from the depth sensor, but from the image / video obtained from a popular optical camera without the depth sensor mounted, the foreground of the person is taken from the stationary background Several approaches to separation have been proposed.
第1のアプローチとして、画像処理で顔を検出し、その周囲を一定形状の人型(人間の上半身の型)等で切り抜く方法がある。動画像の場合は、検出した顔の特徴点について追跡を行う、一定時間ごとに顔検出をし直すといった処理で前景と背景を分離できる。 As a first approach, there is a method in which a face is detected by image processing, and the periphery thereof is cut out with a fixed shape human shape (a human upper body shape) or the like. In the case of a moving image, the foreground and the background can be separated by processing for tracking the feature points of the detected face, and re-detecting the face every predetermined time.
第2のアプローチとして、グラブカット法などの領域分割と組み合わせ、前景と背景との境界を高精度に分離する方法がある。非特許文献1には、顔を検出し、前景のラベルとして利用し、分離する手法が開示されている。非特許文献3には、イメージマッティング技術において、前景と背景との境界部分などで適切な透明度を持つ分離を行い、髪などの細かなディテールを保持する手法が提案されている。
As a second approach, there is a method of separating the boundary between the foreground and the background with high accuracy in combination with the area division such as the grab cut method. Non-Patent
第3のアプローチとして、予め用意した背景モデルと入力映像との差分により前景と背景とを分離する背景差分法をベースにした方法がある。 As a third approach, there is a method based on the background subtraction method in which the foreground and the background are separated by the difference between the background model prepared in advance and the input image.
以上のアプローチの中で、第3のアプローチである背景差分法は、差分演算処理や2値のモルフォロジー演算を基本的な構成とし、最も軽処理でありながら、照明条件や背景・前景色等の条件等が整っていれば、前景・背景の分離時の輪郭も形状通りに高精度に行える。一般的な背景差分法の基本フローは以下の通りである。 Among the above approaches, the third approach, the background subtraction method, has basic configuration of difference calculation processing and binary morphological calculation, and although it is the lightest processing, such as illumination condition, background, foreground color, etc. If conditions etc. are satisfied, the outline at the time of separation of the foreground and the background can be performed with high accuracy as the shape. The basic flow of the general background subtraction method is as follows.
ステップ1:初めに背景モデルを作成する。背景モデルは撮影した静止画や動画から作成する。背景を動画で取得した場合、経時的な平均値や分散値も、ノイズや照明などの背景の変動を反映するのに使用することができ、後述する「閾値処理」で動的に閾値を変更できるなども可能である。ここでは簡単のため、背景モデルを静止画Ib(x,y)とする。カラーであれば、RBGやYCbCr等の各々の色成分で背景モデルを作成できる。 Step 1: First create a background model. The background model is created from the photographed still image and video. When the background is acquired as a moving image, the mean value and variance value over time can also be used to reflect background fluctuations such as noise and lighting, and the threshold value is changed dynamically by the “threshold processing” described later. It is also possible. Here, for the sake of simplicity, the background model is assumed to be a still image Ib (x, y). If it is a color, a background model can be created with each color component such as RBG and YCbCr.
ステップ2:次いで、入力画像(映像)Iaと背景画像Ibとで、次式(1)により画素毎に差を計算する。
Id(x,y)=Ia(x,y)-Ib(x,y) …(1)
Step 2: Next, the difference between the input image (image) Ia and the background image Ib is calculated for each pixel by the following equation (1).
Id (x, y) = Ia (x, y)-Ib (x, y) (1)
簡単のため、ここでの差分画像Idは絶対値を取ることにする。カラーであれば、RBGやYCbCr等の各々の色成分で処理可能である。または、各々の色成分で差分画像を求めず、各色成分を統合した差分画像Idを計測することも可能である。 For simplicity, the difference image Id here has an absolute value. If it is color, it can be processed with each color component such as RBG or YCbCr. Alternatively, it is also possible to measure a difference image Id in which each color component is integrated without obtaining a difference image for each color component.
ステップ3:次いで、差分画像Idに対して、前景を検出するために次式(2)の閾値処理を行って差分マスク画像Imを生成する。
Im(x,y)=1;if|Id(x,y)>T (前景) …(2)
0;otherwise (背景)
Step 3: Next, the difference image Id is subjected to threshold processing of the following equation (2) to detect the foreground to generate a difference mask image Im.
Im (x, y) = 1; if | Id (x, y)> T (foreground) (2)
0; otherwise (background)
各々の色成分について差分画像Idを求めている場合、閾値処理後に論理和演算を適用することで1枚の差分マスク画像Imを作成できる When the difference image Id is obtained for each color component, one difference mask image Im can be created by applying the logical sum operation after threshold processing.
ステップ4:オプションとして、ごま塩のノイズ等の除去のためにオープニング・クロージング処理を行う。 Step 4: As an option, an opening and closing process is performed to remove sesame salt noise and the like.
ステップ5:オプションとして、指定した一定値以下の連結成分となっている微小領域除去をオープニング・クロージング処理により除去する。 Step 5: As an option, micro area removal which is a connected component equal to or less than a designated fixed value is removed by an opening closing process.
一方、背景差分法では、(i)照明変化に弱い、(ii)背景の非静止領域に弱い(葉の揺らぎなど)、(iii)背景と前景が類似色だと対象物体(前景)の検出が困難、といった問題がある。背景色が類似色の場合の前景の検出漏れは、前述のステップ4,5のゴマ塩ノイズ除去処理や微小領域除去処理によりある程度は補正することもできるが、一定以上に大きな領域の検出漏れを無くすために、ステップ5で除去する微小領域の面積等を大きく設定すると誤判定を生じ、検出漏れ領域が一定以上広い場合の補正としては適切でない。 On the other hand, in the background subtraction method, (i) weak to illumination change, (ii) weak to non-static area of background (leaf fluctuation etc.), (iii) detection of target object (foreground) if background and foreground are similar colors Is difficult, there is a problem. The foreground detection omission when the background color is similar color can be corrected to some extent by the sesame salt noise removal processing and the micro area removal processing in the steps 4 and 5 described above, but the detection omission of a larger area than a certain level If the area or the like of the minute region to be removed is set large in step 5 in order to eliminate it, an erroneous determination occurs, and it is not appropriate as a correction when the detection leakage region is wider than a certain amount.
背景差分法において、上記(i),(ii)の課題解決手法は数多く提案されているが、(iii)については根本的には解決できないと言われ、改善手法は少ないが、以下の様な改善手法がある。 In the background subtraction method, many problem solving methods in (i) and (ii) above are proposed, but it is said that (iii) can not be fundamentally solved, and there are few improvement methods, but There is an improvement method.
非特許文献2には、背景差分と色検出を統合した手法が提案されており、背景差分のみを用いた場合よりも精度を高められることがある。ここでは、YUV階調を軸に持つ前景画像(Yf ,Uf, Vf)および背景画像(Yb, Ub, Vb)の6次元空間において、事前学習により背景と前景(ターゲット)の識別面を求めることで、前景を検出する技術が開示されている。 Non-Patent Document 2 proposes a method in which background difference and color detection are integrated, and the accuracy may be improved as compared with the case where only background difference is used. Here, in the six-dimensional space of the foreground image (Yf, Uf, Vf) and the background image (Yb, Ub, Vb) having YUV gradations as axes, the identification plane of the background and the foreground (target) is obtained by prior learning. In the prior art, techniques for detecting the foreground are disclosed.
特許文献1には、入力画像に対し、白とびや黒つぶれの面積が一定以上あるブロックについて、背景差分が適さないと判定し(この場合、背景に白や黒の領域があり、前景色と背景色の類似性が課題になっていると推測できる)、背景差分が適さない場合、別の手法でオブジェクト検出処理を行う技術が開示されている。
In
この特許文献1では、入力画像のエッジ画像を作成し、予め作成してある背景エッジ画像とパターンマッチングを行い、マッチングされた形状をもつオブジェクトは背景とみなす。マッチングされず、かつオブジェクトの外形が表れている入力画像の領域がオブジェクトとして検出される。
In this
特許文献2には、動く物体(特に、人)の輪郭線を安定的に抽出するために、背景差分法を利用する技術が開示されている。この特許文献2では、輪郭抽出フィルタを用いて抽出したエッジ画像と、背景差分で前景と判定された画像に膨張処理を施した膨張前景画像とを作成し、エッジ画像と膨張前景画像との論理積を取得することで、それ以外のエッジを不要なエッジとして除去し、正しいエッジのみからマスクエッジ画像を作成する。 Patent Document 2 discloses a technique that uses a background subtraction method to stably extract the outline of a moving object (in particular, a person). In this patent document 2, an edge image extracted using an outline extraction filter and an expanded foreground image obtained by performing expansion processing on an image determined to be foreground by background difference are created, and the logic between the edge image and the expanded foreground image By obtaining the product, the other edges are removed as unnecessary edges, and a mask edge image is created only from the correct edges.
さらに、マスクエッジ画像と膨張前景画像との境界を抽出した前景境界画像を生成し、マスクエッジ画像と前景境界画像を合成し、輪郭画像を作成する。その後、パーティクルフィルタで動的に輪郭線を追跡する。それにより動的輪郭追跡より高精度に動物体を追跡し、前景・背景分離も行える。 Furthermore, a foreground boundary image is generated by extracting the boundary between the mask edge image and the expanded foreground image, and the mask edge image and the foreground boundary image are synthesized to create an outline image. After that, follow the contours dynamically with the particle filter. As a result, the moving object can be tracked with higher accuracy than dynamic contour tracking, and foreground / background separation can also be performed.
非特許文献4には、前景背景分離後の前景の秘匿レベルを抽象化オペレータで調整する技術が開示されている。 Non-Patent Document 4 discloses a technique of adjusting the foreground concealment level after foreground / background separation with an abstraction operator.
背景差分法を用いない第1のアプローチでは、人物形状を想定した一定型の切り抜きであるため、人物の輪郭は正しい形状で切り抜けない課題がある。また、手の動きなどのジェスチャーは背景とされてしまい、相手に伝えることができない。さらに、背景差分法と比較して計算量が多いことも課題となる場合がある。 In the first approach that does not use the background subtraction method, there is a problem that the outline of a person can not be cut out with a correct shape because it is a certain type of cutout assuming the shape of the person. In addition, gestures such as hand movements are considered as background and can not be transmitted to the other party. Furthermore, the problem may be that the amount of calculation is large compared to the background subtraction method.
例えば、在宅勤務などの場合には自宅PCや会社から配布されるPCのスペックが低いことがしばしばあると考えられる。スペックの低いPCでは、リアルタイム処理が難しい場合や、並列作業中の他のプロセスのパフォーマンスを低下させる場合がある。また、完全在宅勤務等で長期間にわたり長時間動作させることにより、リアルタイム動作可能であっても、PCが熱を持ちやすくなり、故障が増えるといった課題も考えられる。 For example, in the case of working at home, it is considered that the specifications of a home PC or a PC distributed from a company are often low. A low spec PC may have difficulty in real-time processing or may degrade the performance of other processes in parallel. In addition, even if real-time operation is possible, it is conceivable that the PC is likely to have heat and the trouble is increased by operating at full-time for a long period of time such as full teleworking.
第2のアプローチは、第1のアプローチ1の課題は解決でき、正しい輪郭形状で分離を行える。一方で、一般的に第1のアプローチ1よりも計算量が多い。したがって、リアルタイム処理を実現するためには、GPUでの並列処理が可能といった一定スペック以上のPCが必要となることが多い。
The second approach solves the problem of the
また、リアルタイム処理が可能であっても、第1のアプローチと同様に、並列作業中の他のプロセスのパフォーマンスを低下させる場合がある。長期在宅勤務等で、長期間にわたり長時間動作させることにより、PCが熱を持ちやすくなり、故障が増えるといった課題も考えられる。 Also, even if real-time processing is possible, the performance of other processes in parallel work may be degraded as in the first approach. Long-term home work, etc., by operating for a long time for a long time, it is possible to have a problem that the PC is likely to have heat, failure increases.
第3のアプローチの基本的な背景差分法は、背景と前景の色が似ている類似色の場合、前景の検出漏れが生じる。閾値や色の計算手法を変更しても、前景と背景が同じ色空間に属してしまい差がない場合、前景漏れを補正できない。 According to the basic background subtraction method of the third approach, in the case of similar colors in which the background and foreground colors are similar, the foreground is missed. Even if the threshold or color calculation method is changed, foreground leakage can not be corrected if the foreground and background belong to the same color space and there is no difference.
非特許文献2の様に背景差分法と前景の色検出法を統合し、前景の色検出法によりトレーニングした前景に対して検出精度を高めるアプローチにより、一般的な背景差分のみ用いた場合よりも精度を高められる可能性がある。しかしながら、別途トレーニングデータの取得作業や学習が必要となる。また、類似色については識別面を構成できず前景検出漏れが発生することも考えられる。さらに、検出速度も背景差分より低下し、長時間動作により、PCが熱を持ちやすくなり、故障が増えるといった課題も考えられる。 As in Non-Patent Document 2, the background subtraction method and the foreground color detection method are integrated, and the approach for enhancing the detection accuracy for the foreground trained by the foreground color detection method allows more than the general background subtraction method. There is a possibility that the accuracy can be improved. However, training data acquisition work and learning are separately required. In addition, with regard to similar colors, it is also conceivable that foreground detection omission occurs because the identification surface can not be configured. Furthermore, the detection speed is also lower than the background difference, and there is also a problem that the PC is likely to have heat due to the long time operation, and the failure increases.
特許文献1では、入力画像と背景画像のエッジ画像がマッチングされる箇所は背景と判定されてしまうため、前景の検出漏れの判定は行えず、背景として誤判定されたままとなる。特許文献2では、前景・背景分離を主目的としておらず、特許文献1と同様に前景検出漏れの判定は行えない。
In
本発明の目的は、上記の技術課題を解決し、固定カメラで撮影した入力画像の背景から前景を背景差分法により軽処理かつ高精度で分離可能であるか否かを評価し、さらには背景差分法により背景から前景を適正に分離する方法および装置を提供することにある。 The object of the present invention is to solve the above-mentioned technical problems, and to evaluate whether the foreground can be separated lightly from the background of the input image taken by the fixed camera by the background subtraction method with high accuracy and further, the background It is an object of the present invention to provide a method and apparatus for properly separating the foreground from the background by the subtraction method.
上記の目的を達成するために、本発明は、入力画像の背景から前景を分離する前景背景分離に好適な方法および装置において、以下の構成を具備した点に特徴がある。 In order to achieve the above object, the present invention is characterized in that the method and apparatus suitable for foreground / background separation for separating the foreground from the background of the input image comprises the following configuration.
(1) 本発明は、背景画像を取得する手段と、背景差分法により差分マスク画像を生成する手段と、背景画像からエッジを抽出して背景エッジ画像を生成する手段と、差分マスク画像から境界を抽出して差分マスク境界画像を生成する手段と、差分マスク境界画像から背景エッジ画像と重複する誤り境界を抽出する手段と、前記誤り境界に基づいて、前記差分マスク画像を用いた前景背景分離の適否を判定する手段とを具備した点に特徴がある。 (1) The present invention comprises means for acquiring a background image, means for generating a difference mask image by a background subtraction method, means for extracting an edge from the background image to generate a background edge image, and boundary from the difference mask image Means for extracting a difference mask boundary image, means for extracting an error boundary overlapping the background edge image from the difference mask boundary image, and foreground / background separation using the difference mask image based on the error boundary And means for determining the propriety of the above.
(2) 本発明は、前記判定する手段による適正判定に応答して、前記差分マスク画像を用いた前景背景分離を実施する反映手段をさらに具備した点に特徴がある。 (2) The present invention is characterized in that it further comprises reflecting means for performing foreground / background separation using the difference mask image in response to the appropriate determination by the determining means.
(3) 本発明は、差分マスク画像から「抜け」領域を選択する手段と、「抜け」領域の位置が前記誤り境界に対応しているか否かに基づいて当該「抜け」領域を補正対象とするか否かを判定する手段と、補正対象の「抜け」領域が前景となるように前記差分マスク画像を補正する手段とを具備した点に特徴がある。 (3) The present invention sets the “missing” area as the correction target based on means for selecting the “missing” area from the differential mask image and whether or not the position of the “missing” area corresponds to the error boundary. The present invention is characterized in that it comprises means for determining whether or not to do so, and means for correcting the difference mask image so that the "dropout" area to be corrected is the foreground.
(4) 本発明は、誤り境界に基づいて差分マスク画像から「欠け」領域を選択する手段と、「欠け」領域を補正する手段とを具備した点に特徴がある。 (4) The present invention is characterized in that it comprises means for selecting a "chip" area from a differential mask image based on an error boundary, and means for correcting the "chip" area.
本発明によれば、以下のような効果が達成される。 According to the present invention, the following effects are achieved.
(1) 予め取得した背景画像と入力画像との差分を取得し、前景を背景から分離する背景差分において、前景の境界部分と背景のエッジ部分とが類似することにより生じ得る、背景の形状の一部が差分マスク画像に現れる前景検出漏れの有無を少ない計算量で推測することができるので、背景差分法により生成した差分マスク画像Imを用いた前景背景分離の適否を軽処理で正確に判定できるようになる。 (1) A background shape that may be generated when the foreground border portion and the background edge portion are similar in background subtraction in which the difference between the background image acquired in advance and the input image is acquired and the foreground is separated from the background Since it is possible to estimate with a small amount of calculation whether there is a foreground detection omission that appears partially in the difference mask image, the appropriateness of foreground / background separation using the difference mask image Im generated by the background difference method is accurately determined by light processing. become able to.
(2) 背景差分法により生成した差分マスク画像Imを用いた前景背景分離が適正と判定されると、当該差分マスク画像Imを用いて前景背景分離を実施する一方、前景背景分離が不適と判定されると、背景差分法以外の手法による前景背景分離に切り換えるので、入力画像に対する最適な前景背景分離手法の適用を軽処理で実現できるようになる。 (2) When foreground / background separation using the difference mask image Im generated by the background difference method is determined to be appropriate, foreground / background separation is performed using the difference mask image Im, while it is determined that foreground / background separation is not suitable Then, switching to foreground / background separation by a method other than the background subtraction method makes it possible to realize the application of the optimum foreground / background separation method to the input image by light processing.
(3) 差分マスク画像Imに「抜け」領域が発生していても、誤り境界画像Imb_edgeを参照することで各「抜け」領域が前景検出漏れか否かを評価できる。したがって、差分マスク画像Imにおいて、本来の「抜け」領域は背景として維持したまま、誤った「抜け」領域のみを軽処理で前景に補正できるようになる。 (3) Even if a “dropout” area occurs in the differential mask image Im, it is possible to evaluate whether or not each “dropout” area is a foreground detection omission by referring to the erroneous boundary image Imb_edge. Therefore, in the difference mask image Im, it is possible to correct only the erroneous “dropout” region to the foreground by light processing while maintaining the original “dropout” region as the background.
(4) 差分マスク画像Imに「欠け」領域が発生していても、誤り境界画像Img_edgeを参照することで当該各「欠け」領域が前景検出漏れか否かを評価できる。したがって、差分マスク画像Imの「欠け」領域に対して適切な対応が可能になる。 (4) Even if a “missing” region occurs in the differential mask image Im, it is possible to evaluate whether or not the “missing” region is a foreground detection failure by referring to the erroneous boundary image Img_edge. Therefore, an appropriate response to the "missing" area of the differential mask image Im is possible.
以下、図面を参照して本発明の実施の形態について詳細に説明する。本発明では、特に以下の3つの観点から前景の検出漏れを検知して背景差分法による前景背景分離の適否を評価し、かつ背景差分法を適用する際も前景検出漏れに基づいて差分マスク画像を補正することで、軽処理かつ高精度の前景背景分離を実現する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present invention, in particular, the omission of detection of foreground is detected from the following three viewpoints to evaluate the suitability of foreground / background separation by the background subtraction method, and also when applying the background subtraction method: To achieve light processing and high precision foreground / background separation.
(1) 微小領域除去で処理しにくい前景検出漏れは、前景となる髪部(黒)や頬部(肌色)、あるいは背景と同色の服部など一定の面積がある平坦な領域で生じやすい。また、背景オブジェクトの形状が漏洩しやすいことから、本発明では、このような前景検出漏れの検知および補正を対象とする。 (1) A foreground detection omission which is difficult to process by removing a small area tends to occur in a flat area having a certain area, such as a hair part (black) or a cheek part (skin color) serving as the foreground or a clothes part having the same color as the background. Further, since the shape of the background object is likely to leak, the present invention is directed to the detection and correction of such foreground detection omission.
(2) 背景の特徴として、宅内の場合、抜けは直線的(柱、家具、ドア、カレンダーなど)であることも多い。また、直線的でない抜けも宅内に存在する。例えば、洗濯物や丸い置物などのオブジェクトは直線的でないが、その場合の抜け形状はオブジェクトと同一形状となる前景に囲まれた閉領域であることが多い。 (2) As a feature of the background, in the case of the house, the escape is often linear (posts, furniture, doors, calendars, etc.). In addition, non-linear omissions also exist in the house. For example, objects such as laundry and round figurines are not linear, but the missing shape in that case is often a closed region surrounded by the foreground having the same shape as the object.
(3) 一般的に宅内オブジェクトは動かない。上記(1),(2)で生じた前景の検出漏れ領域の輪郭は前景(人の体)が少し動いても動かない。 (3) Generally, home objects do not move. The outline of the foreground detection leakage area generated in the above (1) and (2) does not move even if the foreground (human body) moves a little.
本発明では、上記のような前景検出漏れの有無を判断し、簡易補正可能ならば簡易補正を行い、そうでなければ背景差分法以外の別手法への切り換えを促す。 In the present invention, it is determined whether or not there is a foreground detection failure as described above, and if the simple correction is possible, the simple correction is performed, and if not, the switching to another method other than the background subtraction method is urged.
図1は、本発明の第1実施形態に係る背景差分法による前景背景分離に好適な装置の主要部の構成を示したブロック図であり、図2は、入力されたフレーム画像Iaの背景から前景を背景差分法により軽処理かつ高精度で分離できるか否かを評価する過程を模式的に示した図である。 FIG. 1 is a block diagram showing the configuration of the main part of a device suitable for foreground / background separation by the background subtraction method according to the first embodiment of the present invention, and FIG. 2 is a background of the input frame image Ia. It is the figure which showed typically the process of evaluating whether the foreground can be light-processed and separated with high accuracy by the background subtraction method.
フレーム画像取得部10は、固定カメラCaから動画像をフレーム単位で取得する。背景画像蓄積部11には、予め固定カメラCaで人物の存在しない室内を撮影した背景画像Ibが蓄積されている。差分マスク画像生成部12は、図2に示したように、固定カメラCAから取得した今回のフレーム画像Iaと前記背景画像Ibとの差分を求め、各画素をその画素値に基づいて前景および背景の2値に分離することで初期の差分マスク画像Im_tを生成する。
The frame
背景エッジ画像生成部13は、図2に示したように、前記背景画像Ibからエッジ成分を抽出して背景エッジ画像Ib_edgeを生成する。エッジ抽出には、ラプラシアンフィルタ、ソーベルフィルタ、キャニーエッジフィルタ等を適用し、エッジ検出に用いられる一般的な閾値処理を行うことで実現できる。例えば、フィルタ適用後の画素値の絶対値が一定閾値A以上であれば輪郭、一定閾値B以下であれば非輪郭とすることができる。また、画素値の絶対値が閾値A,Bの間に存在する場合は、隣接画素に輪郭があれば輪郭とし、なければ非輪郭とすることができる。
As shown in FIG. 2, the background edge
エッジ抽出の対象画像は、背景画像Ibに何等かの前処理を行って変更を加えた画像であっても良い。例えば、グレイスケール化した背景画像Ibを採用しても良いし、あるいはYCbCrなどの色成分ごとにエッジ抽出を実施し、最後に論理和を求めて1枚の背景エッジ画像Ib_edgeを生成するようにしても良い。 The target image for edge extraction may be an image obtained by performing some pre-processing on the background image Ib to make a change. For example, a gray-scaled background image Ib may be adopted, or edge extraction is carried out for each color component such as YCbCr, and finally a single background edge image Ib_edge is generated by obtaining a logical sum. It is good.
微小領域削除部14は、図2に示したように、前記差分マスク画像Im_tに対してごま塩ノイズの除去処理や、一定値T_area_mp以下の領域のマスク値を反転する微小領域除去処理を行うことで、ノイズ除去された差分マスク画像Imを生成する。これらの処理には、モルフォロジーの領域オープニングを適用できる。ここで、T_area_mpを大きな値に設定しすぎると、本来背景となるべき領域が前景になってしまうため、T_area_mpは大きな値で設定しすぎず、大きな閉領域については、前景とすべきか背景とすべきかを別途に判断した方が良い場合が多い。以下にその判断方法について説明する。
As shown in FIG. 2, the micro
差分マスク境界画像生成部15は、図2に示したように、前記微小領域削除後の差分マスク画像Imからエッジ境界を抽出して差分マスク境界画像Im_edgeを生成する。差分マスク境界画像の生成方法としては、(i) マスクの前景と背景とが変化する境界を差分マスクの境界とする、(ii) エッジ抽出を行う、(iii) 差分マスクの前景にオープニング(またはクロージング)処理を施し、オープニング(クロージング)処理前と変化した箇所を境界とする、などを採用できる。あるいは、オープニング処理およびクロージング処理の双方を行った境界画像の論理和を取得しても良い。ただし、前景が画像の辺に接する場合には、その箇所を境界とすることが望ましい。
As shown in FIG. 2, the difference mask boundary
また、領域については、照明のちらつきや物体のテクスチャの影響を軽減するため、一定期間の差分マスク画像や差分マスク境界画像を蓄積してから求めても良い。例えば、一定時間の差分マスク画像の論理積をとって領域を求めたり、一定時間中に一定割合以上に前景が存在する領域のみを前景領域として求めたりしても良い。さらに、差分マスク境界画像Im_edgeに対して、一定時間の差分マスク境界画像の論理和や一定期間中に一定割合以上に存在する境界を取っても良い。 Also, with regard to the area, in order to reduce the influence of illumination flicker and the texture of the object, a difference mask image or a difference mask boundary image of a fixed period may be accumulated and then determined. For example, a logical product of differential mask images for a predetermined time may be calculated to obtain an area, or only an area where the foreground is present at a predetermined rate or more during a predetermined time may be obtained as a foreground area. Furthermore, the difference mask boundary image Im_edge may be a logical sum of a difference mask boundary image for a predetermined time, or a boundary existing at a predetermined ratio or more in a predetermined period.
差分マスク誤り境界画像生成部16は、差分マスク境界画像Im_edgeと背景エッジ画像Ib_edgeとの形状の類似している位置を特定する。本実施形態では、図2に示したように、差分マスク境界画像Im_edgeと背景エッジ画像Ib_edgeとの論理積に基づいて差分マスク誤り境界画像Imb_edgeを生成する。なお、論理積演算により各画像の類似位置を抽出するのであれば、差分マスク境界画像Im_edgeには、必要に応じて予めオープニング処理を行うことが望ましい。
The difference mask error boundary
ノイズ除去部17は、差分マスク誤り境界画像Imb_edgeとして残った誤り境界の画素群からノイズ成分を除去する。本実施形態では、誤り境界の画素群のうち、連結できる画素は前景検出漏れ領域に接しているエッジである可能性が高いとの考察に基づいて、その個数を計数する。その結果、連結できる画素数が一定個数T_cnctよりも少ない画素群は、前景の正しいエッジと背景のエッジとの交差点である可能性が高いのでノイズとして除去する一方、一定個数T_cnctより多い画素群は本来の「誤り境界」と推定できるので除去しない。
The
なお、このようなノイズ除去はフレーム内での相関のみならずフレーム間での相関を考慮して行うようにしても良い。例えば、前回フレームで生成した差分マスク誤り境界画像Imb_edgeではT_cnct以上の連結成分が存在した箇所において、今回フレームではノイズや微小の動きがあってT_cnct以下となっても、一定数以上のエッジがT_cnct上にあるならば、今回フレームでの連結成分がT_cnct以下でも前回フレームと同様に連結しているとみなすようにしても良い。 Such noise removal may be performed in consideration of not only the correlation within the frame but also the correlation between the frames. For example, in the difference mask error boundary image Imb_edge generated in the previous frame, at a location where a connected component of T_cnct or more is present, even if noise or minute motion occurs in the current frame and T_cnct or less, a certain number of edges are T_cnct If it is above, it may be regarded that the connected component in the current frame is connected to T_cnct or less as in the previous frame.
また、前景の正しい境界と背景エッジとの交差点や偶然一致した線を排除するために、入力したフレーム画像Iaに関しても、そのエッジ画像Ia_edgeを輪郭抽出フィルタにより求め、差分マスク誤り境界画像Imb_edge上に存在する誤り境界の画素群のうちエッジ画像Ia_edgeに含まれる画像を除去するようにしても良い。 Also, in order to eliminate the intersection of the correct boundary of the foreground and the background edge or the coincident line, the edge image Ia_edge is also obtained by the edge extraction filter for the input frame image Ia, and the difference mask error border image Imb_edge is obtained. It is also possible to remove the image included in the edge image Ia_edge out of the pixel group of the error boundary that exists.
このとき、エッジ画像Ia_edgeと差分マスク誤り境界画像Imb_edgeの輪郭とが偶然一致したかどうかを経時的に判断しても良い。例えば、経時的な前景の微小な動きを検出し、微小な動きがあった後に線が一致しなくなる場合は偶然の一致と考えて処理を行わず、経時的に輪郭線が一致している箇所に接する領域のみに補正を行うようにしても良い。微小な動きの検出は、例えば、前フレームとの差分画像を取得し、一定以上の変化があった場合には動きがあったと判断できる。 At this time, it may be determined over time whether or not the edge image Ia_edge and the edge of the difference mask error boundary image Imb_edge coincide by chance. For example, a minute movement of the foreground over time is detected, and if there is a line movement that does not match after a minute movement, processing is not considered as coincident by coincidence, and a location where the outlines match over time The correction may be performed only in the area in contact with the image. For detection of a minute movement, for example, it is possible to determine that there is a movement when a difference image with the previous frame is acquired and a change of a certain level or more occurs.
本実施形態では、以上のようにしてノイズ除去部17が前記差分マスク誤り境界画像Imb_edgeから、経時的なノイズを含む様々なノイズを除去することで差分マスク誤り境界画像Imb_edge'が生成される。
In the present embodiment, as described above, the
判定部18は、前記ノイズ除去後の差分マスク誤り境界画像Imb_edge'に誤り境界が残っているか否かに基づいて、前記背景差分法により生成した差分マスク画像Imを用いた前景背景分離の適否を判定する。
The
本実施形態では、今回のフレーム画像Iaに関して、差分マスク誤り境界画像Imb_edge'に誤り境界が残っていなければ、前記背景差分法により生成した差分マスク画像Imを用いた前景背景分離を好適と判定する。これに対して、ノイズ除去後の差分マスク誤り境界画像Imb_edge'に誤り境界が残っていれば、背景差分法により生成した差分マスク画像Imを用いた前景背景分離を不適と判断する。 In the present embodiment, for the present frame image Ia, if no error boundary remains in the difference mask error boundary image Imb_edge ', the foreground / background separation using the difference mask image Im generated by the background difference method is determined to be suitable. . On the other hand, if an error boundary remains in the difference mask error boundary image Imb_edge 'after noise removal, it is determined that foreground / background separation using the difference mask image Im generated by the background difference method is unsuitable.
本実施形態によれば、前景の境界部分と背景のエッジ部分とが類似することにより生じ得る、背景の形状の一部が差分マスク画像に現れる前景検出漏れの有無を少ない計算量で推測することができるので、背景差分法により生成した差分マスク画像を用いた前景背景分離の適否をフレーム画像ごとに軽処理で判定できるようになる。 According to the present embodiment, it is possible to estimate with a small amount of calculation whether there is a foreground detection omission in which a part of the background shape appears in the difference mask image, which may be caused by similarity between the foreground border and the background edge. As a result, it is possible to lightly determine the suitability of foreground / background separation using the difference mask image generated by the background subtraction method for each frame image.
したがって、判定部18の判定結果を、背景差分法を含む様々な前景背景分離機能を備えたシステムへ、オペレータを介して、または直接通知すれば、入力されるフレーム画像ごとに好適な前景背景分離方法として、背景差分法および背景分離法以外のいずれかを正確に選択できるようになる。
Therefore, if the determination result of the
図3は、本発明の第2実施形態に係る背景差分法による前景背景分離に好適な装置の主要部の構成を示したブロック図であり、図4は、入力されたフレーム画像Iaの背景領域から前景領域を背景差分法により軽処理かつ高精度で分離できるか否かを判定し、分離できると判断されれば、背景差分法により生成した差分マスク画像を用いて背景領域から前景領域を分離する過程を模式的に示した図である。いずれの図でも前記と同一の符号は同一又は同等部分を表しているので、その説明は省略する。 FIG. 3 is a block diagram showing the configuration of the main part of a device suitable for foreground / background separation by the background subtraction method according to the second embodiment of the present invention, and FIG. 4 is a background area of the input frame image Ia. It is judged whether the foreground area can be separated with light processing and high accuracy by the background subtraction method, and if it is judged that the foreground area can be separated, the foreground area is separated from the background area using the difference mask image generated by the background subtraction method. Is a diagram schematically showing the process of The same reference numerals as above denote the same or equivalent parts in any of the drawings, so the description thereof is omitted.
前記判定部18は、前記ノイズ除去後の差分マスク誤り境界画像Imb_edge'に誤り境界が残っていなければ、背景差分法による前景背景分離を適正と判定して、その旨を反映部19に通知する。これに対して、前記ノイズ除去後の差分マスク誤り境界画像Imb_edge'に誤り境界が残っていれば、背景差分法による前景背景分離を中止して、背景差分法以外の手法による分離を推奨する。
If the error boundary does not remain in the differential mask error boundary image Imb_edge ′ after the noise removal, the
反映部19は、前記判定部18からの適正判定の通知に応答して、今回のフレーム画像Iaに対して、前記背景差分法により生成した差分マスク画像Imを用いた前景背景分離を実施し、その前景および背景のうち、プライバシー保護の観点から少なくとも一方に対して、「ぼかし」、「モザイク」、「(他のテクスチャへの)置換」あるいは「除去」等の秘匿処理を実施する。なお、前景および背景のいずれに対しても秘匿処理を実施するのであれば、分離境界が失われないように、それぞれに異なる秘匿処理を実施することが望ましい。
In response to the notification of the appropriateness determination from the
本実施形態によれば、背景差分法により作成した差分マスク画像を用いることで前景背景分離を軽処理かつ高精度で実施できると判定されると、この判定結果を今回のフレーム画像Iaに反映する一方、背景差分法が不適であると判定されると背景差分法以外による前景背景分離を促すので、入力画像に応じて最適な前景背景分離を実現できるようになる。 According to the present embodiment, when it is determined that foreground / background separation can be performed with high accuracy and high accuracy by using the difference mask image created by the background difference method, this determination result is reflected on the current frame image Ia. On the other hand, when it is determined that the background subtraction method is not suitable, foreground separation by other than the background subtraction method is promoted, so that the optimum foreground / background separation can be realized according to the input image.
図5は、本発明の第3実施形態に係る背景差分法による前景背景分離に好適な装置の主要部の構成を示したブロック図であり、図6は、背景差分法により生成した差分マスク画像Imの「抜け」領域を評価,補正する過程を模式的に示した図である。いずれの図でも、前記と同一の符号は同一又は同等部分を表しているので、その説明は省略する。 FIG. 5 is a block diagram showing the configuration of the main part of an apparatus suitable for foreground / background separation by the background subtraction method according to the third embodiment of the present invention, and FIG. 6 is a difference mask image generated by the background subtraction method. It is the figure which showed typically the process of evaluating and correct | amending the "missing" area | region of Im. In any of the drawings, the same reference numerals as described above denote the same or equivalent parts, and thus the description thereof will be omitted.
本実施形態は、誤り境界画像Imb_edgeに基づいて差分マスク画像Imの閉領域を補正候補として選択する補正候補領域選択部20と、その選択結果および前記判定部18による判定結果に基づいて差分マスク画像Imを補正し、補正後の差分マスク画像Im1を出力する第1補正処理部21とを更に具備した。
In this embodiment, a correction candidate
前記反映部19は、差分マスク画像Imおよび補正後の差分マスク画像Im1のいずれかを用いてフレーム画像Iaに前景背景分離を実施し、かつ前景および背景の少なくとも一方に対して、前記「ぼかし」、「モザイク」、「置換」あるいは「除去」等の秘匿処理を実施する。
The
前記補正候補領域選択部20は、差分マスク画像Imにおいて、全周囲を前景に囲まれた背景領域[図9(a)]を「抜け」領域と認定し、全ての「抜け」領域を補正候補領域としてリストアップして第1補正処理部21に通知する。
The correction candidate
第1補正処理部21は、差分マスク画像Im上で前記ノイズ除去後の誤り境界画像Img_edge'上の誤り境界に接する「抜け」領域のみを補正対象とし、当該「抜け」領域内のマスク値を反転して背景から前景に補正することで修正後の差分マスク画像Im1を生成する。なお、本補正領域は一定期間(複数フレーム間)にわたって有効としても良い。
The first
この結果、図6に示したように、差分マスク画像Im上で誤り境界の画像群が存在する「抜け」領域候補Reのマスク値は前景のマスク値に補正される一方、誤り境界の画素群が存在しない「抜け」領域候補Rtのマスク値は、前景のマスク値に補正されることなく背景のマスク値を維持する。反映部19は、今回のフレーム画像Iaに前記補正後の差分マスク画像Im1を適用することで前景背景分離を実施し、かつ前景および背景の少なくとも一方に対して秘匿処理(本実施形態では、背景を除去)を実施する。
As a result, as shown in FIG. 6, while the mask value of the “dropout” area candidate Re where the image group of the erroneous boundary exists on the difference mask image Im is corrected to the mask value of the foreground, the pixel group of the erroneous boundary The mask values of the "missing" region candidate Rt in which there is no exist maintain the background mask value without being corrected to the foreground mask value. The
本実施形態によれば、差分マスク画像Imに「抜け」領域が発生していても、誤り境界画像Img_edge'を参照することで各「抜け」領域を正確に評価できるので、本来の「抜け」領域を背景として維持したまま、誤検知に基づく「抜け」領域のみを前景に補正できるようになる。 According to the present embodiment, even if a “dropout” area occurs in the difference mask image Im, each “dropout” area can be accurately evaluated by referring to the erroneous boundary image Img_edge ′. It is possible to correct only the "missing" region based on false detection to the foreground while maintaining the region as the background.
図7は、本発明の第4実施形態に係る背景差分法による前景背景分離に好適な装置の主要部の構成を示したブロック図である。図8は、背景差分法で生成した差分マスク画像Imの「欠け」領域[図9(c)]を補正する過程を模式的に示した図である。いずれの図でも、前記と同一の符号は同一又は同等部分を表しているので、その説明は省略する。 FIG. 7 is a block diagram showing the configuration of the main part of a device suitable for foreground / background separation by the background difference method according to the fourth embodiment of the present invention. FIG. 8 is a view schematically showing a process of correcting the “missing” area [FIG. 9 (c)] of the difference mask image Im generated by the background difference method. In any of the drawings, the same reference numerals as described above denote the same or equivalent parts, and thus the description thereof will be omitted.
本実施形態は、前記補正後の差分マスク画像Im1から、前記ノイズ除去後の誤り境界画像Imb_edge'上の誤り境界の画素群に基づいて「欠け」領域を選択し、更には必要に応じて当該「欠け」領域を評価、補正する第2補正処理部22を具備した点に特徴がある。
In the present embodiment, a “missing” area is selected from the difference mask image Im1 after the correction based on the pixel group of the error boundary on the error boundary image Imb_edge ′ after the noise removal, and further, as necessary, the “missing” region is selected. The second embodiment is characterized in that the second
第2補正処理部22において、欠け領域判定部221は、第1補正処理後の差分マスク画像Im1に「欠け」領域が存在するか否かを判定する。本実施形態では、正しい差分マスク画像[図9(b)]では前景であるが背景と誤判定された差分マスク画像Im1の領域において、周囲の一部のみを前景に囲まれた領域[図9(c)]を「欠け」領域とする。「欠け」領域が存在しない判定は、例えば、誤り境界画像Imb_edge'上の全ての誤り境界の画素群が前記「抜け」領域と接しており、かつ前記第1補正処理部21により既に補正されていれば、「欠け」領域が存在していない可能性が高いので、ここでは「欠け」領域が存在しないと判定する。
In the second
これに対して、図10に示したように、誤り境界画像Imb_edge'上に「抜け」領域と接していない誤り境界の画素群[同図(a)]が存在していれば、それに接する「欠け」領域が存在している可能性があると判定する。なお、欠け領域が存在する可能性があると判定された場合、「欠け」補正処理を行わず、前景背景分離方式として背景差分法以外の他の方式の採用を推奨してもよい。 On the other hand, as shown in FIG. 10, if there is an erroneous border pixel group [the same figure (a)] not in contact with the “dropout” area on the erroneous border image Imb_edge ′, It is determined that the "missing" area may exist. If it is determined that there is a possibility that there is a missing area, the “omission” correction process may not be performed, and it may be recommended to adopt another method other than the background subtraction method as the foreground / background separation method.
さらに、前景の形状特徴が既知または推測できる場合、当該形状特徴との整合性に基づいて「欠け」領域のが存在する可能性が高いかどうかを判定できる。例えば、前景形状が顔のような楕円型であり、同図(b)に示したように、その誤り境界画像Imb_edge'の誤り境界の画素群が存在する箇所において前景形状が滑らかな凸形状でなく凹形状または複雑な形状となっている場合は、「欠け」領域が存在している可能性が高いと判定できる。 Furthermore, if the shape feature of the foreground is known or inferred, it can be determined based on the consistency with the shape feature whether there is a high possibility of the "missing" region. For example, the foreground shape is an oval shape like a face, and as shown in FIG. 6B, it has a convex shape in which the foreground shape is smooth in the portion where the pixel group of the erroneous boundary of the erroneous boundary image Imb_edge 'is present. In the case of a concave shape or a complicated shape, it can be determined that there is a high possibility that the "chip" area is present.
前景形状の推測は、現在の差分マスク画像Imの境界から行うこともできる。その場合、フレーム画像Iaを対象に輪郭抽出を行って同図(c)の差分マスク画像を求める。ここで、マスク画像境界と一致する境界は正しいと推測できるため、その境界上の点を何点か抽出し、スプライン補間等で曲線を補完することで形状を推測する。なお、欠け領域が存在すると可能性があると判定された場合でも、前景形状に凹凸が多いなどの理由で前景形状の推測が難しい場合には、欠け補正を中断しても良い。 The foreground shape can also be inferred from the boundary of the current difference mask image Im. In that case, contour extraction is performed on the frame image Ia to obtain a differential mask image of FIG. Here, since the boundary coincident with the mask image boundary can be inferred to be correct, several points on the boundary are extracted, and the shape is estimated by interpolating the curve by spline interpolation or the like. Note that even if it is determined that there is a possibility that there is a missing area, it is possible to interrupt the missing correction if it is difficult to estimate the foreground shape because the foreground shape has many irregularities.
次いで、同図(d)に示したように、推測形状の輪郭と差分マスク画像とを重畳する。この際、輪郭と前景に囲まれる背景領域が存在する場合、「欠け」領域が存在している可能性が高いと判定できる。さらに、その領域の輪郭の一部が誤り境界画像Imb_edge'上の誤り境界の端点と一致している場合、「欠け」領域が存在している可能性がさらに高いと判定できる。 Next, as shown in FIG. 6D, the contour of the estimated shape and the difference mask image are superimposed. At this time, when there is a background area surrounded by the outline and the foreground, it can be determined that the possibility of the "missing" area is high. Furthermore, if a part of the contour of the area coincides with the end point of the erroneous boundary on the erroneous boundary image Imb_edge ', it can be determined that the possibility of the "missing" region is higher.
このようにして、「欠け」領域が存在している可能性がある、または高いと認識されると、第2補正処理部22は当該「欠け」領域を放置できるか否かを初めに判定する。例えば、前記既に修正された「抜け」領域に接しない誤り境界の画素群が存在するものの、その形状が前景形状と矛盾がない場合、あるいは図11に示したように、推定した「欠け」の量が所定の基準面積より小さい場合は、欠けたままでも良いと判定して、前記「欠け」を有する差分マスク画像Im1をそのまま採用することができる。
In this manner, when it is recognized that the "chip" area may be present or high, the second
これに対して、放置できない「欠け」が存在する場合は更に、図12に示したように「欠け」領域の面積、あるいは図13に示したように「欠け」領域の個数を判別する。そして、「欠け」領域の面積や「欠け」領域の個数が所定の判定閾値を超えていると、前景背景分離方式として背景差分法以外の他の方式の採用を推奨する。または、「欠け」領域に接している可能性がある誤り境界画像Imb_edge'の画素数や連結成分を1つと数えた時の個数が所定の判定閾値を超えていると、前景背景分離方式として背景差分法以外の他の方式の採用を推奨する。 On the other hand, when there is a "chipping" that can not be left, the area of the "chipping" area as shown in FIG. 12 or the number of "chipping" areas as shown in FIG. 13 is further determined. Then, if the area of the “chip” area or the number of “chip” areas exceeds the predetermined determination threshold, it is recommended to adopt another system other than the background subtraction method as the foreground / background separation system. Alternatively, if the number of pixels and the number of connected components counted as one for the number of pixels and the number of connected components of the erroneous border image Imb_edge that may be in contact with the “missing” area, the foreground / background separation method is used as the background. It is recommended to adopt other methods other than the difference method.
あるいは、「欠け」領域の面積や個数が所定の判定閾値を超えている場合、マスク補正部222が「欠け」領域の画素値を前景の画素値に置き換える補正を差分マスク画像Im1に施すことで差分マスク画像Im2を取得し、当該差分マスク画像Im2を用いて背景を削除するようにしても良い。
Alternatively, if the area or the number of "missing" areas exceeds a predetermined determination threshold, the
あるいはフレーム画像Iaを複数のブロックに分割し、エッジ画素を含むブロックのみ、さらにはその隣接ブロックを加えた領域に対してのみ、背景差分法以外の他の方式で作成したマスク画像Im3を採用しても良い。すなわち、1つの画面内で背景差分法による差分マスク画像Im2と背景差分法以外によるマスク画像Im3とがハイブリッドで適用されることになる。 Alternatively, the frame image Ia is divided into a plurality of blocks, and a mask image Im3 created by another method other than the background subtraction method is adopted only for the block including the edge pixel and further only for the area to which the adjacent block is added. It is good. That is, the difference mask image Im2 based on the background difference method and the mask image Im3 based on other than the background difference method are applied in a hybrid manner within one screen.
さらには、オプションとして前記マスク補正部222に、前記第1のアプローチや第2のアプローチのような手法、楕円の一部をフィッティングするような固定マスク形状の当て嵌め、あるいは特許文献2のような動的輪郭追跡などの機能を追加しても良い。
Furthermore, as an option, methods such as the first approach and the second approach, fitting of a fixed mask shape for fitting a part of an ellipse, or the like as described in Patent Document 2 to the
また、合成用の別マスクを生成する際、画像全体に対してマスクを生成する場合も、補正領域周辺のみのマスクを生成する場合もある。例えば、第1のアプローチの顔検出であれば、画像全体に対してマスクを作成した後に、差分マスク画像Im1の欠けた箇所のみ、そのマスクを合成することもできるし、フィッティングや動的輪郭追跡であれば、画像全体でマスクを作成しても「欠け」領域周辺のみマスクを生成して、その後に差分マスク画像Im1と合成しても良い。 In addition, when generating another mask for combination, there are cases where a mask is generated for the entire image or a mask only around the correction area is generated. For example, in the case of face detection in the first approach, after creating a mask for the entire image, it is also possible to synthesize the mask for only the missing part of the difference mask image Im1, and fitting or active contour tracking In this case, even if a mask is created for the entire image, a mask may be created only around the “missing” area and then combined with the difference mask image Im1.
また、別手法を用いず、補正対象のブロックに対して、背景差分の差分画像Idの計算の仕方を変える、閾値を小さくするなどの処理も有効である。閾値を小さくする場合、後述する破綻判定と併用したり、差分取得直後の画像上で前景となる領域が増加しないか確認し、破綻や前景領域数の増加が発生しない程度に閾値を小さくしたりすることも有効である。閾値変更後に別手法を適用しても良い。補正判断は経時的に変化し、「欠け」補正判断とマスク合成により、背景差分が適切な領域にのみ、随時適用することができる。 In addition, processing such as changing the method of calculating the difference image Id of the background difference or reducing the threshold value is also effective for the block to be corrected without using another method. When reducing the threshold, it is used together with failure determination described later, or it is confirmed whether or not the foreground area is increased in the image immediately after the difference acquisition, and the threshold is reduced to such an extent that failure or increase in the number of foreground regions does not occur. It is also effective to do. Another method may be applied after changing the threshold. The correction determination changes with time, and can be applied as needed only to the region where the background difference is appropriate, by the “missing” correction determination and the mask composition.
反映部19は、差分マスク画像Im,Im1,Im2等のいずれかを用いてフレーム画像Iaに前景背景分離を実施し、かつ前景および背景の少なくとも一方に対して所定の秘匿処理(図8では、背景除去)を実施する。
The reflecting
本実施形態によれば、差分マスク画像Imに「欠け」領域が発生していると、誤り境界画像Imb_edge'を参照することで当該各「欠け」領域の影響を評価し、その評価結果に応じて、背景差分法以外の選択、「欠け」領域の許容あるいは補正等の適宜の対応をとることができる。したがって、背景差分法により生成した差分マスク画像を用いた前景背景分離の適否を軽処理かつ高精度で判定することができ、さらには前景背景分離の結果を反映した適正な秘匿処理を実施できるようになる。 According to the present embodiment, when the “missing” area is generated in the difference mask image Im, the effect of each “notching” area is evaluated by referring to the erroneous boundary image Imb_edge ′, and the evaluation result is obtained. It is possible to take appropriate measures such as selection other than the background subtraction method, and allowance or correction of the "missing" area. Therefore, the appropriateness of foreground / background separation using the difference mask image generated by the background subtraction method can be determined with light processing and with high accuracy, and further appropriate concealment processing reflecting the result of foreground / background separation can be performed. become.
なお、上記の第2ないし第4実施形態では、反映部19が差分マスク画像Imを用いてフレーム画像Iaに前景背景分離を実施し、かつ前景および背景の少なくとも一方に対して、「ぼかし」、「モザイク」、「置換」あるいは「除去」等の秘匿処理を実施するものとして説明したが、本発明はこれのみに限定されるものではなく、差分マスク情報から取得できる前景背景情報を用いた様々な画像処理への適用が可能である。
In the second to fourth embodiments described above, the reflecting
非特許文献4では、前景背景分離後の前景の秘匿レベルを抽象化オペレータで調整することができ、前景を「透明」とするのが最も抽象化度合いが高い(秘匿レベルが高い)としている。抽象化オペレータでは、秘匿度の度合いが高い順に「ドット」、「バー」、「ボックス」、「シルエット」、「輪郭」、「エッジ」、「モザイク」、「ぼかし」、「モノトーン」、「シースルー」の処理としており、「実写」では秘匿度が最も低くなる。
前景も背景も秘匿したいが秘匿の要求レベルが異なる場合には、異なる処理を前景と背景とに適用することも可能である。例えば、背景は低いレベルで少々秘匿し、前景の人はシルエットだけを表示して高いレベルで秘匿したい場合は、背景は「ぼかし」、前景は「シルエット」を適用する等である。
In Non-Patent Document 4, the concealment level of the foreground after foreground / background separation can be adjusted by the abstraction operator, and it is considered that making the foreground “transparent” has the highest abstraction degree (high concealment level). In the abstraction operator, “dot”, “bar”, “box”, “silhouette”, “edge”, “edge”, “mosaic”, “blur”, “monotone”, “see-through” in descending order of the degree of secrecy. In the case of "real shooting", the degree of secrecy is the lowest.
If it is desired to conceal both the foreground and the background but different levels of concealment are required, different processes can be applied to the foreground and the background. For example, when the background is slightly concealed at a low level and a person in the foreground wants to display only a silhouette and conceal it at a high level, the background is “blur”, the foreground is “silhouette”, or the like.
さらに、前景領域に画像処理を与えたくない場合には、吹き出しやテキストメッセージなどは背景領域に重畳するといった利用用途にも使いうる。また、後述する破綻検知では背景領域と前景領域の画素数の比から判断できるが、そのような前景や背景の統計情報を用いた処理に用いても良い。 Furthermore, when it is not desired to apply image processing to the foreground area, it can also be used for applications such as superimposing a balloon and a text message on the background area. Further, in the failure detection described later, it can be judged from the ratio of the number of pixels of the background area and the foreground area, but it may be used for processing using such foreground or background statistical information.
また、前記判定部18が前景の検出漏れの存在をチェックする際に破綻検知を同時に行い、破綻が検知されると今回のフレーム画像Iaに対しては背景差分法を適用しないという判定をすることで、背景差分法の利用タイミングを更に適正化できる。破綻は照明条件の変化などで起こることが多く、破綻検知は、例えば一定時間内に急激に前景領域の面積が一定値以上に増加した等で判定できる。
In addition, when the
さらに、背景差分法の利用タイミングを更に適正化するため、他の前景検出漏れ補正と併用するようにしても良い。例えば、前景が風邪用の白いマスクをしている人であって背景の壁が白い場合、背景差分では白いマスク形状の抜けが発生しやすい。このような場合には、起動時にマスク顔の検出を行い、検出された場合にはマスクなどの着用物検出とその「抜け」領域の補正処理を併用する等で精度を高めることができる。 Further, in order to further optimize the use timing of the background difference method, it may be used in combination with other foreground detection omission correction. For example, if the foreground is a person with a white mask for a cold and the background wall is white, the background difference is likely to cause the omission of the white mask shape. In such a case, the mask face is detected at the time of activation, and if it is detected, the accuracy can be enhanced by using both the detection of a worn object such as a mask and the correction processing of the "dropout" region.
10…フレーム画像取得部,11…背景画像蓄積部,12…差分マスク画像生成部,13…背景エッジ画像生成部,14…微小領域削除部,15…差分マスク境界画像生成部,16…差分マスク誤り境界画像生成部,17…ノイズ除去部,18…判定部,19…反映部,20…補正候補領域選択部,21…第1補正処理部,22…第2補正処理部
DESCRIPTION OF
Claims (15)
背景画像を取得する手段と、
背景差分法により差分マスク画像を生成する手段と、
背景画像からエッジを抽出して背景エッジ画像を生成する手段と、
差分マスク画像から境界を抽出して差分マスク境界画像を生成する手段と、
差分マスク境界画像から背景エッジ画像と重複する誤り境界を抽出する手段と、
前記誤り境界に基づいて、前記差分マスク画像を用いた前景背景分離の適否を判定する手段とを具備したことを特徴とする前景背景分離に好適な装置。 In a device suitable for foreground background separation, which separates the background and the foreground of the input image
Means for acquiring a background image,
A means for generating a difference mask image by the background difference method;
Means for extracting an edge from the background image to generate a background edge image;
A means for extracting a boundary from the difference mask image to generate a difference mask boundary image;
Means for extracting an erroneous boundary overlapping with the background edge image from the differential mask boundary image;
A device suitable for foreground / background separation, comprising: means for determining the suitability of foreground / background separation using the difference mask image based on the erroneous boundary.
前記「抜け」領域の位置が前記誤り境界に対応しているか否かに基づいて当該「抜け」領域を補正対象とするか否かを判定する手段と、
補正対象の「抜け」領域が前景となるように前記差分マスク画像を補正する手段とを具備したことを特徴とする請求項1ないし7のいずれかに記載の前景背景分離に好適な装置。 A means for selecting a "missing" area from the difference mask image;
A unit that determines whether or not the “dropout” area is to be corrected based on whether or not the position of the “dropout” area corresponds to the erroneous boundary;
A device suitable for foreground / background separation according to any one of claims 1 to 7, further comprising: means for correcting the difference mask image so that the "dropout" area to be corrected is the foreground.
前記「欠け」領域を補正する手段とを具備したことを特徴とする請求項8または9に記載の前景背景分離に好適な装置。 Means for selecting a "missing" region from the difference mask image based on the error boundary;
A device suitable for foreground / background separation according to claim 8 or 9, characterized in that it comprises means for correcting said "missing" area.
前記評価結果に応じて、当該「欠け」領域の補正、当該「欠け」領域の許容および背景差分法以外の手法による前景背景分離への切り換えのいずれかを採用することを特徴とする請求項10または11に記載の前景背景分離に好適な装置。 The means for correcting the "chip" area comprises means for evaluating the size of the "chip" area,
According to the evaluation result, any one of correction of the “chip” area, acceptance of the “chip” area, and switching to foreground / background separation by a method other than the background subtraction method is adopted. Or a device suitable for foreground / background separation according to 11.
背景画像を取得する手順と、
背景差分法により差分マスク画像を生成する手順と、
背景画像からエッジを抽出して背景エッジ画像を生成する手順と、
差分マスク画像から境界を抽出して差分マスク境界画像を生成する手順と、
差分マスク境界画像から背景エッジ画像と重複する誤り境界を抽出する手順と、
前記誤り境界に基づいて、前記差分マスク画像を用いた前景背景分離の適否を判定する手順とを含むことを特徴とする前景背景分離に好適な方法。 In a method suitable for foreground background separation which separates the foreground from the background of the input image
The steps to get the background image,
Generating a difference mask image by the background difference method;
Extracting an edge from a background image to generate a background edge image;
A step of extracting a boundary from the difference mask image to generate a difference mask boundary image;
Extracting an erroneous boundary overlapping the background edge image from the differential mask boundary image;
And e. Determining the appropriateness of foreground / background separation using the difference mask image based on the error boundary.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018006759A JP6846365B2 (en) | 2018-01-18 | 2018-01-18 | Suitable methods and equipment for foreground and background separation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018006759A JP6846365B2 (en) | 2018-01-18 | 2018-01-18 | Suitable methods and equipment for foreground and background separation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019125269A true JP2019125269A (en) | 2019-07-25 |
JP6846365B2 JP6846365B2 (en) | 2021-03-24 |
Family
ID=67398977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018006759A Active JP6846365B2 (en) | 2018-01-18 | 2018-01-18 | Suitable methods and equipment for foreground and background separation |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6846365B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112215168A (en) * | 2020-10-14 | 2021-01-12 | 上海爱购智能科技有限公司 | Image editing method for commodity identification training |
WO2021052236A1 (en) * | 2019-09-18 | 2021-03-25 | 华为技术有限公司 | Image distortion correction method and device |
JP2021149685A (en) * | 2020-03-19 | 2021-09-27 | ヤフー株式会社 | Information processing apparatus, information processing method, and program |
CN114786040A (en) * | 2022-06-15 | 2022-07-22 | 阿里巴巴(中国)有限公司 | Data communication method, system, electronic device and storage medium |
CN116168027A (en) * | 2023-04-24 | 2023-05-26 | 山东交通学院 | Intelligent woodworking machine cutting method based on visual positioning |
CN117278692A (en) * | 2023-11-16 | 2023-12-22 | 邦盛医疗装备(天津)股份有限公司 | Desensitization protection method for monitoring data of medical detection vehicle patients |
WO2024042893A1 (en) * | 2022-08-24 | 2024-02-29 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000079776A (en) * | 1998-09-07 | 2000-03-21 | Dainippon Printing Co Ltd | Method for detecting incorrect collating |
JP2001209808A (en) * | 2000-01-26 | 2001-08-03 | Nec Corp | System and method for extracting object, and storage medium with stored program for object extraction |
JP2004007174A (en) * | 2002-05-31 | 2004-01-08 | Toshiba Corp | Image processing system, image processing method and image processing program |
JP2011043879A (en) * | 2009-08-19 | 2011-03-03 | Kddi Corp | Method and program for extracting mask image, and method and program for constructing voxel data |
JP2015070359A (en) * | 2013-09-27 | 2015-04-13 | 株式会社京三製作所 | Person counting device |
-
2018
- 2018-01-18 JP JP2018006759A patent/JP6846365B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000079776A (en) * | 1998-09-07 | 2000-03-21 | Dainippon Printing Co Ltd | Method for detecting incorrect collating |
JP2001209808A (en) * | 2000-01-26 | 2001-08-03 | Nec Corp | System and method for extracting object, and storage medium with stored program for object extraction |
JP2004007174A (en) * | 2002-05-31 | 2004-01-08 | Toshiba Corp | Image processing system, image processing method and image processing program |
JP2011043879A (en) * | 2009-08-19 | 2011-03-03 | Kddi Corp | Method and program for extracting mask image, and method and program for constructing voxel data |
JP2015070359A (en) * | 2013-09-27 | 2015-04-13 | 株式会社京三製作所 | Person counting device |
Non-Patent Citations (2)
Title |
---|
P. SIRICHAROEN ET AL.: ""Robust Outdoor Human Segmentation based on Color-based Statistical Approach and Edge Combination"", THE 2010 INTERNATIONAL CONFERENCE ON GREEN CIRCUITS AND SYSTEMS, JPN6021005951, 21 June 2010 (2010-06-21), US, pages 463 - 468, XP031728215, ISSN: 0004450850 * |
馬場口 登: ""プライバシーを考慮した映像サーベイランス"", 情報処理, vol. 48, no. 1, JPN6021005950, 15 January 2007 (2007-01-15), JP, pages 30 - 36, ISSN: 0004450849 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021052236A1 (en) * | 2019-09-18 | 2021-03-25 | 华为技术有限公司 | Image distortion correction method and device |
JP2021149685A (en) * | 2020-03-19 | 2021-09-27 | ヤフー株式会社 | Information processing apparatus, information processing method, and program |
JP7388263B2 (en) | 2020-03-19 | 2023-11-29 | Lineヤフー株式会社 | Information processing device, information processing method and program |
CN112215168A (en) * | 2020-10-14 | 2021-01-12 | 上海爱购智能科技有限公司 | Image editing method for commodity identification training |
CN114786040A (en) * | 2022-06-15 | 2022-07-22 | 阿里巴巴(中国)有限公司 | Data communication method, system, electronic device and storage medium |
WO2023241459A1 (en) * | 2022-06-15 | 2023-12-21 | 阿里巴巴(中国)有限公司 | Data communication method and system, and electronic device and storage medium |
WO2024042893A1 (en) * | 2022-08-24 | 2024-02-29 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
CN116168027A (en) * | 2023-04-24 | 2023-05-26 | 山东交通学院 | Intelligent woodworking machine cutting method based on visual positioning |
CN117278692A (en) * | 2023-11-16 | 2023-12-22 | 邦盛医疗装备(天津)股份有限公司 | Desensitization protection method for monitoring data of medical detection vehicle patients |
CN117278692B (en) * | 2023-11-16 | 2024-02-13 | 邦盛医疗装备(天津)股份有限公司 | Desensitization protection method for monitoring data of medical detection vehicle patients |
Also Published As
Publication number | Publication date |
---|---|
JP6846365B2 (en) | 2021-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019125269A (en) | Method and device suitable for foreground/background separation | |
US8698796B2 (en) | Image processing apparatus, image processing method, and program | |
KR20220006657A (en) | Remove video background using depth | |
CN109598210B (en) | Picture processing method and device | |
US9390511B2 (en) | Temporally coherent segmentation of RGBt volumes with aid of noisy or incomplete auxiliary data | |
CN107239735A (en) | A kind of biopsy method and system based on video analysis | |
WO2017048845A1 (en) | Feature detection and masking in images based on color distributions | |
KR20050007427A (en) | Face-recognition using half-face images | |
CN102567727A (en) | Method and device for replacing background target | |
US20190347803A1 (en) | Skeleton-based supplementation for foreground image segmentation | |
CN110245549B (en) | Real-time face and object manipulation | |
JP6855872B2 (en) | Face recognition device | |
CN103500335A (en) | Photo shooting and browsing method and photo shooting and browsing device based on gesture recognition | |
Xu et al. | A method of hole-filling for the depth map generated by Kinect with moving objects detection | |
Yin et al. | Integrating active face tracking with model based coding | |
Liu et al. | Physics-guided spoof trace disentanglement for generic face anti-spoofing | |
Michibata et al. | Cooking activity recognition in egocentric videos with a hand mask image branch in the multi-stream cnn | |
CN111583357A (en) | Object motion image capturing and synthesizing method based on MATLAB system | |
Ahlvers et al. | Model-free face detection and head tracking with morphological hole mapping | |
CN111062904B (en) | Image processing method, image processing apparatus, electronic device, and readable storage medium | |
CN116612263A (en) | Method and device for sensing consistency dynamic fitting of latent vision synthesis | |
CN111179281A (en) | Human body image extraction method and human body action video extraction method | |
Kim et al. | Robust foreground segmentation from color video sequences using background subtraction with multiple thresholds | |
Nasiri et al. | Eye detection algorithm on facial color images | |
Stamou et al. | A monocular system for automatic face detection and tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210301 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6846365 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |