JP2019125269A - Method and device suitable for foreground/background separation - Google Patents

Method and device suitable for foreground/background separation Download PDF

Info

Publication number
JP2019125269A
JP2019125269A JP2018006759A JP2018006759A JP2019125269A JP 2019125269 A JP2019125269 A JP 2019125269A JP 2018006759 A JP2018006759 A JP 2018006759A JP 2018006759 A JP2018006759 A JP 2018006759A JP 2019125269 A JP2019125269 A JP 2019125269A
Authority
JP
Japan
Prior art keywords
background
foreground
image
boundary
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018006759A
Other languages
Japanese (ja)
Other versions
JP6846365B2 (en
Inventor
絵美 明堂
Emi Meido
絵美 明堂
智行 清水
Satoyuki Shimizu
智行 清水
和之 田坂
Kazuyuki Tasaka
和之 田坂
柳原 広昌
Hiromasa Yanagihara
広昌 柳原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018006759A priority Critical patent/JP6846365B2/en
Publication of JP2019125269A publication Critical patent/JP2019125269A/en
Application granted granted Critical
Publication of JP6846365B2 publication Critical patent/JP6846365B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Abstract

To enable highly accurate foreground/background separation by accurately determining propriety of foreground/background separation with a small amount of calculation.SOLUTION: A difference mask image generation part 12 generates a difference mask image Im by a background difference method. A background edge image generation part 13 extracts an edge from a background image to generate a background edge image Ib_edge. A difference mask boundary image generation part 15 extracts a boundary from the difference mask image Im to generate a difference mask boundary image Im_edge. A difference mask error boundary image generation part 16 extracts an error boundary overlapping the background edge image Ib_edge from the difference mask boundary image Im_edge to generate a difference mask error boundary image. A determination part 18 determines whether to execute foreground/background separation using the difference mask image Im on the basis of the error boundary. A reflection part 19 executes the foreground/background separation by using the difference mask image Im, and executes secret processing such as removal to at least one of a foreground and a background.SELECTED DRAWING: Figure 1

Description

本発明は、固定カメラで撮影した入力画像の背景から前景を分離する前景背景分離に好適な方法および装置に係り、特に、背景差分法により生成した差分マスク画像を用いた前景背景分離に好適な方法および装置に関する。   The present invention relates to a method and apparatus suitable for foreground separation, which separates the foreground from the background of an input image taken by a fixed camera, and in particular, for foreground separation using a difference mask image generated by background subtraction. Method and apparatus

在宅勤務者がTV会議時などで自身の映像を送信する際、プライバシー保護のため、背景(自宅背景)と前景(人物上半身)とを分離して自宅背景を秘匿する技術が求められる。さらにその際、軽処理であること、またジェスチャーを表示するために人物形状通りに正確に分離することも求められる。   When a home worker transmits his / her own video at a TV conference or the like, a technique for separating the background (home background) and the foreground (human body upper body) and concealing the home background for privacy protection is required. Furthermore, at that time, it is also required to be light processing and to accurately separate into a human shape in order to display a gesture.

深度センサから得られた距離情報を用いて前景を背景から分離する方法もあるが、深度センサを実装していない普及型の光学カメラから得られた画像・映像から人物の前景を静止した背景から分離するアプローチがいくつか提案されている。   There is also a method of separating the foreground from the background using distance information obtained from the depth sensor, but from the image / video obtained from a popular optical camera without the depth sensor mounted, the foreground of the person is taken from the stationary background Several approaches to separation have been proposed.

第1のアプローチとして、画像処理で顔を検出し、その周囲を一定形状の人型(人間の上半身の型)等で切り抜く方法がある。動画像の場合は、検出した顔の特徴点について追跡を行う、一定時間ごとに顔検出をし直すといった処理で前景と背景を分離できる。   As a first approach, there is a method in which a face is detected by image processing, and the periphery thereof is cut out with a fixed shape human shape (a human upper body shape) or the like. In the case of a moving image, the foreground and the background can be separated by processing for tracking the feature points of the detected face, and re-detecting the face every predetermined time.

第2のアプローチとして、グラブカット法などの領域分割と組み合わせ、前景と背景との境界を高精度に分離する方法がある。非特許文献1には、顔を検出し、前景のラベルとして利用し、分離する手法が開示されている。非特許文献3には、イメージマッティング技術において、前景と背景との境界部分などで適切な透明度を持つ分離を行い、髪などの細かなディテールを保持する手法が提案されている。   As a second approach, there is a method of separating the boundary between the foreground and the background with high accuracy in combination with the area division such as the grab cut method. Non-Patent Document 1 discloses a method of detecting a face, using it as a foreground label, and separating it. Non-Patent Document 3 proposes an image matting technique in which separation with appropriate transparency is performed at the boundary between the foreground and the background, and the like, and fine details such as hair are retained.

第3のアプローチとして、予め用意した背景モデルと入力映像との差分により前景と背景とを分離する背景差分法をベースにした方法がある。   As a third approach, there is a method based on the background subtraction method in which the foreground and the background are separated by the difference between the background model prepared in advance and the input image.

以上のアプローチの中で、第3のアプローチである背景差分法は、差分演算処理や2値のモルフォロジー演算を基本的な構成とし、最も軽処理でありながら、照明条件や背景・前景色等の条件等が整っていれば、前景・背景の分離時の輪郭も形状通りに高精度に行える。一般的な背景差分法の基本フローは以下の通りである。   Among the above approaches, the third approach, the background subtraction method, has basic configuration of difference calculation processing and binary morphological calculation, and although it is the lightest processing, such as illumination condition, background, foreground color, etc. If conditions etc. are satisfied, the outline at the time of separation of the foreground and the background can be performed with high accuracy as the shape. The basic flow of the general background subtraction method is as follows.

ステップ1:初めに背景モデルを作成する。背景モデルは撮影した静止画や動画から作成する。背景を動画で取得した場合、経時的な平均値や分散値も、ノイズや照明などの背景の変動を反映するのに使用することができ、後述する「閾値処理」で動的に閾値を変更できるなども可能である。ここでは簡単のため、背景モデルを静止画Ib(x,y)とする。カラーであれば、RBGやYCbCr等の各々の色成分で背景モデルを作成できる。   Step 1: First create a background model. The background model is created from the photographed still image and video. When the background is acquired as a moving image, the mean value and variance value over time can also be used to reflect background fluctuations such as noise and lighting, and the threshold value is changed dynamically by the “threshold processing” described later. It is also possible. Here, for the sake of simplicity, the background model is assumed to be a still image Ib (x, y). If it is a color, a background model can be created with each color component such as RBG and YCbCr.

ステップ2:次いで、入力画像(映像)Iaと背景画像Ibとで、次式(1)により画素毎に差を計算する。
Id(x,y)=Ia(x,y)-Ib(x,y) …(1)
Step 2: Next, the difference between the input image (image) Ia and the background image Ib is calculated for each pixel by the following equation (1).
Id (x, y) = Ia (x, y)-Ib (x, y) (1)

簡単のため、ここでの差分画像Idは絶対値を取ることにする。カラーであれば、RBGやYCbCr等の各々の色成分で処理可能である。または、各々の色成分で差分画像を求めず、各色成分を統合した差分画像Idを計測することも可能である。   For simplicity, the difference image Id here has an absolute value. If it is color, it can be processed with each color component such as RBG or YCbCr. Alternatively, it is also possible to measure a difference image Id in which each color component is integrated without obtaining a difference image for each color component.

ステップ3:次いで、差分画像Idに対して、前景を検出するために次式(2)の閾値処理を行って差分マスク画像Imを生成する。
Im(x,y)=1;if|Id(x,y)>T (前景) …(2)
0;otherwise (背景)
Step 3: Next, the difference image Id is subjected to threshold processing of the following equation (2) to detect the foreground to generate a difference mask image Im.
Im (x, y) = 1; if | Id (x, y)> T (foreground) (2)
0; otherwise (background)

各々の色成分について差分画像Idを求めている場合、閾値処理後に論理和演算を適用することで1枚の差分マスク画像Imを作成できる   When the difference image Id is obtained for each color component, one difference mask image Im can be created by applying the logical sum operation after threshold processing.

ステップ4:オプションとして、ごま塩のノイズ等の除去のためにオープニング・クロージング処理を行う。   Step 4: As an option, an opening and closing process is performed to remove sesame salt noise and the like.

ステップ5:オプションとして、指定した一定値以下の連結成分となっている微小領域除去をオープニング・クロージング処理により除去する。   Step 5: As an option, micro area removal which is a connected component equal to or less than a designated fixed value is removed by an opening closing process.

一方、背景差分法では、(i)照明変化に弱い、(ii)背景の非静止領域に弱い(葉の揺らぎなど)、(iii)背景と前景が類似色だと対象物体(前景)の検出が困難、といった問題がある。背景色が類似色の場合の前景の検出漏れは、前述のステップ4,5のゴマ塩ノイズ除去処理や微小領域除去処理によりある程度は補正することもできるが、一定以上に大きな領域の検出漏れを無くすために、ステップ5で除去する微小領域の面積等を大きく設定すると誤判定を生じ、検出漏れ領域が一定以上広い場合の補正としては適切でない。   On the other hand, in the background subtraction method, (i) weak to illumination change, (ii) weak to non-static area of background (leaf fluctuation etc.), (iii) detection of target object (foreground) if background and foreground are similar colors Is difficult, there is a problem. The foreground detection omission when the background color is similar color can be corrected to some extent by the sesame salt noise removal processing and the micro area removal processing in the steps 4 and 5 described above, but the detection omission of a larger area than a certain level If the area or the like of the minute region to be removed is set large in step 5 in order to eliminate it, an erroneous determination occurs, and it is not appropriate as a correction when the detection leakage region is wider than a certain amount.

背景差分法において、上記(i),(ii)の課題解決手法は数多く提案されているが、(iii)については根本的には解決できないと言われ、改善手法は少ないが、以下の様な改善手法がある。   In the background subtraction method, many problem solving methods in (i) and (ii) above are proposed, but it is said that (iii) can not be fundamentally solved, and there are few improvement methods, but There is an improvement method.

非特許文献2には、背景差分と色検出を統合した手法が提案されており、背景差分のみを用いた場合よりも精度を高められることがある。ここでは、YUV階調を軸に持つ前景画像(Yf ,Uf, Vf)および背景画像(Yb, Ub, Vb)の6次元空間において、事前学習により背景と前景(ターゲット)の識別面を求めることで、前景を検出する技術が開示されている。   Non-Patent Document 2 proposes a method in which background difference and color detection are integrated, and the accuracy may be improved as compared with the case where only background difference is used. Here, in the six-dimensional space of the foreground image (Yf, Uf, Vf) and the background image (Yb, Ub, Vb) having YUV gradations as axes, the identification plane of the background and the foreground (target) is obtained by prior learning. In the prior art, techniques for detecting the foreground are disclosed.

特許文献1には、入力画像に対し、白とびや黒つぶれの面積が一定以上あるブロックについて、背景差分が適さないと判定し(この場合、背景に白や黒の領域があり、前景色と背景色の類似性が課題になっていると推測できる)、背景差分が適さない場合、別の手法でオブジェクト検出処理を行う技術が開示されている。   In Patent Document 1, it is determined that a background difference is not suitable for a block having a certain area of overexposure or underexposure with respect to an input image (in this case, there are white or black areas in the background, and the foreground color It can be inferred that the similarity of background color is a problem), and when the background difference is not suitable, there is disclosed a technique of performing an object detection process by another method.

この特許文献1では、入力画像のエッジ画像を作成し、予め作成してある背景エッジ画像とパターンマッチングを行い、マッチングされた形状をもつオブジェクトは背景とみなす。マッチングされず、かつオブジェクトの外形が表れている入力画像の領域がオブジェクトとして検出される。   In this patent document 1, an edge image of an input image is created, pattern matching is performed with a background edge image created in advance, and an object having a matched shape is regarded as a background. The area of the input image which is not matched and in which the outline of the object appears is detected as the object.

特許文献2には、動く物体(特に、人)の輪郭線を安定的に抽出するために、背景差分法を利用する技術が開示されている。この特許文献2では、輪郭抽出フィルタを用いて抽出したエッジ画像と、背景差分で前景と判定された画像に膨張処理を施した膨張前景画像とを作成し、エッジ画像と膨張前景画像との論理積を取得することで、それ以外のエッジを不要なエッジとして除去し、正しいエッジのみからマスクエッジ画像を作成する。   Patent Document 2 discloses a technique that uses a background subtraction method to stably extract the outline of a moving object (in particular, a person). In this patent document 2, an edge image extracted using an outline extraction filter and an expanded foreground image obtained by performing expansion processing on an image determined to be foreground by background difference are created, and the logic between the edge image and the expanded foreground image By obtaining the product, the other edges are removed as unnecessary edges, and a mask edge image is created only from the correct edges.

さらに、マスクエッジ画像と膨張前景画像との境界を抽出した前景境界画像を生成し、マスクエッジ画像と前景境界画像を合成し、輪郭画像を作成する。その後、パーティクルフィルタで動的に輪郭線を追跡する。それにより動的輪郭追跡より高精度に動物体を追跡し、前景・背景分離も行える。   Furthermore, a foreground boundary image is generated by extracting the boundary between the mask edge image and the expanded foreground image, and the mask edge image and the foreground boundary image are synthesized to create an outline image. After that, follow the contours dynamically with the particle filter. As a result, the moving object can be tracked with higher accuracy than dynamic contour tracking, and foreground / background separation can also be performed.

非特許文献4には、前景背景分離後の前景の秘匿レベルを抽象化オペレータで調整する技術が開示されている。   Non-Patent Document 4 discloses a technique of adjusting the foreground concealment level after foreground / background separation with an abstraction operator.

特開2014-157453号公報JP, 2014-157453, A 特開2010-061478号公報JP, 2010-061478, A

Seon Heo, Hyung Il Koo, Hong Il Kim, Nam Ik Cho, "Human Segmentation Algorithm for Real-time Video-call Applications", APSIPA 2013. (DOI: 10.1109/APSIPA.2013.6694320)Seon Heo, Hyung Il Koo, Hong Il Kim, Nam Ik Cho, "Human Segmentation Algorithm for Real-time Video-call Applications", APSIPA 2013. (DOI: 10.1109 / APSIPA.2013.6694320) 加藤丈和, 和田俊和, "最近傍識別による背景差分と色検出の統合-事例に基づく情報統合", 情報処理学会論文誌, Vol.45, No.SIG13(CVIM 10), pp.110-117, 2004.Kato Takekazu, Wada Toshikazu, "Integration of background difference and color detection by nearest neighbor identification-Information integration based on examples", IPSJ Transactions Journal, Vol. 45, No. SIG13 (CVIM 10), pp. 110-117 , 2004. Eduardo S. L. Gastal1 and Manuel M. Oliveira, "Shared Sampling for Real-Time Alpha Matting", Proceedings of Eurographics 2010, Number 2, pp. 575-584.Eduardo S. L. Gastal 1 and Manuel M. Oliveira, "Shared Sampling for Real-Time Alpha Matting", Proceedings of Eurographics 2010, Number 2, pp. 575-584. 馬場口登, "安全と安心のための画像処理技術: 5. プライバシーを考慮した映像サーベイランス," 情報処理, vol.48, no.1, pp.30-36, Jan., 2007.Noboru Baba, "Image Processing Technology for Safety and Security: 5. Video Surveillance Considering Privacy," Information Processing, vol. 48, no. 1, pp. 30-36, Jan., 2007.

背景差分法を用いない第1のアプローチでは、人物形状を想定した一定型の切り抜きであるため、人物の輪郭は正しい形状で切り抜けない課題がある。また、手の動きなどのジェスチャーは背景とされてしまい、相手に伝えることができない。さらに、背景差分法と比較して計算量が多いことも課題となる場合がある。   In the first approach that does not use the background subtraction method, there is a problem that the outline of a person can not be cut out with a correct shape because it is a certain type of cutout assuming the shape of the person. In addition, gestures such as hand movements are considered as background and can not be transmitted to the other party. Furthermore, the problem may be that the amount of calculation is large compared to the background subtraction method.

例えば、在宅勤務などの場合には自宅PCや会社から配布されるPCのスペックが低いことがしばしばあると考えられる。スペックの低いPCでは、リアルタイム処理が難しい場合や、並列作業中の他のプロセスのパフォーマンスを低下させる場合がある。また、完全在宅勤務等で長期間にわたり長時間動作させることにより、リアルタイム動作可能であっても、PCが熱を持ちやすくなり、故障が増えるといった課題も考えられる。   For example, in the case of working at home, it is considered that the specifications of a home PC or a PC distributed from a company are often low. A low spec PC may have difficulty in real-time processing or may degrade the performance of other processes in parallel. In addition, even if real-time operation is possible, it is conceivable that the PC is likely to have heat and the trouble is increased by operating at full-time for a long period of time such as full teleworking.

第2のアプローチは、第1のアプローチ1の課題は解決でき、正しい輪郭形状で分離を行える。一方で、一般的に第1のアプローチ1よりも計算量が多い。したがって、リアルタイム処理を実現するためには、GPUでの並列処理が可能といった一定スペック以上のPCが必要となることが多い。   The second approach solves the problem of the first approach 1 and enables separation with the correct contour shape. On the other hand, the amount of calculation is generally greater than that of the first approach 1. Therefore, in order to realize real-time processing, it is often necessary to use a PC with a certain specification or more, which enables parallel processing on GPUs.

また、リアルタイム処理が可能であっても、第1のアプローチと同様に、並列作業中の他のプロセスのパフォーマンスを低下させる場合がある。長期在宅勤務等で、長期間にわたり長時間動作させることにより、PCが熱を持ちやすくなり、故障が増えるといった課題も考えられる。   Also, even if real-time processing is possible, the performance of other processes in parallel work may be degraded as in the first approach. Long-term home work, etc., by operating for a long time for a long time, it is possible to have a problem that the PC is likely to have heat, failure increases.

第3のアプローチの基本的な背景差分法は、背景と前景の色が似ている類似色の場合、前景の検出漏れが生じる。閾値や色の計算手法を変更しても、前景と背景が同じ色空間に属してしまい差がない場合、前景漏れを補正できない。   According to the basic background subtraction method of the third approach, in the case of similar colors in which the background and foreground colors are similar, the foreground is missed. Even if the threshold or color calculation method is changed, foreground leakage can not be corrected if the foreground and background belong to the same color space and there is no difference.

非特許文献2の様に背景差分法と前景の色検出法を統合し、前景の色検出法によりトレーニングした前景に対して検出精度を高めるアプローチにより、一般的な背景差分のみ用いた場合よりも精度を高められる可能性がある。しかしながら、別途トレーニングデータの取得作業や学習が必要となる。また、類似色については識別面を構成できず前景検出漏れが発生することも考えられる。さらに、検出速度も背景差分より低下し、長時間動作により、PCが熱を持ちやすくなり、故障が増えるといった課題も考えられる。   As in Non-Patent Document 2, the background subtraction method and the foreground color detection method are integrated, and the approach for enhancing the detection accuracy for the foreground trained by the foreground color detection method allows more than the general background subtraction method. There is a possibility that the accuracy can be improved. However, training data acquisition work and learning are separately required. In addition, with regard to similar colors, it is also conceivable that foreground detection omission occurs because the identification surface can not be configured. Furthermore, the detection speed is also lower than the background difference, and there is also a problem that the PC is likely to have heat due to the long time operation, and the failure increases.

特許文献1では、入力画像と背景画像のエッジ画像がマッチングされる箇所は背景と判定されてしまうため、前景の検出漏れの判定は行えず、背景として誤判定されたままとなる。特許文献2では、前景・背景分離を主目的としておらず、特許文献1と同様に前景検出漏れの判定は行えない。   In Patent Document 1, a portion where the input image and the edge image of the background image are matched is determined to be the background, so the determination of the foreground of the foreground can not be determined, and it is determined incorrectly as the background. In Patent Document 2, the main purpose is not to separate the foreground and the background, and as in Patent Document 1, it is not possible to judge the foreground detection omission.

本発明の目的は、上記の技術課題を解決し、固定カメラで撮影した入力画像の背景から前景を背景差分法により軽処理かつ高精度で分離可能であるか否かを評価し、さらには背景差分法により背景から前景を適正に分離する方法および装置を提供することにある。   The object of the present invention is to solve the above-mentioned technical problems, and to evaluate whether the foreground can be separated lightly from the background of the input image taken by the fixed camera by the background subtraction method with high accuracy and further, the background It is an object of the present invention to provide a method and apparatus for properly separating the foreground from the background by the subtraction method.

上記の目的を達成するために、本発明は、入力画像の背景から前景を分離する前景背景分離に好適な方法および装置において、以下の構成を具備した点に特徴がある。   In order to achieve the above object, the present invention is characterized in that the method and apparatus suitable for foreground / background separation for separating the foreground from the background of the input image comprises the following configuration.

(1) 本発明は、背景画像を取得する手段と、背景差分法により差分マスク画像を生成する手段と、背景画像からエッジを抽出して背景エッジ画像を生成する手段と、差分マスク画像から境界を抽出して差分マスク境界画像を生成する手段と、差分マスク境界画像から背景エッジ画像と重複する誤り境界を抽出する手段と、前記誤り境界に基づいて、前記差分マスク画像を用いた前景背景分離の適否を判定する手段とを具備した点に特徴がある。   (1) The present invention comprises means for acquiring a background image, means for generating a difference mask image by a background subtraction method, means for extracting an edge from the background image to generate a background edge image, and boundary from the difference mask image Means for extracting a difference mask boundary image, means for extracting an error boundary overlapping the background edge image from the difference mask boundary image, and foreground / background separation using the difference mask image based on the error boundary And means for determining the propriety of the above.

(2) 本発明は、前記判定する手段による適正判定に応答して、前記差分マスク画像を用いた前景背景分離を実施する反映手段をさらに具備した点に特徴がある。   (2) The present invention is characterized in that it further comprises reflecting means for performing foreground / background separation using the difference mask image in response to the appropriate determination by the determining means.

(3) 本発明は、差分マスク画像から「抜け」領域を選択する手段と、「抜け」領域の位置が前記誤り境界に対応しているか否かに基づいて当該「抜け」領域を補正対象とするか否かを判定する手段と、補正対象の「抜け」領域が前景となるように前記差分マスク画像を補正する手段とを具備した点に特徴がある。   (3) The present invention sets the “missing” area as the correction target based on means for selecting the “missing” area from the differential mask image and whether or not the position of the “missing” area corresponds to the error boundary. The present invention is characterized in that it comprises means for determining whether or not to do so, and means for correcting the difference mask image so that the "dropout" area to be corrected is the foreground.

(4) 本発明は、誤り境界に基づいて差分マスク画像から「欠け」領域を選択する手段と、「欠け」領域を補正する手段とを具備した点に特徴がある。   (4) The present invention is characterized in that it comprises means for selecting a "chip" area from a differential mask image based on an error boundary, and means for correcting the "chip" area.

本発明によれば、以下のような効果が達成される。   According to the present invention, the following effects are achieved.

(1) 予め取得した背景画像と入力画像との差分を取得し、前景を背景から分離する背景差分において、前景の境界部分と背景のエッジ部分とが類似することにより生じ得る、背景の形状の一部が差分マスク画像に現れる前景検出漏れの有無を少ない計算量で推測することができるので、背景差分法により生成した差分マスク画像Imを用いた前景背景分離の適否を軽処理で正確に判定できるようになる。   (1) A background shape that may be generated when the foreground border portion and the background edge portion are similar in background subtraction in which the difference between the background image acquired in advance and the input image is acquired and the foreground is separated from the background Since it is possible to estimate with a small amount of calculation whether there is a foreground detection omission that appears partially in the difference mask image, the appropriateness of foreground / background separation using the difference mask image Im generated by the background difference method is accurately determined by light processing. become able to.

(2) 背景差分法により生成した差分マスク画像Imを用いた前景背景分離が適正と判定されると、当該差分マスク画像Imを用いて前景背景分離を実施する一方、前景背景分離が不適と判定されると、背景差分法以外の手法による前景背景分離に切り換えるので、入力画像に対する最適な前景背景分離手法の適用を軽処理で実現できるようになる。   (2) When foreground / background separation using the difference mask image Im generated by the background difference method is determined to be appropriate, foreground / background separation is performed using the difference mask image Im, while it is determined that foreground / background separation is not suitable Then, switching to foreground / background separation by a method other than the background subtraction method makes it possible to realize the application of the optimum foreground / background separation method to the input image by light processing.

(3) 差分マスク画像Imに「抜け」領域が発生していても、誤り境界画像Imb_edgeを参照することで各「抜け」領域が前景検出漏れか否かを評価できる。したがって、差分マスク画像Imにおいて、本来の「抜け」領域は背景として維持したまま、誤った「抜け」領域のみを軽処理で前景に補正できるようになる。   (3) Even if a “dropout” area occurs in the differential mask image Im, it is possible to evaluate whether or not each “dropout” area is a foreground detection omission by referring to the erroneous boundary image Imb_edge. Therefore, in the difference mask image Im, it is possible to correct only the erroneous “dropout” region to the foreground by light processing while maintaining the original “dropout” region as the background.

(4) 差分マスク画像Imに「欠け」領域が発生していても、誤り境界画像Img_edgeを参照することで当該各「欠け」領域が前景検出漏れか否かを評価できる。したがって、差分マスク画像Imの「欠け」領域に対して適切な対応が可能になる。   (4) Even if a “missing” region occurs in the differential mask image Im, it is possible to evaluate whether or not the “missing” region is a foreground detection failure by referring to the erroneous boundary image Img_edge. Therefore, an appropriate response to the "missing" area of the differential mask image Im is possible.

本発明の第1実施形態に係る前景背景分離に好適な装置の主要部の構成を示したブロック図である。It is the block diagram showing the composition of the principal part of the device suitable for foreground background separation concerning a 1st embodiment of the present invention. 第1実施形態において、フレーム画像Iaから背景差分法で生成した差分マスク画像Imを用いた前景背景分離の適否を判定する過程を模式的に示した図である。FIG. 13 schematically shows a process of determining the suitability of foreground / background separation using the difference mask image Im generated from the frame image Ia by the background subtraction method in the first embodiment. 本発明の第2実施形態に係る前景背景分離に好適な装置の主要部の構成を示したブロック図である。It is the block diagram which showed the structure of the principal part of the apparatus suitable for foreground background isolation | separation which concerns on 2nd Embodiment of this invention. 第2実施形態において、背景差分法で生成した差分マスク画像Imを用いて前景背景分離を実施し、前景および背景の少なくとも一方に分離結果を反映する過程を模式的に示した図である。In 2nd Embodiment, it is the figure which showed typically the process of implementing foreground-background isolation | separation using the difference mask image Im produced | generated by the background subtraction method, and reflecting the isolation | separation result in at least one of a foreground and a background. 本発明の第3実施形態に係る前景背景分離に好適な装置の主要部の構成を示したブロック図である。It is the block diagram which showed the structure of the principal part of the apparatus suitable for foreground background isolation | separation which concerns on 3rd Embodiment of this invention. 第3実施形態において、背景差分法で生成した差分マスク画像Imの「抜け」領域を補正する過程を模式的に示した図である。FIG. 17 is a diagram schematically showing a process of correcting a “missing” area of the difference mask image Im generated by the background difference method in the third embodiment. 本発明の第4実施形態に係る前景背景分離に好適な装置の主要部の構成を示したブロック図である。It is the block diagram which showed the structure of the principal part of the apparatus suitable for foreground background isolation | separation which concerns on 4th Embodiment of this invention. 第4実施形態において、背景差分法で生成した差分マスク画像Imの「欠け」領域を補正する過程を模式的に示した図である。FIG. 21 is a diagram schematically showing a process of correcting a “missing” region of the difference mask image Im generated by the background difference method in the fourth embodiment. 差分マスク画像に発生する「抜け」領域および「欠け」領域を説明した図である。It is a figure explaining the "missing" field and the "missing" field which generate | occur | produce in a difference mask image. 「欠け」領域の評価方法を示した図である。It is the figure which showed the evaluation method of the "chipping" area. 面積の小さい「欠け」領域を含む差分マスクを補正対象とする例を示した図である。FIG. 7 is a diagram showing an example in which a differential mask including a small area of “missing” is to be corrected. 面積の大きい「欠け」領域を含む差分マスクを補正対象としない例を示した図である。FIG. 7 is a diagram showing an example in which a differential mask including a large area of “missing” area is not to be corrected. 「欠け」領域の個数が多い差分マスクを補正対象としない例を示した図である。It is the figure which showed the example which does not set the difference mask with many numbers of "missing" area | regions as correction | amendment object.

以下、図面を参照して本発明の実施の形態について詳細に説明する。本発明では、特に以下の3つの観点から前景の検出漏れを検知して背景差分法による前景背景分離の適否を評価し、かつ背景差分法を適用する際も前景検出漏れに基づいて差分マスク画像を補正することで、軽処理かつ高精度の前景背景分離を実現する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present invention, in particular, the omission of detection of foreground is detected from the following three viewpoints to evaluate the suitability of foreground / background separation by the background subtraction method, and also when applying the background subtraction method: To achieve light processing and high precision foreground / background separation.

(1) 微小領域除去で処理しにくい前景検出漏れは、前景となる髪部(黒)や頬部(肌色)、あるいは背景と同色の服部など一定の面積がある平坦な領域で生じやすい。また、背景オブジェクトの形状が漏洩しやすいことから、本発明では、このような前景検出漏れの検知および補正を対象とする。   (1) A foreground detection omission which is difficult to process by removing a small area tends to occur in a flat area having a certain area, such as a hair part (black) or a cheek part (skin color) serving as the foreground or a clothes part having the same color as the background. Further, since the shape of the background object is likely to leak, the present invention is directed to the detection and correction of such foreground detection omission.

(2) 背景の特徴として、宅内の場合、抜けは直線的(柱、家具、ドア、カレンダーなど)であることも多い。また、直線的でない抜けも宅内に存在する。例えば、洗濯物や丸い置物などのオブジェクトは直線的でないが、その場合の抜け形状はオブジェクトと同一形状となる前景に囲まれた閉領域であることが多い。   (2) As a feature of the background, in the case of the house, the escape is often linear (posts, furniture, doors, calendars, etc.). In addition, non-linear omissions also exist in the house. For example, objects such as laundry and round figurines are not linear, but the missing shape in that case is often a closed region surrounded by the foreground having the same shape as the object.

(3) 一般的に宅内オブジェクトは動かない。上記(1),(2)で生じた前景の検出漏れ領域の輪郭は前景(人の体)が少し動いても動かない。   (3) Generally, home objects do not move. The outline of the foreground detection leakage area generated in the above (1) and (2) does not move even if the foreground (human body) moves a little.

本発明では、上記のような前景検出漏れの有無を判断し、簡易補正可能ならば簡易補正を行い、そうでなければ背景差分法以外の別手法への切り換えを促す。   In the present invention, it is determined whether or not there is a foreground detection failure as described above, and if the simple correction is possible, the simple correction is performed, and if not, the switching to another method other than the background subtraction method is urged.

図1は、本発明の第1実施形態に係る背景差分法による前景背景分離に好適な装置の主要部の構成を示したブロック図であり、図2は、入力されたフレーム画像Iaの背景から前景を背景差分法により軽処理かつ高精度で分離できるか否かを評価する過程を模式的に示した図である。   FIG. 1 is a block diagram showing the configuration of the main part of a device suitable for foreground / background separation by the background subtraction method according to the first embodiment of the present invention, and FIG. 2 is a background of the input frame image Ia. It is the figure which showed typically the process of evaluating whether the foreground can be light-processed and separated with high accuracy by the background subtraction method.

フレーム画像取得部10は、固定カメラCaから動画像をフレーム単位で取得する。背景画像蓄積部11には、予め固定カメラCaで人物の存在しない室内を撮影した背景画像Ibが蓄積されている。差分マスク画像生成部12は、図2に示したように、固定カメラCAから取得した今回のフレーム画像Iaと前記背景画像Ibとの差分を求め、各画素をその画素値に基づいて前景および背景の2値に分離することで初期の差分マスク画像Im_tを生成する。   The frame image acquisition unit 10 acquires a moving image from the fixed camera Ca in units of frames. The background image storage unit 11 stores, in advance, a background image Ib obtained by photographing the room where no person is present with the fixed camera Ca. As shown in FIG. 2, the difference mask image generation unit 12 obtains the difference between the current frame image Ia acquired from the fixed camera CA and the background image Ib, and the foreground and the background of each pixel based on the pixel value. The initial differential mask image Im_t is generated by separating into two values of.

背景エッジ画像生成部13は、図2に示したように、前記背景画像Ibからエッジ成分を抽出して背景エッジ画像Ib_edgeを生成する。エッジ抽出には、ラプラシアンフィルタ、ソーベルフィルタ、キャニーエッジフィルタ等を適用し、エッジ検出に用いられる一般的な閾値処理を行うことで実現できる。例えば、フィルタ適用後の画素値の絶対値が一定閾値A以上であれば輪郭、一定閾値B以下であれば非輪郭とすることができる。また、画素値の絶対値が閾値A,Bの間に存在する場合は、隣接画素に輪郭があれば輪郭とし、なければ非輪郭とすることができる。   As shown in FIG. 2, the background edge image generation unit 13 extracts an edge component from the background image Ib to generate a background edge image Ib_edge. The edge extraction can be realized by applying a Laplacian filter, a Sobel filter, a Canny edge filter or the like and performing general threshold processing used for edge detection. For example, if the absolute value of the pixel value after the application of the filter is equal to or more than the predetermined threshold A, the contour can be used. In addition, when the absolute value of the pixel value is between the thresholds A and B, if the adjacent pixel has a contour, it can be contoured, otherwise it can be non-contoured.

エッジ抽出の対象画像は、背景画像Ibに何等かの前処理を行って変更を加えた画像であっても良い。例えば、グレイスケール化した背景画像Ibを採用しても良いし、あるいはYCbCrなどの色成分ごとにエッジ抽出を実施し、最後に論理和を求めて1枚の背景エッジ画像Ib_edgeを生成するようにしても良い。   The target image for edge extraction may be an image obtained by performing some pre-processing on the background image Ib to make a change. For example, a gray-scaled background image Ib may be adopted, or edge extraction is carried out for each color component such as YCbCr, and finally a single background edge image Ib_edge is generated by obtaining a logical sum. It is good.

微小領域削除部14は、図2に示したように、前記差分マスク画像Im_tに対してごま塩ノイズの除去処理や、一定値T_area_mp以下の領域のマスク値を反転する微小領域除去処理を行うことで、ノイズ除去された差分マスク画像Imを生成する。これらの処理には、モルフォロジーの領域オープニングを適用できる。ここで、T_area_mpを大きな値に設定しすぎると、本来背景となるべき領域が前景になってしまうため、T_area_mpは大きな値で設定しすぎず、大きな閉領域については、前景とすべきか背景とすべきかを別途に判断した方が良い場合が多い。以下にその判断方法について説明する。   As shown in FIG. 2, the micro area removing unit 14 performs a removing process of salt and salt noise on the difference mask image Im_t or a micro area removing process of inverting the mask value of the area less than or equal to a predetermined value T_area_mp. , A noise-removed difference mask image Im is generated. Morphological domain openings can be applied to these processes. Here, if T_area_mp is set too large, the area that should be the background will be the foreground, so T_area_mp should not be set too large, and for large closed areas, either the foreground or the background and all There are many cases where it is better to judge the condition separately. The determination method will be described below.

差分マスク境界画像生成部15は、図2に示したように、前記微小領域削除後の差分マスク画像Imからエッジ境界を抽出して差分マスク境界画像Im_edgeを生成する。差分マスク境界画像の生成方法としては、(i) マスクの前景と背景とが変化する境界を差分マスクの境界とする、(ii) エッジ抽出を行う、(iii) 差分マスクの前景にオープニング(またはクロージング)処理を施し、オープニング(クロージング)処理前と変化した箇所を境界とする、などを採用できる。あるいは、オープニング処理およびクロージング処理の双方を行った境界画像の論理和を取得しても良い。ただし、前景が画像の辺に接する場合には、その箇所を境界とすることが望ましい。   As shown in FIG. 2, the difference mask boundary image generation unit 15 extracts an edge boundary from the difference mask image Im after the micro area deletion to generate a difference mask boundary image Im_edge. As a method of generating a difference mask boundary image, (i) using the boundary where the foreground and the background of the mask change as the boundary of the difference mask, (ii) performing edge extraction, and (iii) opening (or opening) the foreground of the difference mask It is possible to adopt a processing such as closing, making the boundary before and after the opening (closing) processing. Alternatively, the logical sum of boundary images subjected to both the opening process and the closing process may be acquired. However, when the foreground is in contact with the side of the image, it is desirable to use that portion as the boundary.

また、領域については、照明のちらつきや物体のテクスチャの影響を軽減するため、一定期間の差分マスク画像や差分マスク境界画像を蓄積してから求めても良い。例えば、一定時間の差分マスク画像の論理積をとって領域を求めたり、一定時間中に一定割合以上に前景が存在する領域のみを前景領域として求めたりしても良い。さらに、差分マスク境界画像Im_edgeに対して、一定時間の差分マスク境界画像の論理和や一定期間中に一定割合以上に存在する境界を取っても良い。   Also, with regard to the area, in order to reduce the influence of illumination flicker and the texture of the object, a difference mask image or a difference mask boundary image of a fixed period may be accumulated and then determined. For example, a logical product of differential mask images for a predetermined time may be calculated to obtain an area, or only an area where the foreground is present at a predetermined rate or more during a predetermined time may be obtained as a foreground area. Furthermore, the difference mask boundary image Im_edge may be a logical sum of a difference mask boundary image for a predetermined time, or a boundary existing at a predetermined ratio or more in a predetermined period.

差分マスク誤り境界画像生成部16は、差分マスク境界画像Im_edgeと背景エッジ画像Ib_edgeとの形状の類似している位置を特定する。本実施形態では、図2に示したように、差分マスク境界画像Im_edgeと背景エッジ画像Ib_edgeとの論理積に基づいて差分マスク誤り境界画像Imb_edgeを生成する。なお、論理積演算により各画像の類似位置を抽出するのであれば、差分マスク境界画像Im_edgeには、必要に応じて予めオープニング処理を行うことが望ましい。   The difference mask error boundary image generation unit 16 specifies the position where the shapes of the difference mask boundary image Im_edge and the background edge image Ib_edge are similar. In the present embodiment, as shown in FIG. 2, the difference mask error boundary image Imb_edge is generated based on the logical product of the difference mask boundary image Im_edge and the background edge image Ib_edge. In addition, if the similar position of each image is extracted by the logical product operation, it is desirable to perform an opening process on the differential mask boundary image Im_edge in advance as needed.

ノイズ除去部17は、差分マスク誤り境界画像Imb_edgeとして残った誤り境界の画素群からノイズ成分を除去する。本実施形態では、誤り境界の画素群のうち、連結できる画素は前景検出漏れ領域に接しているエッジである可能性が高いとの考察に基づいて、その個数を計数する。その結果、連結できる画素数が一定個数T_cnctよりも少ない画素群は、前景の正しいエッジと背景のエッジとの交差点である可能性が高いのでノイズとして除去する一方、一定個数T_cnctより多い画素群は本来の「誤り境界」と推定できるので除去しない。   The noise removing unit 17 removes noise components from the pixel group of the error border remaining as the difference mask error border image Imb_edge. In the present embodiment, the number of pixels that can be connected out of the pixel group at the error boundary is counted based on the consideration that it is highly likely that the edge is in contact with the foreground detection leakage region. As a result, a pixel group having fewer connectable pixels than a predetermined number T_cnct is likely to be an intersection between the correct edge of the foreground and an edge of the background, so it is removed as noise while pixel groups greater than the fixed number T_cnct It can not be removed because it can be estimated as the original "error boundary".

なお、このようなノイズ除去はフレーム内での相関のみならずフレーム間での相関を考慮して行うようにしても良い。例えば、前回フレームで生成した差分マスク誤り境界画像Imb_edgeではT_cnct以上の連結成分が存在した箇所において、今回フレームではノイズや微小の動きがあってT_cnct以下となっても、一定数以上のエッジがT_cnct上にあるならば、今回フレームでの連結成分がT_cnct以下でも前回フレームと同様に連結しているとみなすようにしても良い。   Such noise removal may be performed in consideration of not only the correlation within the frame but also the correlation between the frames. For example, in the difference mask error boundary image Imb_edge generated in the previous frame, at a location where a connected component of T_cnct or more is present, even if noise or minute motion occurs in the current frame and T_cnct or less, a certain number of edges are T_cnct If it is above, it may be regarded that the connected component in the current frame is connected to T_cnct or less as in the previous frame.

また、前景の正しい境界と背景エッジとの交差点や偶然一致した線を排除するために、入力したフレーム画像Iaに関しても、そのエッジ画像Ia_edgeを輪郭抽出フィルタにより求め、差分マスク誤り境界画像Imb_edge上に存在する誤り境界の画素群のうちエッジ画像Ia_edgeに含まれる画像を除去するようにしても良い。   Also, in order to eliminate the intersection of the correct boundary of the foreground and the background edge or the coincident line, the edge image Ia_edge is also obtained by the edge extraction filter for the input frame image Ia, and the difference mask error border image Imb_edge is obtained. It is also possible to remove the image included in the edge image Ia_edge out of the pixel group of the error boundary that exists.

このとき、エッジ画像Ia_edgeと差分マスク誤り境界画像Imb_edgeの輪郭とが偶然一致したかどうかを経時的に判断しても良い。例えば、経時的な前景の微小な動きを検出し、微小な動きがあった後に線が一致しなくなる場合は偶然の一致と考えて処理を行わず、経時的に輪郭線が一致している箇所に接する領域のみに補正を行うようにしても良い。微小な動きの検出は、例えば、前フレームとの差分画像を取得し、一定以上の変化があった場合には動きがあったと判断できる。   At this time, it may be determined over time whether or not the edge image Ia_edge and the edge of the difference mask error boundary image Imb_edge coincide by chance. For example, a minute movement of the foreground over time is detected, and if there is a line movement that does not match after a minute movement, processing is not considered as coincident by coincidence, and a location where the outlines match over time The correction may be performed only in the area in contact with the image. For detection of a minute movement, for example, it is possible to determine that there is a movement when a difference image with the previous frame is acquired and a change of a certain level or more occurs.

本実施形態では、以上のようにしてノイズ除去部17が前記差分マスク誤り境界画像Imb_edgeから、経時的なノイズを含む様々なノイズを除去することで差分マスク誤り境界画像Imb_edge'が生成される。   In the present embodiment, as described above, the noise removing unit 17 removes various noises including temporal noise from the difference mask error boundary image Imb_edge to generate a difference mask error boundary image Imb_edge ′.

判定部18は、前記ノイズ除去後の差分マスク誤り境界画像Imb_edge'に誤り境界が残っているか否かに基づいて、前記背景差分法により生成した差分マスク画像Imを用いた前景背景分離の適否を判定する。   The determination unit 18 determines the suitability of foreground / background separation using the difference mask image Im generated by the background subtraction method based on whether or not an error boundary remains in the difference mask error boundary image Imb_edge ′ after the noise removal. judge.

本実施形態では、今回のフレーム画像Iaに関して、差分マスク誤り境界画像Imb_edge'に誤り境界が残っていなければ、前記背景差分法により生成した差分マスク画像Imを用いた前景背景分離を好適と判定する。これに対して、ノイズ除去後の差分マスク誤り境界画像Imb_edge'に誤り境界が残っていれば、背景差分法により生成した差分マスク画像Imを用いた前景背景分離を不適と判断する。   In the present embodiment, for the present frame image Ia, if no error boundary remains in the difference mask error boundary image Imb_edge ', the foreground / background separation using the difference mask image Im generated by the background difference method is determined to be suitable. . On the other hand, if an error boundary remains in the difference mask error boundary image Imb_edge 'after noise removal, it is determined that foreground / background separation using the difference mask image Im generated by the background difference method is unsuitable.

本実施形態によれば、前景の境界部分と背景のエッジ部分とが類似することにより生じ得る、背景の形状の一部が差分マスク画像に現れる前景検出漏れの有無を少ない計算量で推測することができるので、背景差分法により生成した差分マスク画像を用いた前景背景分離の適否をフレーム画像ごとに軽処理で判定できるようになる。   According to the present embodiment, it is possible to estimate with a small amount of calculation whether there is a foreground detection omission in which a part of the background shape appears in the difference mask image, which may be caused by similarity between the foreground border and the background edge. As a result, it is possible to lightly determine the suitability of foreground / background separation using the difference mask image generated by the background subtraction method for each frame image.

したがって、判定部18の判定結果を、背景差分法を含む様々な前景背景分離機能を備えたシステムへ、オペレータを介して、または直接通知すれば、入力されるフレーム画像ごとに好適な前景背景分離方法として、背景差分法および背景分離法以外のいずれかを正確に選択できるようになる。   Therefore, if the determination result of the determination unit 18 is notified to the system having various foreground / background separation functions including the background subtraction method via the operator or directly, the foreground / background separation suitable for each input frame image As a method, either one of background subtraction and background separation can be accurately selected.

図3は、本発明の第2実施形態に係る背景差分法による前景背景分離に好適な装置の主要部の構成を示したブロック図であり、図4は、入力されたフレーム画像Iaの背景領域から前景領域を背景差分法により軽処理かつ高精度で分離できるか否かを判定し、分離できると判断されれば、背景差分法により生成した差分マスク画像を用いて背景領域から前景領域を分離する過程を模式的に示した図である。いずれの図でも前記と同一の符号は同一又は同等部分を表しているので、その説明は省略する。   FIG. 3 is a block diagram showing the configuration of the main part of a device suitable for foreground / background separation by the background subtraction method according to the second embodiment of the present invention, and FIG. 4 is a background area of the input frame image Ia. It is judged whether the foreground area can be separated with light processing and high accuracy by the background subtraction method, and if it is judged that the foreground area can be separated, the foreground area is separated from the background area using the difference mask image generated by the background subtraction method. Is a diagram schematically showing the process of The same reference numerals as above denote the same or equivalent parts in any of the drawings, so the description thereof is omitted.

前記判定部18は、前記ノイズ除去後の差分マスク誤り境界画像Imb_edge'に誤り境界が残っていなければ、背景差分法による前景背景分離を適正と判定して、その旨を反映部19に通知する。これに対して、前記ノイズ除去後の差分マスク誤り境界画像Imb_edge'に誤り境界が残っていれば、背景差分法による前景背景分離を中止して、背景差分法以外の手法による分離を推奨する。   If the error boundary does not remain in the differential mask error boundary image Imb_edge ′ after the noise removal, the determination unit 18 determines that foreground / background separation by the background difference method is appropriate, and notifies that effect to the reflection unit 19. . On the other hand, if an error boundary remains in the differential mask error boundary image Imb_edge 'after the noise removal, foreground separation by the background difference method is stopped, and separation by a method other than the background difference method is recommended.

反映部19は、前記判定部18からの適正判定の通知に応答して、今回のフレーム画像Iaに対して、前記背景差分法により生成した差分マスク画像Imを用いた前景背景分離を実施し、その前景および背景のうち、プライバシー保護の観点から少なくとも一方に対して、「ぼかし」、「モザイク」、「(他のテクスチャへの)置換」あるいは「除去」等の秘匿処理を実施する。なお、前景および背景のいずれに対しても秘匿処理を実施するのであれば、分離境界が失われないように、それぞれに異なる秘匿処理を実施することが望ましい。   In response to the notification of the appropriateness determination from the determination unit 18, the reflection unit 19 performs foreground / background separation on the current frame image Ia using the difference mask image Im generated by the background subtraction method, From the foreground and the background, a concealment process such as "blur", "mosaic", "replacement (to another texture)" or "removal" is performed on at least one from the viewpoint of privacy protection. If the concealment process is performed on any of the foreground and the background, it is preferable to perform different concealment processes on each of the separation boundaries so as not to be lost.

本実施形態によれば、背景差分法により作成した差分マスク画像を用いることで前景背景分離を軽処理かつ高精度で実施できると判定されると、この判定結果を今回のフレーム画像Iaに反映する一方、背景差分法が不適であると判定されると背景差分法以外による前景背景分離を促すので、入力画像に応じて最適な前景背景分離を実現できるようになる。   According to the present embodiment, when it is determined that foreground / background separation can be performed with high accuracy and high accuracy by using the difference mask image created by the background difference method, this determination result is reflected on the current frame image Ia. On the other hand, when it is determined that the background subtraction method is not suitable, foreground separation by other than the background subtraction method is promoted, so that the optimum foreground / background separation can be realized according to the input image.

図5は、本発明の第3実施形態に係る背景差分法による前景背景分離に好適な装置の主要部の構成を示したブロック図であり、図6は、背景差分法により生成した差分マスク画像Imの「抜け」領域を評価,補正する過程を模式的に示した図である。いずれの図でも、前記と同一の符号は同一又は同等部分を表しているので、その説明は省略する。   FIG. 5 is a block diagram showing the configuration of the main part of an apparatus suitable for foreground / background separation by the background subtraction method according to the third embodiment of the present invention, and FIG. 6 is a difference mask image generated by the background subtraction method. It is the figure which showed typically the process of evaluating and correct | amending the "missing" area | region of Im. In any of the drawings, the same reference numerals as described above denote the same or equivalent parts, and thus the description thereof will be omitted.

本実施形態は、誤り境界画像Imb_edgeに基づいて差分マスク画像Imの閉領域を補正候補として選択する補正候補領域選択部20と、その選択結果および前記判定部18による判定結果に基づいて差分マスク画像Imを補正し、補正後の差分マスク画像Im1を出力する第1補正処理部21とを更に具備した。   In this embodiment, a correction candidate area selection unit 20 selects a closed area of the difference mask image Im as a correction candidate based on the erroneous boundary image Imb_edge, and a difference mask image based on the selection result and the determination result by the determination unit 18. The first correction processing unit 21 is further provided to correct Im and output a corrected differential mask image Im1.

前記反映部19は、差分マスク画像Imおよび補正後の差分マスク画像Im1のいずれかを用いてフレーム画像Iaに前景背景分離を実施し、かつ前景および背景の少なくとも一方に対して、前記「ぼかし」、「モザイク」、「置換」あるいは「除去」等の秘匿処理を実施する。   The reflection unit 19 performs foreground / background separation on the frame image Ia using one of the difference mask image Im and the corrected difference mask image Im1, and performs the “blurring” on at least one of the foreground and the background. , “Mosaic”, “replacement” or “removal” etc.

前記補正候補領域選択部20は、差分マスク画像Imにおいて、全周囲を前景に囲まれた背景領域[図9(a)]を「抜け」領域と認定し、全ての「抜け」領域を補正候補領域としてリストアップして第1補正処理部21に通知する。   The correction candidate area selection unit 20 recognizes a background area [FIG. 9 (a)] surrounded by the foreground in the difference mask image Im as the “missing” area, and corrects all “missing” areas as correction candidates. The area is listed up and notified to the first correction processing unit 21.

第1補正処理部21は、差分マスク画像Im上で前記ノイズ除去後の誤り境界画像Img_edge'上の誤り境界に接する「抜け」領域のみを補正対象とし、当該「抜け」領域内のマスク値を反転して背景から前景に補正することで修正後の差分マスク画像Im1を生成する。なお、本補正領域は一定期間(複数フレーム間)にわたって有効としても良い。   The first correction processing unit 21 corrects only the “dropout” region in contact with the erroneous boundary on the error boundary image Img_edge ′ after the noise removal on the difference mask image Im, and sets the mask value in the “dropout” region. By inverting and correcting from the background to the foreground, a corrected difference mask image Im1 is generated. The main correction area may be effective for a predetermined period (between a plurality of frames).

この結果、図6に示したように、差分マスク画像Im上で誤り境界の画像群が存在する「抜け」領域候補Reのマスク値は前景のマスク値に補正される一方、誤り境界の画素群が存在しない「抜け」領域候補Rtのマスク値は、前景のマスク値に補正されることなく背景のマスク値を維持する。反映部19は、今回のフレーム画像Iaに前記補正後の差分マスク画像Im1を適用することで前景背景分離を実施し、かつ前景および背景の少なくとも一方に対して秘匿処理(本実施形態では、背景を除去)を実施する。   As a result, as shown in FIG. 6, while the mask value of the “dropout” area candidate Re where the image group of the erroneous boundary exists on the difference mask image Im is corrected to the mask value of the foreground, the pixel group of the erroneous boundary The mask values of the "missing" region candidate Rt in which there is no exist maintain the background mask value without being corrected to the foreground mask value. The reflection unit 19 performs foreground / background separation by applying the corrected difference mask image Im1 to the current frame image Ia, and performs concealment processing on at least one of the foreground and the background (in this embodiment, the background). Carry out).

本実施形態によれば、差分マスク画像Imに「抜け」領域が発生していても、誤り境界画像Img_edge'を参照することで各「抜け」領域を正確に評価できるので、本来の「抜け」領域を背景として維持したまま、誤検知に基づく「抜け」領域のみを前景に補正できるようになる。   According to the present embodiment, even if a “dropout” area occurs in the difference mask image Im, each “dropout” area can be accurately evaluated by referring to the erroneous boundary image Img_edge ′. It is possible to correct only the "missing" region based on false detection to the foreground while maintaining the region as the background.

図7は、本発明の第4実施形態に係る背景差分法による前景背景分離に好適な装置の主要部の構成を示したブロック図である。図8は、背景差分法で生成した差分マスク画像Imの「欠け」領域[図9(c)]を補正する過程を模式的に示した図である。いずれの図でも、前記と同一の符号は同一又は同等部分を表しているので、その説明は省略する。   FIG. 7 is a block diagram showing the configuration of the main part of a device suitable for foreground / background separation by the background difference method according to the fourth embodiment of the present invention. FIG. 8 is a view schematically showing a process of correcting the “missing” area [FIG. 9 (c)] of the difference mask image Im generated by the background difference method. In any of the drawings, the same reference numerals as described above denote the same or equivalent parts, and thus the description thereof will be omitted.

本実施形態は、前記補正後の差分マスク画像Im1から、前記ノイズ除去後の誤り境界画像Imb_edge'上の誤り境界の画素群に基づいて「欠け」領域を選択し、更には必要に応じて当該「欠け」領域を評価、補正する第2補正処理部22を具備した点に特徴がある。   In the present embodiment, a “missing” area is selected from the difference mask image Im1 after the correction based on the pixel group of the error boundary on the error boundary image Imb_edge ′ after the noise removal, and further, as necessary, the “missing” region is selected. The second embodiment is characterized in that the second correction processing unit 22 is provided to evaluate and correct the "missing" area.

第2補正処理部22において、欠け領域判定部221は、第1補正処理後の差分マスク画像Im1に「欠け」領域が存在するか否かを判定する。本実施形態では、正しい差分マスク画像[図9(b)]では前景であるが背景と誤判定された差分マスク画像Im1の領域において、周囲の一部のみを前景に囲まれた領域[図9(c)]を「欠け」領域とする。「欠け」領域が存在しない判定は、例えば、誤り境界画像Imb_edge'上の全ての誤り境界の画素群が前記「抜け」領域と接しており、かつ前記第1補正処理部21により既に補正されていれば、「欠け」領域が存在していない可能性が高いので、ここでは「欠け」領域が存在しないと判定する。   In the second correction processing unit 22, the lack area determination unit 221 determines whether or not there is a “missing” area in the differential mask image Im <b> 1 after the first correction processing. In the present embodiment, in the area of the difference mask image Im1 which is the foreground in the correct difference mask image [FIG. 9 (b)] but is erroneously determined to be the background, an area in which only a part of the periphery is surrounded by the foreground [FIG. (c)] is a "missing" area. In the determination that there is no “missing” area, for example, the pixel group of all error boundaries on the error boundary image Imb_edge ′ is in contact with the “dropout” area, and has already been corrected by the first correction processing unit 21. Then, since there is a high possibility that the "missing" area does not exist, it is determined here that the "missing" area does not exist.

これに対して、図10に示したように、誤り境界画像Imb_edge'上に「抜け」領域と接していない誤り境界の画素群[同図(a)]が存在していれば、それに接する「欠け」領域が存在している可能性があると判定する。なお、欠け領域が存在する可能性があると判定された場合、「欠け」補正処理を行わず、前景背景分離方式として背景差分法以外の他の方式の採用を推奨してもよい。   On the other hand, as shown in FIG. 10, if there is an erroneous border pixel group [the same figure (a)] not in contact with the “dropout” area on the erroneous border image Imb_edge ′, It is determined that the "missing" area may exist. If it is determined that there is a possibility that there is a missing area, the “omission” correction process may not be performed, and it may be recommended to adopt another method other than the background subtraction method as the foreground / background separation method.

さらに、前景の形状特徴が既知または推測できる場合、当該形状特徴との整合性に基づいて「欠け」領域のが存在する可能性が高いかどうかを判定できる。例えば、前景形状が顔のような楕円型であり、同図(b)に示したように、その誤り境界画像Imb_edge'の誤り境界の画素群が存在する箇所において前景形状が滑らかな凸形状でなく凹形状または複雑な形状となっている場合は、「欠け」領域が存在している可能性が高いと判定できる。   Furthermore, if the shape feature of the foreground is known or inferred, it can be determined based on the consistency with the shape feature whether there is a high possibility of the "missing" region. For example, the foreground shape is an oval shape like a face, and as shown in FIG. 6B, it has a convex shape in which the foreground shape is smooth in the portion where the pixel group of the erroneous boundary of the erroneous boundary image Imb_edge 'is present. In the case of a concave shape or a complicated shape, it can be determined that there is a high possibility that the "chip" area is present.

前景形状の推測は、現在の差分マスク画像Imの境界から行うこともできる。その場合、フレーム画像Iaを対象に輪郭抽出を行って同図(c)の差分マスク画像を求める。ここで、マスク画像境界と一致する境界は正しいと推測できるため、その境界上の点を何点か抽出し、スプライン補間等で曲線を補完することで形状を推測する。なお、欠け領域が存在すると可能性があると判定された場合でも、前景形状に凹凸が多いなどの理由で前景形状の推測が難しい場合には、欠け補正を中断しても良い。   The foreground shape can also be inferred from the boundary of the current difference mask image Im. In that case, contour extraction is performed on the frame image Ia to obtain a differential mask image of FIG. Here, since the boundary coincident with the mask image boundary can be inferred to be correct, several points on the boundary are extracted, and the shape is estimated by interpolating the curve by spline interpolation or the like. Note that even if it is determined that there is a possibility that there is a missing area, it is possible to interrupt the missing correction if it is difficult to estimate the foreground shape because the foreground shape has many irregularities.

次いで、同図(d)に示したように、推測形状の輪郭と差分マスク画像とを重畳する。この際、輪郭と前景に囲まれる背景領域が存在する場合、「欠け」領域が存在している可能性が高いと判定できる。さらに、その領域の輪郭の一部が誤り境界画像Imb_edge'上の誤り境界の端点と一致している場合、「欠け」領域が存在している可能性がさらに高いと判定できる。   Next, as shown in FIG. 6D, the contour of the estimated shape and the difference mask image are superimposed. At this time, when there is a background area surrounded by the outline and the foreground, it can be determined that the possibility of the "missing" area is high. Furthermore, if a part of the contour of the area coincides with the end point of the erroneous boundary on the erroneous boundary image Imb_edge ', it can be determined that the possibility of the "missing" region is higher.

このようにして、「欠け」領域が存在している可能性がある、または高いと認識されると、第2補正処理部22は当該「欠け」領域を放置できるか否かを初めに判定する。例えば、前記既に修正された「抜け」領域に接しない誤り境界の画素群が存在するものの、その形状が前景形状と矛盾がない場合、あるいは図11に示したように、推定した「欠け」の量が所定の基準面積より小さい場合は、欠けたままでも良いと判定して、前記「欠け」を有する差分マスク画像Im1をそのまま採用することができる。   In this manner, when it is recognized that the "chip" area may be present or high, the second correction processing unit 22 first determines whether or not the "chip" area can be left. . For example, although there is a pixel group at an erroneous boundary not in contact with the already corrected “dropout” area, if the shape is not inconsistent with the foreground shape, or as shown in FIG. When the amount is smaller than the predetermined reference area, it is determined that the chip may be left as it is, and the difference mask image Im1 having the “chip” can be adopted as it is.

これに対して、放置できない「欠け」が存在する場合は更に、図12に示したように「欠け」領域の面積、あるいは図13に示したように「欠け」領域の個数を判別する。そして、「欠け」領域の面積や「欠け」領域の個数が所定の判定閾値を超えていると、前景背景分離方式として背景差分法以外の他の方式の採用を推奨する。または、「欠け」領域に接している可能性がある誤り境界画像Imb_edge'の画素数や連結成分を1つと数えた時の個数が所定の判定閾値を超えていると、前景背景分離方式として背景差分法以外の他の方式の採用を推奨する。   On the other hand, when there is a "chipping" that can not be left, the area of the "chipping" area as shown in FIG. 12 or the number of "chipping" areas as shown in FIG. 13 is further determined. Then, if the area of the “chip” area or the number of “chip” areas exceeds the predetermined determination threshold, it is recommended to adopt another system other than the background subtraction method as the foreground / background separation system. Alternatively, if the number of pixels and the number of connected components counted as one for the number of pixels and the number of connected components of the erroneous border image Imb_edge that may be in contact with the “missing” area, the foreground / background separation method is used as the background. It is recommended to adopt other methods other than the difference method.

あるいは、「欠け」領域の面積や個数が所定の判定閾値を超えている場合、マスク補正部222が「欠け」領域の画素値を前景の画素値に置き換える補正を差分マスク画像Im1に施すことで差分マスク画像Im2を取得し、当該差分マスク画像Im2を用いて背景を削除するようにしても良い。   Alternatively, if the area or the number of "missing" areas exceeds a predetermined determination threshold, the mask correction unit 222 performs correction on the difference mask image Im1 to replace the pixel values of the "missing" area with pixel values of the foreground. The difference mask image Im2 may be acquired, and the background may be deleted using the difference mask image Im2.

あるいはフレーム画像Iaを複数のブロックに分割し、エッジ画素を含むブロックのみ、さらにはその隣接ブロックを加えた領域に対してのみ、背景差分法以外の他の方式で作成したマスク画像Im3を採用しても良い。すなわち、1つの画面内で背景差分法による差分マスク画像Im2と背景差分法以外によるマスク画像Im3とがハイブリッドで適用されることになる。   Alternatively, the frame image Ia is divided into a plurality of blocks, and a mask image Im3 created by another method other than the background subtraction method is adopted only for the block including the edge pixel and further only for the area to which the adjacent block is added. It is good. That is, the difference mask image Im2 based on the background difference method and the mask image Im3 based on other than the background difference method are applied in a hybrid manner within one screen.

さらには、オプションとして前記マスク補正部222に、前記第1のアプローチや第2のアプローチのような手法、楕円の一部をフィッティングするような固定マスク形状の当て嵌め、あるいは特許文献2のような動的輪郭追跡などの機能を追加しても良い。   Furthermore, as an option, methods such as the first approach and the second approach, fitting of a fixed mask shape for fitting a part of an ellipse, or the like as described in Patent Document 2 to the mask correction unit 222 Features such as dynamic contour tracking may be added.

また、合成用の別マスクを生成する際、画像全体に対してマスクを生成する場合も、補正領域周辺のみのマスクを生成する場合もある。例えば、第1のアプローチの顔検出であれば、画像全体に対してマスクを作成した後に、差分マスク画像Im1の欠けた箇所のみ、そのマスクを合成することもできるし、フィッティングや動的輪郭追跡であれば、画像全体でマスクを作成しても「欠け」領域周辺のみマスクを生成して、その後に差分マスク画像Im1と合成しても良い。   In addition, when generating another mask for combination, there are cases where a mask is generated for the entire image or a mask only around the correction area is generated. For example, in the case of face detection in the first approach, after creating a mask for the entire image, it is also possible to synthesize the mask for only the missing part of the difference mask image Im1, and fitting or active contour tracking In this case, even if a mask is created for the entire image, a mask may be created only around the “missing” area and then combined with the difference mask image Im1.

また、別手法を用いず、補正対象のブロックに対して、背景差分の差分画像Idの計算の仕方を変える、閾値を小さくするなどの処理も有効である。閾値を小さくする場合、後述する破綻判定と併用したり、差分取得直後の画像上で前景となる領域が増加しないか確認し、破綻や前景領域数の増加が発生しない程度に閾値を小さくしたりすることも有効である。閾値変更後に別手法を適用しても良い。補正判断は経時的に変化し、「欠け」補正判断とマスク合成により、背景差分が適切な領域にのみ、随時適用することができる。   In addition, processing such as changing the method of calculating the difference image Id of the background difference or reducing the threshold value is also effective for the block to be corrected without using another method. When reducing the threshold, it is used together with failure determination described later, or it is confirmed whether or not the foreground area is increased in the image immediately after the difference acquisition, and the threshold is reduced to such an extent that failure or increase in the number of foreground regions does not occur. It is also effective to do. Another method may be applied after changing the threshold. The correction determination changes with time, and can be applied as needed only to the region where the background difference is appropriate, by the “missing” correction determination and the mask composition.

反映部19は、差分マスク画像Im,Im1,Im2等のいずれかを用いてフレーム画像Iaに前景背景分離を実施し、かつ前景および背景の少なくとも一方に対して所定の秘匿処理(図8では、背景除去)を実施する。   The reflecting unit 19 performs foreground / background separation on the frame image Ia using any of the difference mask images Im, Im1, Im2, etc., and performs predetermined concealment processing (in FIG. 8, at least one of the foreground and the background). Perform background removal).

本実施形態によれば、差分マスク画像Imに「欠け」領域が発生していると、誤り境界画像Imb_edge'を参照することで当該各「欠け」領域の影響を評価し、その評価結果に応じて、背景差分法以外の選択、「欠け」領域の許容あるいは補正等の適宜の対応をとることができる。したがって、背景差分法により生成した差分マスク画像を用いた前景背景分離の適否を軽処理かつ高精度で判定することができ、さらには前景背景分離の結果を反映した適正な秘匿処理を実施できるようになる。   According to the present embodiment, when the “missing” area is generated in the difference mask image Im, the effect of each “notching” area is evaluated by referring to the erroneous boundary image Imb_edge ′, and the evaluation result is obtained. It is possible to take appropriate measures such as selection other than the background subtraction method, and allowance or correction of the "missing" area. Therefore, the appropriateness of foreground / background separation using the difference mask image generated by the background subtraction method can be determined with light processing and with high accuracy, and further appropriate concealment processing reflecting the result of foreground / background separation can be performed. become.

なお、上記の第2ないし第4実施形態では、反映部19が差分マスク画像Imを用いてフレーム画像Iaに前景背景分離を実施し、かつ前景および背景の少なくとも一方に対して、「ぼかし」、「モザイク」、「置換」あるいは「除去」等の秘匿処理を実施するものとして説明したが、本発明はこれのみに限定されるものではなく、差分マスク情報から取得できる前景背景情報を用いた様々な画像処理への適用が可能である。   In the second to fourth embodiments described above, the reflecting unit 19 performs foreground / background separation on the frame image Ia using the difference mask image Im, and “blurs” on at least one of the foreground and the background, Although the concealment processing such as "mosaic", "replacement" or "removal" has been described, the present invention is not limited to this and various methods using foreground / background information that can be acquired from difference mask information Application to various image processing is possible.

非特許文献4では、前景背景分離後の前景の秘匿レベルを抽象化オペレータで調整することができ、前景を「透明」とするのが最も抽象化度合いが高い(秘匿レベルが高い)としている。抽象化オペレータでは、秘匿度の度合いが高い順に「ドット」、「バー」、「ボックス」、「シルエット」、「輪郭」、「エッジ」、「モザイク」、「ぼかし」、「モノトーン」、「シースルー」の処理としており、「実写」では秘匿度が最も低くなる。
前景も背景も秘匿したいが秘匿の要求レベルが異なる場合には、異なる処理を前景と背景とに適用することも可能である。例えば、背景は低いレベルで少々秘匿し、前景の人はシルエットだけを表示して高いレベルで秘匿したい場合は、背景は「ぼかし」、前景は「シルエット」を適用する等である。
In Non-Patent Document 4, the concealment level of the foreground after foreground / background separation can be adjusted by the abstraction operator, and it is considered that making the foreground “transparent” has the highest abstraction degree (high concealment level). In the abstraction operator, “dot”, “bar”, “box”, “silhouette”, “edge”, “edge”, “mosaic”, “blur”, “monotone”, “see-through” in descending order of the degree of secrecy. In the case of "real shooting", the degree of secrecy is the lowest.
If it is desired to conceal both the foreground and the background but different levels of concealment are required, different processes can be applied to the foreground and the background. For example, when the background is slightly concealed at a low level and a person in the foreground wants to display only a silhouette and conceal it at a high level, the background is “blur”, the foreground is “silhouette”, or the like.

さらに、前景領域に画像処理を与えたくない場合には、吹き出しやテキストメッセージなどは背景領域に重畳するといった利用用途にも使いうる。また、後述する破綻検知では背景領域と前景領域の画素数の比から判断できるが、そのような前景や背景の統計情報を用いた処理に用いても良い。   Furthermore, when it is not desired to apply image processing to the foreground area, it can also be used for applications such as superimposing a balloon and a text message on the background area. Further, in the failure detection described later, it can be judged from the ratio of the number of pixels of the background area and the foreground area, but it may be used for processing using such foreground or background statistical information.

また、前記判定部18が前景の検出漏れの存在をチェックする際に破綻検知を同時に行い、破綻が検知されると今回のフレーム画像Iaに対しては背景差分法を適用しないという判定をすることで、背景差分法の利用タイミングを更に適正化できる。破綻は照明条件の変化などで起こることが多く、破綻検知は、例えば一定時間内に急激に前景領域の面積が一定値以上に増加した等で判定できる。   In addition, when the determination unit 18 checks the presence of a foreground detection defect, failure detection is simultaneously performed, and when a failure is detected, it is determined that the background difference method is not applied to the current frame image Ia. Thus, it is possible to further optimize the use timing of the background difference method. Failures often occur due to changes in lighting conditions and the like, and failure detection can be determined, for example, when the area of the foreground region is rapidly increased to a certain value or more within a certain period of time.

さらに、背景差分法の利用タイミングを更に適正化するため、他の前景検出漏れ補正と併用するようにしても良い。例えば、前景が風邪用の白いマスクをしている人であって背景の壁が白い場合、背景差分では白いマスク形状の抜けが発生しやすい。このような場合には、起動時にマスク顔の検出を行い、検出された場合にはマスクなどの着用物検出とその「抜け」領域の補正処理を併用する等で精度を高めることができる。   Further, in order to further optimize the use timing of the background difference method, it may be used in combination with other foreground detection omission correction. For example, if the foreground is a person with a white mask for a cold and the background wall is white, the background difference is likely to cause the omission of the white mask shape. In such a case, the mask face is detected at the time of activation, and if it is detected, the accuracy can be enhanced by using both the detection of a worn object such as a mask and the correction processing of the "dropout" region.

10…フレーム画像取得部,11…背景画像蓄積部,12…差分マスク画像生成部,13…背景エッジ画像生成部,14…微小領域削除部,15…差分マスク境界画像生成部,16…差分マスク誤り境界画像生成部,17…ノイズ除去部,18…判定部,19…反映部,20…補正候補領域選択部,21…第1補正処理部,22…第2補正処理部   DESCRIPTION OF SYMBOLS 10 Frame image acquisition part 11 Background image storage part 12 Difference mask image generation part 13 Background edge image generation part 14 Minute area deletion part 15 Difference mask boundary image generation part 16 Difference mask Error boundary image generation unit 17 17 noise removal unit 18 determination unit 19 reflection unit 20 correction candidate area selection unit 21 first correction processing unit 22 second correction processing unit

Claims (15)

入力画像の背景と前景とを分離する前景背景分離に好適な装置において、
背景画像を取得する手段と、
背景差分法により差分マスク画像を生成する手段と、
背景画像からエッジを抽出して背景エッジ画像を生成する手段と、
差分マスク画像から境界を抽出して差分マスク境界画像を生成する手段と、
差分マスク境界画像から背景エッジ画像と重複する誤り境界を抽出する手段と、
前記誤り境界に基づいて、前記差分マスク画像を用いた前景背景分離の適否を判定する手段とを具備したことを特徴とする前景背景分離に好適な装置。
In a device suitable for foreground background separation, which separates the background and the foreground of the input image
Means for acquiring a background image,
A means for generating a difference mask image by the background difference method;
Means for extracting an edge from the background image to generate a background edge image;
A means for extracting a boundary from the difference mask image to generate a difference mask boundary image;
Means for extracting an erroneous boundary overlapping with the background edge image from the differential mask boundary image;
A device suitable for foreground / background separation, comprising: means for determining the suitability of foreground / background separation using the difference mask image based on the erroneous boundary.
前記判定する手段による適正判定に応答して、前記差分マスク画像を用いた前景背景分離を実施する反映手段をさらに具備したことを特徴とする請求項1に記載の前景背景分離に好適な装置。   The apparatus according to claim 1, further comprising reflection means for performing foreground / background separation using the difference mask image in response to the appropriateness determination by the determination means. 前記反映手段は、前記判定する手段による不適判定に応答して、背景差分法以外の前景背景分離手法に切り換えることを特徴とする請求項2に記載の前景背景分離に好適な装置。   The apparatus according to claim 2, wherein the reflecting means switches to foreground / background separation methods other than the background subtraction method in response to the improper determination by the determination means. 前記反映手段は、前景および背景の少なくとも一方に対して秘匿処理を実施することを特徴とする請求項2に記載の前景背景分離に好適な装置。   The apparatus according to claim 2, wherein the reflection unit performs a concealment process on at least one of the foreground and the background. 前記反映手段は、前景および背景のそれぞれに対して異なる秘匿処理を実施することを特徴とする請求項4に記載の前景背景分離に好適な装置。   The apparatus according to claim 4, wherein the reflection means performs different concealment processing on each of the foreground and the background. 前記秘匿処理が、ぼかし、モザイク、置換および除去の各処理のいずれかであることを特徴とする請求項4または5に記載の前景背景分離に好適な装置。   The apparatus suitable for foreground / background separation according to claim 4 or 5, wherein the concealment process is any of blur, mosaic, replacement and removal processes. 前記誤り境界を抽出する手段は、差分マスク境界画像と背景エッジ画像との論理積を求めることを特徴とする請求項1ないし6のいずれかに記載の前景背景分離に好適な装置。   An apparatus suitable for foreground / background separation according to any one of claims 1 to 6, wherein said means for extracting an erroneous boundary finds the logical product of a difference mask boundary image and a background edge image. 前記差分マスク画像から「抜け」領域を選択する手段と、
前記「抜け」領域の位置が前記誤り境界に対応しているか否かに基づいて当該「抜け」領域を補正対象とするか否かを判定する手段と、
補正対象の「抜け」領域が前景となるように前記差分マスク画像を補正する手段とを具備したことを特徴とする請求項1ないし7のいずれかに記載の前景背景分離に好適な装置。
A means for selecting a "missing" area from the difference mask image;
A unit that determines whether or not the “dropout” area is to be corrected based on whether or not the position of the “dropout” area corresponds to the erroneous boundary;
A device suitable for foreground / background separation according to any one of claims 1 to 7, further comprising: means for correcting the difference mask image so that the "dropout" area to be corrected is the foreground.
前記補正対象とするか否かを判定する手段は、前記「抜け」領域の境界位置と対応する位置に誤り境界が存在すれば補正対象とし、存在しなければ補正対象としないことを特徴とする請求項8に記載の前景背景分離に好適な装置。   The means for determining whether or not to make the correction object is characterized in that if an error boundary exists at a position corresponding to the boundary position of the “dropout” region, it is regarded as a correction object, and if not, it is not regarded as a correction object A device suitable for foreground / background separation according to claim 8. 前記誤り境界に基づいて差分マスク画像から「欠け」領域を選択する手段と、
前記「欠け」領域を補正する手段とを具備したことを特徴とする請求項8または9に記載の前景背景分離に好適な装置。
Means for selecting a "missing" region from the difference mask image based on the error boundary;
A device suitable for foreground / background separation according to claim 8 or 9, characterized in that it comprises means for correcting said "missing" area.
前記「欠け」領域を選択する手段は、前記「抜け」領域の境界位置と対応する位置以外の位置に誤り境界が存在すると、当該位置に対応する差分マスク画像上の位置を「欠け」領域と推定することを特徴とする請求項10に記載の前景背景分離に好適な装置。   When an erroneous boundary exists at a position other than the position corresponding to the boundary position of the “dropout” region, the means for selecting the “dropping” region sets the position on the differential mask image corresponding to the position as the “lost” region. An apparatus suitable for foreground / background separation according to claim 10, characterized in that it is estimated. 前記「欠け」領域を補正する手段が、「欠け」領域の規模を評価する手段を具備し、
前記評価結果に応じて、当該「欠け」領域の補正、当該「欠け」領域の許容および背景差分法以外の手法による前景背景分離への切り換えのいずれかを採用することを特徴とする請求項10または11に記載の前景背景分離に好適な装置。
The means for correcting the "chip" area comprises means for evaluating the size of the "chip" area,
According to the evaluation result, any one of correction of the “chip” area, acceptance of the “chip” area, and switching to foreground / background separation by a method other than the background subtraction method is adopted. Or a device suitable for foreground / background separation according to 11.
前記「欠け」領域の規模を評価する手段は、当該「欠け」領域の面積および個数の少なくとも一方に基づいてその規模を評価することを特徴とする請求項12に記載の前景背景分離に好適な装置。   The foreground / background separation unit according to claim 12, wherein the means for evaluating the size of the "chip" area evaluates the size based on at least one of the area and the number of the "chip" areas. apparatus. 入力画像の背景から前景を分離する前景背景分離に好適な方法において、
背景画像を取得する手順と、
背景差分法により差分マスク画像を生成する手順と、
背景画像からエッジを抽出して背景エッジ画像を生成する手順と、
差分マスク画像から境界を抽出して差分マスク境界画像を生成する手順と、
差分マスク境界画像から背景エッジ画像と重複する誤り境界を抽出する手順と、
前記誤り境界に基づいて、前記差分マスク画像を用いた前景背景分離の適否を判定する手順とを含むことを特徴とする前景背景分離に好適な方法。
In a method suitable for foreground background separation which separates the foreground from the background of the input image
The steps to get the background image,
Generating a difference mask image by the background difference method;
Extracting an edge from a background image to generate a background edge image;
A step of extracting a boundary from the difference mask image to generate a difference mask boundary image;
Extracting an erroneous boundary overlapping the background edge image from the differential mask boundary image;
And e. Determining the appropriateness of foreground / background separation using the difference mask image based on the error boundary.
前記差分マスク画像を用いた前景背景分離が適正である旨の判定に応答して、前記差分マスク画像を用いた前景背景分離を実施する手順を更に含むことを特徴とする請求項14に記載の前景背景分離に好適な方法。   15. The method according to claim 14, further comprising: performing foreground / background separation using the difference mask image in response to the determination that foreground / background separation using the difference mask image is appropriate. Preferred method for foreground background separation.
JP2018006759A 2018-01-18 2018-01-18 Suitable methods and equipment for foreground and background separation Active JP6846365B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018006759A JP6846365B2 (en) 2018-01-18 2018-01-18 Suitable methods and equipment for foreground and background separation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018006759A JP6846365B2 (en) 2018-01-18 2018-01-18 Suitable methods and equipment for foreground and background separation

Publications (2)

Publication Number Publication Date
JP2019125269A true JP2019125269A (en) 2019-07-25
JP6846365B2 JP6846365B2 (en) 2021-03-24

Family

ID=67398977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018006759A Active JP6846365B2 (en) 2018-01-18 2018-01-18 Suitable methods and equipment for foreground and background separation

Country Status (1)

Country Link
JP (1) JP6846365B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112215168A (en) * 2020-10-14 2021-01-12 上海爱购智能科技有限公司 Image editing method for commodity identification training
WO2021052236A1 (en) * 2019-09-18 2021-03-25 华为技术有限公司 Image distortion correction method and device
JP2021149685A (en) * 2020-03-19 2021-09-27 ヤフー株式会社 Information processing apparatus, information processing method, and program
CN114786040A (en) * 2022-06-15 2022-07-22 阿里巴巴(中国)有限公司 Data communication method, system, electronic device and storage medium
CN116168027A (en) * 2023-04-24 2023-05-26 山东交通学院 Intelligent woodworking machine cutting method based on visual positioning
CN117278692A (en) * 2023-11-16 2023-12-22 邦盛医疗装备(天津)股份有限公司 Desensitization protection method for monitoring data of medical detection vehicle patients
WO2024042893A1 (en) * 2022-08-24 2024-02-29 ソニーグループ株式会社 Information processing device, information processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000079776A (en) * 1998-09-07 2000-03-21 Dainippon Printing Co Ltd Method for detecting incorrect collating
JP2001209808A (en) * 2000-01-26 2001-08-03 Nec Corp System and method for extracting object, and storage medium with stored program for object extraction
JP2004007174A (en) * 2002-05-31 2004-01-08 Toshiba Corp Image processing system, image processing method and image processing program
JP2011043879A (en) * 2009-08-19 2011-03-03 Kddi Corp Method and program for extracting mask image, and method and program for constructing voxel data
JP2015070359A (en) * 2013-09-27 2015-04-13 株式会社京三製作所 Person counting device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000079776A (en) * 1998-09-07 2000-03-21 Dainippon Printing Co Ltd Method for detecting incorrect collating
JP2001209808A (en) * 2000-01-26 2001-08-03 Nec Corp System and method for extracting object, and storage medium with stored program for object extraction
JP2004007174A (en) * 2002-05-31 2004-01-08 Toshiba Corp Image processing system, image processing method and image processing program
JP2011043879A (en) * 2009-08-19 2011-03-03 Kddi Corp Method and program for extracting mask image, and method and program for constructing voxel data
JP2015070359A (en) * 2013-09-27 2015-04-13 株式会社京三製作所 Person counting device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
P. SIRICHAROEN ET AL.: ""Robust Outdoor Human Segmentation based on Color-based Statistical Approach and Edge Combination"", THE 2010 INTERNATIONAL CONFERENCE ON GREEN CIRCUITS AND SYSTEMS, JPN6021005951, 21 June 2010 (2010-06-21), US, pages 463 - 468, XP031728215, ISSN: 0004450850 *
馬場口 登: ""プライバシーを考慮した映像サーベイランス"", 情報処理, vol. 48, no. 1, JPN6021005950, 15 January 2007 (2007-01-15), JP, pages 30 - 36, ISSN: 0004450849 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021052236A1 (en) * 2019-09-18 2021-03-25 华为技术有限公司 Image distortion correction method and device
JP2021149685A (en) * 2020-03-19 2021-09-27 ヤフー株式会社 Information processing apparatus, information processing method, and program
JP7388263B2 (en) 2020-03-19 2023-11-29 Lineヤフー株式会社 Information processing device, information processing method and program
CN112215168A (en) * 2020-10-14 2021-01-12 上海爱购智能科技有限公司 Image editing method for commodity identification training
CN114786040A (en) * 2022-06-15 2022-07-22 阿里巴巴(中国)有限公司 Data communication method, system, electronic device and storage medium
WO2023241459A1 (en) * 2022-06-15 2023-12-21 阿里巴巴(中国)有限公司 Data communication method and system, and electronic device and storage medium
WO2024042893A1 (en) * 2022-08-24 2024-02-29 ソニーグループ株式会社 Information processing device, information processing method, and program
CN116168027A (en) * 2023-04-24 2023-05-26 山东交通学院 Intelligent woodworking machine cutting method based on visual positioning
CN117278692A (en) * 2023-11-16 2023-12-22 邦盛医疗装备(天津)股份有限公司 Desensitization protection method for monitoring data of medical detection vehicle patients
CN117278692B (en) * 2023-11-16 2024-02-13 邦盛医疗装备(天津)股份有限公司 Desensitization protection method for monitoring data of medical detection vehicle patients

Also Published As

Publication number Publication date
JP6846365B2 (en) 2021-03-24

Similar Documents

Publication Publication Date Title
JP2019125269A (en) Method and device suitable for foreground/background separation
US8698796B2 (en) Image processing apparatus, image processing method, and program
KR20220006657A (en) Remove video background using depth
CN109598210B (en) Picture processing method and device
US9390511B2 (en) Temporally coherent segmentation of RGBt volumes with aid of noisy or incomplete auxiliary data
CN107239735A (en) A kind of biopsy method and system based on video analysis
WO2017048845A1 (en) Feature detection and masking in images based on color distributions
KR20050007427A (en) Face-recognition using half-face images
CN102567727A (en) Method and device for replacing background target
US20190347803A1 (en) Skeleton-based supplementation for foreground image segmentation
CN110245549B (en) Real-time face and object manipulation
JP6855872B2 (en) Face recognition device
CN103500335A (en) Photo shooting and browsing method and photo shooting and browsing device based on gesture recognition
Xu et al. A method of hole-filling for the depth map generated by Kinect with moving objects detection
Yin et al. Integrating active face tracking with model based coding
Liu et al. Physics-guided spoof trace disentanglement for generic face anti-spoofing
Michibata et al. Cooking activity recognition in egocentric videos with a hand mask image branch in the multi-stream cnn
CN111583357A (en) Object motion image capturing and synthesizing method based on MATLAB system
Ahlvers et al. Model-free face detection and head tracking with morphological hole mapping
CN111062904B (en) Image processing method, image processing apparatus, electronic device, and readable storage medium
CN116612263A (en) Method and device for sensing consistency dynamic fitting of latent vision synthesis
CN111179281A (en) Human body image extraction method and human body action video extraction method
Kim et al. Robust foreground segmentation from color video sequences using background subtraction with multiple thresholds
Nasiri et al. Eye detection algorithm on facial color images
Stamou et al. A monocular system for automatic face detection and tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210301

R150 Certificate of patent or registration of utility model

Ref document number: 6846365

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150