JP2019531552A - Image processing method and apparatus - Google Patents

Image processing method and apparatus Download PDF

Info

Publication number
JP2019531552A
JP2019531552A JP2019518041A JP2019518041A JP2019531552A JP 2019531552 A JP2019531552 A JP 2019531552A JP 2019518041 A JP2019518041 A JP 2019518041A JP 2019518041 A JP2019518041 A JP 2019518041A JP 2019531552 A JP2019531552 A JP 2019531552A
Authority
JP
Japan
Prior art keywords
pixel
input image
image
sensitivity
sharpness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019518041A
Other languages
Japanese (ja)
Other versions
JP6835215B2 (en
Inventor
ジャン・ナヌ
ワン・チィ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2019531552A publication Critical patent/JP2019531552A/en
Application granted granted Critical
Publication of JP6835215B2 publication Critical patent/JP6835215B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region

Abstract

画像処理方法及び装置が提供される。画像処理方法は、入力画像の検出領域の鮮明さに基づいて背景モデルの感度を計算し、該鮮明さが第一所定範囲内にあるときに、該感度は、該鮮明さと負の相関関係があり;及び、該入力画像中の各画素に対して処理を行い、1つの画素に対して処理を行うときに、該1つの画素と、該背景モデル中で該1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、該1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、該1つの画素を該入力画像中の背景画素と確定し、該第一閾値は、該感度に基づいて確定され、該感度は、該第一閾値と負の線形相関関係がある。画像処理装置は、VIBEアルゴリズム中の背景モデルのために感度を定義し、そして、画像の鮮明さに基づいて該感度を調整し、これにより、前景検出の正確度を向上させ、画像が不鮮明によることが原因で完全な前景画像を抽出できない問題を避けることができる。An image processing method and apparatus are provided. The image processing method calculates the sensitivity of the background model based on the sharpness of the detection area of the input image, and when the sharpness is within the first predetermined range, the sensitivity has a negative correlation with the sharpness. Yes; and when each pixel in the input image is processed and one pixel is processed, the one pixel and a background sample corresponding to the one pixel in the background model Calculating the distance between each sample point of the collection and if the distance between the one pixel and at least a first predetermined number of sample points is less than or equal to a predetermined first threshold, A background pixel in the input image is determined, and the first threshold is determined based on the sensitivity, and the sensitivity has a negative linear correlation with the first threshold. The image processor defines the sensitivity for the background model in the VIBE algorithm and adjusts the sensitivity based on the sharpness of the image, thereby improving the accuracy of foreground detection and causing the image to be blurred Therefore, the problem that a complete foreground image cannot be extracted can be avoided.

Description

本発明は、画像処理技術分野に関し、特に、画像処理方法及び装置に関する。   The present invention relates to the field of image processing technology, and more particularly to an image processing method and apparatus.

ビデオ監視分野では、大部分のインテリジェント画像分析システムが特定のシーンに依存し、即ち、特定のシーンの場合にのみ、パフォーマンスのニーズを満たし得る。しかし、実際応用時に、シーンは、複雑多様なものであり、特に屋外のシーンの場合である。また、画像中の背景モデルが多くの要因の影響、例えば、ノイズ、背景干渉、照明変化などを受けやすいので、タイムリー且つ正確な背景モデルの構築は、困難である。近年、背景モデルの構築及び前景画像の検出は、国内外でビデオ監視分野における研究の難点及び注目の話題の1つになっている。   In the video surveillance field, most intelligent image analysis systems depend on a specific scene, i.e. only in the case of a specific scene can meet performance needs. However, in actual application, scenes are complex and diverse, especially for outdoor scenes. Also, since the background model in the image is susceptible to the influence of many factors, such as noise, background interference, and illumination changes, it is difficult to construct a timely and accurate background model. In recent years, the construction of background models and the detection of foreground images has become one of the research difficulties and attention topics in the video surveillance field at home and abroad.

今のところ、幾つかのよく用いられる画素レベルの前景画像検出方法、例えば、フレーム差分法(Frame differencing)、混合ガウスモデル(Mixture of Gaussian Model)、単一ガウスモデル(single Gaussian Model)、コードブック(CodeBook)アルゴリズムなどがある。   Currently, several commonly used pixel-level foreground image detection methods, such as Frame differencing, Mixed of Gaussian Model, Single Gaussian Model, codebook (CodeBook) algorithm.

フレーム差分法を採用して検出を行うときに、画像シーケンスの隣接する2つのフレームの間において画素に基づく時間差分を用いて、閾値よりも大きいかを判断することで背景と前景を区別することができるが、そのアルゴリズムは、実現が簡単であり、照明変化に敏感でないが、複雑なシーンを処理することができない。   When detecting by adopting the frame difference method, the background and foreground are distinguished by judging whether the difference is larger than the threshold using the time difference based on the pixel between two adjacent frames of the image sequence. Although the algorithm is simple to implement and insensitive to lighting changes, it cannot handle complex scenes.

単一ガウスモデル及び混合ガウスモデルを採用して検出を行うときに、画像中の各画素点のためにそれ相応のガウス分布モデルを構築し、モデルにより得られた値が閾値よりも大きいかを判断することで背景と前景を区別することができるが、単一ガウスモデルは、シーンにノイズの干渉があるときに、抽出の正確度が比較的低く、また、混合ガウスモデルの場合は、計算量が比較的大きく、且つ照明変化に敏感である。   When performing detection using a single Gaussian model and a mixed Gaussian model, a corresponding Gaussian distribution model is constructed for each pixel point in the image, and the value obtained by the model is greater than a threshold value. Judgment can distinguish the background from the foreground, but single Gaussian models have relatively low extraction accuracy when there is noise interference in the scene. The amount is relatively large and sensitive to illumination changes.

CodeBookアルゴリズムを採用して検出を行うときに、現在の画像中の各画素のために1つのCodeBook構造を生成し、各CodeBook構造は、複数のコードワード(CodeWord)からなり、画像中の各画素について、対応する背景モデルCodeBook中の各CodeWordをチェックし、画素に所定の条件を満足させることができるCodeWordが存在するかに基づいて背景と前景を区別することができるが、このようなアルゴリズムは、大量のメモリを消費することがある。   When detection is performed using the CodeBook algorithm, one CodeBook structure is generated for each pixel in the current image, and each CodeBook structure consists of a plurality of codewords (CodeWord). Can check each CodeWord in the corresponding background model CodeBook and distinguish the background from the foreground based on whether there is a CodeWord that can satisfy a given condition on the pixel, but such an algorithm is , May consume a large amount of memory.

なお、上述の背景技術についての紹介は、本発明の技術案を明確且つ完全に説明し、また、当業者がそれを理解しやすいためのものである。これらの技術案は、本発明の背景技術の一部に記述されているため、当業者にとって周知であると解釈すべきではない。   The introduction of the background art described above is intended to clearly and completely explain the technical solution of the present invention and to make it easier for those skilled in the art to understand it. These technical solutions are described in part of the background art of the present invention and should not be construed as well known to those skilled in the art.

上述の既存の検出方法は、全て、画素間の関係を無視し、単一画素の分析によるものである。今のところ、よく用いられる背景モデルの構築及び前景画像の抽出方法は、さらにビジュアル背景抽出(Visual background extractor,VIBE)アルゴリズムを含み、それは、単一フレーム画像を用いて背景モデルを初期化し、1つの画素点について、隣接する画素の有する近い画素値空間分布特性を利用することで、その隣接領域の画素点の画素値を背景モデルサンプル値としてランダムに選択し、また、該アルゴリズムと、他の既存のアルゴリズムとの主な相違点は、背景モデルの更新ポリシーにあり、即ち、取り替えられる必要のある画素のサンプルをランダムに選択し、隣接領域の画素をランダムに選択して背景モデルの更新を行うことにあり、該アルゴリズムは、計算速度が速く、計算量が小さく、且つノイズに対してある程度のロバスト性があるが、リアルタイムシーンに、例えば、雨降り、濃霧又は曇りなどのシーンの変化が生じた場合、画像が不鮮明になり、このときに、完全な前景画像を抽出することができない。   All of the existing detection methods described above rely on single pixel analysis, ignoring the relationship between pixels. At present, a commonly used background model construction and foreground image extraction method further includes a Visual Background Extractor (VIBE) algorithm, which initializes the background model using a single frame image, and 1 For one pixel point, the pixel value of the pixel point in the adjacent region is randomly selected as the background model sample value by using the close pixel value space distribution characteristic of the adjacent pixel, and the algorithm and other The main difference from the existing algorithm is in the background model update policy, i.e., randomly select a sample of pixels that need to be replaced, and randomly select pixels in the neighboring region to update the background model. The algorithm is fast to compute, has a small amount of computation, and has some robustness against noise. There is, in real-time scene, for example, if the rain, the change of scene, such as thick fog or haze occurs, the image becomes blurred, at this time, it is impossible to extract the complete foreground image.

本発明の実施例は、画像処理方法及び装置を提供し、VIBEアルゴリズム中の背景モデルのために感度を定義し、そして、画像の鮮明さ(sharpness)に基づいて該感度を調整することで、前景検出の正確度を向上させ、画像が不鮮明によることが原因で完全な前景画像を抽出できない問題を避けることができる。   Embodiments of the present invention provide an image processing method and apparatus, define sensitivity for a background model in the VIBE algorithm, and adjust the sensitivity based on image sharpness, The accuracy of foreground detection can be improved, and the problem that a complete foreground image cannot be extracted due to unclear images can be avoided.

本発明の実施例の上述の目的は、以下のような技術案により実現される。   The above object of the embodiment of the present invention is realized by the following technical solution.

本発明の実施例の第一側面によれば、画像処理装置が提供され、該装置は、
入力画像の検出領域の鮮明さに基づいて背景モデルの感度を計算する第一計算ユニットであって、該鮮明さが第一所定範囲内にあるときに、該感度は、該鮮明さと負の相関関係がある第一計算ユニットと、
該入力画像中の各画素に対して処理を行い、該入力画像の前景画像を検出する第一処理ユニットであって、1つの画素に対して処理を行うときに、該1つの画素と、該背景モデル中で該1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、該1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、該1つの画素を該入力画像中の背景画素と確定し、そうでない場合、前景画素と確定することを含む第一処理ユニット、
或いは、該入力画像中の各画素に対して処理を行い、該背景モデルを更新する第一処理ユニットであって、1つの画素に対して処理を行うときに、該1つの画素と、該背景モデル中で該1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、該1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、該1つの画素を1つのサンプル点に取り替えて該背景モデルを更新する第一処理ユニットと、を含み、
そのうち、該第一閾値は、該感度に基づいて確定され、該感度は、該第一閾値と負の線形相関関係がある。
According to a first aspect of an embodiment of the present invention, an image processing apparatus is provided, the apparatus comprising:
A first calculation unit for calculating a sensitivity of a background model based on a sharpness of a detection area of an input image, wherein the sensitivity is negatively correlated with the sharpness when the sharpness is within a first predetermined range; With the first calculation unit involved,
A first processing unit that performs processing on each pixel in the input image and detects a foreground image of the input image. When performing processing on one pixel, A distance between each sample point of the background sample collection corresponding to the one pixel in the background model is calculated, and a distance between the one pixel and at least a first predetermined number of sample points is a predetermined value. A first processing unit comprising determining if the one pixel is a background pixel in the input image if less than or equal to a first threshold, otherwise determining a foreground pixel;
Alternatively, a first processing unit that performs processing on each pixel in the input image and updates the background model. When processing is performed on one pixel, the one pixel and the background A distance between each sample point of the background sample collection corresponding to the one pixel in the model is calculated, and a distance between the one pixel and at least a first predetermined number of sample points is a predetermined first number. A first processing unit that updates the background model by replacing the one pixel with one sample point if less than one threshold,
The first threshold value is determined based on the sensitivity, and the sensitivity has a negative linear correlation with the first threshold value.

本発明の実施例の第二側面によれば、画像処理方法が提供され、該方法は、
入力画像の検出領域の鮮明さに基づいて背景モデルの感度を計算し、該鮮明さが第一所定範囲内にあるときに、該感度は、該鮮明さと負の相関関係があり;及び
該入力画像中の各画素に対して処理を行い、該入力画像の前景画像を検出し、そのうち、1つの画素に対して処理を行うときに、該1つの画素と、該背景モデル中で該1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、該1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、該1つの画素を該入力画像中の背景画素と確定し、そうでない場合、前景画素と確定することを含み、
或いは、該入力画像中の各画素に対して処理を行い、該背景モデルを更新し、そのうち、1つの画素に対して処理を行うときに、該1つの画素と、該背景モデル中で該1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、該1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、該1つの画素を1つのサンプル点に取り替えて該背景モデルを更新することを含むこと、を含み
そのうち、該第一閾値は、該感度に基づいて確定され、該感度は、該第一閾値と負の線形相関関係がある。
According to a second aspect of an embodiment of the present invention, an image processing method is provided, the method comprising:
Calculating the sensitivity of the background model based on the sharpness of the detection area of the input image, and when the sharpness is within a first predetermined range, the sensitivity is negatively correlated with the sharpness; and the input Processing is performed on each pixel in the image to detect the foreground image of the input image, and when processing is performed on one pixel, the one pixel and the one in the background model When the distance between each sample point in the background sample collection corresponding to the pixel is calculated and the distance between the one pixel and at least the first predetermined number of sample points is equal to or less than a predetermined first threshold value Determining the one pixel as a background pixel in the input image, otherwise determining as a foreground pixel;
Alternatively, processing is performed on each pixel in the input image to update the background model, and when processing is performed on one pixel, the one pixel and the one in the background model The distance between each sample point in the background sample collection corresponding to one pixel is calculated, and the distance between the one pixel and at least a first predetermined number of sample points is equal to or less than a predetermined first threshold value. Including replacing the one pixel with one sample point and updating the background model, wherein the first threshold is determined based on the sensitivity, and the sensitivity is the first There is a negative linear correlation with the threshold.

本発明の実施例の有益な効果は、本実施例の画像処理方法及び装置により、VIBEアルゴリズム中の背景モデルのために感度を定義し、そして、画像の鮮明さに基づいて該感度を調整し、これにより、前景検出の正確度を向上させ、画像が不鮮明によることが原因で完全な前景画像を抽出できない問題を避けることができる。   The beneficial effect of the embodiment of the present invention is that the image processing method and apparatus of this embodiment define the sensitivity for the background model in the VIBE algorithm and adjust the sensitivity based on the sharpness of the image. As a result, the accuracy of foreground detection can be improved, and the problem that a complete foreground image cannot be extracted due to unclear images can be avoided.

後述の説明及び図面を参照することで、本発明の特定の実施形態を詳しく開示し、本発明の原理を採用し得る態様を示す。なお、本発明の実施形態は、範囲上ではこれらによって限定されない。添付した特許請求の範囲内であれば、本発明の実施形態は、様々な変更、修正及び代替によるものを含んでも良い。   DETAILED DESCRIPTION Reference will now be made to the following description and drawings to disclose specific embodiments of the invention in detail and to illustrate aspects in which the principles of the invention can be employed. In addition, embodiment of this invention is not limited by these on the range. Within the scope of the appended claims, embodiments of the invention may include various changes, modifications, and alternatives.

また、1つの実施方式について説明した及び/又は示した特徴は、同じ又は類似した方式で1つ又は複数の他の実施形態に用い、他の実施形態中の特徴と組み合わせ、又は、他の実施形態中の特徴を置換することもできる。   Also, the features described and / or illustrated for one implementation may be used in one or more other embodiments in the same or similar manner and combined with features in other embodiments or other implementations. Features in the form can also be replaced.

なお、「含む/有する」のような用語は、本明細書に使用されるときに、特徴、要素、ステップ、又はアセンブルの存在を指すが、1つ又は複数の他の特徴、要素、ステップ、又はアセンブリの存在又は付加を排除しないということも指す。   It should be noted that terms such as “comprising / having” as used herein refer to the presence of a feature, element, step, or assembly, but one or more other features, elements, steps, Or it does not exclude the presence or addition of assemblies.

本発明の1つの図面又は1つの実施形態に記載の要素及び特徴は、1つ又は複数の他の図面又は実施形態に示した要素及び特徴と組み合わせることができる。また、図面では、類似した符号は、幾つの図面中の対応する部品を示し、複数の実施形態に用いる対応部品を示すためにも用いられる。
本実施例1における画像処理方法のフローチャートである。 本実施例2における画像処理方法のフローチャートである。 本実施例3における画像処理方法のフローチャートである。 本実施例3において用いられる画像を示す図である。 本実施例3において用いられる画像を示す図である。 本実施例3において用いられる画像を示す図である。 本実施例3において用いられる画像を示す図である。 本実施例3において検出された前景画像を示す図である。 本実施例3において検出された前景画像を示す図である。 本実施例3において検出された前景画像を示す図である。 本実施例2におけるステップ305の処理のフローチャートである。 本実施例3における画像処理方法のフローチャートである。 本実施例3におけるステップ705の処理のフローチャートである。 本実施例4における画像処理装置の構成図である。 本実施例4における画像処理装置の構成図である。 本実施例4における画像処理装置のハードウェア構成図である。 本実施例4における画像処理装置の構成図である。 本実施例4における画像処理装置のハードウェア構成図である。
Elements and features described in one drawing or embodiment of the invention may be combined with elements and features shown in one or more other drawings or embodiments. Also, in the drawings, like numerals indicate corresponding parts in the several drawings and are also used to indicate corresponding parts used in several embodiments.
3 is a flowchart of an image processing method according to the first embodiment. 6 is a flowchart of an image processing method according to the second embodiment. 10 is a flowchart of an image processing method in Embodiment 3. FIG. 6 is a diagram showing an image used in Example 3. FIG. 6 is a diagram showing an image used in Example 3. FIG. 6 is a diagram showing an image used in Example 3. FIG. 6 is a diagram showing an image used in Example 3. FIG. 10 is a diagram showing a foreground image detected in the third embodiment. FIG. 10 is a diagram showing a foreground image detected in the third embodiment. FIG. 10 is a diagram showing a foreground image detected in the third embodiment. 10 is a flowchart of processing in step 305 in the second embodiment. 10 is a flowchart of an image processing method in Embodiment 3. 10 is a flowchart of processing of Step 705 in Embodiment 3. FIG. 6 is a configuration diagram of an image processing apparatus in Embodiment 4. FIG. 6 is a configuration diagram of an image processing apparatus in Embodiment 4. FIG. 6 is a hardware configuration diagram of an image processing apparatus according to a fourth embodiment. FIG. 6 is a configuration diagram of an image processing apparatus in Embodiment 4. FIG. 6 is a hardware configuration diagram of an image processing apparatus according to a fourth embodiment.

添付した図面及び以下の説明を参照することにより、本発明の前述及び他の特徴が明らかになる。なお、明細書及び図面では、本発明の特定の実施形態を開示しているが、それは、本発明の原理を採用し得る一部のみの実施形態を示し、理解すべきは、本発明は、記載されている実施形態に限定されず、即ち、本発明は、添付した特許請求の範囲内での全ての変更、変形及び代替によるものも含むということである。   The foregoing and other features of the present invention will become apparent upon reference to the accompanying drawings and the following description. It should be noted that while the specification and drawings disclose specific embodiments of the invention, they show only some of the embodiments in which the principles of the invention may be employed and should be understood that It is not limited to the embodiments described, i.e. the invention includes all modifications, variations and alternatives within the scope of the appended claims.

以下、図面に基づいて本発明の実施例について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

本実施例1は、画像処理方法を提供し、図1は、該画像処理方法のフローチャートであり、図1に示すように、該方法は、以下のステップを含む。   The first embodiment provides an image processing method, and FIG. 1 is a flowchart of the image processing method. As shown in FIG. 1, the method includes the following steps.

ステップ101:入力画像の検出領域の鮮明さに基づいて背景モデルの感度を計算し、該鮮明さが第一所定範囲内にあるときに、該感度は、該鮮明さと負の相関関係があり;
ステップ102:該入力画像中の各画素に対して処理を行い、該入力画像の前景画像を検出し、そのうち、1つの画素に対して処理を行うときに、該1つの画素と、該背景モデル中で該1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、該1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、該1つの画素を該入力画像中の背景画素と確定し、そうでない場合、前景画素と確定することを含み、そのうち、該第一閾値は、該感度に基づいて確定され、該感度は、該第一閾値と負の線形相関関係がある。
Step 101: Calculate the sensitivity of the background model based on the sharpness of the detection area of the input image, and when the sharpness is within the first predetermined range, the sensitivity is negatively correlated with the sharpness;
Step 102: Perform processing for each pixel in the input image, detect a foreground image of the input image, and when processing one pixel, of the one pixel and the background model A distance between each sample point of the background sample collection corresponding to the one pixel is calculated, and a distance between the one pixel and at least a first predetermined number of sample points is a predetermined first. If it is less than or equal to a threshold, the one pixel is determined as a background pixel in the input image, otherwise it is determined as a foreground pixel, wherein the first threshold is determined based on the sensitivity. The sensitivity has a negative linear correlation with the first threshold.

本実施例では、画像中の静止の又は移動が非常に遅い物体の画素により背景画像を構成し、移動の物体の画素により前景画像を構成する。前景画像の検出は、1つの分類問題に相当し、つまり、画像中の各画素が背景画素かそれとも前景画素に属するかを確定することである。本実施例のVIBEモデルでは、背景モデルは、各画素に対応する背景サンプル集を含み、そのうち、単一フレーム画像を用いて背景モデルを初期化することができる。具体的には、1つの画素について、隣接する画素の有する近い画素値空間分布特性を利用することで、その隣接領域における画素点の画素値を背景サンプル集としてランダムに選択し、その後、各画素値と、その対応する背景サンプル集との比較を行うことで、それが背景画素に属するかを判断する。該背景サンプル集のうちのサンプル点の数は、所定数量(N)である。例えば、v(x)が画素xの画素値を表し;M(x)={V1,V2,…,VN}が画素xに対応する背景サンプル集であり;SR(v(x))が、xを中心とし、且つ第一閾値Rを半径とする領域を表すとすれば、#[{SR(v(x))∩{V1,V2,…,VN}}]が第一所定数量#min以上であれば、画素xは、背景画素に属する。 In the present embodiment, a background image is composed of pixels of an object that is stationary or very slow in the image, and a foreground image is composed of pixels of a moving object. Detection of the foreground image corresponds to one classification problem, that is, to determine whether each pixel in the image belongs to a background pixel or a foreground pixel. In the VIBE model of this embodiment, the background model includes a background sample collection corresponding to each pixel, and the background model can be initialized using a single frame image. Specifically, by using the close pixel value space distribution characteristics of adjacent pixels for one pixel, pixel values of pixel points in the adjacent region are randomly selected as a background sample collection, and then each pixel By comparing the value with its corresponding background sample collection, it is determined whether it belongs to the background pixel. The number of sample points in the background sample collection is a predetermined quantity (N). For example, v (x) represents the pixel value of pixel x; M (x) = {V1, V2,..., VN} is a background sample collection corresponding to pixel x; S R (v (x)) is # [{S R (v (x)) ∩ {V1, V2,..., VN}}] is the first predetermined quantity If it is #min or more, the pixel x belongs to the background pixel.

従来技術では、第一閾値Rは、通常、デフォルト値20を取る。よって、画像が不鮮明になるときに、該第一閾値Rが不変に保たれると、完全な前景画像を抽出できないことを来すことがある。   In the prior art, the first threshold R usually takes a default value of 20. Therefore, when the image becomes unclear, if the first threshold value R is kept unchanged, a complete foreground image may not be extracted.

本実施例では、上述のステップ101〜102により、VIBEアルゴリズム中の背景モデルのために感度を定義し、画像の鮮明さに基づいて該感度を調整し、そして、感度の値に基づいて背景モデル中の第一閾値Rを調整し、これにより、前景検出の正確度を向上させ、画像が不鮮明によることが原因で完全な前景画像を抽出できない問題を避けることができる。   In this example, steps 101-102 described above define the sensitivity for the background model in the VIBE algorithm, adjust the sensitivity based on the sharpness of the image, and the background model based on the sensitivity value. The first threshold value R is adjusted, thereby improving the accuracy of foreground detection and avoiding the problem that a complete foreground image cannot be extracted because the image is unclear.

ステップ101では、該鮮明さが第一所定範囲内にあるときに、該感度は、該鮮明さと負の相関関係があり、即ち、入力画像の検出領域の鮮明さが高いほど、感度が低く、逆に、入力画像の検出領域の鮮明さが低いほど、感度が高い。そのうち、鮮明さが第五閾値dよりも大きいときに、画像がとても鮮明であることを表し、このときに、感度を最も低い設定値に設定しても良く、鮮明さが第六閾値cよりも小さいときに、画像がとても鮮明であることを表し、このときに、感度を最も高い設定値に設定しても良く、鮮明さが第一所定範囲([c,d])内にあるときに、該感度は、該鮮明さと負の相関関係がある。   In step 101, when the sharpness is within the first predetermined range, the sensitivity has a negative correlation with the sharpness, that is, the higher the sharpness of the detection area of the input image, the lower the sensitivity, Conversely, the lower the clearness of the detection area of the input image, the higher the sensitivity. Among them, when the sharpness is larger than the fifth threshold d, it indicates that the image is very clear. At this time, the sensitivity may be set to the lowest setting value, and the sharpness is higher than the sixth threshold c. Is small, it means that the image is very clear. At this time, the sensitivity may be set to the highest setting value, and the sharpness is within the first predetermined range ([c, d]). In addition, the sensitivity has a negative correlation with the sharpness.

例えば、0〜100(%)を用いて感度の数値範囲を表し、数値の大小により感度の高低を示すことができ、例えば、0は、感度が低いことを表し、100(%)は、感度が高いことを表す。   For example, 0 to 100 (%) is used to represent a numerical range of sensitivity, and the magnitude of the numerical value can indicate the level of sensitivity, for example, 0 represents low sensitivity, and 100 (%) represents sensitivity. Is high.

該感度と該鮮明さと負の相関関係は、

Figure 2019531552

である。そのうち、Cは、該鮮明さを表し、Sは、該感度を示し、該第一所定範囲は、[c、d]である。なお、該感度と該鮮明さとの負の相関関係は、他の負の相関関数であっても良く、本実施例は、これに限定されない。 The negative correlation between the sensitivity and the sharpness is
Figure 2019531552

It is. Among them, C represents the sharpness, S represents the sensitivity, and the first predetermined range is [c, d]. The negative correlation between the sensitivity and the sharpness may be another negative correlation function, and the present embodiment is not limited to this.

ステップ102では、該入力画像中の各画素に対して処理を行い、各画素が前景画素かそれとも背景画素に属するかを確定し、そして、前景画素に属すると確定した画素からなる画像を前景画像と確定する。背景モデル中の該第一閾値は、該感度に応じて確定されても良く、該感度は、該第一閾値と負の相関関係があり、即ち、感度が高いほど、第一閾値が小さく、感度が低いほど、第一閾値が大きい。よって、入力画像が不鮮明であればあるほど、第一閾値が小さく、逆に、入力画像が鮮明であればあるほど、第一閾値が大きい。   In step 102, processing is performed on each pixel in the input image to determine whether each pixel belongs to the foreground pixel or the background pixel, and an image composed of pixels determined to belong to the foreground pixel is determined as the foreground image. And confirm. The first threshold in the background model may be determined according to the sensitivity, and the sensitivity is negatively correlated with the first threshold, i.e., the higher the sensitivity, the smaller the first threshold, The lower the sensitivity, the larger the first threshold value. Therefore, the clearer the input image, the smaller the first threshold value. Conversely, the clearer the input image, the larger the first threshold value.

ステップ102では、該感度は、該第一閾値と負の線形相関関係があり、例えば、0〜100(%)を用いて感度の数値範囲を表すと、第一閾値及び感度の負の線形相関関係は、

Figure 2019531552

である。そのうち、Rは、該第一閾値を示し、Sは、該感度を表し、該第一閾値の数値範囲は、[a、b]であ。例えば、第一閾値Rの数値範囲が[5,35]の場合、第一閾値Rと感度Sとの負の線形相関関係は、
Figure 2019531552

である。なお、ここで、R及びSの数値範囲を例示的に説明したが、本実施例は、これに限定されない。 In step 102, the sensitivity has a negative linear correlation with the first threshold.For example, when the numerical range of sensitivity is expressed using 0 to 100 (%), the first threshold and the negative linear correlation of the sensitivity. Relationship
Figure 2019531552

It is. Among them, R represents the first threshold, S represents the sensitivity, and the numerical range of the first threshold is [a, b]. For example, when the numerical range of the first threshold R is [5, 35], the negative linear correlation between the first threshold R and the sensitivity S is
Figure 2019531552

It is. In addition, although the numerical range of R and S was demonstrated here exemplarily, a present Example is not limited to this.

本実施例では、該方法は、さらに、以下のステップを含んでも良い。   In this embodiment, the method may further include the following steps.

ステップ100(オプション):該入力画像の検出領域の鮮明さを計算する。   Step 100 (optional): Calculate the sharpness of the detection area of the input image.

そのうち、検出領域中の画素の勾配の大きさ(gradient magnitude)の平均値を以て該鮮明さを表すことができる。例えば、該入力画像の検出領域中の各画素の勾配の大きさの和と、該入力画像の検出領域中の画素数との比を計算し、該比を該鮮明さとすることができる。   Among them, the sharpness can be expressed by an average value of gradient magnitudes of pixels in the detection region. For example, the ratio between the sum of the gradient magnitudes of the pixels in the detection area of the input image and the number of pixels in the detection area of the input image can be calculated, and the ratio can be defined as the sharpness.

例えば、ステップ100では、以下の式(1)により鮮明さを計算することができる。

Figure 2019531552
For example, in step 100, the sharpness can be calculated by the following equation (1).
Figure 2019531552

そのうち、wは、該入力画像の検出領域の幅を示し、hは、該入力画像の検出領域の高さを表し、pixel_numは、該入力画像の検出領域中の画素点の個数を示し、Iは、画素値であり、i及びjは、画素点の横縦座標を示す。上述の方法で鮮明さを計算するときに、鮮明さが25よりも大きい場合、画像がとても鮮明であることを表し、鮮明さが5よりも小さい場合、画像がとても不鮮明であることを表す。このときに、次のような方法で鮮明さに基づいて感度を確定することができ、即ち、0〜100(%)を以て感度の数値範囲を表すと、鮮明さが25よりも大きいときに、該感度を0に設定し、鮮明さが5よりも小さいときに、該感度を100に設定し、鮮明さが[5、25]範囲内にあるときに、該感度と該鮮明さとは、負の線形相関関係、即ち、S=-5C+125を有する。なお、これは、例示に過ぎず、本実施例は、これに限定されない。   Among them, w represents the width of the detection area of the input image, h represents the height of the detection area of the input image, pixel_num represents the number of pixel points in the detection area of the input image, and I Is a pixel value, and i and j indicate the horizontal and vertical coordinates of the pixel point. When the sharpness is calculated by the above method, if the sharpness is greater than 25, the image is very clear, and if the sharpness is less than 5, the image is very blurry. At this time, the sensitivity can be determined based on the sharpness by the following method, that is, when the numerical value range of sensitivity is expressed by 0 to 100 (%), when the sharpness is larger than 25, When the sensitivity is set to 0 and the sharpness is less than 5, the sensitivity is set to 100, and when the sharpness is within the range [5, 25], the sensitivity and the sharpness are negative. Linear correlation, i.e., S = -5C + 125. This is merely an example, and the present embodiment is not limited to this.

本実施例では、冗長な計算量を避けるために、ステップ100において該入力画像中の関心領域(Region of Interest、ROI)を選択し、該関心領域を該検出領域とすることができる。例えば、ROIはバイナリで示され、そのうち、ROI中の画素の画素値は、1であり、他の画素の画素値は、0である。なお、これは、例示に過ぎず、本実施例は、これに限定されない。例えば、ROIは、車道領域などを選択しても良く、該ROIは、予め選択されたものであっても良く、入力画像に対して処理を行う度に選択されても良いが、本実施例は、これについて限定しない。   In this embodiment, in order to avoid a redundant calculation amount, a region of interest (ROI) in the input image is selected in step 100, and the region of interest can be set as the detection region. For example, ROI is expressed in binary, and among these, the pixel value of the pixel in the ROI is 1, and the pixel values of the other pixels are 0. This is merely an example, and the present embodiment is not limited to this. For example, the ROI may select a road area or the like, and the ROI may be selected in advance, or may be selected every time an input image is processed. Does not limit this.

本実施例では、シーンの変化は、通常、突然生じることがなく、即ち、隣接する画像フレームの鮮明さが近いため、冗長な計算量を避けるために、所定時間おきに画像の鮮明さを再計算し、そして、更新後の鮮明さに応じて背景モデルの感度を更新することができる。よって、本実施例では、該方法は、さらに、以下のこと(図示せず)を含んでも良い。   In this embodiment, the scene change usually does not occur suddenly, that is, the sharpness of the adjacent image frames is close, so that the sharpness of the image is regenerated every predetermined time in order to avoid redundant calculations. The sensitivity of the background model can be updated according to the calculated and updated clarity. Therefore, in this embodiment, the method may further include the following (not shown).

少なくとも1つのフレーム(画像)シーケンスのうちから該入力画像を選択し、そのうち、第二所定数量のフレームおきに1つのフレーム画像を該入力画像として選択する。   The input image is selected from at least one frame (image) sequence, and one frame image is selected as the input image every second predetermined number of frames.

本実施例では、照明の変化、背景画像の変化などが原因で、該方法は、さらに、該背景モデルを更新すること(図示せず)を含んでも良い。   In this embodiment, the method may further include updating the background model (not shown) due to lighting changes, background image changes, and the like.

本実施例では、該背景モデルの更新は、背景モデル中の背景サンプル集のうちのサンプル点の更新、及び/又は、上述のステップ101で得られた背景モデルの感度に基づく該第一閾値の更新などを含む。   In the present embodiment, the background model is updated by updating the sample points of the background sample collection in the background model and / or the first threshold value based on the sensitivity of the background model obtained in step 101 described above. Including updates.

そのうち、背景モデル中の背景サンプル集のうちのサンプル点の更新は、従来技術中のVIBEアルゴリズムの背景モデル更新ポリシーを採用しても良く、例えば、記憶無し更新ポリシー、時間サンプリング更新ポリシー、空間隣接領域更新ポリシーなどである。そのうち、ステップ102では、該1つの画素が背景画素であると確定したときに、該画素をランダムにその対応する背景サンプル集のうちの1つのサンプル点に取り替えることで、該背景モデルを更新することができる。なお、本実施例は、これに限定されず、例えば、従来技術を用いて、画像シーケンス中の、入力画像として選択されたもの以外の他の画像に対して処理を行うことで背景モデルを更新しても良い。具体的には、従来技術を参照することができる。   Among them, the update of the sample points in the background sample collection in the background model may adopt the background model update policy of the VIBE algorithm in the prior art, for example, no memory update policy, temporal sampling update policy, spatial adjacency For example, an area update policy. In step 102, when it is determined that the one pixel is a background pixel, the background model is updated by randomly replacing the pixel with one sample point of the corresponding background sample collection. be able to. Note that the present embodiment is not limited to this. For example, the background model is updated by performing processing on an image other than the one selected as the input image in the image sequence using the conventional technique. You may do it. Specifically, the prior art can be referred to.

よって、該入力画像を処理した後に、該背景モデルを更新し、次の1つのフレームの処理待ちの画像について、更新後の背景モデルにより前景画像を抽出することができる。   Therefore, after the input image is processed, the background model can be updated, and the foreground image can be extracted based on the updated background model for the next one frame waiting to be processed.

本実施例では、該入力画像は、従来の方法で得ることができる。例えば、該入力画像は、監視ビデオ中の現在のフレームであっても良い。該監視ビデオは、監視を行う必要のある領域の上方に設けられるカメラにより取得することができる。   In this embodiment, the input image can be obtained by a conventional method. For example, the input image may be the current frame in the surveillance video. The monitoring video can be acquired by a camera provided above an area where monitoring is required.

上述の実施例により、VIBEアルゴリズム中の背景モデルのために感度を定義し、そして、画像の鮮明さに基づいて該感度を調整し、これにより、前景検出の正確度を向上させ、画像が不鮮明によることが原因で完全な前景画像を抽出できない問題を避けることができる。   According to the above embodiment, the sensitivity is defined for the background model in the VIBE algorithm, and the sensitivity is adjusted based on the sharpness of the image, thereby improving the accuracy of foreground detection and blurring the image. This prevents the problem that a complete foreground image cannot be extracted due to the above.

本実施例2は、画像処理方法を提供し、該方法と実施例1との相違点は、本実施例では、該入力画像中の各画素に対して処理を行い、該背景モデルを更新することにある。なお、実施例1の内容と同じである重複説明は、省略される。図2は、該画像処理方法フローチャートであり、図2に示すように、該方法は、以下のステップを含む。   The second embodiment provides an image processing method, and the difference between this method and the first embodiment is that in this embodiment, each pixel in the input image is processed and the background model is updated. There is. Note that duplicate descriptions that are the same as the contents of the first embodiment are omitted. FIG. 2 is a flowchart of the image processing method. As shown in FIG. 2, the method includes the following steps.

ステップ201:入力画像の検出領域の鮮明さに基づいて背景モデルの感度を計算し、該鮮明さが第一所定範囲内にあるときに、該感度は、該鮮明さと負の相関関係があり;
ステップ202:該入力画像中の各画素に対して処理を行い、該背景モデルを更新し、そのうち、1つの画素に対して処理を行うときに、該1つの画素と、該背景モデル中で該1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、該1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、該1つの画素を1つのサンプル点に取り替えて該背景モデルを更新することを含み、そのうち、該第一閾値は、該感度に基づいて確定され、該感度は、該第一閾値と負の線形相関関係がある。
Step 201: Calculate the sensitivity of the background model based on the sharpness of the detection area of the input image, and when the sharpness is within the first predetermined range, the sensitivity is negatively correlated with the sharpness;
Step 202: Perform processing on each pixel in the input image, update the background model, and when processing one pixel, of the one pixel and the background model, A distance between each sample point in the background sample collection corresponding to one pixel is calculated, and a distance between the one pixel and at least a first predetermined number of sample points is equal to or less than a predetermined first threshold value. In some cases, replacing the one pixel with one sample point and updating the background model, wherein the first threshold is determined based on the sensitivity, and the sensitivity is equal to the first threshold. There is a negative linear correlation.

本実施例では、ステップ201の具体的な実施方式は、実施例1中のステップ101を参照することができ、ここでは、その詳しい説明を省略する。   In the present embodiment, the specific implementation method of step 201 can refer to step 101 in the first embodiment, and detailed description thereof is omitted here.

本実施例では、ステップ202中の第一閾値の確定方式は、実施例1を参照することができ、ここでは、その詳しい説明を省略する。   In the present embodiment, the first threshold value determination method in step 202 can refer to the first embodiment, and detailed description thereof is omitted here.

本実施例では、該方法は、さらに、以下のステップを含んでも良い。   In this embodiment, the method may further include the following steps.

ステップ200(オプション):入力画像の検出領域の鮮明さを計算する。なお、その実施方式は、実施例1におけるステップ100と同じであり、ここでは、その詳細な説明を省略する。   Step 200 (optional): Calculate the sharpness of the detection area of the input image. The implementation method is the same as step 100 in the first embodiment, and detailed description thereof is omitted here.

以下、ステップ202中の実施例1と相違点について説明する。   Hereinafter, differences from the first embodiment in step 202 will be described.

ステップ202では、該入力画像中の各画素に対して処理を行い、該背景モデルを更新し、各画素値と、その対応する背景サンプル集との比較を行うことで、それが背景画素に属するかを判断する。該背景サンプル集の中のサンプル点の数は、所定数量Nである。例えば、v(x)が画素xの画素値を示し;M(x)={V1,V2,…,VN}が画素xの対応する背景サンプル集であり;SR(v(x))が、xを中心とし、第一閾値Rを半径とする領域を表すとすると、#[{SR(v(x))∩{ V1,V2,…,VN }}]が第一所定数量#min以上であれば、画素xを1つのサンプル点に取り替えて該背景モデルを更新し、そのうち、該画素xをランダムにその対応する背景サンプル集のうちの1つのサンプル点に取り替えることで、該背景モデルを更新し、また、該第一閾値を更新することができる。 In step 202, processing is performed on each pixel in the input image, the background model is updated, and each pixel value is compared with the corresponding background sample collection so that it belongs to the background pixel. Determine whether. The number of sample points in the background sample collection is a predetermined quantity N. For example, v (x) indicates the pixel value of the pixel x; M (x) = {V1, V2,..., VN} is the corresponding background sample collection of the pixel x; S R (v (x)) is , X, and # [{S R (v (x)) 2 {V1, V2,..., VN}}] is the first predetermined quantity #min. If so, the background x is updated by replacing the pixel x with one sample point, and the background x is replaced by randomly replacing the pixel x with one sample point of the corresponding background sample collection. The model can be updated and the first threshold can be updated.

本実施例では、該方法は、さらに、以下のステップを含んでも良い。   In this embodiment, the method may further include the following steps.

ステップ203:更新後の背景モデルに基づいて該入力画像から前景画像を抽出する。   Step 203: A foreground image is extracted from the input image based on the updated background model.

そのうち、従来技術を用いて該ステップ203を実現することができるが、本実施例は、これに限定されない。   Of these, the step 203 can be realized using conventional techniques, but the present embodiment is not limited to this.

本実施例では、シーンの変化は、通常、突然起こることがなく、即ち、隣接する画像フレームの鮮明さが近いため、冗長な計算量を避けるために、所定時間おきに画像の鮮明さを再計算し、そして、更新後の鮮明さに基づいて背景モデルの感度を更新することができる。よって、本実施例では、該方法は、さらに、下記のこと(図示せず)を含んでも良い。   In this embodiment, the scene change usually does not occur suddenly, that is, the sharpness of the adjacent image frames is close, so that the sharpness of the image is regenerated every predetermined time to avoid redundant computation. The sensitivity of the background model can be updated based on the calculated and updated clarity. Therefore, in this embodiment, the method may further include the following (not shown).

少なくとも1つのフレーム(画像)シーケンスのうちから該入力画像を選択し、そのうち、第二所定数量のフレームおきに1つのフレーム画像を該入力画像として選択する。   The input image is selected from at least one frame (image) sequence, and one frame image is selected as the input image every second predetermined number of frames.

そのうち、次の1つのフレームの処理待ちの画像について、ステップ202で更新された背景モデルを用いて、再び背景モデルを更新し、そして、再び更新された背景モデルに基づいて、次の1つのフレームの処理待ちの画像中の前景画像を抽出する。   Among them, for the image waiting to be processed in the next one frame, the background model is updated again using the background model updated in step 202, and the next one frame is updated based on the updated background model. A foreground image is extracted from images waiting for processing.

上述の実施例により、VIBEアルゴリズム中の背景モデルのために感度を定義し、そして、画像の鮮明さに基づいて該感度を調整し、これにより、前景検出の正確度を向上させ、画像が不鮮明によることが原因で完全な前景画像を抽出できない問題を避けることができる。   According to the above embodiment, the sensitivity is defined for the background model in the VIBE algorithm, and the sensitivity is adjusted based on the sharpness of the image, thereby improving the accuracy of foreground detection and blurring the image. This prevents the problem that a complete foreground image cannot be extracted due to the above.

本実施例3は、画像処理方法を提供し、図3は、該画像処理方法のフローチャートである。監視ビデオ(画像シーケンス)について、図3に示すように、該方法は、以下のステップを含む。   The third embodiment provides an image processing method, and FIG. 3 is a flowchart of the image processing method. For surveillance video (image sequence), as shown in FIG. 3, the method includes the following steps:

ステップ301:現在の画像を確定し;
そのうち、現在の画像は、該画像シーケンス中の第i個目のフレームである。
Step 301: Confirm the current image;
Among them, the current image is the i-th frame in the image sequence.

ステップ302:検出領域を確定し;
そのうち、現在の画像の全ての画素からなる領域を検出領域としても良く、ユーザ設定の関心領域(Region of Interest、ROI)を該検出領域としても良い。
Step 302: Determine the detection area;
Of these, an area composed of all the pixels of the current image may be set as a detection area, and a region of interest (ROI) set by a user may be set as the detection area.

ステップ302では、さらに該関心領域を変える必要があるかを確定することができ、必要な場合、再び関心領域を確定して検出領域とし、そして、ステップ303を行い、そうでない場合、ステップ303を直接行う。   In step 302, it can be further determined whether the region of interest needs to be changed. If necessary, the region of interest is determined again as a detection region, and step 303 is performed. Otherwise, step 303 is performed. Do it directly.

ステップ303:該検出領域の鮮明さを計算し;
そのうち、該鮮明さの具体的な計算方法は、ステップ100を参照することができ、ここでは、その詳細な説明を省略する。
Step 303: Calculate the sharpness of the detection area;
Among them, the specific calculation method of the sharpness can refer to step 100, and detailed description thereof is omitted here.

図4A〜4Dは、異なる鮮明さの画像を示す図である。図4A〜4Dに示すように、実施例1中の式(1)で算出された図4A、4B、4C、4Dの鮮明さは、それぞれ、20.036、20.857、8.06、12.895であり、即ち、鮮明さの値が高いほど、画像が鮮明であり、逆に、鮮明さの値が小さいほど、画像が不鮮明である。図4C及び図4Dは、天気及び照明の影響を受けているから、鮮明さが比較的低い。   4A to 4D are diagrams showing images with different sharpness. As shown in FIGS. 4A to 4D, the sharpnesses of FIGS. 4A, 4B, 4C, and 4D calculated by the equation (1) in Example 1 are 20.03, 20.857, 8.06, and 12.895, respectively, that is, clear. The higher the value, the clearer the image. Conversely, the smaller the value, the unclear image. 4C and 4D are relatively low in sharpness because they are affected by weather and lighting.

ステップ304:該鮮明さに基づいて背景モデルの感度を計算し;
その具体的な計算方法は、ステップ101を参照することができ、ここでは、その詳細な説明を省略する。
Step 304: Calculate the sensitivity of the background model based on the sharpness;
The specific calculation method can refer to step 101, and the detailed description thereof is omitted here.

ステップ305:該入力画像中の各画素に対して処理を行い、該入力画像中の前景画像を検出し;
該ステップ305の具体的な実施方式は、図6を参照することでき、ここでは、その説明を割愛する。
Step 305: process each pixel in the input image to detect a foreground image in the input image;
FIG. 6 can be referred to for a specific implementation method of step 305, and the description thereof is omitted here.

図5A〜5Cは、異なる感度に応じて検出された前景画像を示す図である。図5A〜5Cに示すように、図5Aは、入力画像であり、図5Bは、従来技術R=20(感度が50(%)であることに相当する)を採用した場合の前景画像の検出結果であり、図5Cは、鮮明さに基づいて感度を調整した後(例えば、感度が80(%)であり、R=11である)の場合の前景画像の検出結果である。よって、明らかのように、本実施例中の方法で抽出された前景画像の正確度は、より高い。   5A to 5C are diagrams showing foreground images detected according to different sensitivities. As shown in FIGS. 5A to 5C, FIG. 5A is an input image, and FIG. 5B is detection of a foreground image when the conventional technology R = 20 (corresponding to a sensitivity of 50%) is adopted. FIG. 5C shows the result of detecting the foreground image when the sensitivity is adjusted based on the sharpness (for example, the sensitivity is 80 (%) and R = 11). Therefore, as is clear, the accuracy of the foreground image extracted by the method in this embodiment is higher.

ステップ306:該背景モデルを更新する。   Step 306: Update the background model.

その具体的な更新方法は、実施例1を参照することができ、ここでは、その詳細な説明を省略する。   The specific updating method can refer to the first embodiment, and a detailed description thereof will be omitted here.

ステップ307:画像シーケンスが第二所定数量j個のフレームの画像を経過したかを判断し、「はい」の場合、ステップ301に戻り、i=i+jとし、「いいえ」の場合、ステップ306に戻り、画像シーケンス中の、該入力画像として選択されたもの以外の画像について従来技術を用いて背景モデルを更新し、また、画像シーケンスが終了したかを判断し、「はい」の場合、操作が終了する。   Step 307: It is determined whether the image sequence has passed the image of the second predetermined quantity j frames. If “Yes”, the process returns to Step 301, i = i + j, and if “No”, Step 306 , The background model is updated using conventional technology for images other than those selected as the input image in the image sequence, and it is determined whether the image sequence is completed. Ends.

図6は、ステップ305の方法のフローチャートである。図6に示すように、該方法は、以下のステップを含む。   FIG. 6 is a flowchart of the method of step 305. As shown in FIG. 6, the method includes the following steps.

ステップ601:入力画像の検出領域から1つの画素を選択し;
そのうち、画素の左から右へ、上から下への順序で該1つの画素を選択しても良い。
Step 601: Select one pixel from the detection area of the input image;
Among them, the one pixel may be selected in order from the left to the right of the pixel and from the top to the bottom.

例えば、検出領域の高及び幅がそれぞれH及びWであり、即ち、計H×W個の画素があり、mを画素の索引として設定する場合、mが0のときに、左上隅に位置する画素を表し、m=H×Wのときに、右下隅に位置する画素を表す。   For example, if the height and width of the detection area are H and W, respectively, that is, there are a total of H × W pixels, and m is set as an index of pixels, when m is 0, it is located in the upper left corner Represents a pixel, and represents a pixel located in the lower right corner when m = H × W.

ステップ602:該1つの画素と、該背景モデル中で該1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、該1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、該1つの画素を該入力画像中の背景画素と確定し、そうでない場合、前景画素と確定し、そして、各画素が前景画素かそれとも背景画素に属するかを確定し、前景画素に属すると確定した画素からなる画像を前景画像と確定する。そのうち、該第一閾値は、該感度に基づいて確定され、該感度は、該第一閾値と負の線形相関関係がある。   Step 602: calculating a distance between the one pixel and each sample point of the background sample collection corresponding to the one pixel in the background model, and the one pixel and at least a first predetermined quantity If the distance to the sample points is less than or equal to a predetermined first threshold, the one pixel is determined as a background pixel in the input image, otherwise it is determined as a foreground pixel, and each pixel is foreground Whether it belongs to a pixel or a background pixel is determined, and an image composed of pixels determined to belong to a foreground pixel is determined as a foreground image. The first threshold value is determined based on the sensitivity, and the sensitivity has a negative linear correlation with the first threshold value.

該ステップ602の具体的な実施方式は、ステップ102を参照することができ、ここでは、その詳しい説明を省略する。   For a specific implementation method of step 602, reference can be made to step 102, and a detailed description thereof will be omitted here.

ステップ603:検出領域内の全ての画素点に対してステップ602を行ったかを判断し、判断結果が「はい」のときに、処理が終了し、「いいえ」の場合、ステップ601に戻り、且つm=m+1とする。   Step 603: It is determined whether or not Step 602 has been performed for all the pixel points in the detection region. When the determination result is “Yes”, the process ends, and when “No”, the process returns to Step 601; m = m + 1.

図7は、該画像処理方法フのローチャートであり、監視ビデオ(画像シーケンス)について、図7に示すように、該方法は、以下のステップを含む。   FIG. 7 is a flowchart of the image processing method. For surveillance video (image sequence), as shown in FIG. 7, the method includes the following steps.

ステップ701:現在の画像を確定し;
ステップ702:検出領域を確定し;
ステップ703:該検出領域の鮮明さを計算し;
ステップ704:該鮮明さに基づいて背景モデルの感度を計算し;
そのうち、ステップ701〜704の具体的な実施方式は、ステップ601〜604と同じであり、ここでは、その詳細な説明を省略する。
Step 701: Confirm the current image;
Step 702: Determine the detection area;
Step 703: calculating the sharpness of the detection area;
Step 704: Calculate the sensitivity of the background model based on the sharpness;
Among them, the specific implementation method of steps 701 to 704 is the same as that of steps 601 to 604, and detailed description thereof is omitted here.

ステップ705:入力画像中の各画素に対して処理を行い、該背景モデルを更新し;
ステップ706:更新後の背景モデルに基づいて該入力画像から前景画像を抽出し;
その具体的な抽出方法は、実施例2を参照することができ、ここでは、その説明を割愛する。
Step 705: process each pixel in the input image and update the background model;
Step 706: Extract a foreground image from the input image based on the updated background model;
The specific extraction method can refer to Example 2, and the description thereof is omitted here.

ステップ707:画像シーケンスが第二所定数量j個のフレームの画像を経過したかを判断し、「はい」の場合、ステップ701に戻り、且つi=i+jとし、「いいえ」(図示せず)の場合、画像シーケンス中の、該入力画像として選択されたもの以外の画像について、従来技術を用いて背景モデルを更新し、また、画像シーケンスが終了したかを判断し、「はい」の場合、処理が終了する。   Step 707: It is determined whether the image sequence has passed the image of the second predetermined quantity j frames. If “Yes”, the process returns to Step 701, i = i + j, and “No” (not shown) ), The background model is updated using conventional techniques for images other than those selected as the input image in the image sequence, and it is determined whether the image sequence is completed. , The process ends.

図8は、ステップ706の方法のフローチャートであり、図8に示すように、該方法は、下記のステップを含む。   FIG. 8 is a flowchart of the method of step 706, and as shown in FIG. 8, the method includes the following steps.

ステップ801:入力画像の検出領域から1つの画素を選択し;
そのうち、画素の左から右へ、上から下への順序で該1つの画素を選択しても良い。
Step 801: Select one pixel from the detection area of the input image;
Among them, the one pixel may be selected in order from the left to the right of the pixel and from the top to the bottom.

例えば、検出領域の高及び幅がそれぞれH及びWであり、即ち、計H×W個の画素があり、mを画素の索引として設定する場合、mが0のときに、左上隅に位置する画素を表し、m=H×Wのときに、右下隅に位置する画素を表す。   For example, if the height and width of the detection area are H and W, respectively, that is, there are a total of H × W pixels, and m is set as an index of pixels, when m is 0, it is located in the upper left corner Represents a pixel, and represents a pixel located in the lower right corner when m = H × W.

ステップ802:該1つの画素と、該背景モデル中で該1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、該1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、該1つの画素を1つのサンプル点に取り替えて該背景モデルを更新する。   Step 802: calculating a distance between the one pixel and each sample point of the background sample collection corresponding to the one pixel in the background model, and at least the first predetermined quantity When the distance from the sample points is equal to or less than a predetermined first threshold, the background model is updated by replacing the one pixel with one sample point.

該ステップ802の具体的な実施方式は、ステップ202を参照することができ、ここでは、その詳しい説明を省略する。   For a specific implementation method of Step 802, Step 202 can be referred to, and detailed description thereof is omitted here.

ステップ803:検出領域内の全ての画素点に対してステップ802を行ったかを判断し、判断結果が「はい」の場合、処理が終了し、「いいえ」の場合、ステップ801に戻り、且つm=m+1とする。   Step 803: It is determined whether or not Step 802 has been performed for all the pixel points in the detection region. If the determination result is “Yes”, the process ends. If “No”, the process returns to Step 801, and m = m + 1.

上述の実施例により、VIBEアルゴリズム中の背景モデルのために感度を定義し、そして、画像の鮮明さに基づいて該感度を調整し、これにより、前景検出の正確度を向上させ、画像が不鮮明によることが原因で完全な前景画像を抽出できない問題を避けることができる。   According to the above embodiment, the sensitivity is defined for the background model in the VIBE algorithm, and the sensitivity is adjusted based on the sharpness of the image, thereby improving the accuracy of foreground detection and blurring the image. This prevents the problem that a complete foreground image cannot be extracted due to the above.

本実施例4は、さらに、画像処理装置を提供し、該装置が問題を解決する原理が実施例1〜3中の方法に類似しているので、その具体的な実施は、実施例1〜3中の方法の実施を参照することができ、内容が同じである重複説明は、省略される。   The fourth embodiment further provides an image processing apparatus, and the principle by which the apparatus solves the problem is similar to the method in the first to third embodiments. The implementation of the method in 3 can be referred to, and redundant explanations with the same contents are omitted.

図9は、本実施例4中の画像処理装置の構成図であり、図9に示すように、画像処理装置900は、以下のものを含む。   FIG. 9 is a configuration diagram of the image processing apparatus in the fourth embodiment. As shown in FIG. 9, the image processing apparatus 900 includes the following.

第一計算ユニット901:入力画像の検出領域の鮮明さに基づいて背景モデルの感度を計算し、該鮮明さが第一所定範囲内にあるときに、該感度は、該鮮明さと負の相関関係があり;
第一処理ユニット902:該入力画像中の各画素に対して処理を行い、該入力画像の前景画像を検出し、そのうち、1つの画素に対して処理を行うときに、該1つの画素と、該背景モデル中で該1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、該1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、該1つの画素を該入力画像中の背景画素と確定し、そうでない場合、前景画素と確定し;或いは、該入力画像中の各画素に対して処理を行い、該背景モデルを更新し、そのうち、1つの画素に対して処理を行うときに、該1つの画素と、該背景モデル中で該1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、該1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、該1つの画素を1つのサンプル点に取り替えて該背景モデルを更新し、そのうち、該第一閾値は、該感度に基づいて確定され、該感度は、該第一閾値と負の線形相関関係がある。
First calculation unit 901: Calculates the sensitivity of the background model based on the sharpness of the detection area of the input image, and when the sharpness is within the first predetermined range, the sensitivity is negatively correlated with the sharpness There is;
First processing unit 902: processes each pixel in the input image, detects a foreground image of the input image, and when processing one pixel, A distance between each sample point of the background sample collection corresponding to the one pixel in the background model is calculated, and a distance between the one pixel and at least a first predetermined number of sample points is predetermined. The first pixel is determined to be a background pixel in the input image, otherwise it is determined to be a foreground pixel; or processing is performed for each pixel in the input image. , When the background model is updated and processing is performed on one pixel, the one pixel and each sample point of the background sample collection corresponding to the one pixel in the background model, Calculate the distance between the one pixel and less If the distance from the first predetermined number of sample points is equal to or less than a predetermined first threshold value, the background model is updated by replacing the one pixel with one sample point, and the first threshold value is Based on the sensitivity, the sensitivity is negatively correlated with the first threshold.

上述の実施例により、VIBEアルゴリズム中の背景モデルのために感度を定義し、そして、画像の鮮明さに基づいて該感度を調整し、これにより、前景検出の正確度を向上させ、画像が不鮮明によることが原因で完全な前景画像を抽出できない問題を避けることができる。   According to the above embodiment, the sensitivity is defined for the background model in the VIBE algorithm, and the sensitivity is adjusted based on the sharpness of the image, thereby improving the accuracy of foreground detection and blurring the image. This prevents the problem that a complete foreground image cannot be extracted due to the above.

図10は、本実施例4中の画像処理装置の構成図であり、図10に示すように、画像処理装置1000は、以下のものを含む。   FIG. 10 is a configuration diagram of the image processing apparatus in the fourth embodiment. As shown in FIG. 10, the image processing apparatus 1000 includes the following.

第一計算ユニット1001:入力画像の検出領域の鮮明さに基づいて背景モデルの感度を計算し、該鮮明さが第一所定範囲内にあるときに、該感度は、該鮮明さと負の相関関係があり;
第一処理ユニット1002:該入力画像中の各画素に対して処理を行い、該入力画像の前景画像を検出し、そのうち、1つの画素に対して処理を行うときに、該1つの画素と、該背景モデル中で該1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、該1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、該1つの画素を該入力画像中の背景画素と確定し、そうでない場合、前景画素と確定し、そのうち、該第一閾値は、該感度に基づいて確定され、該感度は、該第一閾値と負の線形相関関係がある。
First calculation unit 1001: Calculates the sensitivity of the background model based on the sharpness of the detection area of the input image, and when the sharpness is within the first predetermined range, the sensitivity is negatively correlated with the sharpness There is;
First processing unit 1002: Processes each pixel in the input image, detects a foreground image of the input image, and when processing one pixel, A distance between each sample point of the background sample collection corresponding to the one pixel in the background model is calculated, and a distance between the one pixel and at least a first predetermined number of sample points is predetermined. Is determined as a background pixel in the input image, otherwise it is determined as a foreground pixel, of which the first threshold is determined based on the sensitivity. The sensitivity has a negative linear correlation with the first threshold.

そのうち、第一計算ユニット1001及び第一処理ユニット1002の具体的な実施方式は、実施例1中のステップ101〜102を参照することができ、ここでは、その詳細な説明を省略する。   Among them, the specific implementation method of the first calculation unit 1001 and the first processing unit 1002 can refer to steps 101 to 102 in the first embodiment, and detailed description thereof is omitted here.

本実施例では、該第一閾値と該感度との負の線形相関関は、

Figure 2019531552

である。そのうち、Rは、該第一閾値を示し、Sは、該感度を表し、該第一閾値の数値範囲は、[a、b]である。 In this example, the negative linear correlation between the first threshold and the sensitivity is
Figure 2019531552

It is. Among them, R represents the first threshold, S represents the sensitivity, and the numerical range of the first threshold is [a, b].

本実施例では、該装置1000は、さらに、第二計算ユニット1003を含んでも良く、それは、該入力画像の検出領域の鮮明さを計算し、該検出領域中の画素の勾配の大きさの平均値を該鮮明さとする。   In this embodiment, the apparatus 1000 may further include a second calculation unit 1003, which calculates the sharpness of the detection area of the input image and averages the gradient magnitude of the pixels in the detection area. Let the value be the sharpness.

本実施例では、第二計算ユニット1003は、該入力画像の検出領域中の各画素の勾配の大きさの和と、該入力画像の検出領域中の画素数との比を計算し、該比を該鮮明さとし、或いは、第二算ユニット1003は、以下の式で該鮮明さを計算する。

Figure 2019531552
In this embodiment, the second calculation unit 1003 calculates the ratio between the sum of the gradient magnitudes of the pixels in the detection area of the input image and the number of pixels in the detection area of the input image, and the ratio Or the second calculation unit 1003 calculates the sharpness by the following equation.
Figure 2019531552

そのうち、wは、該入力画像の検出領域の幅を表し、hは、該入力画像の検出領域の高さを示し、pixel_numは、該入力画像の検出領域中の画素数を示し、Iは、画素値を表し、i及びjは、画素点の横縦座標を示す。   Of these, w represents the width of the detection area of the input image, h represents the height of the detection area of the input image, pixel_num represents the number of pixels in the detection area of the input image, and I represents Represents a pixel value, i and j indicate the horizontal and vertical coordinates of the pixel point.

本実施例では、シーンの変化は、通常、突然起こることがなく、即ち、隣接する画像フレームの鮮明さが近いため、冗長な計算量を避けるために、該装置1000は、さらに、以下のものを含んでも良い。   In this embodiment, scene changes usually do not occur suddenly, i.e., the sharpness of adjacent image frames is so close that the apparatus 1000 further includes: May be included.

第一選択ユニット1004:少なくとも1つのフレーム(画像)シーケンスのうちから該入力画像を選択し、そのうち、該第一選択ユニット1004は、第二所定数量のフレームおきに1つのフレーム画像を該入力画像として選択する。   First selection unit 1004: selects the input image from at least one frame (image) sequence, of which the first selection unit 1004 selects one frame image every second predetermined number of frames. Choose as.

本実施例では、冗長な計算量を避けるために、該装置は、さらに、以下のものを含んでも良い。   In this embodiment, in order to avoid a redundant calculation amount, the apparatus may further include the following.

第二選択ユニット1005:該入力画像中の関心領域を選択し、該関心領域を該検出領域とする。   Second selection unit 1005: A region of interest in the input image is selected, and the region of interest is set as the detection region.

本実施例では、該装置1000は、さらに、更新ユニット1006を含んでも良く、それは、該背景モデルを更新し、そのうち、更新ユニット1006は、該第一処理ユニット1002の処理結果に基づいて該背景モデルを更新し、及び/又は、該第一処理ユニット1002の処理結果に基づいて該第一閾値を更新することができ、その具体的な実施方式は、実施例1を参照することができ、ここでは、その詳細な説明を省略する。   In this embodiment, the apparatus 1000 may further include an update unit 1006, which updates the background model, of which the update unit 1006 is based on the processing result of the first processing unit 1002. The model can be updated and / or the first threshold can be updated based on the processing result of the first processing unit 1002, the specific implementation manner can refer to Example 1, Here, detailed description thereof is omitted.

図11は、本発明の実施例の画像処理装置のハードウェア構成図である。図11に示すように、画像処理装置1100は、1つのインターフェース(図示せず)、中央処理装置(CPU)1120、記憶器1110、及び送受信器1140を含んでも良く、記憶器1110は、中央処理装置1120に接続される。そのうち、記憶器1110は、各種のデータを記憶することができ、また、さらに画像処理用のプログラムを記憶することができ、且つ中央処理装置1120の制御下で該プログラムを実行し、各種の所定の値及び所定の条件などを記憶することができる。   FIG. 11 is a hardware configuration diagram of the image processing apparatus according to the embodiment of the present invention. As shown in FIG. 11, the image processing apparatus 1100 may include one interface (not shown), a central processing unit (CPU) 1120, a storage unit 1110, and a transceiver 1140. The storage unit 1110 includes a central processing unit. Connected to device 1120. Among them, the storage device 1110 can store various types of data, can further store a program for image processing, and executes the program under the control of the central processing unit 1120 to execute various types of predetermined data. And a predetermined condition can be stored.

1つの実施方式では、画像処理装置1100の機能は、中央処理装置1120に統合することができる。そのうち、中央処理装置1120は、次のように構成されても良く、即ち、入力画像の検出領域の鮮明さに基づいて背景モデルの感度を計算し、該鮮明さが第一所定範囲内にあるときに、該感度は、該鮮明さと負の相関関係があり、該入力画像中の各画素に対して処理を行い該入力画像の前景画像を検出し、そのうち、1つの画素に対して処理を行うときに、該1つの画素と、該背景モデル中で該1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、該1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、該1つの画素を該入力画像中の背景画素と確定し、そうでない場合、前景画素と確定し、そのうち、該第一閾値は、該感度に基づいて確定され、該感度は、該第一閾値と負の線形相関関係がある。   In one implementation, the functions of the image processing device 1100 can be integrated into the central processing unit 1120. Among them, the central processing unit 1120 may be configured as follows, that is, the sensitivity of the background model is calculated based on the sharpness of the detection area of the input image, and the sharpness is within the first predetermined range. Sometimes, the sensitivity has a negative correlation with the sharpness, and each pixel in the input image is processed to detect the foreground image of the input image, of which one pixel is processed. When doing, calculate the distance between the one pixel and each sample point of the background sample collection corresponding to the one pixel in the background model, and at least a first predetermined If the distance to the number of sample points is less than or equal to a predetermined first threshold, the one pixel is determined as a background pixel in the input image; otherwise, it is determined as a foreground pixel, of which the first A threshold is determined based on the sensitivity, and the sensitivity is determined by the first threshold. There is a negative linear correlation with the value.

そのうち、中央処理装置1120は、次のように構成されても良く、即ち、少なくとも1つのフレーム(画像)シーケンスのうちから該入力画像を選択し、そのうち、該第一選択ユニットは、第二所定数量のフレームおきに1つのフレーム画像を該入力画像として選択する。   Among them, the central processing unit 1120 may be configured as follows, that is, the input image is selected from at least one frame (image) sequence, and the first selection unit includes a second predetermined unit. One frame image is selected as the input image every other number of frames.

そのうち、中央処理装置1120は、次のように構成されても良く、即ち、該入力画像の検出領域の鮮明さを計算し、該検出領域中の画素の勾配の大きさの平均値を該鮮明さとする。   Among them, the central processing unit 1120 may be configured as follows, that is, calculate the sharpness of the detection area of the input image, and calculate the average value of the gradient magnitudes of the pixels in the detection area. Say it.

そのうち、中央処理装置1120は、次のように構成されても良く、即ち、該入力画像の検出領域中の各画素の勾配の大きさの和と、該入力画像の検出領域中の画素数との比を計算し、該比を該鮮明さとする。   Among them, the central processing unit 1120 may be configured as follows, that is, the sum of the gradient magnitudes of the pixels in the detection region of the input image, and the number of pixels in the detection region of the input image. And the ratio is defined as the sharpness.

そのうち、中央処理装置1120は、次のように構成されても良く、即ち、以下の式で該鮮明さを計算する。

Figure 2019531552
Among them, the central processing unit 1120 may be configured as follows, that is, the sharpness is calculated by the following equation.
Figure 2019531552

そのうち、wは、該入力画像の検出領域の幅を示し、hは、該入力画像の検出領域の高さを表し、pixel_numは、該入力画像の検出領域中の画素点の個数を示し、Iは、画素値を表し、i及びjは、画素点の横縦座標を示す。   Among them, w represents the width of the detection area of the input image, h represents the height of the detection area of the input image, pixel_num represents the number of pixel points in the detection area of the input image, and I Represents a pixel value, and i and j represent the horizontal and vertical coordinates of the pixel point.

そのうち、中央処理装置1120は、次のように構成されても良く、即ち、該入力画像中の関心領域を選択し、該関心領域を該検出領域とする。   Among them, the central processing unit 1120 may be configured as follows, that is, select a region of interest in the input image and set the region of interest as the detection region.

該第一閾値と該感度との負の線形相関関係は、

Figure 2019531552

である。そのうち、Rは、該第一閾値を示し、Sは、該感度を表し、該第一閾値の数値範囲は、[a、b]である。 The negative linear correlation between the first threshold and the sensitivity is
Figure 2019531552

It is. Among them, R represents the first threshold, S represents the sensitivity, and the numerical range of the first threshold is [a, b].

そのうち、中央処理装置1120は、次のように構成されても良く、即ち、該背景モデルを更新し、該入力画像に対しての処理結果に基づいて該背景モデルを更新し、及び/又は、該入力画像に対しての処理結果に基づいて該第一閾値を更新する。   Among them, the central processing unit 1120 may be configured as follows: update the background model, update the background model based on the processing result for the input image, and / or The first threshold value is updated based on the processing result for the input image.

中央処理装置1120の具体的な実施方式は、実施例1を参照することができ、ここでは、その詳しい説明を省略する。   The specific implementation method of the central processing unit 1120 can refer to the first embodiment, and detailed description thereof is omitted here.

もう1つの実施方式では、上述の画像処理装置1100は、中央処理装置1120に接続されるチップ(図示せず)に構成され、中央処理装置1120の制御下で画像処理装置1100の機能を実現しても良い。   In another implementation, the image processing apparatus 1100 described above is configured on a chip (not shown) connected to the central processing unit 1120, and implements the functions of the image processing apparatus 1100 under the control of the central processing unit 1120. May be.

なお、画像処理装置1100は、必ずしも図11に示す全ての部品を含む必要がない。また、該画像処理装置1100は、さらに、図11に無い部品を含んでも良く、これについては、考従来技術を参照することができる。   Note that the image processing apparatus 1100 does not necessarily include all the components illustrated in FIG. Further, the image processing apparatus 1100 may further include parts not shown in FIG. 11, and for this, reference can be made to the prior art.

図12は、本実施例4における画像処理装置の構成図である。図12に示すように、画像処理装置1200は、第一計算ユニット1201を含み、それは、入力画像の検出領域の鮮明さに基づいて背景モデルの感度を計算し、該鮮明さが第一所定範囲内にあるときに、該感度は、該鮮明さと負の相関関係があり、また、さらに第一処理ユニット1202を含み、それは、該入力画像中の各画素に対して処理を行い、該背景モデルを更新し、そのうち、1つの画素に対して処理を行うときに、1つの画素と、該背景モデル中で該1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、該1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、該1つの画素を1つのサンプル点に取り替えて該背景モデルを更新し、そのうち、該第一閾値は、該感度に基づいて確定され、該感度は、該第一閾値と負の線形相関関係がある。   FIG. 12 is a configuration diagram of an image processing apparatus according to the fourth embodiment. As shown in FIG. 12, the image processing apparatus 1200 includes a first calculation unit 1201, which calculates the sensitivity of the background model based on the sharpness of the detection area of the input image, and the sharpness is a first predetermined range. The sensitivity is negatively correlated with the sharpness and further includes a first processing unit 1202, which processes each pixel in the input image, and , And when processing is performed for one pixel, the distance between one pixel and each sample point of the background sample collection corresponding to the one pixel in the background model is calculated. If the distance between the one pixel and at least the first predetermined number of sample points is equal to or smaller than a predetermined first threshold, the background model is updated by replacing the one pixel with one sample point. , Of which the first threshold is based on the sensitivity. Be determined Te, sensitive degree, negative linear correlation with said first threshold value.

そのうち、第一計算ユニット1201及び第一処理ユニット1202の具体的な実施方式は、実施例2中のステップ201〜202を参照することができ、ここでは、その詳細な説明を省略する。   Among them, the specific implementation method of the first calculation unit 1201 and the first processing unit 1202 can refer to steps 201 to 202 in the second embodiment, and detailed description thereof is omitted here.

本実施例では、該第一閾値と該感度との負の線形相関関係は、

Figure 2019531552

である。そのうち、Rは、該第一閾値を示し、Sは、該感度を表し、該第一閾値の数値範囲は、[a、b]である。 In this example, the negative linear correlation between the first threshold and the sensitivity is
Figure 2019531552

It is. Among them, R represents the first threshold, S represents the sensitivity, and the numerical range of the first threshold is [a, b].

本実施例では、該装置1200は、さらに第二計算ユニット1203を含んでも良く、それは、該入力画像の検出領域の鮮明さを計算し、該検出領域中の画素の勾配の大きさの平均値を該鮮明さとする。   In this embodiment, the apparatus 1200 may further include a second calculation unit 1203, which calculates the sharpness of the detection area of the input image and averages the gradient magnitude of the pixels in the detection area. Is defined as the sharpness.

本実施例では、第二計算ユニット1203は、該入力画像の検出領域中の各画素の勾配の大きさの和と、該入力画像の検出領域中の画素数との比を計算し、該比を該鮮明さとし、或いは、第二算ユニット1203は、以下の式で該鮮明さを計算する。

Figure 2019531552
In this embodiment, the second calculation unit 1203 calculates the ratio between the sum of the gradient magnitudes of the pixels in the detection region of the input image and the number of pixels in the detection region of the input image, and the ratio Or the second calculation unit 1203 calculates the sharpness by the following equation.
Figure 2019531552

そのうち、wは、該入力画像の検出領域の幅を示し、hは、該入力画像の検出領域の高さを表し、pixel_numは、該入力画像の検出領域中の画素数を示し、Iは、画素値を表し、i及びjは、画素点の横縦座標を示す。   Among them, w represents the width of the detection area of the input image, h represents the height of the detection area of the input image, pixel_num represents the number of pixels in the detection area of the input image, and I represents Represents a pixel value, i and j indicate the horizontal and vertical coordinates of the pixel point.

本実施例では、シーンの変化は、通常、突然生じることがなく、即ち、隣接する画像フレームの鮮明さが近いので、冗長な計算量を避けるために、該装置1200は、さらに、以下のものを含んでも良い。   In this embodiment, scene changes usually do not occur suddenly, ie, the sharpness of adjacent image frames is close, so to avoid redundant computations, the apparatus 1200 further includes: May be included.

第一選択ユニット1204:少なくとも1つのフレーム(画像)シーケンスのうちから該入力画像を選択し、そのうち、該第一選択ユニット1204は、第二所定数量のフレームおき1つのフレーム画像を該入力画像として選択する。   First selection unit 1204: Selects the input image from at least one frame (image) sequence, of which the first selection unit 1204 uses one frame image every second predetermined number of frames as the input image. select.

本実施例では、冗長な計算量を避けるために、該装置1200は、さらに、以下のものを含んでも良い。   In the present embodiment, in order to avoid a redundant calculation amount, the apparatus 1200 may further include the following.

第二選択ユニット1205:該入力画像中の関心領域を選択し、該関心領域を該検出領域とする。   Second selection unit 1205: A region of interest in the input image is selected, and the region of interest is set as the detection region.

本実施例では、該装置1200は、さらに抽出ユニット1206を含み、それは、更新後の背景モデルに基づいて該入力画像から前景画像を抽出する。その具体的な実施方式は、実施例2を参照することができ、ここでは、その詳細な説明を省略する。   In this embodiment, the apparatus 1200 further includes an extraction unit 1206, which extracts a foreground image from the input image based on the updated background model. The specific implementation method can refer to the second embodiment, and detailed description thereof is omitted here.

図13は、本発明の実施例における画像処理装置のハードウェア構成図である。図13に示すように、画像処理装置1300は、1つのインターフェース(図示せず)、中央処理装置(CPU)1320、記憶器1310及び送受信器1340を含み、記憶器1310は、中央処理装置1320に接続される。そのうち、記憶器1310は、各種のデータを記憶することができ、また、さらに画像処理用のプログラムを記憶することができ、且つ中央処理装置1320の制御下で該プログラムを実行し、各種の所定の値及び所定の条件などを記憶することができる。   FIG. 13 is a hardware configuration diagram of the image processing apparatus according to the embodiment of the present invention. As shown in FIG. 13, the image processing apparatus 1300 includes one interface (not shown), a central processing unit (CPU) 1320, a storage unit 1310, and a transceiver 1340. The storage unit 1310 is connected to the central processing unit 1320. Connected. Among them, the storage device 1310 can store various types of data, can further store a program for image processing, and executes the program under the control of the central processing unit 1320. And a predetermined condition can be stored.

1つの実施方式では、画像処理装置1300の機能は、中央処理装置1320に集積することができる。そのうち、中央処理装置1320は、次のように構成されても良く、即ち、入力画像の検出領域の鮮明さに基づいて背景モデルの感度を計算し、該鮮明さが第一所定範囲内にあるときに、該感度は、該鮮明さと負の相関関係があり、該入力画像中の各画素に対して処理を行い、該背景モデルを更新し、そのうち、1つの画素に対して処理を行うときに、該1つの画素と、該背景モデル中で該1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、該1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、該1つの画素を1つのサンプル点に取り替えて該背景モデルを更新し、そのうち、該第一閾値は、該感度に基づいて確定され、該感度は、該第一閾値と負の線形相関関係がある。   In one implementation, the functionality of the image processing device 1300 can be integrated into the central processing unit 1320. Among them, the central processing unit 1320 may be configured as follows, that is, the sensitivity of the background model is calculated based on the sharpness of the detection area of the input image, and the sharpness is within the first predetermined range. When the sensitivity has a negative correlation with the sharpness, processing is performed on each pixel in the input image, the background model is updated, and processing is performed on one of the pixels Calculating a distance between the one pixel and each sample point of the background sample collection corresponding to the one pixel in the background model, and at least a first predetermined quantity If the distance to the sample point is less than or equal to a predetermined first threshold value, the background model is updated by replacing the one pixel with one sample point, and the first threshold value is determined based on the sensitivity. The sensitivity has a negative linear correlation with the first threshold. is there.

そのうち、中央処理装置1320は、次のように構成されても良く、即ち、少なくとも1つのフレーム(画像)シーケンスのうちから該入力画像を選択し、そのうち、該第一選択ユニットは、第二所定数量のフレームおきに1つのフレーム画像を該入力画像として選択する。   Among them, the central processing unit 1320 may be configured as follows, that is, the input image is selected from at least one frame (image) sequence, and the first selection unit includes a second predetermined unit. One frame image is selected as the input image every other number of frames.

そのうち、中央処理装置1320は、次のように構成されても良く、即ち、該入力画像の検出領域の鮮明さを計算し、該検出領域中画素の勾配の大きさの平均値を該鮮明さとする。   Among them, the central processing unit 1320 may be configured as follows, that is, calculate the sharpness of the detection area of the input image, and calculate the average value of the gradient magnitude of the pixels in the detection area as the sharpness. To do.

そのうち、中央処理装置1320は、次のように構成されても良く、即ち、該入力画像の検出領域中の各画素の勾配の大きさの和と、該入力画像の検出領域中の画素数との比を計算し、該比を該鮮明さとする。   Among them, the central processing unit 1320 may be configured as follows, that is, the sum of the gradient magnitudes of the pixels in the detection region of the input image, and the number of pixels in the detection region of the input image. And the ratio is defined as the sharpness.

そのうち、中央処理装置1320は、次のように構成されても良く、即ち、以下の式で該鮮明さを計算する。

Figure 2019531552
Among them, the central processing unit 1320 may be configured as follows, that is, calculate the sharpness by the following equation.
Figure 2019531552

そのうち、wは、該入力画像の検出領域の幅を示し、hは、該入力画像の検出領域の高さを表し、pixel_numは、該入力画像の検出領域中の画素点の個数を示し、Iは、画素値を表し、i及びjは、画素点の横縦座標を示す。   Among them, w represents the width of the detection area of the input image, h represents the height of the detection area of the input image, pixel_num represents the number of pixel points in the detection area of the input image, and I Represents a pixel value, and i and j represent the horizontal and vertical coordinates of the pixel point.

そのうち、中央処理装置1320は、次のように構成されても良く、即ち、該入力画像中の関心領域を選択し、将該関心領域を該検出領域とする。   Among them, the central processing unit 1320 may be configured as follows, that is, a region of interest in the input image is selected and the region of interest is generally used as the detection region.

該第一閾値と該感度との負の線形相関関係は、

Figure 2019531552
である。そのうち、Rは、該第一閾値を示し、Sは、該感度を表し、該第一閾値の数値範囲は、[a、b]である。 The negative linear correlation between the first threshold and the sensitivity is
Figure 2019531552
It is. Among them, R represents the first threshold, S represents the sensitivity, and the numerical range of the first threshold is [a, b].

そのうち、中央処理装置1320は、次のように構成されても良く、即ち、更新後の背景モデルに基づいて該入力画像から前景画像を抽出する。   Among them, the central processing unit 1320 may be configured as follows, that is, extract the foreground image from the input image based on the updated background model.

中央処理装置1320の具体的な実施方式は、実施例2を参照することができ、ここでは、その詳しい説明を省略する。   The specific implementation method of the central processing unit 1320 can refer to the second embodiment, and detailed description thereof is omitted here.

もう1つの実施方式では、上述の画像処理装置1300は、中央処理装置1320に接続されるチップ(図未せず)に構成され、中央処理装置1320の制御下で画像処理装置1300の機能を実現することもできる。   In another implementation, the above-described image processing apparatus 1300 is configured as a chip (not shown) connected to the central processing unit 1320, and realizes the functions of the image processing apparatus 1300 under the control of the central processing unit 1320. You can also

なお、画像処理装置1300は、必ずしも図13に示す全ての部品を含む必要がない。また、該画像処理装置1300は、さらに図13に無い部品を含んでも良く、これについては、従来技術を参照することができる。   Note that the image processing apparatus 1300 does not necessarily include all the components illustrated in FIG. Further, the image processing apparatus 1300 may further include parts not shown in FIG. 13, and the prior art can be referred to for this.

上述の実施例により、VIBEアルゴリズム中の背景モデルのために感度を定義し、そして、画像の鮮明さに基づいて該感度を調整し、これにより、前景検出の正確度を向上させ、画像が不鮮明によることが原因で完全な前景画像を抽出できない問題を避けることができる。   According to the above embodiment, the sensitivity is defined for the background model in the VIBE algorithm, and the sensitivity is adjusted based on the sharpness of the image, thereby improving the accuracy of foreground detection and blurring the image. This prevents the problem that a complete foreground image cannot be extracted due to the above.

本発明の実施例は、さらに、コンピュータ可読プログラムを提供し、そのうち、画像処理装置中で該プログラムを実行するときに、該プログラムは、コンピュータに、該画像処理装置中で実施例1、2又は3中の画像処理方法を実行させる。   Embodiments of the present invention further provide a computer readable program, of which when executing the program in an image processing apparatus, the program is stored in the image processing apparatus in the embodiment 1, 2 or The image processing method in 3 is executed.

本発明の実施例は、さらに、コンピュータ可読プログラムを記憶した記憶媒体を提供し、そのうち、該コンピュータ可読プログラムは、コンピュータに、画像処理装置中で実施例1、2又は3中の画像処理方法を実行させる。   The embodiment of the present invention further provides a storage medium storing a computer readable program, wherein the computer readable program is stored in the image processing apparatus in the image processing apparatus according to the first, second, or third embodiment. Let it run.

以上のユーザ装置及び方法は、ソフトウェア又はハードウェアにより実現されても良く、ハードウェアとソフトウェアとの組み合わせにより実現されても良い。本発明は、さらに、次のようなコンピュータ読み取り可能なプログラムに関し、即ち、該プログラムは、ロジック部品により実行されるときに、該ロジック部品に、上述のユーザ装置又は構造部品を実現させ、又は、該ロジック部品に、上述の各種の方法又はステップを実現させる。ロジック部品は、例えば、FPGA(Field Programmable Gate Array)、マイクロプロセッサ、コンピュータに用いる処理器などであっても良い。本発明は、さらに、上述のプログラムを記憶した記憶媒体、例えば、ハードディスク、磁気ディスク、光ハードディスク、DVD、フラッシュメモリなどにも関する。   The above user apparatus and method may be realized by software or hardware, or may be realized by a combination of hardware and software. The present invention further relates to the following computer-readable program, that is, when the program is executed by a logic component, causes the logic component to realize the above-described user device or structural component, or The logic component is made to implement the various methods or steps described above. The logic component may be, for example, an FPGA (Field Programmable Gate Array), a microprocessor, or a processor used in a computer. The present invention further relates to a storage medium storing the above-mentioned program, for example, a hard disk, a magnetic disk, an optical hard disk, a DVD, a flash memory, and the like.

また、図面に記載の機能ブロックのうちの1つ又は複数の組み合わせ及び/又は機能ブロックの1つ又は複数の組み合わせは、本願に記載の機能を実行するための汎用処理器、デジタル信号処理器(DSP)、専用集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)又は他のプログラム可能な論理部品、ディスクリートゲート又はトランジスタ論理部品、ディスクリートハードウェアアセンブリ又は他の任意の適切な組む合わせとして実現されても良い。また、図面に記載の機能ブロックのうちの1つ又は複数の組み合わせ及び/又は機能ブロックの1つ又は複数の組み合わせは、さらに、計算装置の組み合わせ、例えば、DSP及びマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPと通信により接続される1つ又は複数のマイクロプロセッサ又は他の任意のこのような構成として構成されても良い。   Further, one or more combinations of functional blocks described in the drawings and / or one or more combinations of functional blocks include a general-purpose processor, a digital signal processor ( Realized as a DSP), dedicated integrated circuit (ASIC), field programmable gate array (FPGA) or other programmable logic component, discrete gate or transistor logic component, discrete hardware assembly or any other suitable combination Also good. In addition, one or more combinations of functional blocks and / or one or more combinations of functional blocks described in the drawings may further include combinations of computing devices such as combinations of DSPs and microprocessors, It may be configured as a processor, one or more microprocessors connected by communication with a DSP, or any other such configuration.

以上、本発明の好ましい実施形態を説明したが、本発明はこのような実施形態に限定されず、本発明の趣旨を離脱しない限り、本発明に対するあらゆる変更は本発明の技術的範囲に属する。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to such embodiment, As long as it does not remove | deviate from the meaning of this invention, all the changes with respect to this invention belong to the technical scope of this invention.

Claims (18)

画像処理装置であって、
入力画像の検出領域の鮮明さに基づいて背景モデルの感度を計算する第一計算ユニットであって、前記鮮明さが第一所定範囲内にあるときに、前記感度は、前記鮮明さと負の相関関係を有する第一計算ユニット;及び
前記入力画像中の各画素に対して処理を行い、前記入力画像の前景画像を検出する第一処理ユニットであって、1つの画素に対して処理を行うときに、前記1つの画素と、前記背景モデル中で前記1つの画素に対応する背景サンプル集のうちの各サンプル点と間の距離を計算し、前記1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、前記1つの画素を前記入力画像中の背景画素と確定し、そうでない場合、前景画素と確定する第一処理ユニット、或いは
前記入力画像中の各画素に対して処理を行い、前記背景モデルを更新する第一処理ユニットであって、1つの画素に対して処理を行うときに、前記1つの画素と、前記背景モデル中で前記1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、前記1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、前記1つの画素を1つのサンプル点に取り替えて前記背景モデルを更新する第一処理ユニットを含み、
前記第一閾値は、前記感度に基づいて確定され、前記感度は、前記第一閾値と負の線形相関関係を有する、装置。
An image processing apparatus,
A first calculation unit for calculating a sensitivity of a background model based on a sharpness of a detection area of an input image, wherein the sensitivity is negatively correlated with the sharpness when the sharpness is within a first predetermined range; A first calculation unit having a relationship; and a first processing unit that performs processing on each pixel in the input image and detects a foreground image of the input image, and performs processing on one pixel And calculating a distance between the one pixel and each sample point of the background sample collection corresponding to the one pixel in the background model, and at least a first predetermined quantity of the one pixel. A first processing unit that determines the one pixel as a background pixel in the input image if the distance to the sample point is equal to or less than a predetermined first threshold; otherwise, determines the foreground pixel; or the input image Each inside A first processing unit that performs processing on an element and updates the background model. When performing processing on one pixel, the one pixel and the one pixel in the background model Calculating a distance between each sample point of the corresponding background sample collection, and when a distance between the one pixel and at least a first predetermined number of sample points is equal to or less than a predetermined first threshold, A first processing unit that updates the background model by replacing one pixel with one sample point;
The apparatus wherein the first threshold is determined based on the sensitivity, the sensitivity having a negative linear correlation with the first threshold.
請求項1に記載の装置であって、
少なくとも1つのフレームシーケンスから前記入力画像を選択する第一選択ユニットをさらに含み、
前記第一選択ユニットは、第二所定数量個のフレームおきに、1つのフレームを前記入力画像として選択する、装置。
The apparatus of claim 1, wherein
A first selection unit for selecting the input image from at least one frame sequence;
The first selection unit selects one frame as the input image every second predetermined number of frames.
請求項1に記載の装置であって、
前記入力画像の検出領域の鮮明さを計算し、前記検出領域中の画素の勾配の大きさの平均値を前記鮮明さとする第二計算ユニットをさらに含む、装置。
The apparatus of claim 1, wherein
The apparatus further includes a second calculation unit that calculates a sharpness of a detection area of the input image and sets an average value of gradient magnitudes of pixels in the detection area as the sharpness.
請求項3に記載の装置であって、
前記第二計算ユニットは、前記入力画像の検出領域中の各画素の勾配の大きさの和と、前記入力画像の検出領域中の画素数との比を計算し、前記比を前記鮮明さとする第二計算ユニットをさらに含む、装置。
The apparatus according to claim 3, wherein
The second calculation unit calculates a ratio between the sum of the gradient magnitudes of the pixels in the detection area of the input image and the number of pixels in the detection area of the input image, and sets the ratio as the sharpness. The apparatus further comprising a second calculation unit.
請求項3に記載の装置であって、
前記第二算ユニットは、
Figure 2019531552

に基づいて前記鮮明さを計算し、
ここで、wは、前記入力画像の検出領域の幅を示し、hは、前記入力画像の検出領域の高さを示し、pixel_numは、前記入力画像の検出領域中の画素数を示し、Iは、画素値を示し、i及びjは、画素点の横縦座標を示す、装置。
The apparatus according to claim 3, wherein
The second arithmetic unit is
Figure 2019531552

Calculating the sharpness based on
Here, w represents the width of the detection area of the input image, h represents the height of the detection area of the input image, pixel_num represents the number of pixels in the detection area of the input image, and I represents Indicates the pixel value, i and j indicate the abscissa of the pixel point.
請求項1に記載の装置であって、
前記入力画像中の関心領域を選択し、前記関心領域を前記検出領域とする第二選択ユニットをさらに含む、装置。
The apparatus of claim 1, wherein
The apparatus further includes a second selection unit that selects a region of interest in the input image and uses the region of interest as the detection region.
請求項1に記載の装置であって、
前記第一閾値と前記感度との負の線形相関関係は、
Figure 2019531552

であり、
ここで、Rは、前記第一閾値を示し、Sは、前記感度を示し、前記第一閾値の数値範囲は、[a、b]である、装置。
The apparatus of claim 1, wherein
The negative linear correlation between the first threshold and the sensitivity is
Figure 2019531552

And
Here, R represents the first threshold, S represents the sensitivity, and the numerical range of the first threshold is [a, b].
請求項1に記載の装置であって、
前記第一処理ユニットが前記入力画像の前景画像を検出するときに、前記装置は、前記背景モデルを更新する更新ユニットをさらに含み、
前記第一処理ユニットが前記背景モデルを更新するときに、前記装置は、更新後の背景モデルに基づいて前記入力画像から前景画像を抽出する抽出ユニットをさらに含む、装置。
The apparatus of claim 1, wherein
When the first processing unit detects a foreground image of the input image, the apparatus further comprises an update unit for updating the background model;
The apparatus further includes an extraction unit that extracts a foreground image from the input image based on the updated background model when the first processing unit updates the background model.
請求項8に記載の装置であって、
前記更新ユニットは、前記第一処理ユニットの処理結果に基づいて前記背景モデルを更新し、及び/又は、前記第一処理ユニットの処理結果に基づいて前記第一閾値を更新する、装置。
The apparatus according to claim 8, wherein
The update unit updates the background model based on the processing result of the first processing unit and / or updates the first threshold value based on the processing result of the first processing unit.
画像処理方法であって、
入力画像の検出領域の鮮明さに基づいて背景モデルの感度を計算し、前記鮮明さが第一所定範囲内にあるときに、前記感度は、前記鮮明さと負の相関関係を有し;及び
前記入力画像中の各画素に対して処理を行い、前記入力画像の前景画像を検出し、1つの画素に対して処理を行うときに、前記1つの画素と、前記背景モデル中で前記1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、前記1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、前記1つの画素を前記入力画像中の背景画素と確定し、そうでない場合、前景画素と確定し、
或いは、前記入力画像中の各画素に対して処理を行い、前記背景モデルを更新し、1つの画素に対して処理を行うときに、前記1つの画素と、前記背景モデル中で前記1つの画素に対応する背景サンプル集のうちの各サンプル点との間の距離を計算し、前記1つの画素と、少なくとも第一所定数量個のサンプル点との距離が所定の第一閾値以下である場合、前記1つの画素を1つのサンプル点に取り替えて前記背景モデルを更新することを含み、
前記第一閾値は、前記感度に基づいて確定され、前記感度は、前記第一閾値と負の線形相関関係がある、方法。
An image processing method comprising:
Calculating the sensitivity of the background model based on the sharpness of the detection area of the input image, and when the sharpness is within a first predetermined range, the sensitivity has a negative correlation with the sharpness; and When each pixel in the input image is processed, a foreground image of the input image is detected, and one pixel is processed, the one pixel and the one pixel in the background model When the distance between each sample point of the background sample collection corresponding to is calculated and the distance between the one pixel and at least the first predetermined number of sample points is equal to or less than a predetermined first threshold value, Determining the one pixel as a background pixel in the input image, otherwise determining as a foreground pixel;
Alternatively, when processing is performed on each pixel in the input image, the background model is updated, and processing is performed on one pixel, the one pixel and the one pixel in the background model are processed. When the distance between each sample point of the background sample collection corresponding to is calculated and the distance between the one pixel and at least the first predetermined number of sample points is equal to or less than a predetermined first threshold value, Updating the background model by replacing the one pixel with one sample point;
The method, wherein the first threshold is determined based on the sensitivity, and the sensitivity has a negative linear correlation with the first threshold.
請求項10に記載の方法であって、
少なくとも1つのフレームシーケンスから前記入力画像を選択することであって、第二所定数量個のフレームおきに、1つのフレームを前記入力画像として選択することをさらに含む、方法。
A method according to claim 10, comprising
Selecting the input image from at least one frame sequence, further comprising selecting one frame as the input image every second predetermined number of frames.
請求項10に記載の方法であって、
前記入力画像の検出領域の鮮明さを計算し、前記検出領域中の画素の勾配の大きさの平均値を前記鮮明さとすることをさらに含む、方法。
A method according to claim 10, comprising
The method further includes calculating a sharpness of a detection area of the input image and setting an average value of gradient magnitudes of pixels in the detection area as the sharpness.
請求項12に記載の方法であって、
前記入力画像の検出領域中の各画素の勾配の大きさの和と、前記入力画像の検出領域中の画素数との比を計算し、前記比を前記鮮明さとする、方法。
A method according to claim 12, comprising
A method of calculating a ratio between a sum of gradient magnitudes of pixels in the detection area of the input image and the number of pixels in the detection area of the input image, and setting the ratio as the sharpness.
請求項12に記載の方法であって、
Figure 2019531552

に基づいて前記鮮明さを計算し、
ここで、wは、前記入力画像の検出領域の幅を示し、hは、前記入力画像の検出領域の高さを示し、pixel_numは、前記入力画像の検出領域中の画素数を示し、Iは、画素値示し、i及びjは、画素点の横縦座標を示す、方法。
A method according to claim 12, comprising
Figure 2019531552

Calculating the sharpness based on
Here, w represents the width of the detection area of the input image, h represents the height of the detection area of the input image, pixel_num represents the number of pixels in the detection area of the input image, and I represents The pixel value, i and j indicate the abscissa of the pixel point.
請求項10に記載の方法であって、
前記入力画像中の関心領域を選択し、前記関心領域を前記検出領域とすることをさらに含む、方法。
A method according to claim 10, comprising
The method further comprises selecting a region of interest in the input image and making the region of interest the detection region.
請求項10に記載の方法であって、
前記第一閾値と前記感度との負の線形相関関係は、
Figure 2019531552

であり、
ここで、Rは、前記第一閾値を示し、Sは、前記感度を示し、前記第一閾値の数値範囲は、[a、b]である、方法。
A method according to claim 10, comprising
The negative linear correlation between the first threshold and the sensitivity is
Figure 2019531552

And
Here, R represents the first threshold, S represents the sensitivity, and the numerical range of the first threshold is [a, b].
請求項10に記載の方法であって、
前記入力画像中の各画素に対して処理を行い、前記入力画像の前景画像を検出するときに、前記方法は、前記背景モデルを更新することをさらに含み、
前記入力画像中の各画素に対して処理を行い、前記背景モデルを更新するときに、前記方法は、更新後の背景モデルに基づいて前記入力画像から前景画像を抽出することをさらに含む、方法。
A method according to claim 10, comprising
When processing each pixel in the input image and detecting a foreground image of the input image, the method further comprises updating the background model;
When processing each pixel in the input image and updating the background model, the method further includes extracting a foreground image from the input image based on the updated background model. .
請求項17に記載の方法であって、
前記入力画像に対しての処理結果に基づいて前記背景モデルを更新し、及び/又は、前記入力画像に対して処理結果に基づいて前記第一閾値を更新する、方法。
The method of claim 17, comprising
Updating the background model based on a processing result for the input image and / or updating the first threshold based on the processing result for the input image;
JP2019518041A 2016-10-14 2016-10-14 Image processing method and equipment Active JP6835215B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2016/102120 WO2018068300A1 (en) 2016-10-14 2016-10-14 Image processing method and device

Publications (2)

Publication Number Publication Date
JP2019531552A true JP2019531552A (en) 2019-10-31
JP6835215B2 JP6835215B2 (en) 2021-02-24

Family

ID=61906103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019518041A Active JP6835215B2 (en) 2016-10-14 2016-10-14 Image processing method and equipment

Country Status (3)

Country Link
JP (1) JP6835215B2 (en)
CN (1) CN109478329B (en)
WO (1) WO2018068300A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3800615A1 (en) * 2019-10-01 2021-04-07 Axis AB Method and device for image analysis
CN111062273B (en) * 2019-12-02 2023-06-06 青岛联合创智科技有限公司 Method for tracing, detecting and alarming remaining articles
CN111626188B (en) * 2020-05-26 2022-05-06 西南大学 Indoor uncontrollable open fire monitoring method and system
CN114205642B (en) * 2020-08-31 2024-04-26 北京金山云网络技术有限公司 Video image processing method and device
CN112258467A (en) * 2020-10-19 2021-01-22 浙江大华技术股份有限公司 Method and device for detecting image definition and storage medium
CN112508898A (en) * 2020-11-30 2021-03-16 北京百度网讯科技有限公司 Method and device for detecting fundus image and electronic equipment
CN113505737A (en) * 2021-07-26 2021-10-15 浙江大华技术股份有限公司 Foreground image determination method and apparatus, storage medium, and electronic apparatus
CN113808154A (en) * 2021-08-02 2021-12-17 惠州Tcl移动通信有限公司 Video image processing method and device, terminal equipment and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE458231T1 (en) * 2007-07-08 2010-03-15 Univ Liege VISUAL BACKGROUND EXTRACTOR
CN103971386B (en) * 2014-05-30 2017-03-15 南京大学 A kind of foreground detection method under dynamic background scene
CN104392468B (en) * 2014-11-21 2017-08-04 南京理工大学 Based on the moving target detecting method for improving visual background extraction
CN105894534B (en) * 2016-03-25 2018-07-17 中国传媒大学 A kind of improvement moving target detecting method based on ViBe

Also Published As

Publication number Publication date
CN109478329B (en) 2021-04-20
CN109478329A (en) 2019-03-15
WO2018068300A1 (en) 2018-04-19
JP6835215B2 (en) 2021-02-24

Similar Documents

Publication Publication Date Title
JP2019531552A (en) Image processing method and apparatus
CN110084095B (en) Lane line detection method, lane line detection apparatus, and computer storage medium
US11138444B2 (en) Methods and devices for processing images of a traffic light
JP6620888B2 (en) Smoke detection apparatus, method and image processing apparatus
CN105184763B (en) Image processing method and device
US10291931B2 (en) Determining variance of a block of an image based on a motion vector for the block
CN107292828B (en) Image edge processing method and device
WO2017096946A1 (en) Method and device for locating high-frequency information of image
JP6809613B2 (en) Image foreground detection device, detection method and electronic equipment
RU2014127535A (en) AUTOMATION OF ANALYSIS OF THE IMAGE
JP6679858B2 (en) Method and apparatus for detecting occlusion of an object
KR20220139292A (en) Character segmentation method, apparatus and computer readable storage medium
WO2017185772A1 (en) Method and device for video image enhancement and computer storage medium
CN110708568B (en) Video content mutation detection method and device
US20140056519A1 (en) Method, apparatus and system for segmenting an image in an image sequence
JP2013004089A (en) Image processing method, image processor and scanner
CN110599453A (en) Panel defect detection method and device based on image fusion and equipment terminal
CN102005051A (en) Edge detection method and related device
Dong et al. Detecting soft shadows in a single outdoor image: From local edge-based models to global constraints
WO2017028047A1 (en) Background model extracting method and apparatus and image processing device
JP6198114B2 (en) Image processing program, image processing method, and image processing apparatus
US9659220B2 (en) Method and apparatus for updating scene model and video surveillance
Qi et al. Cascaded cast shadow detection method in surveillance scenes
CN116310889A (en) Unmanned aerial vehicle environment perception data processing method, control terminal and storage medium
US9613427B2 (en) Information processing method and electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210118

R150 Certificate of patent or registration of utility model

Ref document number: 6835215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150