JPH0652311A - Image processing method - Google Patents
Image processing methodInfo
- Publication number
- JPH0652311A JPH0652311A JP4204684A JP20468492A JPH0652311A JP H0652311 A JPH0652311 A JP H0652311A JP 4204684 A JP4204684 A JP 4204684A JP 20468492 A JP20468492 A JP 20468492A JP H0652311 A JPH0652311 A JP H0652311A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- data
- pixels
- absolute value
- background image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、所定の周期で対象領域
の画像データをサンプリングして、その画像データに基
づいて前記対象領域に存在する移動体を識別する画像処
理方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method for sampling image data of a target area at a predetermined cycle and identifying a moving object existing in the target area based on the image data.
【0002】[0002]
【従来の技術】一般に動画像処理は、サンプリングされ
た画像データ間の差分処理を用いて行われるが、代表的
には以下の二方法がある。第一の方法は、図6に示すよ
うに、予め移動体の存在しない状態で基準となる背景画
像を撮影しておき、その背景画像データと現在の入力画
像データとの各画素毎の輝度値の絶対値差分データを導
出して、得られた絶対値差分データが所定の閾値よりも
大となる画素で形成される領域を移動体として識別する
方法である。第二の方法は、図7に示すように、現在の
入力画像データと1フレーム前の入力画像データとの各
画素毎の輝度値の絶対値差分データを導出して、得られ
た絶対値差分データが所定の閾値よりも大となる画素で
形成される領域を移動体として識別する方法である。2. Description of the Related Art Generally, moving image processing is performed by using difference processing between sampled image data, but typically, there are the following two methods. In the first method, as shown in FIG. 6, a reference background image is captured in advance in the absence of a moving object, and the brightness value of each pixel of the background image data and the current input image data is acquired. Of the absolute value difference data is identified, and a region formed by pixels in which the obtained absolute value difference data is larger than a predetermined threshold value is identified as a moving body. The second method is, as shown in FIG. 7, deriving absolute value difference data of the brightness value for each pixel between the current input image data and the input image data one frame before, and obtaining the obtained absolute value difference. This is a method of identifying a region formed by pixels whose data is larger than a predetermined threshold value as a moving body.
【0003】[0003]
【発明が解決しようとする課題】上述の第一の方法は、
処理が簡単であり、移動体が途中で静止した場合でも識
別できるという利点があるが、背景の明るさがある程度
大きく変化するとその度に背景画像を切り替えない限り
正確な識別が困難になるという欠点や、常に何らかの移
動体が対象領域に存在する場合には背景画像データの入
力ができないといった欠点があり、結局、対象領域で移
動体が存在しない時期を確実に確保でき、ほぼ一定の明
るさが確保できる場所でしか用いることができず、特に
環境変化の著しい野外での適用は殆どできないものであ
った。又、第二の方法は、明るさ等の環境変化の影響を
受けることはないが、画像データのサンプリング周期内
で移動体が高速に或いは極低速に移動した場合には正確
に検出できないことがあるという欠点があった。例え
ば、前記サンプリング周期内での移動体の移動距離が極
めて短い場合には比較する画像間で移動体が重なり輪郭
が正確に検出できないという問題や、移動距離が極めて
大きい場合には単一の移動体であっても移動体と認識さ
れる部分が複数箇所検出されてしまうことになるのであ
る。本発明の目的は上述した従来欠点を解消する点にあ
る。The first method described above is
It has the advantage that it is easy to process and can be identified even when the moving object is stationary in the middle, but it has the disadvantage that if the background brightness changes to a certain extent, accurate identification is difficult unless the background image is switched each time. In addition, there is a drawback that the background image data cannot be input if any moving object is always present in the target area. It could only be used in places where it could be secured, and it was almost impossible to apply it in the open air, where the environment changed significantly. Further, the second method is not affected by environmental changes such as brightness, but it cannot be accurately detected when the moving body moves at high speed or extremely low speed within the sampling period of the image data. There was a drawback. For example, when the moving distance of the moving body within the sampling period is extremely short, the moving bodies overlap between images to be compared and the contour cannot be accurately detected, and when the moving distance is extremely large, a single movement is performed. Even in the case of a body, a plurality of parts recognized as a moving body will be detected. An object of the present invention is to eliminate the above-mentioned conventional drawbacks.
【0004】[0004]
【課題を解決するための手段】この目的を達成するため
本発明による画像処理方法の特徴構成は、n回目(nは
整数)のサンプリング画像データとn+1回目のサンプ
リング画像データ間の各画素毎の輝度値の絶対値差分デ
ータを導出して、前記絶対値差分データが所定の閾値よ
りも小となる画素で形成される領域のサンプリング画像
データを静止画像データとして認識する第一ステップ
と、前記第一ステップの反復に伴い、m回連続して前記
静止画像データとして認識された画素で形成される領域
のサンプリング画像データを背景画像データとして認識
する第二ステップと、前記対象領域の背景画像データと
して認識されていない画素数が所定の画素数より小とな
った後に、前記背景画像データとサンプリング画像デー
タ間の各画素毎の輝度値の絶対値差分データを導出し
て、前記絶対値差分データが所定の閾値よりも大となる
画素で形成される領域を移動体として識別する第三ステ
ップとからなるところにある。上述の構成において、前
記第二ステップにおける背景画像データとして認識され
る背景画像データは、最新にサンプリングされた画像デ
ータとすることが好ましい。To achieve this object, the image processing method according to the present invention is characterized in that each pixel between the nth sampling image data (n is an integer) and the (n + 1) th sampling image data is A first step of deriving absolute value difference data of luminance values and recognizing sampling image data of a region formed by pixels in which the absolute value difference data is smaller than a predetermined threshold value as still image data; With the repetition of one step, the second step of recognizing the sampling image data of the area formed by the pixels recognized as the still image data continuously m times as the background image data and the background image data of the target area After the number of unrecognized pixels becomes smaller than a predetermined number of pixels, the brightness of each pixel between the background image data and the sampled image data is increased. Derive the absolute difference value data, there is to the said absolute value difference data is composed of the third step of identifying a region formed by the pixel to be larger than a predetermined threshold as the moving body. In the above-mentioned configuration, it is preferable that the background image data recognized as the background image data in the second step is the latest sampled image data.
【0005】[0005]
【作用】第一ステップでは、時間が近接してサンプリン
グされた画像データ間の各画素毎の輝度値の絶対値差分
データに対して、所定の閾値より大となる画素で形成さ
れる領域を何らかの移動体の移動による変化領域として
認識する一方、所定の閾値より小となる画素で形成され
る領域を背景画像となりうる候補領域として認識し、そ
の候補領域のサンプリング画像データを静止画像データ
として認識する。第二ステップでは、前記第一ステップ
の反復に伴い、前記静止画像データとして認識された画
素で形成される領域、即ち背景画像となりうる候補領域
にm回連続して認識された時にその領域のサンプリング
画像データを背景画像データとして認識することで、移
動体の移動に伴うノイズをキャンセルする。第三ステッ
プでは、前記第一及び第二ステップを繰り返すことによ
り、前記対象領域の背景画像データとして認識されてい
ない画素数が所定の画素数より小となった後に、前記背
景画像データとサンプリング画像データ間の各画素毎の
輝度値の絶対値差分データを導出して、前記絶対値差分
データが所定の閾値よりも大となる画素で形成される領
域を移動体として識別するのである。この時に、前記第
二ステップにおける背景画像データとして認識される背
景画像データに、最新にサンプリングされた画像データ
を採用すれば、背景の明るさが次第に変化してゆく場合
であっても確実に移動体との識別ができる。In the first step, an area formed by pixels having a value larger than a predetermined threshold value with respect to the absolute value difference data of the brightness value of each pixel between the image data sampled close to each other in time is set. While recognizing as a change area due to the movement of the moving body, an area formed of pixels smaller than a predetermined threshold is recognized as a candidate area that can be a background image, and the sampling image data of the candidate area is recognized as still image data. . In the second step, as the first step is repeated, a region formed by the pixels recognized as the still image data, that is, a candidate region that can be a background image is sampled when the region is continuously recognized m times. By recognizing the image data as the background image data, the noise accompanying the movement of the moving body is canceled. In the third step, by repeating the first and second steps, after the number of pixels not recognized as the background image data of the target area becomes smaller than a predetermined number of pixels, the background image data and the sampling image The absolute value difference data of the brightness value for each pixel between the data is derived, and the area formed by the pixels in which the absolute value difference data is larger than a predetermined threshold value is identified as a moving body. At this time, if the latest sampled image data is adopted as the background image data recognized as the background image data in the second step, even if the background brightness gradually changes, the background image data will surely move. Can be distinguished from the body.
【0006】[0006]
【発明の効果】本発明によれば、入力画像データから移
動体を識別するために比較に用いる基準画像としての背
景画像データを過去の入力画像データを基にして入力の
度に更新するので、移動体が常に入力画像に存在する場
合であっても、自動的にしかも確実に背景画像を作成で
き、さらには、移動体の移動速度にかかわらず移動体の
輪郭を確実に抽出できる画像処理方法を提供できるよう
になった。又、前記第二ステップにおける背景画像デー
タとして認識される背景画像データに、最新にサンプリ
ングされた画像データを採用すれば、背景の明るさが次
第に変化してゆく場合であってもその環境変化に柔軟に
対応してその変化の後の背景画像を自動的にしかも確実
に作成できる画像処理方法を提供できるようになった。According to the present invention, the background image data as the reference image used for comparison for identifying the moving object from the input image data is updated each time the input is made based on the past input image data. An image processing method capable of automatically and reliably creating a background image even when a moving body is always present in the input image, and further reliably extracting the contour of the moving body regardless of the moving speed of the moving body. Is now available. Further, if the latest sampled image data is adopted as the background image data recognized as the background image data in the second step, even if the background brightness gradually changes, it is possible to avoid environmental changes. It has become possible to provide an image processing method that can flexibly deal with the background image after the change automatically and surely.
【0007】[0007]
【実施例】以下に実施例を説明する。図1に示すよう
に、撮像手段1により撮影された対象領域の画像データ
が、画像処理手段2としてのコンピュータに入力され、
コンピュータ上での画像処理により識別された移動体が
二値画像として表されたデータが、表示手段3としての
CRTに出力されるように画像処理システムを構成して
ある。このような画像処理システムは、撮像手段1によ
り撮影された画像データから各種の情報を抽出して、そ
の情報に基づいて何らかの処理を自動的に行う目的で構
成されるもので、撮像手段1自体を特定目的を達成する
ための広範囲のセンシングデバイスとして用いる分野に
有用である。EXAMPLES Examples will be described below. As shown in FIG. 1, the image data of the target area photographed by the image pickup means 1 is input to a computer as the image processing means 2,
The image processing system is configured so that the data in which the moving body identified by the image processing on the computer is represented as a binary image is output to the CRT as the display unit 3. Such an image processing system is configured for the purpose of extracting various kinds of information from image data taken by the image pickup means 1 and automatically performing some processing based on the information. Is useful as a wide range of sensing devices for achieving specific purposes.
【0008】前記画像処理手段2は、以下に説明する複
数の半導体メモリで構成される記憶手段2aとしての複
数の画面と、それら画面間で各画素毎の演算を行う演算
手段2b、処理に必要なデータ(二値化処理等に用いる
複数の閾値やサンプリング時間データ等)を格納するデ
ータ記憶手段等2cを備えて構成してある。The image processing means 2 is necessary for processing, a plurality of screens as a storage means 2a composed of a plurality of semiconductor memories described below, a calculation means 2b for calculating each pixel between the screens. Data storage means 2c for storing various data (a plurality of threshold values used for binarization processing, sampling time data, etc.).
【0009】前記記憶手段2aは、撮像手段1から入力
された1フレームの全画像データを画素毎に格納する単
位領域としての複数の画面で構成され、現在の画像デー
タを格納する入力画面と、フレーム間での移動体の挙動
を表すデータを格納する動き検出画面と、フレーム内の
背景を表す画像データを格納する基準画面と、移動体を
検出する移動体抽出画面と、前記演算手段2bによる演
算に用いられる複数のワーク画面とで構成してあり、最
終的には、基準画面と入力画面の各画素毎の輝度値の絶
対値差分データを導出して、前記絶対値差分データが所
定の閾値よりも大となる画素で形成される領域を移動体
として識別し、その閾値で二値化されたデータを移動体
抽出画面に格納し、その移動体抽出画面に格納されたデ
ータを前記CRTに出力するものである。The storage means 2a is composed of a plurality of screens as a unit area for storing all the image data of one frame input from the image pickup means 1 for each pixel, and an input screen for storing the current image data, A motion detection screen for storing data representing the behavior of the moving body between frames, a reference screen for storing image data representing the background in the frame, a moving body extraction screen for detecting the moving body, and the calculation means 2b. It is composed of a plurality of work screens used for the calculation, and finally, the absolute value difference data of the brightness value for each pixel of the reference screen and the input screen is derived, and the absolute value difference data has a predetermined value. A region formed by pixels larger than a threshold is identified as a moving body, data binarized by the threshold is stored in the moving body extraction screen, and the data stored in the moving body extraction screen is stored in the CRT. And outputs.
【0010】以下に前記画像処理手段2による画像処理
方法について説明する。図2から図5に示すように、時
間T=1からΔt時間毎のサンプリング画像データを入
力する映像入力画面、画像処理により検出された移動体
の動きを表す動き検出画面、背景画像を表す基準画面、
移動体を表す移動体抽出画面に対して、演算手段2bに
より以下の演算が行われる。先ず、動き検出画面の全画
素を00Hに初期設定して(図2,T=1)、前記撮像
手段1により得られた画像データを所定の周期(時間Δ
t間隔)でサンプリングして入力画面に格納する。(そ
の際に、その入力画面に格納されている前回の画像デー
タをワーク画面Aにセーブしておく。)An image processing method by the image processing means 2 will be described below. As shown in FIG. 2 to FIG. 5, a video input screen for inputting sampling image data at every Δt time from time T = 1, a motion detection screen showing the motion of the moving body detected by the image processing, and a reference representing the background image. screen,
The following calculation is performed by the calculating means 2b on the moving body extraction screen representing the moving body. First, all pixels of the motion detection screen are initially set to 00H (T = 1 in FIG. 2), and the image data obtained by the image pickup means 1 is subjected to a predetermined cycle (time Δ).
Sampling at t intervals) and storing in the input screen. (At that time, the previous image data stored in the input screen is saved in the work screen A.)
【0011】第一のステップについて説明する。前回の
サンプリング画像データと今回のサンプリング画像デー
タに対して、各画素毎にその画素の輝度値の絶対値差分
データを導出する。そして、絶対値差分データを所定の
閾値で二値化してワーク画面B(図示せず)にセーブす
る。つまり、絶対値差分データが大であれば、その画素
について何らかの変化があったとみなし、ワーク画面B
上で所定の閾値よりも大となる画素で形成される領域を
00Hにセットして動き画像領域として認識する。一
方、絶対値差分データが小であれば、その画素について
は何らの変化もなかったとみなし、ワーク画面B上で前
記所定の閾値よりも小となる画素で形成される領域を0
FFHにセットして静止画像領域として認識するととも
に、その領域のサンプリング画像データを静止画像デー
タとして認識する。前記動き検出画面の各画素毎に8ビ
ットカウンタを持たせて、静止画像領域と認識された領
域に対応する領域の画素をインクリメントするととも
に、動き画像領域と認識された領域に対応する領域の画
素を00Hに設定する。つまり、00Hに初期設定され
た動き検出画面の各画素が8ビットカウンタとなる。The first step will be described. The absolute value difference data of the luminance value of the pixel is derived for each pixel from the previous sampled image data and the current sampled image data. Then, the absolute value difference data is binarized with a predetermined threshold value and saved in the work screen B (not shown). That is, if the absolute value difference data is large, it is considered that some change has occurred in the pixel, and the work screen B
An area formed by pixels having a value larger than the predetermined threshold value is set to 00H and recognized as a moving image area. On the other hand, if the absolute value difference data is small, it is considered that the pixel has not changed at all, and the area formed by the pixels on the work screen B smaller than the predetermined threshold value is set to 0.
It is set to FFH and recognized as a still image area, and the sampled image data in that area is recognized as still image data. An 8-bit counter is provided for each pixel of the motion detection screen to increment pixels in a region corresponding to a region recognized as a still image region and pixels in a region corresponding to a region recognized as a motion image region. Is set to 00H. That is, each pixel of the motion detection screen initially set to 00H becomes an 8-bit counter.
【0012】第二のステップについて説明する。上述し
た第一ステップの反復に伴い、動き検出画面の各画素に
は、連続して静止画像領域と認識された各画素のカウン
タ値が設定される(動き領域と認識される毎に00Hと
なる)ことになり、所定のカウント値(ここでは03H
とする)より大となった画素に対応する領域のサンプリ
ング画像データを背景画像データとして認識するととも
に、その背景画像データを基準画面にセーブする(図
2,T=3以降、例えばT=3では、人影を表す黒い部
分以外の部分が背景画像データを意味する)。The second step will be described. With the repetition of the first step described above, the counter value of each pixel continuously recognized as the still image area is set to each pixel of the motion detection screen (it becomes 00H each time the motion area is recognized). ), A predetermined count value (here, 03H
The sampling image data of the area corresponding to the larger pixel is recognized as the background image data, and the background image data is saved in the reference screen (in FIG. 2, T = 3 and thereafter, for example, T = 3. , The background image data means the part other than the black part that represents the figure).
【0013】第三のステップについて説明する。対象領
域の背景画像データとして認識されていない画素が所定
の画素数より小さくなると(図3,T=6における基準
画面)、その後移動体の抽出が可能となる。つまり、前
記背景画像データと最新のサンプリング画像データ間の
各画素毎の輝度値の絶対値差分データを導出して、その
絶対値差分データが所定の閾値より大となる領域が移動
体の領域と認識して、その閾値で二値化して移動体抽出
画面にセーブする。移動体抽出画面にセーブされたデー
タがCRTに出力される。The third step will be described. When the number of pixels that are not recognized as the background image data of the target area becomes smaller than a predetermined number of pixels (reference screen in FIG. 3, T = 6), the moving body can be extracted thereafter. That is, the absolute value difference data of the brightness value for each pixel between the background image data and the latest sampling image data is derived, and the area where the absolute value difference data is larger than a predetermined threshold is the area of the moving body. It recognizes and binarizes it with the threshold value, and saves it in the moving object extraction screen. The data saved on the moving object extraction screen is output to the CRT.
【0014】その後、動き検出画面で何らかの動きが検
出されてその領域の画素のカウンタ値が00Hにリセッ
トされると、それから以降、それらのカウンタのうちで
新たにその値が03Hとなるまでは、従来の背景画像デ
ータを用いて動き検出を行い、03Hとなれば、その画
素に対応する領域の最新のサンプリング画像データを新
たな背景画像データとして更新する。After that, when some motion is detected on the motion detection screen and the counter value of the pixel in that area is reset to 00H, from then on, until the value becomes new to 03H among those counters. Motion detection is performed using the conventional background image data, and when it becomes 03H, the latest sampling image data of the area corresponding to the pixel is updated as new background image data.
【0015】以下に別実施例を説明する。先の実施例で
は、第二ステップで動き検出画面の各画素毎のカウンタ
値が3より大となった画素に対応する領域のサンプリン
グ画像データを背景画像データとして認識する旨を説明
したが、これに限定するものではなく任意の正の整数m
に設定できる。又、その背景画像データを基準画面にセ
ーブする旨を説明したが、背景画像データとして認識さ
れる背景画像データは、最新にサンプリングされた画像
データとすることで、対象領域の刻々の明るさ等の環境
変化に柔軟に対応できる。つまり、図3におけるT=6
の基準画面以降、動き検出画面のカウンタ値が03H以
上となる画素で構成される領域を常に最新のサンプリン
グ画像データで置き換えるのである。Another embodiment will be described below. In the previous embodiment, it is explained that the sampling image data of the area corresponding to the pixel in which the counter value for each pixel of the motion detection screen becomes larger than 3 in the second step is recognized as the background image data. Is not limited to any positive integer m
Can be set to. Also, although it has been described that the background image data is saved in the reference screen, the background image data recognized as the background image data is the latest sampled image data so that the brightness of the target area is constant. Can flexibly respond to changes in the environment. That is, T = 6 in FIG.
After the reference screen of (1), the area composed of pixels having a counter value of 03H or more on the motion detection screen is always replaced with the latest sampled image data.
【0016】先の実施例では、演算手段2bによる手順
を基本的な構成を中心に説明したために、ワーク画面を
用いた詳細な演算の説明を省略したが、詳細な演算の手
順は特に限定するものではなく、既存の手順(用いるマ
イクロコンピュータの命令セットや論理回路に依存する
が)を用いることができる。その際には、ワーク画面の
効率的利用、処理時間の短縮などを考慮することはいう
までもない。In the above embodiment, the procedure by the computing means 2b has been described with a focus on the basic structure, and therefore detailed description of the computation using the work screen is omitted, but the detailed procedure of the computation is particularly limited. However, the existing procedure (depending on the instruction set and the logic circuit of the microcomputer to be used) can be used. In that case, needless to say, the efficient use of the work screen and the reduction of the processing time are taken into consideration.
【0017】尚、特許請求の範囲の項に図面との対象を
便利にするために符号を記すが、該記入により本発明は
添付図面の構成に限定されるものではない。It should be noted that reference numerals are given in the claims to make the objects of the drawings convenient, but the present invention is not limited to the configurations of the accompanying drawings by the entry.
【図1】画像処理システムのブロック構成図FIG. 1 is a block configuration diagram of an image processing system.
【図2】背景画像の生成/更新の手順を説明するメモリ
データの遷移図FIG. 2 is a memory data transition diagram illustrating a procedure for generating / updating a background image.
【図3】背景画像の生成/更新の手順を説明するメモリ
データの遷移図FIG. 3 is a memory data transition diagram illustrating a procedure for generating / updating a background image.
【図4】背景画像の生成/更新の手順を説明するメモリ
データの遷移図FIG. 4 is a memory data transition diagram illustrating a procedure for generating / updating a background image.
【図5】背景画像の生成/更新の手順を説明するメモリ
データの遷移図FIG. 5 is a memory data transition diagram illustrating a procedure for generating / updating a background image.
【図6】従来例を示す画像処理方法の説明図FIG. 6 is an explanatory diagram of an image processing method showing a conventional example.
【図7】従来例を示す画像処理方法の説明図FIG. 7 is an explanatory diagram of an image processing method showing a conventional example.
Claims (2)
ンプリングして、その画像データに基づいて前記対象領
域に存在する移動体を識別する画像処理方法であって、 n回目(nは正整数)のサンプリング画像データとn+
1回目のサンプリング画像データ間の各画素毎の輝度値
の絶対値差分データを導出して、前記絶対値差分データ
が所定の閾値よりも小となる画素で形成される領域のサ
ンプリング画像データを静止画像データとして認識する
第一ステップと、 前記第一ステップの反復に伴い、m回(mは正整数)連
続して前記静止画像データとして認識された画素で形成
される領域のサンプリング画像データを背景画像データ
として認識する第二ステップと、 前記対象領域の背景画像データとして認識されていない
画素数が所定の画素数より小となった後に、前記背景画
像データとサンプリング画像データ間の各画素毎の輝度
値の絶対値差分データを導出して、前記絶対値差分デー
タが所定の閾値よりも大となる画素で形成される領域を
移動体として識別する第三ステップとからなる画像処理
方法。1. An image processing method for sampling image data of a target area at a predetermined cycle and identifying a moving object existing in the target area based on the image data, the method being the nth time (n is a positive integer). ) Sampling image data and n +
The absolute value difference data of the brightness value for each pixel between the first sampled image data is derived, and the sampled image data in the area formed by the pixels in which the absolute value difference data is smaller than a predetermined threshold is stopped. The first step of recognizing as image data, and the background of the sampled image data of the area formed by the pixels recognized as the still image data continuously m times (m is a positive integer) with the repetition of the first step. A second step of recognizing as image data, and after the number of pixels not recognized as background image data of the target area becomes smaller than a predetermined number of pixels, each pixel between the background image data and the sampling image data The absolute value difference data of the luminance value is derived, and the region formed by the pixels in which the absolute value difference data is larger than a predetermined threshold value is identified as a moving body. An image processing method comprising the third step.
タとして認識される背景画像データは、最新にサンプリ
ングされた画像データである請求項1記載の画像処理方
法。2. The image processing method according to claim 1, wherein the background image data recognized as the background image data in the second step is the latest sampled image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4204684A JPH0652311A (en) | 1992-07-31 | 1992-07-31 | Image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4204684A JPH0652311A (en) | 1992-07-31 | 1992-07-31 | Image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0652311A true JPH0652311A (en) | 1994-02-25 |
Family
ID=16494598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4204684A Pending JPH0652311A (en) | 1992-07-31 | 1992-07-31 | Image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0652311A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5748775A (en) * | 1994-03-09 | 1998-05-05 | Nippon Telegraph And Telephone Corporation | Method and apparatus for moving object extraction based on background subtraction |
US9020261B2 (en) | 2001-03-23 | 2015-04-28 | Avigilon Fortress Corporation | Video segmentation using statistical pixel modeling |
US9892606B2 (en) | 2001-11-15 | 2018-02-13 | Avigilon Fortress Corporation | Video surveillance system employing video primitives |
US10026285B2 (en) | 2000-10-24 | 2018-07-17 | Avigilon Fortress Corporation | Video surveillance system employing video primitives |
US10645350B2 (en) | 2000-10-24 | 2020-05-05 | Avigilon Fortress Corporation | Video analytic rule detection system and method |
CN111209771A (en) * | 2018-11-21 | 2020-05-29 | 晶睿通讯股份有限公司 | Neural network identification efficiency improving method and relevant identification efficiency improving device thereof |
CN113992887A (en) * | 2019-01-30 | 2022-01-28 | 原相科技股份有限公司 | Motion detection method for motion sensor |
-
1992
- 1992-07-31 JP JP4204684A patent/JPH0652311A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5748775A (en) * | 1994-03-09 | 1998-05-05 | Nippon Telegraph And Telephone Corporation | Method and apparatus for moving object extraction based on background subtraction |
US10026285B2 (en) | 2000-10-24 | 2018-07-17 | Avigilon Fortress Corporation | Video surveillance system employing video primitives |
US10347101B2 (en) | 2000-10-24 | 2019-07-09 | Avigilon Fortress Corporation | Video surveillance system employing video primitives |
US10645350B2 (en) | 2000-10-24 | 2020-05-05 | Avigilon Fortress Corporation | Video analytic rule detection system and method |
US9020261B2 (en) | 2001-03-23 | 2015-04-28 | Avigilon Fortress Corporation | Video segmentation using statistical pixel modeling |
US9892606B2 (en) | 2001-11-15 | 2018-02-13 | Avigilon Fortress Corporation | Video surveillance system employing video primitives |
CN111209771A (en) * | 2018-11-21 | 2020-05-29 | 晶睿通讯股份有限公司 | Neural network identification efficiency improving method and relevant identification efficiency improving device thereof |
CN113992887A (en) * | 2019-01-30 | 2022-01-28 | 原相科技股份有限公司 | Motion detection method for motion sensor |
CN113992887B (en) * | 2019-01-30 | 2024-05-17 | 原相科技股份有限公司 | Motion detection method for motion sensor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7982774B2 (en) | Image processing apparatus and image processing method | |
CN109727275B (en) | Object detection method, device, system and computer readable storage medium | |
CN111325769B (en) | Target object detection method and device | |
US20060110029A1 (en) | Pattern recognizing method and apparatus | |
WO2007143642A2 (en) | Method and system for the detection of removed objects in video images | |
CN110660102B (en) | Speaker recognition method, device and system based on artificial intelligence | |
US20070274402A1 (en) | Application of short term and long term background scene dynamics in motion detection | |
CN111783665A (en) | Action recognition method and device, storage medium and electronic equipment | |
CN108364306B (en) | Visual real-time detection method for high-speed periodic motion | |
JPH06231252A (en) | Method for tracking moving object on monitoring picture | |
CN111402185B (en) | Image detection method and device | |
JPH0652311A (en) | Image processing method | |
CN113537071A (en) | Static and dynamic target detection method and device based on event camera | |
KR100348357B1 (en) | An Effective Object Tracking Method of Apparatus for Interactive Hyperlink Video | |
CN114596242A (en) | Defect detection method, defect detection device, electronic equipment and computer readable storage medium | |
KR20040018586A (en) | Motion detecting device using face characteristics and monitoring system adapting it | |
CN113496501B (en) | Method and system for detecting invader in dynamic scene based on video prediction | |
CN115797870A (en) | AI object detection system, method, electronic device and storage medium based on lightweight motion detection | |
Zhang et al. | A novel hybrid motion detection algorithm based on dynamic thresholding segmentation | |
JPH04345396A (en) | Traveling object tracing method | |
WO2016136214A1 (en) | Identifier learning device, remaining object detection system, identifier learning method, remaining object detection method, and program recording medium | |
Wang et al. | HFR-video-based machinery surveillance for high-speed periodic operations | |
Sivabalakrishnan et al. | Performance analysis of fuzzy logic-based background subtraction in dynamic environments | |
EP2528019A1 (en) | Apparatus and method for detecting objects in moving images | |
Medvedeva et al. | Motion detection algorithm implemented on the ARM-based hardware |