JPH03502261A - digital data processing - Google Patents

digital data processing

Info

Publication number
JPH03502261A
JPH03502261A JP1506161A JP50616189A JPH03502261A JP H03502261 A JPH03502261 A JP H03502261A JP 1506161 A JP1506161 A JP 1506161A JP 50616189 A JP50616189 A JP 50616189A JP H03502261 A JPH03502261 A JP H03502261A
Authority
JP
Japan
Prior art keywords
image
edge
digital
data
corner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1506161A
Other languages
Japanese (ja)
Inventor
ハリス,クリストファー ジョージ
Original Assignee
プレツシー オーバーシーズ リミテツド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB8811223A external-priority patent/GB2218507B/en
Application filed by プレツシー オーバーシーズ リミテツド filed Critical プレツシー オーバーシーズ リミテツド
Priority claimed from PCT/GB1989/000523 external-priority patent/WO1990014634A1/en
Publication of JPH03502261A publication Critical patent/JPH03502261A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/1961Movement detection not involving frame subtraction, e.g. motion detection on the basis of luminance changes in the image
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。 (57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 デジタルデータ処理 この発明はデジタルデータ処理に関するものである。[Detailed description of the invention] digital data processing This invention relates to digital data processing.

特に記憶されたデジタルイメージマトリックス中に存在するデジタルデータ情報 と、記憶された情報中の重要な特徴を検出する方法および手段に関するものであ る。Digital data information specifically present in a stored digital image matrix and methods and means for detecting important features in stored information. Ru.

自動的に特定のデジタルイメージを観察することが要求される場合、一般にコー ナーとエツジの特徴を特定することが必要である。これは、コーナーおよびエツ ジの特徴が対象物の輪郭と、記憶イメージ中に存在する目立った表面標識に相当 するためである。この作業は次の処理に使用される多少の低レベル情報を提供す るが、しかしこの早期の段階で抽出されたデータが信頼しつる品質を有している ことが最も重要である。When it is desired to automatically view a particular digital image, code is generally It is necessary to identify the characteristics of This applies to corners and The features of the image correspond to the outline of the object and the conspicuous surface markings present in the memory image. This is to do so. This task provides some low-level information that is used to However, the data extracted at this early stage is of reliable quality. That is the most important thing.

イメージ中に存在するエツジ特徴の表現はイメージのある部分に対してのみ有用 である。イメージの他の部分に対しては、エツジ結合およびエツジにおけるシャ ープなバンドと、孤立した点状の特徴に相当する、いわゆるイメージコーナーと 呼ばれるものが重要である。例えば、イメージ中に期待される特徴の種類が自然 情景の表現において、どの様な意味でも限定されていない場合、単にエツジのみ でまたはコーナーのみでイメージを表現することのみでは、存在する情報の全体 發を把握する事はできない。Representation of edge features present in an image is useful only for certain parts of the image It is. Edge joins and shadows on edges are used for other parts of the image. The so-called image corner, which corresponds to a large band and an isolated dot-like feature, What is called is important. For example, if the types of features expected in an image are In the expression of a scene, if it is not limited in any sense, it is simply an edge. Representing an image with only corners or corners alone does not represent the entirety of the information present. I can't grasp the story.

の両者を抽出する、データ処理方法が提案されている。A data processing method has been proposed that extracts both.

キャニイ(Canny )エツジフィルタはこのエツジ抽出器の一つである。し かしながら、この装置ではエツジ結合を形成することができず、さらにこの問題 を克服するためにより新規な処理操作を遂行する必要がある。その上、イメージ の構造領域において、エツジは時によって不十分で信頼性の低い特徴表現をなし 、これが原因で人によってはコーナ表現を好むようになっている。The Canny edge filter is one such edge extractor. death However, this device cannot form edge bonds, and this problem In order to overcome this, it is necessary to perform more novel processing operations. Besides, the image In the structural domain, edges sometimes have insufficient and unreliable feature representations. , This is why some people prefer corner expressions.

モラベツク(Horavec ) 、ナーゲル(Hagel ) 、ビュープツ ト(Beaudet )およびキッチンとローゼンフェルト(Kttchen  & Rosenfeld )によって、非常に有効な幾つかのコーナー検出器が 提案されている。しかしながらこれらのコーナー検出器は、その応答において一 時的な不一致が存在しく!11ち信頼性がない)、さらに強いイメージエツジに おいて小さな不完全性が存在するとこれに対してあまりにも早く応答しすぎるの で、理想的ではない。Horavec, Hagel, Buputs Beaudet and Kitchen and Rosenfeld (Kttchen) & Rosenfeld) have developed some very effective corner detectors. Proposed. However, these corner detectors are not uniform in their response. There is an obvious temporal discrepancy! (11) Unreliable), to create an even stronger image edge We respond too quickly to small imperfections in And it's not ideal.

この発明は、エツジおよびコーナー特徴検出器の両者に対してその欠点を克服す る事を目的としてなされたものである。This invention overcomes the drawbacks for both edge and corner feature detectors. This was done for the purpose of

この発明によれば、イメージを表現するピクセルにおいてその隣接するピクセル 閤に存在する鋭い強度変化の位置を検出するためのデジタルイメージマトリック スにおけるデジタルデータ処理方法であって、この方法は、各1次ピクセルの強 度をこれを取り囲む2次ピクセルの強度と比較し、上記1次ピクセルがエツジ状 のあるいはコーナー状の一定値を有するものに分類されるがどうかを計算し、さ らに上記イメージマトリックス中に存在するエツジまたはコーナーの両者の特徴 の位置を得るためにこの情報を対照する、各ステップからなるデジタルデータ処 理方法を提供する。According to this invention, in a pixel representing an image, its adjacent pixels Digital image matrix for detecting the location of sharp intensity changes present in the bar A method for processing digital data in a computer, the method comprising: The intensity is compared with the intensity of the surrounding secondary pixels, and the primary pixels are edge-shaped. Calculate whether it is classified as having a fixed value or a corner-like constant value, and Furthermore, the characteristics of both edges and corners that exist in the image matrix are A digital data processing process consists of steps that compare this information to obtain the location of the provide a method of management.

上記比較ステップの前に、元のイメージマトリックスは、不必要な詳細を含まな い単純化された中間のイメージを形成するように処理される方が都合がよい。こ の中間イメージは4元のイメージであってもよい。Before the above comparison step, the original image matrix is freed from unnecessary details. It is advantageous if the image is processed to form a simple intermediate image. child The intermediate image may be a quaternary image.

一実施例では、この方法は更に、与えられた時間の経過優男2のデジタルイメー ジマトリックスを採用し、イメージの選択された特徴の位置におけるいかなる変 化をも検出しうるように、上記第2のイメージのデジタル処理領域を第1のイメ ージのそれと比較する、ステップを含む。In one embodiment, the method further comprises: matrix and any changes in the position of the selected features of the image. The digitally processed area of the second image can be also detected in the first image. Contains steps to compare with that of the page.

一例としてこの発明の一実施例を、イメージ動作監視検出器の主要部のブロック 図である図面を参照しながら、次に説明する。As an example, an embodiment of the present invention will be described as a block diagram of a main part of an image motion monitoring detector. The following description will be made with reference to the drawings.

この発明の検出装置を、図面中に示される主要部を参照しながら最初に説明し、 特徴抽出段階における動作をその後で説明する。The detection device of the present invention will first be explained with reference to the main parts shown in the drawings, The operation in the feature extraction stage will be explained later.

この監視検出器は、デジタルデータプロセッサ2に情報を供給しかつ出力ライン 3に出力信号を供給すべく作動するビデオカメラ1からなる。プロセッサ2はビ デオカメラから入力信号を受信し、この信号はイメージ数字化段階4に送信され る。この段階の後で、入力情報はフレーム記憶器6に送られ、この記憶器中のピ クセルはその後順次コーナ/エツジ特徴抽出回路7で処理される。This monitoring detector supplies information to the digital data processor 2 and outputs the The video camera 1 is operated to provide an output signal to the video camera 3. Processor 2 receives an input signal from the video camera, and this signal is sent to the image digitization stage 4. Ru. After this stage, the input information is sent to the frame store 6 and the pixels in this store are The pixels are then sequentially processed in a corner/edge feature extraction circuit 7.

特徴抽出回路7から得られたデータは次に特徴一致ブロック8に印加される。こ れと平行に、データはさらに、このデータをブロック8に送出する前に一定時間 保持するための、遅延ブロック9に供給される。The data obtained from the feature extraction circuit 7 is then applied to a feature matching block 8. child Parallel to this, the data is further processed for a certain period of time before sending this data to block 8. It is fed to a delay block 9 for holding.

特徴一致ブロック8において、データストリームの抽出特徴は、あらかじめ決め られた一定時間後コンパイルされた特徴の組と比較される。得られた情報は、し たがって、特定の時間内に生じる選択された抽出特徴のいかなる変化をも示すこ とができる。この情報から、ビデオカメラ1で観察される移動体の位置とイメー ジ速度を計算することが可能である。In the feature matching block 8, the extracted features of the data stream are determined in advance. After a certain period of time, the feature set is compared with the compiled set of features. The information obtained is Therefore, it is not possible to show any changes in the selected extracted features that occur within a specific time. I can do it. From this information, the position and image of the moving object observed by video camera 1 can be determined. It is possible to calculate the velocity of

イメージマトリックスを表現する隣接のピクセルにおけるシャープな強度変化の 存在を検出するために、まずある−次のピクセルにおける光の強度をこれを取り 囲む2次の各ピクセルの強度と比較する必要がある。少なくとも24個、または 数百の2次ピクセルが存在する。of sharp intensity changes in adjacent pixels representing the image matrix. To detect the presence, we first take the intensity of light at the next pixel. It is necessary to compare the intensity of each surrounding secondary pixel. at least 24, or There are several hundred secondary pixels.

したがって、各−次ピクセルのローカルな自動相Ill関数が必要であり、この 関数は、可能な全25個のピクセルによって表現されるイメージ強度のローカル バッチが、ほぼ一定値であるかどうか、エツジ状であるがどうが、またはコーナ ー状であるかどうかを示すものである。コーナーはシャープなピークを持つ自動 相関関数によって示され、エツジは山状の自動相関関数で示される。正確な自動 相関関数を計算する必要はないが、しかしその元のものに関する2次展開の決定 は必要である。このような要求の数学的表現を次に示す。Therefore, a local autophase Ill function for each -order pixel is required, and this The function is a local representation of the image intensity represented by all 25 possible pixels. Whether the batch is approximately constant, has edges, or has corners. This indicates whether the Corners are automatic with sharp peaks It is represented by a correlation function, and edges are represented by a mountain-shaped autocorrelation function. accurate auto It is not necessary to calculate the correlation function, but to determine the quadratic expansion with respect to its original is necessary. The mathematical expression of such a requirement is shown below.

まず、イメージ強度(予め平滑化されていることが望ましい)をIx9.のアレ イで示す。なお、x、yはカーテシアンイメージ座標である。まず最初に、2個 の一次勾配が次のように計算される。First, the image intensity (preferably smoothed in advance) is set to Ix9. That's it Indicated by A. Note that x and y are Cartesian image coordinates. First of all, two The first-order gradient of is calculated as follows.

次に、平滑化された4次の勾配が計算される。Next, a smoothed fourth-order gradient is calculated.

なお、*は回転を示し、Wは例えば次のような平滑フィルタである。Note that * indicates rotation, and W is, for example, the following smoothing filter.

W=(242) 最後に、コーナー/エツジ応答Rが計算される。W=(242) Finally, the corner/edge response R is calculated.

R= (A、B−C2)−k (A+8)2係数にの負型的な鉤は0.1である 。R=(A,B-C2)-k(A+8)2 The negative hook on the coefficient is 0.1 .

コーナー領域の存在は、正でかつ大きな値のRによって示される。個々のビクセ ルは、その応答Rが各8個の隣接ビクセルの応答よりも大きい場合、コーナーで あると見なされる。同様に、エツジ領域は、負でかつ大きな値のRによって示さ れる。もしその応答Rが、XかYの一次勾配のいずれが大きいかによって決定さ れるXがy方向のどちらかにおける2個の隣接のビクセル応答より小さい(より 負である)場合、そのピクセルはエツジビクセルとみなされる。The presence of corner regions is indicated by a positive and large value of R. individual vixe at a corner if its response R is greater than the response of each of its 8 neighboring pixels. It is considered that there is. Similarly, edge regions are indicated by negative and large values of R. It will be done. If the response R is determined by which of the linear gradients of X or Y is larger, where X is smaller than the response of two adjacent vixels in either y direction negative), the pixel is considered an edge vixel.

標準的なエツジクリーンアップルアゴリズム(キャニイエッジフィルタで使用さ れるものと同様の)が、短いラインとスパー(突出部)を取り除きさらにエツジ における破れを補修するために、エツジイメージに適用される。その結果は、各 ピクセルが、コーナーに隣接するもの、エツジおよびバックグラウンドに分類さ れる、4元(即ち4状態の)イメージとなる。このエツジは薄く(即ちこれらは その幅で1個のビクセルである)かつコーナー領域間を移動する。結合形成の問 題は、エツジがそのfa域で終了するような、コーナーをどっかこむコーナー領 域の存在によって克服される。イメージの組11領域におけるエツジの不一致問 題は、コーナーを含みエツジを殆ど含まない領域によって表現されるイメージ領 域によって克服される。Standard Edge Clean Apple algorithm (used in Canny Edge filters) (similar to the one shown), but with short lines and spurs removed applied to edge images to repair tears in. The result is each Pixels are categorized as adjacent to corners, edges and background. It becomes a four-dimensional (ie, four-state) image. These edges are thin (i.e. they are one pixel in width) and move between corner regions. Questions about bond formation The problem is to find a corner area where the edge ends in the fa area. overcome by the existence of Edge mismatch problem in 11 areas of image set The problem is an image region represented by a region that contains corners and contains few edges. overcome by the area.

必要な計算を実行する1方法は、ハイ、またはロウレベルのソフトウェアによっ て実行されるアルゴリズムと共に、棚卸しくorr−the−she+r )  マイクロコンピュータによってデータを処理することである。マイクロコンピュ ータへの入力はデジタル化されたイメージであり、出力は要求される特徴の組合 わせ位置とイメージ速度である。しかしながら、必要な計算量によって、マイク ロコンピュータを使用すると比較的速度が遅くなり、この低速性は時間に厳しい 応用に対しては望ましくない。One way to perform the necessary calculations is through high- or low-level software. (orr-the-she+r) It is the processing of data by a microcomputer. microcomputer The input to the data is a digitized image, and the output is the desired combination of features. position and image speed. However, due to the amount of computation required, microphone Using a computer is relatively slow, and this slowness is time-critical. Not desirable for applications.

時間に厳しい応用に対しては、中間イメージXSY。For time-critical applications, intermediate image XSY.

A、BSCおよびRを計算し、それぞれコーナーまたはエツジピクセルとしての コーナー/エツジ応答Rの適当な極在最大値または最小値を選択するために、特 別な目的のハードウェアを構成することが出来る。提案されたこの特別目的のた めのハードウェアは、パイプライン状でさらに回転チップと他の提供されたVL SI回路を利用している。このステップは、1またはそれ以上のマイクロコンピ ュータ上で、エツジクリーンアップおよび特徴追跡のためのステージに続くもの である。Calculate A, BSC and R as corner or edge pixels, respectively. In order to select an appropriate local maximum or minimum value of the corner/edge response R, a special It is possible to configure hardware for other purposes. For this special purpose proposed The hardware is pipelined and further rotates with the chip and other provided VLs. It uses an SI circuit. This step requires one or more microcomputer What follows on the computer is a stage for edge cleanup and feature tracking. It is.

ビデオカメラによって観察される情景が時間経過とともに変化するものであると 想定される場合、この発明は、与えられた一定時間の経過後筒2のデジタルイメ ージマトリックスを処理するために利用される。上記第2のイメージの処理デー タはその後、第1のイメージの処理データと比較され、これによってイメージに おける選択された特徴の位置に関するいかなる変化をも検出する。The scene observed by a video camera changes over time. If it is envisaged, the present invention will take a digital image of the tube 2 after a given period of time. is used to process the image matrix. Processing data for the second image above The data is then compared to the processed data of the first image, thereby making the image detect any change in the position of the selected feature in the selected feature.

デジタルデータ処理方法の利用は、盗難警報機のような情景を調査するための受 動装置の製作に対して提案されている。静的調査カメラに要求される形象におい て、エツジおよびコーナー特徴が一致して動く場合は、移動物体であることを示 し、一方一致しない動きはイメージノイズ、風によって動かされている植物、等 によるものである。交通制御に対する応用の場合、この方法は移動する車両の存 在を検出するのに使用される。デジタルイメージは可視光よりもむしろ赤外光に よって形成されるため、このシステムは夜間でもまたは悪天候でも有効に作動す る。The use of digital data processing methods can be used to investigate situations such as burglar alarms. proposed for the production of dynamic equipment. The appearance required for a static investigation camera If the edge and corner features move in unison, it indicates a moving object. On the other hand, unmatched movements are caused by image noise, plants being moved by the wind, etc. This is due to For applications in traffic control, this method requires the presence of moving vehicles. used to detect presence. Digital images use infrared light rather than visible light As a result, the system can operate effectively at night or in bad weather. Ru.

細胞の自動走査にこのデータ処理方法を利用することもまた提案されている。It has also been proposed to utilize this data processing method for automatic scanning of cells.

この発明の一実施例に関する上記の記載は、単に一例として示されたものであり 、特許請求の範囲に規定するこの発明の範囲を逸脱することなく、種々の変更が 可能である。例えば、この発明は単一のイメージマトリックスにおけるデータ処 理方法として説明されているが、この発明は2個あるいはそれ以上のイメージマ トリックスからのデータの処理に応用できる。なおこれによって、3次元の効果 を得ることが出来る。The above description of one embodiment of the invention is given by way of example only. Various modifications may be made without departing from the scope of this invention as defined in the claims. It is possible. For example, the invention provides data processing in a single image matrix. Although described as a method of It can be applied to processing data from Trix. Note that this also creates a three-dimensional effect. can be obtained.

国際調査報告international search report

Claims (5)

【特許請求の範囲】[Claims] 1.イメージを表現するピクセルにおいてその隣接するピクセル間に存在する鋭 い強度変化の位置を検出するためのデジタルイメージマトリックスにおけるデジ タルデータ処理方法であって、 各一次ピクセルの強度をこの一次ピクセルを取り囲む二次のピクセルの強度と比 較し、 上記一次ピクセルがエッジ状のあるいはコーナー状の一定値を有しているものに 分類されるかどうかを計算し、さらに上記イメージマトリックス中に存在するエ ッジまたはコーナーの両者の特徴の位置を得るためにこの情報を対照する、 ステップからなるデジタルデータ処理方法。1. The sharpness that exists between adjacent pixels in pixels that represent an image. digital image matrix to detect the location of sharp intensity changes. A method for processing data, comprising: Ratios the intensity of each primary pixel to the intensity of the secondary pixels surrounding this primary pixel. Compare, The above primary pixel has a constant edge-like or corner-like value. Calculate whether the image is classified, and also calculate the errors that exist in the image matrix above. contrasting this information to obtain the location of both edge or corner features; Digital data processing method consisting of steps. 2.上記比較段階の前に、望ましく無い詳細が取り除かれた中間の単純化イメー ジを形成するために、もとのイメージマトリックスを処理するようにした、請求 項1に記載の方法。2. Before the comparison step above, an intermediate simplified image with undesirable details removed. The original image matrix is processed to form a The method described in Section 1. 3.上記中間イメージは4元のイメージである、請求項2に記載の方法。3. 3. The method of claim 2, wherein the intermediate image is a quaternary image. 4.与えられた時間の軽過後第2のデジタルイメージマトリックスを採用し、さ らにイメージの選択された特徴位置におけるいかなる変化をも検出しうる様に、 上記第2のイメージのデジタル処理データを第1のイメージのそれと比較するス テップをさらに含む、請求項1〜3に記載の方法。4. After a given time lightening, adopt a second digital image matrix and Furthermore, any changes in the selected feature positions of the image can be detected. A process for comparing the digitally processed data of the second image with that of the first image. 4. The method according to claim 1, further comprising step. 5.実質的に上述された、デジタルイメージマトリックスにおけるデジタルデー タ処理方法。5. Digital data in a digital image matrix substantially as described above. data processing method.
JP1506161A 1988-05-12 1989-05-15 digital data processing Pending JPH03502261A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB8811223A GB2218507B (en) 1989-05-15 1988-05-12 Digital data processing
PCT/GB1989/000523 WO1990014634A1 (en) 1988-05-12 1989-05-15 Digital data processing
CA000607884A CA1333424C (en) 1988-05-12 1989-08-09 Digital data processing

Publications (1)

Publication Number Publication Date
JPH03502261A true JPH03502261A (en) 1991-05-23

Family

ID=25672936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1506161A Pending JPH03502261A (en) 1988-05-12 1989-05-15 digital data processing

Country Status (2)

Country Link
JP (1) JPH03502261A (en)
CA (1) CA1333424C (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61126407A (en) * 1984-11-26 1986-06-13 Komatsu Ltd Tracking device for moving body using dither method
JPS6327981A (en) * 1986-07-22 1988-02-05 Sankomu Kk Signal processor and measuring instrument using time and space differentiating method
JPS63303475A (en) * 1987-06-04 1988-12-12 Fuji Electric Co Ltd Vectorization processing method for binarized image
JPS63305477A (en) * 1987-06-06 1988-12-13 Hitachi Ltd Moving object image extracting system
JPS6417170A (en) * 1987-07-10 1989-01-20 Shigeru Ando Feature extracting device for picture

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61126407A (en) * 1984-11-26 1986-06-13 Komatsu Ltd Tracking device for moving body using dither method
JPS6327981A (en) * 1986-07-22 1988-02-05 Sankomu Kk Signal processor and measuring instrument using time and space differentiating method
JPS63303475A (en) * 1987-06-04 1988-12-12 Fuji Electric Co Ltd Vectorization processing method for binarized image
JPS63305477A (en) * 1987-06-06 1988-12-13 Hitachi Ltd Moving object image extracting system
JPS6417170A (en) * 1987-07-10 1989-01-20 Shigeru Ando Feature extracting device for picture

Also Published As

Publication number Publication date
CA1333424C (en) 1994-12-06

Similar Documents

Publication Publication Date Title
EP0686943B1 (en) Differential motion detection method using background image
CN110633610B (en) Student state detection method based on YOLO
JPH0766446B2 (en) Method of extracting moving object image
EP0955557A3 (en) Method and system for detecting/classifying objects
GB2218507A (en) Digital data processing
JPH06231252A (en) Method for tracking moving object on monitoring picture
JP3377659B2 (en) Object detection device and object detection method
Lin et al. Real-time active tampering detection of surveillance camera and implementation on digital signal processor
CN111539980A (en) Multi-target tracking method based on visible light
JP2001043383A (en) Image monitoring system
JP2005157134A (en) Information output method, device and program, and computer readable storage medium stored with information output program
JPWO2020003764A1 (en) Image processors, mobile devices, and methods, and programs
JPH03502261A (en) digital data processing
JPH0824350B2 (en) Background image extraction method
JPH0652311A (en) Image processing method
JPH01211083A (en) Method and device for updating background picture
JP3267107B2 (en) Background image creation method and image processing apparatus
JP3585977B2 (en) Moving area detection device
JP3490196B2 (en) Image processing apparatus and method
JPH0531791B2 (en)
KR940003654B1 (en) Method of processing digital data
JP3175947B2 (en) Image monitoring apparatus and image monitoring method
JP3659609B2 (en) Object detection method and object detection apparatus
JP3091356B2 (en) Moving object detection method and apparatus
JPS61223893A (en) Contrast conversion control system