JP2003304531A - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program

Info

Publication number
JP2003304531A
JP2003304531A JP2002106681A JP2002106681A JP2003304531A JP 2003304531 A JP2003304531 A JP 2003304531A JP 2002106681 A JP2002106681 A JP 2002106681A JP 2002106681 A JP2002106681 A JP 2002106681A JP 2003304531 A JP2003304531 A JP 2003304531A
Authority
JP
Japan
Prior art keywords
time
monitoring target
absolute value
area
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002106681A
Other languages
Japanese (ja)
Inventor
Yoshihiko Suzuki
美彦 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002106681A priority Critical patent/JP2003304531A/en
Publication of JP2003304531A publication Critical patent/JP2003304531A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To properly particularize an existing area of a monitoring object even when illumination or the like gives effect on the monitoring. <P>SOLUTION: An image processing apparatus is provided with: a difference absolute value calculation means 12 for calculating a difference absolute value between frame image data at a first time captured by an image acquisition means 11 and frame image data at a time earlier than the first time; a binary processing means 13 for applying binary processing to the difference absolute value; a monitoring object area extract means 14 for dividing the area of the object on the basis of the obtained binary processing data and extracting the area of the monitoring object at the first time from the divided areas; a control means 10 for using the frame image data at least at one past time different from the earlier time above, and causing the means 12, 13, 14 to perform the calculation of the difference absolute value, the binary processing, and extraction of the monitoring object as to extract a plurality of the areas of the monitoring object at the first time; and a composite means 15 for composing a plurality of the areas. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、道路監視システ
ムなどに用いると好適な画像処理装置、画像処理方法及
び画像処理プログラムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image processing method and an image processing program suitable for use in a road monitoring system or the like.

【0002】[0002]

【従来の技術】従来の道路監視システムやこれに用いる
画像処理装置としては、例えば、特開平10−3079
88号公報、特開平9−97335号公報、特開平11
−353581号公報に示されたものが知られている。
2. Description of the Related Art As a conventional road monitoring system and an image processing apparatus used for it, for example, Japanese Patent Laid-Open No. 10-3079 is known.
88, JP 9-97335, and JP 11
The one shown in Japanese Patent No. 353581 is known.

【0003】ところで、道路監視システムにおいては明
るさの変化が生じる周囲環境の基で監視対象物の存在領
域を特定することが難しくなる。また、トンネル等のよ
うに照明による明るさが一定でなく、空間的な明るさの
分布に大きなむらがある環境では、路面に明暗の縞が生
じ、監視対象物である車両が上記明暗の縞が生じている
道路を走行すると車両に明暗の縞が移り、車両の検出が
行い難くなる。特に、車体表面が無模様のアルミニュウ
ムなどにより作られたトラックなどの車両にあっては、
上記明暗の縞の発生以外に反射部分の変化等によりその
輪郭を追跡することが困難であるという問題があった。
By the way, in the road monitoring system, it is difficult to specify the existing area of the monitored object based on the surrounding environment where the brightness changes. Also, in an environment where the brightness due to lighting is not constant and there is a large unevenness in the spatial brightness distribution, such as in a tunnel, light and dark stripes occur on the road surface, and the vehicle that is the monitoring target has the light and dark stripes. When the vehicle runs on a road where the light is generated, bright and dark stripes are transferred to the vehicle, which makes it difficult to detect the vehicle. Especially for vehicles such as trucks whose surface is made of aluminum with no pattern,
There is a problem that it is difficult to trace the contour due to a change in the reflection portion other than the occurrence of the bright and dark stripes.

【0004】[0004]

【発明が解決しようとする課題】本発明は上記のような
従来における画像処理上の問題点を解決せんとしてなさ
れたもので、その目的はトンネル内のように照明の影響
により監視対象物に縞ができたり、監視対象物による反
射部分の変化等があっても、適切に監視対象物の存在領
域を特定することが可能な画像処理装置、画像処理方
法、画像処理プログラムを提供することである。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems in image processing in the related art, and its purpose is to stripe a monitored object due to the influence of illumination such as in a tunnel. It is possible to provide an image processing device, an image processing method, and an image processing program capable of appropriately specifying the existing area of the monitored object even if the monitored object is changed or the reflection portion is changed due to the monitored object. .

【0005】[0005]

【課題を解決するための手段】本発明に係る画像処理装
置は、監視対象画像データを取り込む画像取得手段と、
前記画像取得手段に取り込まれた第1の時刻におけるフ
レーム画像データと前記第1の時刻よりも過去の時刻に
おけるフレーム画像データの差分絶対値を計算する差分
絶対値計算手段と、前記差分絶対値計算手段により計算
された差分絶対値に対して2値化処理を行う2値化処理
手段と、前記2値化処理手段により得られた2値化デー
タに基づき物体の領域区分を行い、区分された領域から
前記第1の時刻における監視対象物の領域を抽出する監
視対象物領域抽出手段と、前記過去の時刻と異なる少な
くとも1個の過去の時刻におけるフレーム画像データを
用いて、前記差分絶対値計算手段における計算を行わ
せ、この計算結果について前記2値化処理手段と前記監
視対象物領域抽出手段とによる処理を行わせて、前記第
1の時刻における監視対象物の領域を複数抽出させる制
御手段と、前記抽出された前記第1の時刻における監視
対象物の複数領域について領域合成を行う合成手段とを
具備することを特徴とする。
An image processing apparatus according to the present invention comprises image acquisition means for taking in monitoring target image data,
Difference absolute value calculation means for calculating a difference absolute value between the frame image data at the first time captured by the image acquisition means and the frame image data at a time earlier than the first time, and the difference absolute value calculation The binarization processing means for binarizing the difference absolute value calculated by the means, and the area division of the object based on the binarized data obtained by the binarization processing means The difference absolute value calculation is performed by using a monitoring target area extraction unit that extracts the area of the monitoring target at the first time from the area, and at least one frame image data at the past time different from the past time. The calculation is performed by the means, and the calculation result is processed by the binarization processing means and the monitoring target area extraction means, and the monitoring at the first time is performed. Characterized by comprising a control means for a plurality extracting an area of an object, and a combining means for performing regional composite for a plurality areas of the monitored object in the extracted first time.

【0006】また、本発明に係る画像処理装置では、前
記合成手段は、前記抽出された前記第1の時刻における
監視対象物の複数領域を重ね合わせて監視対象物の領域
とすることを特徴とする。
Further, in the image processing apparatus according to the present invention, the synthesizing means superimposes a plurality of areas of the extracted monitoring target object at the first time to form a monitoring target area. To do.

【0007】また、本発明に係る画像処理装置では、前
記合成手段は、前記抽出された前記第1の時刻における
監視対象物の複数領域を重ね合わせて監視対象物の領域
を得ると共に、前記監視対象物が存在できない領域を除
去して前記監視対象物の領域とすることを特徴とする。
Further, in the image processing apparatus according to the present invention, the synthesizing means obtains an area of the monitored object by superimposing a plurality of areas of the extracted monitored object at the first time, and at the same time, the monitored object is monitored. It is characterized in that a region where the target object cannot exist is removed to be a region of the monitoring target object.

【0008】本発明に係る画像処理方法は、監視対象画
像データを取り込む画像取得ステップと、前記画像取得
ステップにて取り込まれた第1の時刻におけるフレーム
画像データと前記第1の時刻よりも過去の時刻における
フレーム画像データの差分絶対値を計算する差分絶対値
計算ステップと、前記差分絶対値計算ステップにより計
算された差分絶対値に対して2値化処理を行う2値化処
理ステップと、前記2値化処理ステップにより得られた
2値化データに基づき物体の領域区分を行い、区分され
た領域から前記第1の時刻における監視対象物の領域を
抽出する監視対象物領域抽出ステップと、前記過去の時
刻と異なる少なくとも1個の過去の時刻におけるフレー
ム画像データを用いて、前記差分絶対値計算ステップに
おける計算を行わせ、この計算結果について前記2値化
処理ステップと前記監視対象物領域抽出ステップとによ
る処理を行わせて、前記第1の時刻における監視対象物
の領域を複数抽出させる繰り返し処理ステップと、前記
抽出された前記第1の時刻における監視対象物の複数領
域について領域合成を行う合成ステップとを具備するこ
とを特徴とする。
According to the image processing method of the present invention, the image acquisition step of capturing the image data to be monitored, the frame image data at the first time captured in the image acquisition step, and the frame image data before the first time. A difference absolute value calculation step of calculating a difference absolute value of the frame image data at a time; a binarization processing step of performing a binarization process on the difference absolute value calculated by the difference absolute value calculation step; A monitoring object region extraction step of performing a region division of the object based on the binarized data obtained by the binarization processing step, and extracting a region of the monitoring target object at the first time from the divided region; The calculation in the difference absolute value calculation step is performed using at least one frame image data at a past time different from the time A repeated processing step of causing the binarization processing step and the monitoring target area extraction step to perform the calculation result on the calculation result, and extracting a plurality of monitoring target areas at the first time; And a synthesizing step of synthesizing regions for a plurality of regions of the monitored object at the first time.

【0009】本発明に係る画像処理プログラムは、主メ
モリに格納されたプログラムに基づき中央制御装置が処
理を行って結果を得るコンピュータに用いられる画像処
理プログラムにおいて、前記中央処理装置に対し、監視
対象画像データを取り込む画像取得ステップと、前記画
像取得ステップにて取り込まれた第1の時刻におけるフ
レーム画像データと前記第1の時刻よりも過去の時刻に
おけるフレーム画像データの差分絶対値を計算する差分
絶対値計算ステップと、前記差分絶対値計算ステップに
より計算された差分絶対値に対して2値化処理を行う2
値化処理ステップと、前記2値化処理ステップにより得
られた2値化データに基づき物体の領域区分を行い、区
分された領域から前記第1の時刻における監視対象物の
領域を抽出する監視対象物領域抽出ステップと、前記過
去の時刻と異なる少なくとも1個の過去の時刻における
フレーム画像データを用いて、前記差分絶対値計算ステ
ップにおける計算を行わせ、この計算結果について前記
2値化処理ステップと前記監視対象物領域抽出ステップ
とによる処理を行わせて、前記第1の時刻における監視
対象物の領域を複数抽出させる繰り返し処理ステップ
と、前記抽出された前記第1の時刻における監視対象物
の複数領域について領域合成を行う合成ステップとを実
行させることを特徴とする。
An image processing program according to the present invention is an image processing program used in a computer for performing processing by a central control unit based on a program stored in a main memory to obtain a result. An image acquisition step of capturing image data, and a difference absolute for calculating an absolute difference value between the frame image data at the first time captured at the image acquisition step and the frame image data at a time earlier than the first time. A binarization process is performed on the value calculation step and the difference absolute value calculated by the difference absolute value calculation step 2
A monitoring target that performs a binarization processing step and area division of an object based on the binarized data obtained by the binarization processing step, and extracts the area of the surveillance target object at the first time from the divided area. The object area extracting step and the frame image data at least one past time different from the past time are used to perform the calculation in the difference absolute value calculating step, and the calculation result is converted into the binarizing processing step. Iterative processing step of causing the processing by the monitoring target area extraction step to extract a plurality of monitoring target areas at the first time, and a plurality of extracted monitoring target areas at the first time. And a synthesizing step of synthesizing the regions.

【0010】[0010]

【発明の実施の形態】以下添付図面を参照して、本発明
に係る画像処理装置、画像処理方法及び画像処理プログ
ラムを説明する。各図において同一の構成要素には同一
の符号を付し、重複する説明を省略する。図1には、画
像処理装置の構成が示されている。この画像処理装置
は、図2に示される監視システムの画像処理部計算機2
により実現される。
BEST MODE FOR CARRYING OUT THE INVENTION An image processing apparatus, an image processing method and an image processing program according to the present invention will be described below with reference to the accompanying drawings. In each drawing, the same constituents are designated by the same reference numerals, and duplicated description will be omitted. FIG. 1 shows the configuration of the image processing apparatus. This image processing apparatus is an image processing unit computer 2 of the monitoring system shown in FIG.
It is realized by.

【0011】図2に示されるように監視システムは、ネ
ットワーク1を介して画像処理部計算機2、統合処理部
計算機3、事象判定部計算機4及び表示等を行う報知盤
5−1〜5−nが接続されている。画像処理部計算機2
には、カメラ6−1〜6−m(mは整数)が接続されて
いる。
As shown in FIG. 2, the monitoring system includes an image processing unit computer 2, an integrated processing unit computer 3, an event determination unit computer 4, and a notification board 5-1 to 5-n for displaying via a network 1. Are connected. Image processing computer 2
Are connected to cameras 6-1 to 6-m (m is an integer).

【0012】上記システムにおいては、次のように動作
がなされる。カメラ6−1〜6−mが監視対象物の撮像
を行って、画像データを画像処理部計算機2へ送る。画
像処理部計算機2は、後に述べるように監視対象物の存
在領域の特定などを実行し、処理結果情報を統合処理部
計算機3へ送る。統合処理部計算機3は画像処理部計算
機2から送られた情報に基づき、例えばカメラ6−1〜
6−mのいずれにより得られた画像データについて画像
処理部計算機2が処理を行った結果をどのように用いる
かを決定する等、次の事象判定に必要な画像データを抽
出し或いは組み合わせる等の処理を行う。その結果は統
合処理部計算機3から事象判定部計算機4へ送られる。
事象判定部計算機4は送られた画像データ及び統合処理
部計算機3が処理した結果を用い、発生した事象の判定
を行う。ここにおいて事象とは、例えば道路監視システ
ムにおいては、事故の発生、落下物の発生、渋滞、火災
等である。
The above system operates as follows. The cameras 6-1 to 6-m capture images of the monitoring target and send the image data to the image processing unit computer 2. The image processing unit computer 2 executes the identification of the existence area of the monitoring target as described later, and sends the processing result information to the integrated processing unit computer 3. The integrated processing unit computer 3 uses, for example, the cameras 6-1 to 6-1 based on the information sent from the image processing unit computer 2.
6-m, such as determining how to use the result of processing by the image processing unit computer 2 for the image data obtained, extracting or combining the image data necessary for the next event determination, etc. Perform processing. The result is sent from the integrated processing unit computer 3 to the event determination unit computer 4.
The event determination unit computer 4 uses the sent image data and the result processed by the integrated processing unit computer 3 to determine the event that has occurred. Here, the event is, for example, in a road monitoring system, an accident, a falling object, a traffic jam, a fire, or the like.

【0013】事象判定部計算機4は判定した結果に基づ
き、報知盤5−1〜5−nのいずれにどのような内容の
情報を送るか等を判定してネットワーク1を介して必要
な情報を必要な報知盤へ送出する。斯して報知盤5−1
〜5−nによって、所要の情報の報知がなされる。
Based on the result of the judgment, the event judging section computer 4 judges to which one of the notification boards 5-1 to 5-n the information of what kind is to be sent, and the like. Send to the required alarm board. Thus, the alarm board 5-1
The required information is notified by ~ 5-n.

【0014】上記の画像処理部計算機2においては、図
1に示される各手段により画像処理装置が構成される。
この画像処理装置は、制御手段10、画像取得手段1
1、差分絶対値計算手段12、2値化処理手段13、監
視対象物領域抽出手段14、合成手段15を備える。画
像取得手段11は、カメラ6−1〜6−mから監視対象
画像データを取り込むものである。差分絶対値計算手段
12は、上記画像取得手段11に取り込まれた第1の時
刻におけるフレーム画像データと上記第1の時刻よりも
過去の時刻におけるフレーム画像データの差分絶対値を
計算するものである。
In the image processing section computer 2 described above, an image processing apparatus is constituted by the respective means shown in FIG.
This image processing apparatus includes a control unit 10 and an image acquisition unit 1.
1, a difference absolute value calculation unit 12, a binarization processing unit 13, a monitoring target area extraction unit 14, and a combination unit 15. The image acquisition means 11 takes in the monitoring target image data from the cameras 6-1 to 6-m. The difference absolute value calculation means 12 calculates the difference absolute value between the frame image data at the first time taken in by the image acquisition means 11 and the frame image data at a time earlier than the first time. .

【0015】2値化処理手段13は、上記差分絶対値計
算手段12により計算された差分絶対値に対して2値化
処理を行うものである。監視対象物領域抽出手段14
は、上記2値化処理手段13により得られた2値化デー
タに基づき物体の領域区分を行い、区分された領域から
上記第1の時刻における監視対象物の領域を抽出するも
のである。
The binarization processing means 13 performs binarization processing on the difference absolute value calculated by the difference absolute value calculation means 12. Monitoring target area extraction means 14
Is to perform area division of the object based on the binarized data obtained by the binarization processing means 13 and extract the area of the monitored object at the first time from the divided area.

【0016】制御手段10は、上記過去の時刻と異なる
少なくとも1個の過去の時刻におけるフレーム画像デー
タを用いて、上記差分絶対値計算手段12における計算
を行わせ、この計算結果について上記2値化処理手段1
3と上記監視対象物領域抽出手段14とによる処理を行
わせて、上記第1の時刻における監視対象物の領域を複
数抽出させるものである。合成手段15は、上記抽出さ
れた上記第1の時刻における監視対象物の複数領域につ
いて領域合成を行うものである。
The control means 10 causes the difference absolute value calculation means 12 to perform calculation using the frame image data at at least one past time different from the past time, and the calculation result is binarized. Processing means 1
3 and the monitoring target region extraction means 14 to perform a process to extract a plurality of regions of the monitoring target at the first time. The synthesizing unit 15 performs region synthesizing on a plurality of regions of the monitored object at the extracted first time.

【0017】上記の画像処理装置を構成する画像処理部
計算機2は、例えばパーソナルコンピュータやワークス
テーションその他の計算機により構成され、例えば、図
3に示すような構成要素からなっている。すなわち、図
3の計算機は、装置を統括制御するCPU51を有し、
このCPU51に上記CPU51が用いるプログラム及
びデータ等の情報が記憶される主記憶装置52が接続さ
れている。更に、CPU51には、システムバス53を
介してキーボード制御部54、表示制御部55、プリン
タ制御部56、通信インタフェース57、マウス制御部
58、磁気ディスク制御部59が接続されている。キー
ボード制御部54には各種情報をキー入力可能なキーボ
ード入力装置60が接続され、表示制御部55には情報
を表示するためのCRT表示装置61が接続され、プリ
ンタ制御部56には情報を印字出力するためのプリンタ
装置62が接続され、通信インタフェース57には回線
を介して通信を行うための通信処理部63が接続され、
マウス制御部58にはポインティングディバイスである
マウス64が接続され、磁気ディスク制御部59には補
助記憶装置である磁気ディスク装置65が接続されてい
る。なお、画像処理部計算機2には、CPU51、主記
憶装置52、磁気ディスク制御部59、磁気ディスク装
置65、通信インタフェース57、通信制御部63が少
なくとも設けられる。また、必要に応じてフレキシブル
ディスクドライブ、磁気カード或いはICカードリー
ダ、MO(光磁気ディスク)ドライブ等が設けられる。
The image processing section computer 2 constituting the above image processing apparatus is constituted by, for example, a personal computer, a workstation or other computer, and is constituted by, for example, the components shown in FIG. That is, the computer shown in FIG. 3 has a CPU 51 that controls the apparatus as a whole,
A main storage device 52 for storing information such as programs and data used by the CPU 51 is connected to the CPU 51. Further, a keyboard control unit 54, a display control unit 55, a printer control unit 56, a communication interface 57, a mouse control unit 58, and a magnetic disk control unit 59 are connected to the CPU 51 via a system bus 53. The keyboard control unit 54 is connected to a keyboard input device 60 capable of inputting various information by keys, the display control unit 55 is connected to a CRT display device 61 for displaying information, and the printer control unit 56 prints information. A printer device 62 for output is connected, a communication processing unit 63 for performing communication via a line is connected to the communication interface 57,
A mouse 64 which is a pointing device is connected to the mouse controller 58, and a magnetic disk device 65 which is an auxiliary storage device is connected to the magnetic disk controller 59. The image processing unit computer 2 is provided with at least a CPU 51, a main storage device 52, a magnetic disk control unit 59, a magnetic disk device 65, a communication interface 57, and a communication control unit 63. Further, a flexible disk drive, a magnetic card or IC card reader, an MO (magneto-optical disk) drive, etc. are provided as needed.

【0018】そして、図1に示した各手段は、CPU5
1が図4に示されるフローチャートに対応するプログラ
ムにより本発明に係る画像処理方法を行うことで実現さ
れるので、このフローチャートにより本発明に係る画像
処理装置の動作を説明する。上記フローチャートに対応
するプログラムは、本発明に係る画像処理プログラムで
あり、例えば磁気ディスク装置65に格納されており、
主メモリ52へ読み出されて実行される。ここでは、第
1の時刻を現在時刻とし、現在時刻における監視対象物
の存在領域抽出を行うものを説明する。まず、動作が開
始され、カメラ6−1〜6−mから画像データの取り込
みを行う(S2:画像取得手段11)。
Each means shown in FIG.
1 is realized by performing the image processing method according to the present invention by the program corresponding to the flowchart shown in FIG. 4, the operation of the image processing apparatus according to the present invention will be described with reference to this flowchart. The program corresponding to the above flowchart is an image processing program according to the present invention, and is stored in, for example, the magnetic disk device 65,
It is read out to the main memory 52 and executed. Here, a case will be described in which the first time is set as the current time and the existing area of the monitored object at the current time is extracted. First, the operation is started, and image data is captured from the cameras 6-1 to 6-m (S2: image acquisition means 11).

【0019】ここでは、カメラ6−1から取り込んだ画
像データについての処理を説明するが、他のカメラから
取り込んだ画像データの処理についても同様に行われ
る。そして、カメラ6−1から取り込んだ現在時刻の画
像が、図5に示されるようなトンネル内の画像であり、
道路Rを走行する車両Sを含むものとする。車両Sには
照明の影響により縞が写っており、また反射部分が経時
的に変化している。
Here, the processing for the image data captured from the camera 6-1 will be described, but the processing for the image data captured from another camera is also performed in the same manner. Then, the image at the current time captured from the camera 6-1 is an image inside the tunnel as shown in FIG.
A vehicle S traveling on the road R is included. Stripes appear on the vehicle S due to the influence of illumination, and the reflection portion changes with time.

【0020】そこで、現在時刻におけるフレーム画像と
過去における時刻iにおけるフレーム画像の差分絶対値
を計算する(S2:差分絶対値計算手段12)。ここに
おいて、過去における時刻iは、現在時刻より例えばt
秒前の時刻とする。現在時刻におけるフレーム画像と過
去における時刻iにおけるフレーム画像の差分絶対値計
算では、図6に示されるように、各画素毎に例えば25
6階調(0〜255)の輝度値により表現されたデータ
により構成される現在時刻におけるフレーム画像(図6
(a))と、同じく各画素毎に例えば256階調(0〜
255)により表現されたデータにより構成される過去
における時刻iにおけるフレーム画像(図6(b))の
差分が計算され、その絶対値が図7に示すような1画面
を構成する256階調により表現された画素データの集
合として得られる。
Therefore, the absolute difference value between the frame image at the current time and the frame image at the past time i is calculated (S2: absolute difference value calculating means 12). Here, the time i in the past is, for example, t from the current time.
The time is seconds before. In the calculation of the absolute value of the difference between the frame image at the current time and the frame image at the time i in the past, as shown in FIG.
A frame image at the current time composed of data represented by brightness values of 6 gradations (0 to 255) (see FIG. 6).
Similarly to (a)), for example, 256 gradations (0 to 0) are set for each pixel.
The difference between the frame images (FIG. 6 (b)) at the time i in the past composed of the data represented by 255) is calculated, and the absolute value of the difference is calculated by 256 gradations forming one screen as shown in FIG. It is obtained as a set of expressed pixel data.

【0021】次に、上記で得られた差分絶対値の画素デ
ータが集合した1画面分のデータについて、予め定めら
れた閾値を用いて各画素毎に2値化を行い、各画素のデ
ータを1と0のいずれかにする(S3:2値化処理手段
3)。この結果、例えば、図8に示すように「1」が集
合した部分と、図8では何等の記載がなされていない
「0」の部分とに分かれる。
Next, the data for one screen, in which the pixel data of the absolute difference values obtained above are collected, is binarized for each pixel using a predetermined threshold value, and the data of each pixel is obtained. It is set to either 1 or 0 (S3: Binarization processing means 3). As a result, for example, as shown in FIG. 8, it is divided into a portion where “1” s are gathered and a portion where “0” is not described in FIG.

【0022】上記のような2値化データに基づき物体の
領域を区分し、区分された領域から現在時刻における監
視対象物の領域を抽出する(S4:監視対象物領域抽出
手段14)。つまり、図8に示されるように、「1」が
連続する部分を1纏めにして、まとめた領域に番号付け
(No.1, No.2, No.3, ・・・)を行うラベリング処理を
行い、監視対象物の領域またはそれ以外の物の領域を抽
出する。図8の例では、3つのの領域が検出されてお
り、図5との比較により明らかな通り車両Sに対応する
No.1の領域以外に不要なNo.2, No.3の領域が抽出されて
いる。
The area of the object is divided based on the binarized data as described above, and the area of the monitored object at the current time is extracted from the divided area (S4: monitored object area extracting means 14). That is, as shown in FIG. 8, a labeling process for grouping consecutive "1" s and numbering (No.1, No.2, No.3, ...) To the grouped regions. Then, the area of the monitored object or the area of other objects is extracted. In the example of FIG. 8, three areas are detected and correspond to the vehicle S as is clear by comparison with FIG.
In addition to the No. 1 area, unnecessary No. 2 and No. 3 areas are extracted.

【0023】次に、所定数の過去のフレーム画像データ
を使用したのかを検出し(S5)、使用していないとき
には、過去の時刻iをi+1として(S6)、ステップ
S2からステップS4の処理を繰り返させる(制御手段
10)。つまり、過去の時刻iを例えば現在時刻より2
t秒前とし、上記と同様の処理を実行し、更に過去の時
刻iを例えば現在時刻より3t秒前とし、上記と同様の
処理を実行し、予め定められただけの過去のフレーム画
像を用いて処理を行う。
Next, it is detected whether a predetermined number of past frame image data has been used (S5), and when not used, the past time i is set to i + 1 (S6), and the processing from step S2 to step S4 is performed. Repeat (control means 10). That is, the past time i is, for example, 2 from the current time.
t seconds before, the same processing as above is executed, the past time i is set to, for example, 3t seconds before the current time, the same processing as above is executed, and only a predetermined number of past frame images are used. Process.

【0024】この結果、図8に示したような現在時刻に
おける監視対象物の領域(No.1の領域)が複数抽出され
る。例えば、現在時刻よりt、2t、3t秒過去のフレ
ーム画像を用いることにより、3通りの現在時刻におけ
る監視対象物の領域が抽出される。現在時刻における監
視対象物以外の領域(図8のNo.2, No.3の領域)は、監
視対象物である車両が実際に存在しなければ上記3通り
の処理により異なる位置に現れるので、除去する処理が
行われる。
As a result, a plurality of areas (No. 1 areas) of the monitored object at the current time as shown in FIG. 8 are extracted. For example, by using the frame images t, 2t, and 3t seconds past the current time, three areas of the monitored object at the current time are extracted. Areas other than the monitored object at the current time (areas No. 2 and No. 3 in FIG. 8) appear at different positions by the above three processes unless the vehicle as the monitored object actually exists. The process of removing is performed.

【0025】そして、図5に示した現在時刻の車両Sの
領域が図9(a)、図10(a)、図11(a)におい
て、太枠にて囲った領域であるとき、現在時刻よりt秒
過去のフレーム画像を用いた結果が例えば図9(a)に
示すように、「1」が集合した領域として特定される。
そこで、図9(b)に示すような領域を現在時刻におけ
る監視対象物の領域とする。また、現在時刻より2t秒
過去のフレーム画像を用いた結果が例えば図10(a)
に示すように、「1」が集合した領域として特定され
る。そこで、図10(b)に示すような領域を現在時刻
における監視対象物の領域とする。さらに現在時刻より
3t秒過去のフレーム画像を用いた結果が例えば図11
(a)に示すように、「1」が集合した領域として特定
される。そこで、図11(b)に示すような領域を現在
時刻における監視対象物の領域とする。
When the area of the vehicle S at the current time shown in FIG. 5 is the area surrounded by a thick frame in FIGS. 9A, 10A and 11A, the current time is As shown in FIG. 9A, for example, the result of using the frame image that is older than t seconds is specified as a region in which “1” is collected.
Therefore, the area as shown in FIG. 9B is set as the area of the monitored object at the current time. Further, the result of using the frame image 2t seconds past the current time is, for example, as shown in FIG.
As shown in, the area is identified as a group of "1" s. Therefore, the area as shown in FIG. 10B is set as the area of the monitored object at the current time. Further, the result of using the frame image 3t seconds past the current time is shown in FIG.
As shown in (a), it is specified as an area in which "1" is collected. Therefore, the area as shown in FIG. 11B is set as the area of the monitored object at the current time.

【0026】このように予め設定された過去のフレーム
画像が3通りとされている場合には、ステップS5にお
いてYESへ分岐し、求められた現在時刻における監視
対象物の複数(ここでは3通り)の領域を合成する(S
7:合成手段15)。ここの合成処理においては、まず
は、単純にOR(論理和)演算による合成を行う。図9
(b)と図10(b)と図11(b)に示される領域が
抽出されているときには、上記OR(論理和)演算によ
り図12に示されるように図5に示した現在時刻の車両
Sの領域が特定される。
If there are three preset frame images set in advance in this way, the process branches to YES in step S5, and a plurality of monitored objects (here, three patterns) are obtained at the present time. Area is synthesized (S
7: Synthesis means 15). In the synthesis processing here, first, the synthesis is simply performed by an OR (logical sum) operation. Figure 9
When the regions shown in (b), FIG. 10 (b), and FIG. 11 (b) are being extracted, the vehicle at the current time shown in FIG. 5 as shown in FIG. 12 by the above OR (logical sum) operation. The area of S is specified.

【0027】この特定領域の情報は、画像処理部計算機
2が用いて車両の位置を特定し必要な処理に用いる他、
統合処理部計算機3と事象判定部計算機4へ送り、事象
判定に用いられることになる。
The information of the specific area is used by the image processing unit computer 2 to specify the position of the vehicle and used for necessary processing.
It is sent to the integrated processing unit computer 3 and the event determination unit computer 4 and used for event determination.

【0028】上記合成処理は、単にOR(論理和)演算
(重ね合わせ)することを示したが、この演算の結果に
対して、例えば、予め備えられている車両の形状データ
と比較して、非合理的な結果となっている場合には、O
R演算に用いる対象を限定する。例えば、3通り全てを
用いるのではなく、2通りの組み合わせの内の妥当なも
のを結果とする。また、トンネル内の壁の上部や天井部
等のように車両が存在することのできない部分が領域と
して抽出されている結果を、トンネル内の壁の上部や天
井部等のように車両が存在することのできない部分の領
域データベース(画像処理装置が備える)を用いて除去
する。さらに、速度センサを設置しておき、このセンサ
から得られる速度データに基づき、過去の時刻における
車両位置を予測し、車両が存在することのできない位置
が領域として抽出されている結果を除去する。これらの
補正処理のいずれか、或いは複数を用いて最終結果を出
力する。また、上記では現在時刻における監視対象物の
領域を特定することを示したが、本発明は一般的に或る
時刻における監視対象物の領域を特定するために用いる
ことが可能である。
The synthesizing process is shown to be a simple OR (logical sum) operation (superposition), but the result of this operation is compared with, for example, the shape data of the vehicle prepared in advance, O if the result is irrational
The target used for the R calculation is limited. For example, instead of using all three combinations, the result is a reasonable combination of the two combinations. In addition, the result that the part where the vehicle cannot exist, such as the upper part of the wall or the ceiling part in the tunnel, is extracted as the region, and the result exists that the vehicle exists, such as the upper part or the ceiling part of the wall in the tunnel. It is removed using the area database (included in the image processing apparatus) of the impossible part. Further, a speed sensor is installed, the vehicle position at the past time is predicted based on the speed data obtained from this sensor, and the result that the position where the vehicle cannot exist is extracted as a region is removed. The final result is output using one or more of these correction processes. Also, although the above has shown that the area of the monitored object at the current time is specified, the present invention can be generally used to specify the area of the monitored object at a certain time.

【0029】[0029]

【発明の効果】以上説明したように本発明によれば、取
り込まれた第1の時刻におけるフレーム画像データと上
記第1の時刻よりも過去の時刻におけるフレーム画像デ
ータの差分絶対値を計算し、計算された差分絶対値に対
して2値化処理を行い、得られた2値化データに基づき
物体の領域区分を行い、区分された領域から上記第1の
時刻における監視対象物の領域を抽出する処理を行い、
更に上記過去の時刻と異なる少なくとも1個の過去の時
刻におけるフレーム画像データを用いて、差分絶対値計
算を行わせ、この計算結果について2値化処理と監視対
象物領域抽出に係る処理を行わせて、上記第1の時刻に
おける監視対象物の領域を複数抽出させ、抽出された上
記第1の時刻における監視対象物の複数領域について領
域合成を行うので、照明環境のために縞ができるなどし
て1つ差分処理では得られない領域を抽出することがで
き、適切に監視対象物の存在領域を特定することが可能
となる。
As described above, according to the present invention, the absolute difference value between the captured frame image data at the first time and the frame image data at a time earlier than the first time is calculated, The calculated absolute difference value is binarized, the object area is divided based on the obtained binarized data, and the area of the monitored object at the first time is extracted from the divided area. Process
Further, the difference absolute value calculation is performed using at least one frame image data at the past time different from the past time, and the calculation result is subjected to the binarization process and the process related to the monitoring target region extraction. Then, a plurality of regions of the monitored object at the first time are extracted, and regions are combined for the plurality of extracted regions of the monitored object at the first time. As a result, it is possible to extract an area that cannot be obtained by one difference process, and it is possible to appropriately specify the existing area of the monitored object.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る画像処理装置の機能構成を示すブ
ロック図。
FIG. 1 is a block diagram showing a functional configuration of an image processing apparatus according to the present invention.

【図2】本発明に係る画像処理装置を用いて構成した道
路監視システムの構成図。
FIG. 2 is a configuration diagram of a road monitoring system configured by using the image processing apparatus according to the present invention.

【図3】本発明に係る画像処理装置の実際上の構成例を
示すブロック図。
FIG. 3 is a block diagram showing a practical configuration example of an image processing apparatus according to the present invention.

【図4】本発明に係る画像処理装置の動作を説明するた
めのフローチャート。
FIG. 4 is a flowchart for explaining the operation of the image processing apparatus according to the present invention.

【図5】本発明に係る画像処理装置により画像処理する
画面の一例を示す図。
FIG. 5 is a diagram showing an example of a screen on which image processing is performed by the image processing apparatus according to the present invention.

【図6】本発明に係る画像処理装置により差分絶対値を
得るための現在時刻の画像データと過去i時刻の画像デ
ータとを示す図。
FIG. 6 is a diagram showing image data at a current time and image data at a past i time for obtaining an absolute difference value by the image processing apparatus according to the present invention.

【図7】本発明に係る画像処理装置により差分絶対値が
得られた状態の画像データを示す図。
FIG. 7 is a diagram showing image data in a state where absolute difference values are obtained by the image processing apparatus according to the present invention.

【図8】本発明に係る画像処理装置により2値化され、
ラベリングが行われた状態の画像データを示す図。
FIG. 8 is binarized by the image processing apparatus according to the present invention,
The figure which shows the image data in the state where labeling was performed.

【図9】本発明に係る画像処理装置による現在時刻とそ
れよりt秒過去の画像データを用いた画像処理を説明す
るための領域特定処理結果の要部を示す図。
FIG. 9 is a diagram showing a main part of a region specifying processing result for explaining image processing using image data of the present time and t seconds past the present time by the image processing apparatus according to the present invention.

【図10】本発明に係る画像処理装置による現在時刻と
それより2t秒過去の画像データを用いた画像処理を説
明するための領域特定処理結果の要部を示す図。
FIG. 10 is a diagram showing a main part of a region specifying processing result for explaining image processing using image data of a current time and a time 2t seconds before the current time by the image processing apparatus according to the present invention.

【図11】本発明に係る画像処理装置による現在時刻と
それより3t秒過去の画像データを用いた画像処理を説
明するための領域特定処理結果の要部を示す図。
FIG. 11 is a diagram showing a main part of a region specifying processing result for explaining image processing using image data of a current time and a time 3t seconds before the current time by the image processing apparatus according to the present invention.

【図12】本発明に係る画像処理装置による複数の領域
特定処理結果を合成して最終的な監視対象物の領域を得
る処理を示す図。
FIG. 12 is a diagram showing a process of synthesizing a plurality of region specifying process results by the image processing apparatus according to the present invention to obtain a final region of a monitoring object.

【符号の説明】[Explanation of symbols]

1 ネットワーク 2 画像処理部計算機 3 統合処理部計算機 4 事象判定部計算機 5−1〜5−n 報知盤 6−1〜6−m カメラ 10 制御手段 11 画像取得手段 12 差分絶対値計算手段 13 2値化処理手段 14 監視対象物領域抽出手段 15 合成手段 1 network 2 Image processing computer 3 Integrated processing unit computer 4 Event judgment part calculator 5-1 to 5-n Alarm board 6-1 to 6-m camera 10 Control means 11 Image acquisition means 12 Difference absolute value calculation means 13 Binarization processing means 14 Monitoring target area extraction means 15 Synthetic means

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/20 200 G06T 7/20 200A G08G 1/04 G08G 1/04 C Fターム(参考) 5B057 AA16 BA02 CA08 CA12 CA16 CB06 CB12 CB16 CE08 CE12 DA08 DB02 DB09 DC32 DC36 5C054 CA04 CC03 CD03 EA01 FC05 FC12 FC13 HA26 5H180 AA01 CC04 JJ26 5L096 AA06 BA02 CA02 CA04 DA01 EA43 FA14 GA08 HA03 Front page continuation (51) Int.Cl. 7 identification code FI theme code (reference) G06T 7/20 200 G06T 7/20 200A G08G 1/04 G08G 1/04 C F term (reference) 5B057 AA16 BA02 CA08 CA12 CA16 CB06 CB12 CB16 CE08 CE12 DA08 DB02 DB09 DC32 DC36 5C054 CA04 CC03 CD03 EA01 FC05 FC12 FC13 HA26 5H180 AA01 CC04 JJ26 5L096 AA06 BA02 CA02 CA04 DA01 EA43 FA14 GA08 HA03

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 監視対象画像データを取り込む画像取得
手段と、 前記画像取得手段に取り込まれた第1の時刻におけるフ
レーム画像データと前記第1の時刻よりも過去の時刻に
おけるフレーム画像データの差分絶対値を計算する差分
絶対値計算手段と、 前記差分絶対値計算手段により計算された差分絶対値に
対して2値化処理を行う2値化処理手段と、 前記2値化処理手段により得られた2値化データに基づ
き物体の領域区分を行い、区分された領域から前記第1
の時刻における監視対象物の領域を抽出する監視対象物
領域抽出手段と、 前記過去の時刻と異なる少なくとも1個の過去の時刻に
おけるフレーム画像データを用いて、前記差分絶対値計
算手段における計算を行わせ、この計算結果について前
記2値化処理手段と前記監視対象物領域抽出手段とによ
る処理を行わせて、前記第1の時刻における監視対象物
の領域を複数抽出させる制御手段と、 前記抽出された前記第1の時刻における監視対象物の複
数領域について領域合成を行う合成手段とを具備するこ
とを特徴とする画像処理装置。
1. An image acquisition unit for capturing monitoring target image data, absolute difference between frame image data at a first time captured by the image acquisition unit and frame image data at a time earlier than the first time. A difference absolute value calculating means for calculating a value; a binarization processing means for performing a binarization process on the difference absolute value calculated by the difference absolute value calculating means; and a binarization processing means. The area of the object is divided based on the binarized data, and the first area is divided from the divided area.
Using the monitoring target area extraction means for extracting the monitoring target area at the time of, and the frame image data at least one past time different from the past time, the difference absolute value calculation means performs the calculation. In addition, a control unit that causes the binarization processing unit and the monitoring target region extraction unit to perform processing on the calculation result to extract a plurality of monitoring target regions at the first time, An image processing apparatus, comprising: a synthesizing unit that synthesizes a region of a plurality of regions of the monitoring target at the first time.
【請求項2】 前記合成手段は、前記抽出された前記第
1の時刻における監視対象物の複数領域を重ね合わせて
監視対象物の領域とすることを特徴とする請求項1に記
載の画像処理装置。
2. The image processing according to claim 1, wherein the synthesizing unit superimposes a plurality of regions of the extracted monitoring target object at the first time to form a monitoring target object region. apparatus.
【請求項3】 前記合成手段は、前記抽出された前記第
1の時刻における監視対象物の複数領域を重ね合わせて
監視対象物の領域を得ると共に、前記監視対象物が存在
できない領域を除去して前記監視対象物の領域とするこ
とを特徴とする請求項1に記載の画像処理装置。
3. The combining means obtains an area of the monitored object by superimposing a plurality of areas of the extracted monitored object at the first time, and removes an area where the monitored object cannot exist. The image processing apparatus according to claim 1, wherein the area is the area to be monitored.
【請求項4】 監視対象画像データを取り込む画像取得
ステップと、 前記画像取得ステップにて取り込まれた第1の時刻にお
けるフレーム画像データと前記第1の時刻よりも過去の
時刻におけるフレーム画像データの差分絶対値を計算す
る差分絶対値計算ステップと、 前記差分絶対値計算ステップにより計算された差分絶対
値に対して2値化処理を行う2値化処理ステップと、 前記2値化処理ステップにより得られた2値化データに
基づき物体の領域区分を行い、区分された領域から前記
第1の時刻における監視対象物の領域を抽出する監視対
象物領域抽出ステップと、 前記過去の時刻と異なる少なくとも1個の過去の時刻に
おけるフレーム画像データを用いて、前記差分絶対値計
算ステップにおける計算を行わせ、この計算結果につい
て前記2値化処理ステップと前記監視対象物領域抽出ス
テップとによる処理を行わせて、前記第1の時刻におけ
る監視対象物の領域を複数抽出させる繰り返し処理ステ
ップと、 前記抽出された前記第1の時刻における監視対象物の複
数領域について領域合成を行う合成ステップとを具備す
ることを特徴とする画像処理方法。
4. An image acquisition step of capturing monitoring target image data, a difference between the frame image data at the first time captured at the image acquisition step and the frame image data at a time earlier than the first time. A difference absolute value calculation step of calculating an absolute value; a binarization processing step of performing a binarization process on the difference absolute value calculated by the difference absolute value calculation step; and a binarization processing step Monitoring object region extraction step of performing region segmentation of the object based on the binarized data and extracting the region of the monitoring target region at the first time from the segmented region, and at least one different from the past time Using the frame image data at the past time, the calculation in the difference absolute value calculation step is performed, and the calculation result is The repetitive processing step of causing the binarization processing step and the monitoring target area extraction step to perform a plurality of extraction of the monitoring target area at the first time, and the extracted first An image processing method, which comprises a region combining process for a plurality of regions of the monitoring target at a time.
【請求項5】 主メモリに格納されたプログラムに基づ
き中央制御装置が処理を行って結果を得るコンピュータ
に用いられる画像処理プログラムにおいて、 前記中央処理装置に対し、 監視対象画像データを取り込む画像取得ステップと、 前記画像取得ステップにて取り込まれた第1の時刻にお
けるフレーム画像データと前記第1の時刻よりも過去の
時刻におけるフレーム画像データの差分絶対値を計算す
る差分絶対値計算ステップと、 前記差分絶対値計算ステップにより計算された差分絶対
値に対して2値化処理を行う2値化処理ステップと、 前記2値化処理ステップにより得られた2値化データに
基づき物体の領域区分を行い、区分された領域から前記
第1の時刻における監視対象物の領域を抽出する監視対
象物領域抽出ステップと、 前記過去の時刻と異なる少なくとも1個の過去の時刻に
おけるフレーム画像データを用いて、前記差分絶対値計
算ステップにおける計算を行わせ、この計算結果につい
て前記2値化処理ステップと前記監視対象物領域抽出ス
テップとによる処理を行わせて、前記第1の時刻におけ
る監視対象物の領域を複数抽出させる繰り返し処理ステ
ップと、 前記抽出された前記第1の時刻における監視対象物の複
数領域について領域合成を行う合成ステップとを実行さ
せることを特徴とする画像処理プログラム。
5. An image processing program used in a computer, wherein a central control unit performs processing based on a program stored in a main memory to obtain a result, wherein an image acquisition step of capturing monitoring target image data into the central processing unit. And a difference absolute value calculation step of calculating a difference absolute value between the frame image data at the first time captured in the image acquisition step and the frame image data at a time earlier than the first time, the difference A binarization processing step of performing a binarization processing on the difference absolute value calculated by the absolute value calculation step, and a region division of the object based on the binarized data obtained by the binarization processing step, A monitoring target area extraction step of extracting a monitoring target area at the first time from the partitioned area; The calculation in the difference absolute value calculation step is performed using frame image data at least one past time different from the past time, and the binarization processing step and the monitoring target object area extraction are performed on the calculation result. And a repeating processing step of extracting a plurality of regions of the monitoring target object at the first time, and performing region combination for the plurality of extracted regions of the monitoring target object at the first time. An image processing program for executing a combining step.
JP2002106681A 2002-04-09 2002-04-09 Image processing apparatus, image processing method, and image processing program Withdrawn JP2003304531A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002106681A JP2003304531A (en) 2002-04-09 2002-04-09 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002106681A JP2003304531A (en) 2002-04-09 2002-04-09 Image processing apparatus, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2003304531A true JP2003304531A (en) 2003-10-24

Family

ID=29390930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002106681A Withdrawn JP2003304531A (en) 2002-04-09 2002-04-09 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2003304531A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110648942A (en) * 2018-06-27 2020-01-03 捷进科技有限公司 Chip mounter and method of manufacturing semiconductor device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110648942A (en) * 2018-06-27 2020-01-03 捷进科技有限公司 Chip mounter and method of manufacturing semiconductor device
KR20200001514A (en) * 2018-06-27 2020-01-06 파스포드 테크놀로지 주식회사 Die bonder and manufacturing method of semiconductor device
KR102241861B1 (en) * 2018-06-27 2021-04-19 파스포드 테크놀로지 주식회사 Die bonder and manufacturing method of semiconductor device

Similar Documents

Publication Publication Date Title
JP5325899B2 (en) Intrusion alarm video processor
CN102348128B (en) Surveillance camera system having camera malfunction detection function
EP0749098B1 (en) Method and apparatus for sensing object located within visual field of imaging device
JP2001175876A (en) Method and device for detecting moving body
Li et al. Detection of vehicles from traffic scenes using fuzzy integrals
JP2010128919A (en) Object detection apparatus
CN112149649B (en) Road spray detection method, computer equipment and storage medium
CN111881853A (en) Method and device for identifying abnormal behaviors in oversized bridge and tunnel
CN112132216B (en) Vehicle type recognition method and device, electronic equipment and storage medium
CN112184773A (en) Helmet wearing detection method and system based on deep learning
CN111582166B (en) Method for detecting remnants based on Gaussian modeling and YoLo V3 target detection
CN103793921B (en) Moving object extraction method and moving object extraction device
CN115424217A (en) AI vision-based intelligent vehicle identification method and device and electronic equipment
CN111985295A (en) Electric bicycle behavior recognition method and system, industrial personal computer and camera
CN111931693A (en) Traffic sign recognition method, device, terminal and medium based on artificial intelligence
JP2003304531A (en) Image processing apparatus, image processing method, and image processing program
JP2003248895A (en) System and method for image type vehicle sensing
JP2020149086A (en) Training data generation apparatus, training data generation method, and training data generation program
JP2004296592A (en) Defect classification equipment, defect classification method, and program
JPH08317373A (en) System for detecting and extracting object in video monitoring device
CN108268813B (en) Lane departure early warning method and device and electronic equipment
Oh et al. Development of an integrated system based vehicle tracking algorithm with shadow removal and occlusion handling methods
JP4253265B2 (en) Shadow detection apparatus, shadow detection method and shadow detection program, image processing apparatus using shadow detection apparatus, image processing method using shadow detection method, and image processing program using shadow detection program
CN117041484B (en) People stream dense area monitoring method and system based on Internet of things
CN113283273B (en) Method and system for detecting front obstacle in real time based on vision technology

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050705