JPH09102032A - Detection of object from picture and object detection device using the same - Google Patents

Detection of object from picture and object detection device using the same

Info

Publication number
JPH09102032A
JPH09102032A JP28460095A JP28460095A JPH09102032A JP H09102032 A JPH09102032 A JP H09102032A JP 28460095 A JP28460095 A JP 28460095A JP 28460095 A JP28460095 A JP 28460095A JP H09102032 A JPH09102032 A JP H09102032A
Authority
JP
Japan
Prior art keywords
detection processing
detection
processing area
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP28460095A
Other languages
Japanese (ja)
Inventor
Nakatsugu Yoshikawa
仲次 吉川
Hiroaki Maekawa
浩昭 前川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SEIWA DENKI KK
Seiwa Electric Mfg Co Ltd
Original Assignee
SEIWA DENKI KK
Seiwa Electric Mfg Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SEIWA DENKI KK, Seiwa Electric Mfg Co Ltd filed Critical SEIWA DENKI KK
Priority to JP28460095A priority Critical patent/JPH09102032A/en
Publication of JPH09102032A publication Critical patent/JPH09102032A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an object detection method from an image to which a real time processing can be executed in a simple algorithm and to provide an object detection device using the method. SOLUTION: The device is constituted by an image pickup part 100 which image-picks up an original image and a detection processing part 200. The detection processing part 200 is provided with a quantization part 210 which digitally quantizes the lightness of a picture element, a storage part 220, a processing area setting part 230, an extraction part 240 for the picture element in the detection processing area, a classification part 250 making the respective extracted picture elements based on lightness, an arithmetic part 260 digitizing the feature of the distribution state of the picture element in the histogram obtained in the part 250 by using a statistical method and a processing part 270 executing a learning processing on the numeric value obtained by the arithmetic part by a neural network method. The processing part 200 finally judges whether an object exists in the respective detection areas or not.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像からの物体検
出方法と、この方法を用いた物体検出装置とに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for detecting an object from an image and an object detecting device using this method.

【0002】[0002]

【従来の技術】従来のこの種の画像からの物体検出方法
について説明する。まず、カメラで撮像した画像に処理
領域を設定し、この処理領域内になんらかの物体が存在
するか否かを検出するのであるが、その検出方法にはエ
ッジ検出処理と呼ばれる方法がある。
2. Description of the Related Art A conventional method for detecting an object from an image of this type will be described. First, a processing area is set in an image captured by a camera, and it is detected whether or not there is any object in this processing area. There is a method called edge detection processing as the detection method.

【0003】このエッジ検出処理は、『画像中の対象物
に対応する部分では、濃度、色或いはテクスチャー等の
特徴が一様であり、異なる対象物或いは対象物の部分間
では特徴が急激に変化している』という仮定を前提とし
ている。すなわち、特徴の不連続部分を抽出することに
より、物体を検出するのである。
This edge detection process is performed by saying that "characteristics such as density, color and texture are uniform in the part corresponding to the object in the image, and the characteristics change rapidly between different objects or parts of the object. It is based on the assumption. That is, the object is detected by extracting the discontinuous portion of the feature.

【0004】ここで、不連続部分を抽出するための手法
としては、全画素を微分しある微分値を有する画素をつ
なぎあわせてエッジを求める画像の一次微分、前記一次
微分をさらに微分して微分値の変化量を検索することで
エッジを求めるラプラシアン(二次微分)、隣接する画
素の明度値同士の差を求めある差を有する画素をつなぎ
あわせてエッジを求める画素間の明度値の差分処理、す
べての画素の画像上での明度分布を算出しエッジの傾き
の大きさやその方向を求める勾配関数を用いる手法、あ
るいはカラー画像であれば各画素の有する色情報(赤、
緑、青)を隣接する画素と比較してエッジを求める色情
報に基づく手法等がある。
Here, as a method for extracting the discontinuous portion, a first differential of an image in which all pixels are differentiated and pixels having a certain differential value are connected to obtain an edge, and the first differential is further differentiated to differentiate. Laplacian (second derivative) that finds an edge by searching the amount of change in value, finds the difference between the lightness values of adjacent pixels, and connects pixels that have a certain difference to obtain an edge. Difference processing of lightness values between pixels. , A method that uses a gradient function that calculates the brightness distribution of all pixels on the image and finds the size and direction of the edge inclination, or if it is a color image, the color information (red,
There is a method based on color information for obtaining an edge by comparing (green, blue) with adjacent pixels.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上述し
た複数のエッジ検出には以下のような問題点がある。す
なわち、各方法とも処理領域内におけるすべての画素の
明度を抽出し、隣接する画素との間で何らかの演算が必
要となるため、リアルタイム処理が難しいのである。特
に隣接する画素との間での演算は、演算量が膨大であ
り、多大な処理時間が必要となる。
However, the above-mentioned plurality of edge detections have the following problems. That is, in each method, the brightness of all the pixels in the processing area must be extracted, and some calculation with adjacent pixels is required, which makes real-time processing difficult. In particular, the calculation between adjacent pixels requires a huge amount of calculation and requires a great deal of processing time.

【0006】また、画素の明度が一様に分布していない
場合、特に背景とその背景上にある物体とのエッジにお
ける画素分布がほとんど差を持たない場合には、エッジ
の検出が困難となる。
Further, when the brightness of pixels is not uniformly distributed, particularly when the pixel distributions at the edges of the background and the object on the background have almost no difference, it becomes difficult to detect the edges. .

【0007】上述したように、従来のエッジ検出に基づ
いた画像からの物体検出方法には、リアルタイム処理が
困難であるという問題点とともに、アルゴリズムの複雑
化という問題点がある。
As described above, the conventional method of detecting an object from an image based on edge detection has a problem that real-time processing is difficult and a problem that the algorithm is complicated.

【0008】本発明は上記事情に鑑みて創案されたもの
で、簡単なアルゴリズムにあって、なおかつリアルタイ
ム処理が可能な画像からの物体検出方法及びそれを用い
た物体検出装置を提供することを目的としている。
The present invention was devised in view of the above circumstances, and an object of the present invention is to provide an object detection method from an image which has a simple algorithm and which can be processed in real time, and an object detection apparatus using the same. I am trying.

【0009】[0009]

【課題を解決するための手段】本発明に係る画像からの
物体検出方法は、画像中に設定された検出処理領域にお
ける各画素の明度をヒストグラム化し、これによって得
られたヒストグラムに対して統計手法を用いて画素の分
布状態の特徴を数値化し、これによって得られた数値に
基づいて検出処理領域に何らかの物体が存在するか否か
を判断する方法であって、前記判断は、統計手法によっ
て得られた数値を入力データとし、この入力データが得
られた検出処理領域の実際のデータを教師データとし、
前記入力データに対して所定の演算を実行して得られた
出力データと前記教師データとを比較し、出力データが
教師データと合致するように、前記学習しそれに基づい
て処理するニューラルネットワークで行う。
According to a method of detecting an object from an image according to the present invention, the brightness of each pixel in a detection processing area set in the image is converted into a histogram, and a statistical method is applied to the obtained histogram. Is a method of quantifying the characteristics of the distribution state of pixels using, and determining whether or not any object is present in the detection processing area based on the numerical values obtained by the method, and the determination is obtained by a statistical method. The input data is the obtained numerical value, and the actual data of the detection processing area where this input data was obtained is the teacher data,
The output data obtained by executing a predetermined calculation on the input data is compared with the teacher data, and the learning data is processed by the neural network so that the output data matches the teacher data. .

【0010】また、前記統計手法は、加重平均、標準偏
差、ひずみ度のうち少なくとも1つ以上を用いる。
The statistical method uses at least one of weighted average, standard deviation, and skewness.

【0011】本発明に係る物体検出装置は、原画像を撮
像する撮像部と、この撮像部で撮像された原画像に任意
に設定された検出処理領域に物体が存在するか否かを検
出する検出処理部とを有する物体検出装置であって、前
記検出処理部は、前記撮像部からの映像信号に含まれる
画素の明度をデジタル量化する量子化部と、この量子化
部でデジタル量化された画素の明度を記憶する記憶部
と、原画像中に検出処理領域を任意に設定することがで
きる処理領域設定部と、この処理領域設定部で設定され
た検出処理領域中の画素を抽出する抽出部と、この抽出
部で抽出された各画素を明度に基づいてヒストグラム化
する分類部と、この分類部において得られたヒストグラ
ムにおける画素の分布状態の特徴を統計手法を用いて数
値化する演算部と、前記統計手法によって得られた数値
を入力データとし、この入力データが得られた検出処理
領域の実際のデータを教師データとした場合、前記入力
データに対して所定の演算を実行して得られた出力デー
タが前記教師データと合致するように、学習しそれに基
づいて処理する処理部とを備えている。
An object detecting apparatus according to the present invention detects an image pickup section for picking up an original image and whether or not an object exists in a detection processing area arbitrarily set in the original image picked up by the image pickup section. An object detection device having a detection processing unit, wherein the detection processing unit digitizes the brightness of pixels included in a video signal from the imaging unit, and a quantization unit digitized by the quantization unit. A storage unit that stores the brightness of pixels, a processing region setting unit that can arbitrarily set a detection processing region in an original image, and an extraction that extracts pixels in the detection processing region set by this processing region setting unit Section, a classifying section for converting each pixel extracted by this extracting section into a histogram based on the brightness, and an arithmetic section for converting the characteristics of the distribution state of the pixels in the histogram obtained by this classifying section into numerical values using a statistical method. When, When the numerical value obtained by the statistical method is used as the input data and the actual data of the detection processing area where the input data is obtained is used as the teacher data, it is obtained by executing a predetermined calculation on the input data. A processing unit that learns and processes based on the output data so that the output data matches the teacher data.

【0012】[0012]

【発明の実施の形態】図1は本発明に係る物体検出装置
のブロック図、図2は本発明に係る物体検出装置の分類
部で得られる検出処理領域内に物体が存在しない場合の
各画素の明度のヒストグラム、図3は本発明に係る物体
検出装置の分類部で得られる検出処理領域内に物体が存
在する場合の各画素の明度のヒストグラム、図4は検出
処理領域内に物体が存在しない場合の各画素の明度を1
6階級に分けた場合のヒストグラム、図5は検出処理領
域内に物体が存在する場合の各画素の明度を16階級に
分けた場合のヒストグラムである。また、図6は本発明
に係る物体検出装置の分類部として用いられるニューラ
ルネットワークの概略を示した説明図、図7は本発明に
係る物体検出装置を駐車場における車の有無の検出に用
いた実験の説明図であり、同図(A)は概略的平面図、
同図(B)は概略的側面図、図8は検出処理領域を説明
するための説明図である。
1 is a block diagram of an object detecting apparatus according to the present invention, and FIG. 2 is each pixel when an object does not exist in a detection processing area obtained by a classification unit of the object detecting apparatus according to the present invention. Brightness histogram, FIG. 3 is a brightness histogram of each pixel when an object exists in the detection processing area obtained by the classification unit of the object detection apparatus according to the present invention, and FIG. 4 shows an object in the detection processing area. If not, set the brightness of each pixel to 1
FIG. 5 is a histogram in the case of dividing into 6 classes, and FIG. 5 is a histogram in the case of dividing the brightness of each pixel into 16 classes when an object exists in the detection processing region. Further, FIG. 6 is an explanatory view showing an outline of a neural network used as a classification unit of the object detection device according to the present invention, and FIG. 7 is used for detecting the presence or absence of a car in a parking lot. It is explanatory drawing of experiment, The figure (A) is a schematic plan view,
FIG. 8B is a schematic side view, and FIG. 8 is an explanatory diagram for explaining the detection processing area.

【0013】本発明の実施の形態に係る物体検出装置
は、原画像を撮像する撮像部100と、この撮像部10
0で撮像された原画像に任意に設定された検出処理領域
に物体が存在するか否かを検出する検出処理部200と
を有している。
The object detecting apparatus according to the embodiment of the present invention includes an image pickup section 100 for picking up an original image, and this image pickup section 10.
The detection processing unit 200 detects whether or not an object exists in a detection processing area arbitrarily set in the original image captured at 0.

【0014】前記検出処理部200は、図1に示すよう
に、前記撮像部100からの映像信号110に含まれる
画素の明度をデジタル量化する量子化部210と、この
量子化部210でデジタル量化された画素の明度を記憶
する記憶部220と、原画像中に検出処理領域を任意に
設定することができる処理領域設定部230と、この処
理領域設定部230で設定された検出処理領域中の画素
を抽出する抽出部240と、この抽出部240で抽出さ
れた各画素を明度に基づいてヒストグラム化する分類部
250と、この分類部250において得られたヒストグ
ラムにおける画素の分布状態の特徴を統計手法を用いて
数値化する演算部260と、前記統計手法によって得ら
れた数値を入力データとし、この入力データが得られた
検出処理領域の実際のデータを教師データとした場合、
前記入力データに対して所定の演算を実行して得られた
出力データが前記教師データと合致するように、学習し
それに基づいて処理する処理部270とを有している。
As shown in FIG. 1, the detection processing unit 200 digitizes the brightness of pixels included in the video signal 110 from the image pickup unit 100, and a quantizer 210. The storage unit 220 that stores the brightness of the selected pixel, the processing region setting unit 230 that can arbitrarily set the detection processing region in the original image, and the detection processing region that is set by the processing region setting unit 230 An extraction unit 240 for extracting pixels, a classification unit 250 for converting each pixel extracted by the extraction unit 240 into a histogram based on lightness, and statistics of the distribution state characteristics of pixels in the histogram obtained by the classification unit 250 An arithmetic unit 260 that digitizes using a method, and a numerical value obtained by the statistical method as input data, and the realization of the detection processing area where this input data is obtained. If the data was a teacher data,
And a processing unit 270 that learns and processes based on the output data obtained by executing a predetermined calculation on the input data so as to match the output data.

【0015】撮像部100は、すべての検出処理領域を
含んだ画像を撮像することができるCCDカメラを有し
ている。なお、この撮像部100を屋外に設置する場合
には、このCCDカメラのレンズに付着する雨水を除去
するためのワイパーが必要になり、すべての検出処理領
域を1ショットで納められないのであればCCDカメラ
を旋回させる旋回部が必要になる。ただし、複数のCC
Dカメラを用いてすべての検出処理領域をカバーできる
のであれば、旋回部は不必要になる。また、夜間の画像
を撮像する場合や、昼間でも明かりが不足しがちな場合
には、検出処理領域を照明する照明部が必要となる。な
お、CCDカメラには、原画像を録画するVTR120
が接続されている。
The image pickup section 100 has a CCD camera capable of picking up an image including all detection processing areas. When the image pickup unit 100 is installed outdoors, a wiper for removing rainwater adhering to the lens of the CCD camera is required, and if all the detection processing areas cannot be stored in one shot. A turning unit for turning the CCD camera is required. However, multiple CCs
If the D camera can be used to cover the entire detection processing area, the revolving unit becomes unnecessary. Further, an illumination unit that illuminates the detection processing area is required when capturing an image at night or when the light tends to be insufficient even in the daytime. The CCD camera has a VTR 120 that records the original image.
Is connected.

【0016】一方、検出処理部200の量子化部210
には、撮像部100のCCDカメラからの映像信号11
0がVTR120を介して入力されている。この量子化
部210では、映像信号110に含まれるすべての画素
の明度がデジタル量子化される。すなわち、この物体検
出装置では、8ビットのA/D変換素子が使用されるの
で、各画素は256(=28 )階調にデジタル量子化さ
れる。
On the other hand, the quantizer 210 of the detection processor 200
Includes a video signal 11 from the CCD camera of the image pickup unit 100.
0 is input via the VTR 120. The quantizer 210 digitally quantizes the brightness of all pixels included in the video signal 110. That is, in this object detection device, since an 8-bit A / D conversion element is used, each pixel is digitally quantized into 256 (= 2 8 ) gradations.

【0017】この256階調にデジタル量子化されたす
べての画素は、メモリーである記憶部220に記憶され
る。
All the pixels digitally quantized into 256 gradations are stored in the storage section 220 which is a memory.

【0018】一方、処理領域設定部230は、原画像中
に1又は2以上の検出処理領域を任意に設定することが
できる。すなわち、原画像中において、物体が存在する
か否かの判断を行いたい位置を検出処理領域として設定
するできるようになっているのである。従って、これ以
降では、検出処理領域として設定された部分のみに所定
の処理が施されることになる。
On the other hand, the processing area setting unit 230 can arbitrarily set one or more detection processing areas in the original image. That is, in the original image, the position where it is desired to determine whether or not an object exists can be set as the detection processing area. Therefore, after that, the predetermined processing is performed only on the portion set as the detection processing area.

【0019】前記抽出部240は、前記処理領域設定部
230で設定された検出処理領域中の画素、すなわち検
出処理領域中の画素の明度のみを抽出するようになって
いる。
The extraction unit 240 extracts only the brightness of the pixels in the detection processing area set by the processing area setting unit 230, that is, the pixels in the detection processing area.

【0020】この抽出部240で抽出された画素の明度
は、分類部250に入力されてヒストグラム化される。
ここで256階調にデジタル量子化された画素の明度を
そのまま取り扱うことは、データのばらつき、精度或い
は処理速度の面から好ましくない。従って、各画素の明
度をある幅を持たせたクラス(階級)に分けて扱うこと
にする。ここでは、画素の明度を階級分けしやすい16
階級に分けた。なお、階級数を多く取り過ぎると各階級
の度数が少なくなるので全体の見通しが悪くなるととも
に、階級数を少なくすると少ない度数の画素の明度が大
きな度数の画素の明度に含まれることになるので好まし
くない。
The brightness of the pixel extracted by the extraction unit 240 is input to the classification unit 250 and converted into a histogram.
Here, it is not preferable to directly handle the brightness of a pixel digitally quantized into 256 gradations in terms of data variation, accuracy, or processing speed. Therefore, the brightness of each pixel will be divided into classes (classes) having a certain width. Here, it is easy to classify the brightness of pixels.
Divided into ranks. It should be noted that if too many classes are used, the frequency of each class will decrease, and the overall visibility will deteriorate.If the number of classes will be reduced, the brightness of pixels with a small frequency will be included in the brightness of pixels with a large frequency. Not preferable.

【0021】ここで、後述する駐車場における駐車枠
(検出処理領域に該当する)に物体(車)が存在する場
合と存在しない場合とのヒストグラムとを図2と図3と
に示す。物体が存在しない場合(図2)と存在する場合
(図3)とでは、ヒストグラムの特徴がまったく相違す
ることが判る。このような相違は、背景となる駐車場の
路面(アスファルト)の明度は、どの画素であってもほ
ぼ同じようなものであるが、駐車される物体である車は
明らかに路面との明るさとの違いを持ち、路面と同じ明
るさの車であっても凹凸があるため、画素の明度はばら
ばらになりがちなことに起因している。
Here, FIGS. 2 and 3 show histograms of the case where an object (vehicle) exists and the case where it does not exist in a parking frame (corresponding to a detection processing area) in a parking lot described later. It can be seen that the characteristics of the histogram are completely different between when there is no object (FIG. 2) and when there is an object (FIG. 3). The difference is that the brightness of the road surface (asphalt) in the background parking lot is almost the same regardless of the pixel, but the car that is the object to be parked clearly has the same brightness as the road surface. This is because even if the car has the same brightness as the road surface, there are irregularities, so that the brightness of the pixels tends to vary.

【0022】しかし、この図2及び図3に示すヒストグ
ラムでは、前述のようにデータの数の多さ等に起因して
処理速度及び精度等の面から望ましくない。従って、分
類部250では、図4及び図5に示すように各画素の明
度を16階級に分けてヒストグラム化する。なお、図4
は物体(車)が存在しない場合であり、図5は物体
(車)が存在する場合である。
However, the histograms shown in FIGS. 2 and 3 are not desirable in terms of processing speed and accuracy due to the large number of data as described above. Therefore, the classifying unit 250 divides the brightness of each pixel into 16 classes to form a histogram, as shown in FIGS. 4 and 5. FIG.
Shows the case where the object (car) does not exist, and FIG. 5 shows the case where the object (car) exists.

【0023】演算部260では、前記分類部250にお
いて得られたヒストグラムにおける画素の分布状態の特
徴を統計手法を用いて数値化する。具体的には、加重平
均、標準偏差及びひずみ度の3つの統計手法が用いられ
る。すなわち、この演算部260では、1つの検出処理
領域の明度分布に対して3つの数値が得られるのであ
る。
The computing unit 260 digitizes the features of the pixel distribution state in the histogram obtained by the classifying unit 250 by using a statistical method. Specifically, three statistical methods of weighted average, standard deviation, and skewness are used. That is, the arithmetic unit 260 can obtain three numerical values for the brightness distribution of one detection processing area.

【0024】なお、加重平均値xAVE は、ヒストグラム
(度数分布図)を天秤に見立てたとき、そのバランスの
とれるところであり、以下の式で表される。 ただし、x1 〜xn は階級の中央値を、f1 〜fn はそ
の階級における分布数を、nは標本の大きさ、すなわち
処理する画素の数をそれぞれ表している。
The weighted average value x AVE is a place where the histogram (frequency distribution chart) can be balanced when it is likened to a balance, and is expressed by the following equation. However, x 1 ~x n is the median ranks, the f 1 ~f n is the number of distribution in its class, n represents represents the sample size, i.e. processing a number of pixels, respectively.

【0025】また、標準偏差sは、度数分布の加重平均
値xAVE から変曲点までの幅を表すものであり、以下の
式で表される。 この標準偏差の値が大きければ度数分布は広範囲に拡が
り、小さければ度数分布は狭い範囲に集中していること
になる。なお、標準偏差sの2乗を分散と呼ぶ。また、
2 は2次の積率である。
The standard deviation s represents the width from the weighted average value x AVE of the frequency distribution to the inflection point, and is represented by the following equation. If the value of this standard deviation is large, the frequency distribution is spread over a wide range, and if it is small, the frequency distribution is concentrated in a narrow range. The square of the standard deviation s is called variance. Also,
m 2 is a second-order product moment.

【0026】さらに、ひずみ度a3 は度数分布が正規分
布と比較してどの程度拡がっているかを示す値であっ
て、3次の積率m3 は以下の式で表される。 である場合、ひずみ度a3 は、 となる。ここで、ひずみ度a3 が0であれば、度数分布
は加重平均値を通る垂直線に対して左右対称となり、プ
ラスであれば、度数分布は右側に長い裾をもち、マイナ
スであれば、度数分布は左側に長い裾をもつようにな
る。また、ひずみ度a3 の値が大きい程、ひずみが大き
くなる。
Further, the skewness a 3 is a value showing how much the frequency distribution is widened as compared with the normal distribution, and the cubic product factor m 3 is expressed by the following equation. If, the skewness a 3 is Becomes Here, if the skewness a 3 is 0, the frequency distribution is bilaterally symmetric with respect to a vertical line passing through the weighted average value, and if positive, the frequency distribution has a long tail on the right side, and if negative, The frequency distribution has a long tail on the left side. Further, the larger the value of the strain degree a 3, the larger the strain.

【0027】上述したような3つの数値によってヒスト
グラムの形状の特徴を数字として表すことができるので
ある。
The characteristic of the shape of the histogram can be expressed as a number by the above-mentioned three numerical values.

【0028】この3つの数値は、処理部270に送出さ
れ、当該処理部270での演算の結果としてに基づい
て、各検出処理領域に物体が存在するか否かが判断され
る。
These three numerical values are sent to the processing unit 270, and it is determined whether or not an object exists in each detection processing area based on the result of the calculation in the processing unit 270.

【0029】こかかる処理部270は、いわゆるニュー
ラルネットワークと呼ばれる手法で演算が行われる。こ
のニューラルネットワークは、図6に示すように、3つ
の入力部271A〜271Cと、この入力部271A〜
271Cから入力されるデータに基づいて演算を行う3
層の隠れ層272〜274と、この隠れ層272〜27
4における演算の結果が出力される出力部275とから
構成されている。
The processing section 270 is operated by a so-called neural network. As shown in FIG. 6, this neural network includes three input units 271A to 271C and the input units 271A to 271A to 271A to 271C.
Calculation based on data input from 271C 3
The hidden layers 272 to 274 and the hidden layers 272 to 27
4 and the output unit 275 which outputs the result of the calculation.

【0030】このニューラルネットワークは、入力デー
タに対して正解である結果、すなわち教師データを出力
に提示し、各隠れ層272〜274の結合係数を変化さ
せて、入力データと教師データとの誤差が最小になるよ
うに結合係数を操作するようになっている。
This neural network presents a result that is a correct answer to the input data, that is, the teacher data to the output, and changes the coupling coefficient of each hidden layer 272 to 274 so that the error between the input data and the teacher data is reduced. The coupling coefficient is manipulated to minimize it.

【0031】3層の各隠れ層272〜274は、例えば
それぞれ6個のユニット272A〜272F、273A
〜273F、274A〜274Fを有している。入力部
271A〜271Cからの入力データは、第1層の隠れ
層272を構成するすべてのユニット272A〜272
Fに入力され、第1層の隠れ層272の各ユニット27
2A〜272Fからの出力は第2層の隠れ層273のす
べてのユニット273A〜273Fに入力されるように
なっている。同様に、第2層の隠れ層273の各ユニッ
ト273A〜273Fのからの出力は、第3層の隠れ層
274のすべてのユニット274A〜274Fに入力さ
れるようになっている。そして、第3層の隠れ層274
を構成する各ユニット274A〜274Fからの出力が
判定結果、すなわち演算の結果として出力部275から
出力されるようになっている。
Each of the three hidden layers 272 to 274 has, for example, six units 272A to 272F and 273A, respectively.
.About.273F, 274A to 274F. The input data from the input units 271A to 271C are all the units 272A to 272 that form the hidden layer 272 of the first layer.
Input to F, each unit 27 of the hidden layer 272 of the first layer
The outputs from 2A to 272F are input to all the units 273A to 273F of the hidden layer 273 of the second layer. Similarly, the output from each of the units 273A to 273F of the second hidden layer 273 is input to all the units 274A to 274F of the third hidden layer 274. And the hidden layer 274 of the third layer
The output from each of the units 274A to 274F configuring the above is output from the output unit 275 as a determination result, that is, a calculation result.

【0032】このように構成されたニューラルネットワ
ークには、予めの学習が必要である。すなわち、予めの
学習を通じて結合係数を決定しておく必要があるのであ
る。
Preliminary learning is required for the neural network configured as described above. That is, it is necessary to determine the coupling coefficient through learning in advance.

【0033】例えば、表1に示すような6組の入力デー
タ(加重平均値、標準偏差及びひずみ度)と、それに対
応した6組の教師データとを処理部270に予め与える
ことによって各隠れ層272〜274の結合係数を求め
させる。
For example, six sets of input data (weighted average value, standard deviation, and skewness) as shown in Table 1 and six sets of teacher data corresponding to them are given to the processing unit 270 in advance so that each hidden layer The coupling coefficients of 272 to 274 are calculated.

【0034】[0034]

【表1】 [Table 1]

【0035】処理部270は、出力データの教師データ
に対する誤差が最小になるまで学習を継続し、誤差の減
少が飽和の状態に達するか、それとも所定回数の学習を
繰り返す。なお、表1における誤差は、誤差=(教師デ
ータ−出力データ)2 の式で表される。また、表1では
データNo3がエラーであった。
The processing section 270 continues the learning until the error of the output data with respect to the teacher data becomes the minimum, and the decrease of the error reaches the saturation state, or the learning is repeated a predetermined number of times. The error in Table 1 is expressed by the formula: error = (teaching data-output data) 2 . In Table 1, data No. 3 was an error.

【0036】ここで、出力データでその検出処理領域に
おける物体の有無を判断する際に、例えば出力データが
0.500未満である場合には物体なし、0.500以
上である場合には物体ありという閾値を設定する。そし
て、表1で示した6組の入力データ及び教師データに基
づいて各隠れ層272〜274の結合係数が定まった処
理部270に表2に示すような新たな6組の入力データ
を入力してみる。すると、表2に示す出力データが得ら
れた。結果はデータNO6の場合にエラーが発生した。
Here, when determining the presence or absence of an object in the detection processing area from the output data, for example, there is no object when the output data is less than 0.500, and there is an object when the output data is 0.500 or more. Is set. Then, new 6 sets of input data as shown in Table 2 are input to the processing unit 270 in which the coupling coefficients of the hidden layers 272 to 274 are determined based on the 6 sets of input data and the teacher data shown in Table 1. Try. Then, the output data shown in Table 2 was obtained. As a result, an error occurred in the case of data NO6.

【0037】[0037]

【表2】 [Table 2]

【0038】ここで、実際の実験について説明する。実
際の実験は、名神高速道路の上り線の黒丸パーキングエ
リアにおける駐車場に何台の車が駐車しているかを検出
することで行われた。撮像部100は、照明部として既
設の照明灯を使用し、その照明灯のポールにCCDカメ
ラを設置した。撮像部100と駐車場との関係は、図7
(A)及び(B)に示すとおりである。ここでは、小型
車駐車枠1〜42(ただし、11は欠番)に物体として
の車が駐車しているか否かを検出するものとする。
Here, an actual experiment will be described. The actual experiment was carried out by detecting how many cars are parked in the parking lot in the black circle parking area on the up line of the Meishin Expressway. The imaging unit 100 uses an existing illumination lamp as an illumination unit, and a CCD camera is installed on the pole of the illumination lamp. The relationship between the imaging unit 100 and the parking lot is shown in FIG.
This is as shown in (A) and (B). Here, it is assumed that it is detected whether or not a vehicle as an object is parked in the small vehicle parking frames 1 to 42 (where 11 is a missing number).

【0039】検出処理領域は、1〜42の各駐車枠の合
計41領域に設定する。ただし、各検出処理領域は、処
理領域設定部230の機能上、原画像の左又は上辺に対
して平行となる四角形にしか設定できないため、斜めに
なった駐車枠では最大の面積をカバーすることができる
ように設定した。また、手前に駐車した車によって隠れ
るおそれのある駐車枠、すなわち奥側の駐車枠12〜2
7に対しては、隠れるおそれのなる部分を見越して検出
処理領域を小さく設定した。なお、各検出理領域は、図
8に示すように、原画像中の画素の座標であるX座標と
Y座標とで表される。各検出処理領域は、以下の表3に
示すように設定されている。ただし、この表3は検出処
理領域の1〜42のうち、1〜3と40〜42のみを例
示として示している。
The detection processing area is set to a total of 41 areas of the parking frames 1 to 42. However, each detection processing area can be set only to a quadrangle that is parallel to the left side or the upper side of the original image due to the function of the processing area setting unit 230, and therefore the diagonal parking frame should cover the maximum area. I set it so that I could do it. Further, a parking frame that may be hidden by a car parked in front, that is, the parking frames 12 to 2 on the back side.
For No. 7, the detection processing area was set to be small in anticipation of a portion that might be hidden. As shown in FIG. 8, each detection area is represented by the X coordinate and the Y coordinate which are the coordinates of the pixel in the original image. Each detection processing area is set as shown in Table 3 below. However, this Table 3 shows only 1 to 3 and 40 to 42 of the detection processing regions 1 to 42 as an example.

【0040】[0040]

【表3】 [Table 3]

【0041】なお、この実験は、1995年3月2日か
ら16日までの8時30分から19時00分までの実際
のデータを教師データとして用いた。この入力データ
は、撮像部100のCCDカメラに接続されたVTR1
20で記録された映像信号110のうち、10分おきの
映像信号110を検出処理部200に与えることで学習
を行った。
In this experiment, actual data from 8:30 to 19:00 from March 2 to 16, 1995 was used as teacher data. This input data is the VTR1 connected to the CCD camera of the image pickup unit 100.
Learning was performed by applying the video signal 110 every 10 minutes among the video signals 110 recorded in 20 to the detection processing unit 200.

【0042】この教師データには、各時間帯における天
候(晴、曇、雨)の違いがすべて含まれているので、す
べての時間帯のあらゆる天候状態における路面の違い
(乾燥、湿潤)が含まれている。
Since this teacher data includes all differences in weather (fine, cloudy, rain) in each time zone, differences in road surface (dry, wet) in all weather conditions in all time zones are included. Has been.

【0043】このような実験の結果、上述したような教
師データで各隠れ層272〜274の結合係数が決定さ
れた処理部270に対して、1995年3月7日の9時
30分から17時40分までの実際の入力データ(晴の
入力データ)と、1995年3月8日の9時20分から
17時20分までの実際の入力データ(曇の入力デー
タ)と、1995年3月10日の9時10分から17時
30分までの実際の入力データ(雨の入力データ)とを
与えた。これらの入力データに基づいて処理部270が
行った演算の結果は表4に示している。なお、物体
(車)の有無の判断は、出力データが0.500未満で
ある場合には物体なし、0.500以上である場合には
物体ありという閾値に従って行われた。
As a result of such an experiment, with respect to the processing unit 270 in which the coupling coefficient of each hidden layer 272 to 274 has been determined by the above-mentioned teaching data, the processing unit 270 has a time from 9:30 to 17:00 on March 7, 1995. Actual input data up to 40 minutes (clear input data), actual input data from 9:20 to 17:20 on March 8, 1995 (input data on cloudy), and March 10, 1995 The actual input data (rain input data) from 9:10 to 17:30 on the day was given. Table 4 shows the result of the calculation performed by the processing unit 270 based on these input data. The presence / absence of an object (car) is determined according to a threshold value indicating that there is no object when the output data is less than 0.500 and that there is an object when the output data is 0.500 or more.

【0044】[0044]

【表4】 [Table 4]

【0045】なお、総検出率=100−(エラー個数/
総データ数)×100(%)であり、エラー個数は各天
候における10分毎のエラー個数の総数であり、総デー
タ数は各天候における検出処理領域(すなわち、駐車
枠)の総数をそれぞれ示している。また、エラー個数と
は、実際に車が駐車しているにもかかわらず、車が駐車
していないと判断した数と、その逆の数との合計であ
る。
Total detection rate = 100− (number of errors /
Total number of data) x 100 (%), the number of errors is the total number of errors every 10 minutes in each weather, and the total number of data indicates the total number of detection processing areas (that is, parking frames) in each weather. ing. Further, the error count is the sum of the number determined that the car is not parked despite the fact that the car is actually parked and the opposite number.

【0046】なお、本実験では、1画面あたり41個の
検出処理領域の判定に約1秒が必要であった。なお、こ
の判定に際してはCPUとしてペンティアム(90MH
Z)(登録商標)を用いた。
In this experiment, it took about 1 second to judge 41 detection processing areas per screen. When making this determination, the Pentium (90MH
Z) (registered trademark) was used.

【0047】なお、上述した説明では、駐車場の駐車枠
における車の有無を検出するものとして説明したが、本
発明がこれに限定されることはない。例えば、侵入者を
検出するセキュリティシステムや、異状事態の無人監視
システムや手書き文字のパターン認識システム等にも応
用することが可能である。
In the above description, the presence or absence of a vehicle in the parking frame of the parking lot is detected, but the present invention is not limited to this. For example, it can be applied to a security system for detecting an intruder, an unmanned monitoring system for abnormal situations, a pattern recognition system for handwritten characters, and the like.

【0048】例えば、セキュリティシステムであれば、
入力データを短い間隔で入力することで侵入者を発見で
きる。また、無人監視システムでは、メーター類の目盛
を撮像部で撮像してメーターの針が異状に振れた場合や
ランプの点減を検出することで異状事態を検出すること
が可能となる。さらに、文字のパターン認識であれば、
多くの検出処理領域を密着して設定することで文字を構
成する線を上述した物体に相当するものとして検出する
ことで可能となる。
For example, in the case of a security system,
An intruder can be detected by inputting input data at short intervals. Further, in the unmanned monitoring system, it is possible to detect an abnormal situation by taking an image of the scales of the meters with the imaging unit and detecting the abnormal movement of the needle of the meter or detecting the flashing of the lamp. Furthermore, if it is character pattern recognition,
By setting many detection processing areas in close contact with each other, it is possible to detect the line forming the character as being equivalent to the above-mentioned object.

【0049】[0049]

【発明の効果】本発明に係る画像からの物体検出方法
は、画像中に設定された検出処理領域における各画素の
明度をヒストグラム化し、これによって得られたヒスト
グラムに対して統計手法を用いて画素の分布状態の特徴
を数値化し、これによって得られた数値に基づいて検出
処理領域に何らかの物体が存在するか否かを判断する方
法であって、前記判断は、統計手法によって得られた数
値を入力データとし、この入力データが得られた検出処
理領域の実際のデータを教師データとし、前記入力デー
タに対して所定の演算を実行して得られた出力データと
前記教師データとを比較し、出力データが教師データと
合致するように、学習しそれに基づいて処理するニュー
ラルネットワークで行うようになっている。
According to the method of detecting an object from an image according to the present invention, the brightness of each pixel in the detection processing area set in the image is converted into a histogram, and a pixel is obtained by using a statistical method for the histogram thus obtained. Is a method of quantifying the characteristics of the distribution state of, and determining whether or not there is any object in the detection processing region based on the value obtained by the determination, wherein the determination is the value obtained by a statistical method. As input data, the actual data of the detection processing area where this input data was obtained is used as teacher data, and the output data obtained by performing a predetermined calculation on the input data and the teacher data are compared, A neural network that learns and processes based on the learned data is used so that the output data matches the teacher data.

【0050】従来の画像からの物体検出方法と比較する
と、従来の方法であるエッジ検出では、隣接する画素の
明度に基づいた演算が必要となっていたのに対して、こ
の方法では各画素の明度をヒストグラム化し、そのヒス
トグラムにおける画素の分布状態の特徴を数値化するよ
うになっているので、従来の方法より格段に演算量が少
なくなっている。このため、この画像からの物体検出方
法であると、より高速に物体の検出を行うことができる
とともに、従来の方法より高精度なシステムを安価に構
成することができる。
Compared with the conventional method of detecting an object from an image, in the conventional method of edge detection, a calculation based on the brightness of adjacent pixels is required. Since the brightness is made into a histogram and the characteristics of the distribution state of the pixels in the histogram are digitized, the amount of calculation is much smaller than in the conventional method. Therefore, the object detection method from this image can detect the object at a higher speed, and a system with higher accuracy than the conventional method can be configured at low cost.

【0051】また、ニューラルネットワークの有する利
点、すなわち多値入力が可能、曖昧さに柔軟に対応可
能、代表値の学習のみで未知の新たなデータに対しても
対応可能、必要に応じてネットワークの構成の変更が可
能という利点を享受することができる。
Further, the advantage of the neural network, that is, multi-value input is possible, ambiguity can be dealt with flexibly, unknown new data can be dealt with only by learning the representative value. It is possible to enjoy the advantage that the configuration can be changed.

【0052】また、前記統計手法は、加重平均、標準偏
差、ひずみ度のうち少なくとも1つ以上を用いることに
なるので、より高精度な検出が可能となる。
Since the statistical method uses at least one of the weighted average, the standard deviation, and the skewness, more accurate detection can be performed.

【0053】一方、本発明に係る物体検出装置は、原画
像を撮像する撮像部と、この撮像部で撮像された原画像
に任意に設定された検出処理領域に物体が存在するか否
かを検出する検出処理部とを有する物体検出装置であっ
て、前記検出処理部は、前記撮像部からの映像信号に含
まれる画素の明度をデジタル量化する量子化部と、この
量子化部でデジタル量化された画素の明度を記憶する記
憶部と、原画像中に検出処理領域を任意に設定すること
ができる処理領域設定部と、この処理領域設定部で設定
された検出処理領域中の画素を抽出する抽出部と、この
抽出部で抽出された各画素を明度に基づいてヒストグラ
ム化する分類部と、この分類部において得られたヒスト
グラムにおける画素の分布状態の特徴を統計手法を用い
て数値化する演算部と、前記統計手法によって得られた
数値を入力データとし、この入力データが得られた検出
処理領域の実際のデータを教師データとした場合、前記
入力データに対して所定の演算を実行して得られた出力
データが前記教師データと合致するように、学習しそれ
に基づいて処理する処理部とを有している。
On the other hand, the object detecting apparatus according to the present invention determines whether an object exists in an image pickup section for picking up an original image and a detection processing area arbitrarily set in the original image picked up by this image pickup section. An object detection apparatus having a detection processing unit for detecting, wherein the detection processing unit digitizes the brightness of pixels included in a video signal from the image capturing unit into a digital amount, and the quantization unit digitizes the brightness. A storage unit that stores the brightness of the selected pixel, a processing region setting unit that can arbitrarily set the detection processing region in the original image, and a pixel in the detection processing region set by this processing region setting unit An extracting unit, a classifying unit that makes each pixel extracted by this extracting unit into a histogram based on lightness, and a feature of the distribution state of pixels in the histogram obtained by this classifying unit is digitized using a statistical method. Calculation When the numerical value obtained by the statistical method is used as input data and the actual data of the detection processing area where this input data is obtained is used as teacher data, the input data is obtained by executing a predetermined calculation. A processing unit that learns and processes based on the learned output data so that the output data matches the teacher data.

【0054】このため、従来のエッジ検出方法を用いる
装置より、格段に演算量が少なくなっている。このた
め、この物体検出装置では、より高速に物体の検出を行
うことができるとともに、従来の装置より高精度なシス
テムを安価に構成することができる。また、処理部にニ
ューラルネットワークを用いたので、装置そして上述し
たニューラルネットワークの利点を享受することができ
る。
Therefore, the amount of calculation is much smaller than that of the device using the conventional edge detection method. Therefore, in this object detection device, an object can be detected at a higher speed, and a system with higher accuracy than the conventional device can be configured at low cost. Further, since the neural network is used for the processing unit, the advantages of the apparatus and the above-mentioned neural network can be enjoyed.

【0055】また、この物体検出装置では、統計手法と
しては、加重平均、標準偏差、ひずみ度のうち少なくと
も1つ以上を用いるので、より高精度な検出が可能とな
る。
Further, in this object detecting apparatus, since at least one of weighted average, standard deviation, and skewness is used as the statistical method, it is possible to perform detection with higher accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る物体検出装置のブロック図であ
る。
FIG. 1 is a block diagram of an object detection device according to the present invention.

【図2】本発明に係る物体検出装置の分類部で得られる
検出処理領域内に物体が存在しない場合の各画素の明度
のヒストグラムである。
FIG. 2 is a histogram of the brightness of each pixel when an object does not exist in the detection processing area obtained by the classification unit of the object detection apparatus according to the present invention.

【図3】本発明に係る物体検出装置の分類部で得られる
検出処理領域内に物体が存在する場合の各画素の明度の
ヒストグラムである。
FIG. 3 is a histogram of the brightness of each pixel when an object exists in the detection processing area obtained by the classification unit of the object detection device according to the present invention.

【図4】検出処理領域内に物体が存在しない場合の各画
素の明度を16階級に分けた場合のヒストグラムであ
る。
FIG. 4 is a histogram when the brightness of each pixel is divided into 16 classes when an object does not exist in the detection processing area.

【図5】検出処理領域内に物体が存在する場合の各画素
の明度を16階級に分けた場合のヒストグラムである。
FIG. 5 is a histogram when the brightness of each pixel is divided into 16 classes when an object exists in the detection processing area.

【図6】本発明に係る物体検出装置の分類部として用い
られるニューラルネットワークの概略を示した説明図で
ある。
FIG. 6 is an explanatory diagram showing an outline of a neural network used as a classification unit of the object detection device according to the present invention.

【図7】本発明に係る物体検出装置を駐車場における車
の有無の検出に用いた実験の説明図であり、同図(A)
は概略的平面図、同図(B)は概略的側面図である。
FIG. 7 is an explanatory diagram of an experiment in which the object detection device according to the present invention is used to detect the presence or absence of a car in a parking lot, and FIG.
Is a schematic plan view, and FIG. 6B is a schematic side view.

【図8】検出処理領域を説明するための説明図である。FIG. 8 is an explanatory diagram illustrating a detection processing area.

【符号の説明】[Explanation of symbols]

100 撮像部 110 映像信号 200 検出処理部 210 量子化部 220 記憶部 230 処理領域設定部 240 抽出部 250 分類部 260 演算部 270 処理部 100 Image pickup unit 110 Video signal 200 Detection processing unit 210 Quantization unit 220 Storage unit 230 Processing area setting unit 240 Extraction unit 250 Classification unit 260 Calculation unit 270 Processing unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G08G 1/04 H04N 7/18 K 1/14 G01V 9/04 S H04N 7/18 G06F 15/70 465A ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G08G 1/04 H04N 7/18 K 1/14 G01V 9/04 S H04N 7/18 G06F 15/70 465A

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 画像中に設定された検出処理領域におけ
る各画素の明度をヒストグラム化し、これによって得ら
れたヒストグラムに対して統計手法を用いて画素の分布
状態の特徴を数値化し、これによって得られた数値に基
づいて検出処理領域に何らかの物体が存在するか否かを
判断する画像からの物体検出方法において、前記判断
は、統計手法によって得られた数値を入力データとし、
この入力データが得られた検出処理領域の実際のデータ
を教師データとし、前記入力データに対して所定の演算
を実行して得られた出力データと前記教師データとを比
較し、出力データが教師データと合致するように、学習
しそれに基づいて処理するニューラルネットワークで行
うことを特徴とする画像からの物体検出方法。
1. A histogram of the brightness of each pixel in a detection processing area set in an image, a statistical method is applied to the histogram thus obtained, and the features of the distribution state of the pixel are digitized. In the object detection method from the image to determine whether or not there is any object in the detection processing area based on the numerical value obtained, the determination, the input value is a numerical value obtained by a statistical method,
The actual data in the detection processing area where this input data was obtained is used as teacher data, and the output data obtained by executing a predetermined operation on the input data is compared with the teacher data. An object detection method from an image, which is performed by a neural network that learns and processes based on the data so as to match the data.
【請求項2】 前記統計手法は、加重平均、標準偏差、
ひずみ度のうち少なくとも1つ以上を用いることを特徴
とする請求項1記載の画像からの物体検出方法。
2. The statistical method comprises weighted average, standard deviation,
The method for detecting an object from an image according to claim 1, wherein at least one of the distortion degrees is used.
【請求項3】 原画像を撮像する撮像部と、この撮像部
で撮像された原画像に任意に設定された検出処理領域に
物体が存在するか否かを検出する検出処理部とを有する
物体検出装置において、前記検出処理部は、前記撮像部
からの映像信号に含まれる画素の明度をデジタル量化す
る量子化部と、この量子化部でデジタル量化された画素
の明度を記憶する記憶部と、原画像中に検出処理領域を
任意に設定することができる処理領域設定部と、この処
理領域設定部で設定された検出処理領域中の画素を抽出
する抽出部と、この抽出部で抽出された各画素を明度に
基づいてヒストグラム化する分類部と、この分類部にお
いて得られたヒストグラムにおける画素の分布状態の特
徴を統計手法を用いて数値化する演算部と、前記統計手
法によって得られた数値を入力データとし、この入力デ
ータが得られた検出処理領域の実際のデータを教師デー
タとした場合、前記入力データに対して所定の演算を実
行して得られた出力データが前記教師データと合致する
ように、学習しそれに基づいて処理する処理部とを具備
したことを特徴とする物体検出装置。
3. An object having an image pickup section for picking up an original image and a detection processing section for detecting whether or not the object exists in a detection processing area arbitrarily set in the original image picked up by the image pickup section. In the detection device, the detection processing unit includes a quantizer that digitizes the brightness of pixels included in the video signal from the imaging unit, and a storage unit that stores the brightness of pixels digitized by the quantizer. , A processing area setting unit that can arbitrarily set a detection processing area in the original image, an extraction unit that extracts pixels in the detection processing area set by the processing area setting unit, and an extraction unit that extracts the pixels in the detection processing area. A classification unit that histograms each pixel based on the brightness, a calculation unit that digitizes the features of the distribution state of pixels in the histogram obtained by this classification unit using a statistical method, and the statistical method When the input data is a numerical value and the actual data in the detection processing area where the input data is obtained is the teacher data, the output data obtained by executing a predetermined calculation on the input data is the teacher data. An object detection apparatus comprising: a processing unit that learns and processes based on the learning so that they match each other.
【請求項4】 前記統計手法は、加重平均、標準偏差、
ひずみ度のうち少なくとも1つ以上を用いることを特徴
とする請求項3記載の物体検出装置。
4. The statistical method comprises weighted average, standard deviation,
The object detecting device according to claim 3, wherein at least one of the distortion degrees is used.
JP28460095A 1995-10-04 1995-10-04 Detection of object from picture and object detection device using the same Pending JPH09102032A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28460095A JPH09102032A (en) 1995-10-04 1995-10-04 Detection of object from picture and object detection device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28460095A JPH09102032A (en) 1995-10-04 1995-10-04 Detection of object from picture and object detection device using the same

Publications (1)

Publication Number Publication Date
JPH09102032A true JPH09102032A (en) 1997-04-15

Family

ID=17680561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28460095A Pending JPH09102032A (en) 1995-10-04 1995-10-04 Detection of object from picture and object detection device using the same

Country Status (1)

Country Link
JP (1) JPH09102032A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000182115A (en) * 1998-12-21 2000-06-30 Toshiba Corp Paper sheets state identifying device, paper sheets stain state identifying device, paper sheets print state identifying device and paper sheets surface and rear identifying device
JP2001202596A (en) * 2000-01-18 2001-07-27 Sumitomo Densetsu Corp Parking detection device
JP2002140789A (en) * 2000-10-31 2002-05-17 Natl Inst For Land & Infrastructure Management Mlit Road surface situation judging device
JP2002157676A (en) * 2000-11-21 2002-05-31 Natl Inst For Land & Infrastructure Management Mlit Road surface state discriminating method of visible image type road surface state grasping device
JP2019091169A (en) * 2017-11-13 2019-06-13 キヤノン株式会社 Image processor, method of controlling image processor, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000182115A (en) * 1998-12-21 2000-06-30 Toshiba Corp Paper sheets state identifying device, paper sheets stain state identifying device, paper sheets print state identifying device and paper sheets surface and rear identifying device
JP2001202596A (en) * 2000-01-18 2001-07-27 Sumitomo Densetsu Corp Parking detection device
JP2002140789A (en) * 2000-10-31 2002-05-17 Natl Inst For Land & Infrastructure Management Mlit Road surface situation judging device
JP2002157676A (en) * 2000-11-21 2002-05-31 Natl Inst For Land & Infrastructure Management Mlit Road surface state discriminating method of visible image type road surface state grasping device
JP2019091169A (en) * 2017-11-13 2019-06-13 キヤノン株式会社 Image processor, method of controlling image processor, and program

Similar Documents

Publication Publication Date Title
CN105373794B (en) A kind of licence plate recognition method
US8305440B2 (en) Stationary object detection using multi-mode background modelling
CN112819094B (en) Target detection and identification method based on structural similarity measurement
Cheng et al. Automatic pavement distress detection system
CN112149543B (en) Building dust recognition system and method based on computer vision
CN113139521B (en) Pedestrian boundary crossing monitoring method for electric power monitoring
CN104978567B (en) Vehicle checking method based on scene classification
CN107038416B (en) Pedestrian detection method based on binary image improved HOG characteristics
CN109918971B (en) Method and device for detecting number of people in monitoring video
Li et al. Research on vehicle license plate location based on neural networks
Rojas et al. Vehicle detection in color images
JP3490910B2 (en) Face area detection device
CN110335233B (en) Highway guardrail plate defect detection system and method based on image processing technology
CN110032932B (en) Human body posture identification method based on video processing and decision tree set threshold
CN112528861A (en) Foreign matter detection method and device applied to track bed in railway tunnel
CN111665199A (en) Wire and cable color detection and identification method based on machine vision
CN111539980B (en) Multi-target tracking method based on visible light
KR101026778B1 (en) Vehicle image detection apparatus
CN107045630B (en) RGBD-based pedestrian detection and identity recognition method and system
CN112001299A (en) Tunnel vehicle indicator and illuminating lamp fault identification method
CN115841633A (en) Power tower and power line associated correction power tower and power line detection method
CN111310576A (en) Channel target passing detection method, device and equipment
CN114821158A (en) Dried jujube quality classification method and system based on image processing
CN107977608B (en) Method for extracting road area of highway video image
JPH09102032A (en) Detection of object from picture and object detection device using the same