JP2011013924A - Detection system and detection method for vehicle in parking lot - Google Patents

Detection system and detection method for vehicle in parking lot Download PDF

Info

Publication number
JP2011013924A
JP2011013924A JP2009157372A JP2009157372A JP2011013924A JP 2011013924 A JP2011013924 A JP 2011013924A JP 2009157372 A JP2009157372 A JP 2009157372A JP 2009157372 A JP2009157372 A JP 2009157372A JP 2011013924 A JP2011013924 A JP 2011013924A
Authority
JP
Japan
Prior art keywords
vehicle
membership
data
image data
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009157372A
Other languages
Japanese (ja)
Other versions
JP5361576B2 (en
Inventor
Hidetomo Ichihashi
秀友 市橋
Tatsuya Kenta
達也 堅多
Makoto Fujiyoshi
誠 藤吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Zosen Corp
Osaka University NUC
Osaka Prefecture University PUC
Nichizo Tech Inc
Original Assignee
Hitachi Zosen Corp
Osaka University NUC
Osaka Prefecture University PUC
Nichizo Tech Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Zosen Corp, Osaka University NUC, Osaka Prefecture University PUC, Nichizo Tech Inc filed Critical Hitachi Zosen Corp
Priority to JP2009157372A priority Critical patent/JP5361576B2/en
Publication of JP2011013924A publication Critical patent/JP2011013924A/en
Application granted granted Critical
Publication of JP5361576B2 publication Critical patent/JP5361576B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle detection method of a parking lot, having a high recognition rate even outdoors.SOLUTION: A garage is cut out from a photographic image by a photographing camera; a plurality of representative values are acquired from cut-out image data and are normalized; image data composed of the normalized representative values are vectorized; a dimension of vectorized vector data is compressed; Mahalanobis distance to a cluster center previously obtained in training data of the compressed vector data is obtained; the Mahalanobis distance is substituted for a membership function (u*) represented by expression (1); a function value thereof is substituted for expression (2) to obtain a membership (tilde u), and it is decided whether a vehicle is present inside the garage by use of the obtained membership. In the expression, αis a mixture ratio of a cluster j inside a cluster q; S is a variance-covariance matrix; and πis a mixture ratio of a class q.

Description

本発明は、駐車場の駐車室に車両が存在しているか否か、すなわち駐車状態または空車状態を判断し得る車両の検知システムおよび検知方法に関する。   The present invention relates to a vehicle detection system and a detection method capable of determining whether a vehicle is present in a parking room of a parking lot, that is, a parking state or an empty vehicle state.

駐車場を管理する際に、駐車状況を把握する必要があり、既に、駐車状況を測定し得る駐車状況測定方法などが提案されている(例えば、特許文献1参照)。
この駐車状況測定方法は、駐車場の特定駐車エリアにおける駐車台数からニューラルネットワークを用いて駐車場全体の駐車率を推定する駐車状況測定方法において、特定駐車エリアの駐車台数を各車種別に設けた車種別用ニューラルネットワークに入力して車種別の駐車率を求め、その求めた各駐車率を全体用ニューラルネットワークに入力して駐車場全体の駐車率を推定する方法である。
When managing a parking lot, it is necessary to grasp the parking situation, and a parking situation measuring method that can measure the parking situation has already been proposed (for example, see Patent Document 1).
This parking situation measurement method is a parking situation measurement method in which the parking rate of the entire parking lot is estimated using a neural network from the number of parking lots in the specific parking area of the parking lot. This is a method of calculating the parking rate for each vehicle type by inputting it into the neural network for type and estimating the parking rate for the entire parking lot by inputting each calculated parking rate into the overall neural network.

ところで、この測定方法において、車両の有無を検出するのに、テレビカメラを用いており、すなわちテレビカメラで駐車場を撮影するとともに、この撮影画像に画像処理を施し、駐車場に車両が駐車しているか否かが判断されていた。   By the way, in this measurement method, a television camera is used to detect the presence or absence of a vehicle, that is, a parking lot is photographed with the television camera, image processing is performed on the photographed image, and the vehicle is parked in the parking lot. It was judged whether or not.

特開2000−182187号公報JP 2000-182187 A

しかし、車両を検出するのに、画像処理が用いられており、通常は、エッジ抽出などが行われるとともに、この抽出画像と参照用画像データとが比較されて、車両の有無が判断されている。   However, image processing is used to detect the vehicle. Usually, edge extraction or the like is performed, and the presence of the vehicle is determined by comparing the extracted image with reference image data. .

ところで、撮影画像から車両を抽出するようにしているが、駐車場が屋内である場合には、太陽光線の影響をそれ程受けることはないが、駐車場が屋外である場合には、太陽光線の影響、すなわち天候の影響を受けるため、認識率が低下するという問題があった。   By the way, the vehicle is extracted from the captured image, but when the parking lot is indoors, it is not so much affected by the sun rays, but when the parking lot is outdoors, Due to the influence, that is, the influence of the weather, there is a problem that the recognition rate is lowered.

そこで、本発明は、屋外の駐車場における撮影画像であっても認識率が高い駐車場における車両の検知システムおよび検知方法を提供することを目的とする。   Then, an object of this invention is to provide the detection system and detection method of the vehicle in a parking lot with a high recognition rate even if it is a picked-up image in an outdoor parking lot.

上記課題を解決するため、本発明の請求項1に係る駐車場における車両の検知システムは、駐車場を撮影した画像データに対してファジィクラスタリングを行い車室が駐車状態であるか空車状態であるかを判断する車両の検知システムであって、
撮影用カメラにより撮影された撮影画像から車室を切り出すとともにこの切り出された車室毎の画像データから複数の代表値を取得して正規化する正規化部と、この正規化部で得られた代表値よりなる画像データをベクトル化するベクトル化部と、このベクトル化部でベクトル化されたベクトルデータの次元を圧縮する次元圧縮部と、この次元圧縮部で圧縮されたベクトルデータの予め訓練用データで求められたクラスター中心に対するマハラノビス距離を求めるマハラノビス距離計算部と、このマハラノビス距離計算部で求められたマハラノビス距離を下記(1)式に示すメンバーシップ関数(u)に代入するとともにこの関数値を下記(2)式に代入してメンバーシップ(チルダu)を求めるメンバーシップ計算部と、このメンバーシップ計算部で求められたメンバーシップを用いて駐車状態または空車状態のいずれかのクラスにクラスタリングを行い車室内に車両が存在するか否かを判断する在車判断部とを具備したものである。
In order to solve the above-described problem, the vehicle detection system in the parking lot according to claim 1 of the present invention performs fuzzy clustering on the image data obtained by photographing the parking lot, and the vehicle compartment is in the parking state or in the empty state. A vehicle detection system for determining whether
A normalization unit that cuts out the passenger compartment from the captured image taken by the camera for photography and obtains and normalizes a plurality of representative values from the image data for each of the extracted passenger compartments, and obtained by this normalization unit A vectorization unit that vectorizes image data consisting of representative values, a dimension compression unit that compresses the dimension of the vector data vectorized by the vectorization unit, and a vector data compressed by the dimension compression unit for training in advance The Mahalanobis distance calculation unit for obtaining the Mahalanobis distance with respect to the cluster center obtained from the data, and substituting the Mahalanobis distance obtained by the Mahalanobis distance calculation unit into the membership function (u * ) shown in the following equation (1) Membership calculator that calculates the membership (tilde u) by substituting the value into the following formula (2), and this member A vehicle presence determination unit that performs clustering on either the parking state or the empty vehicle class using the membership obtained by the top calculation unit to determine whether or not a vehicle exists in the vehicle interior. is there.

Figure 2011013924
但し、上記式中、αqjはクラスq内のクラスターjの混合比率、Sは分散共分散行列、πはクラスqの混合比率である。
Figure 2011013924
In the above formula, α qj is the mixing ratio of cluster j in class q, S is the variance-covariance matrix, and π q is the mixing ratio of class q.

また、請求項2に係る駐車場における車両の検知システムは、請求項1に記載の検知システムにおいて、次元圧縮部にて次元を圧縮する際に、主成分分析法を用いたものである。   A vehicle detection system in a parking lot according to claim 2 uses the principal component analysis method in the detection system according to claim 1 when the dimension is compressed by the dimension compression unit.

さらに、請求項3に係る駐車場における車両の検知システムは、請求項1に記載の検知システムにおいて、(1)式にて示すメンバーシップ関数(u)における各パラメータ(m,γ,ν,α)の最適化を行う際に、粒子群最適化法を用いたものである。 Moreover, the vehicle detection system in parking according to claim 3 is the detection system of claim 1, the parameters at (1) the membership function shown in equation (u *) (m, gamma, [nu, The particle swarm optimization method is used in the optimization of α).

さらに、本発明の請求項4に係る駐車場における車両の検知方法は、駐車場を撮影した画像データに対してファジィクラスタリングを行い車室が駐車状態であるか空車状態であるかを判断する車両の検知方法であって、
撮影用カメラにより撮影された撮影画像から車室を切り出すとともにこの切り出された車室毎の画像データから複数の代表値を取得して正規化し、この正規化された代表値よりなる画像データをベクトル化し、このベクトル化されたベクトルデータの次元を圧縮し、この圧縮されたベクトルデータの予め訓練用データで求められたクラスター中心に対するマハラノビス距離を求め、この求められたマハラノビス距離を下記(3)式に示すメンバーシップ関数(u)に代入するとともにこの関数値を下記(4)式に代入してメンバーシップ(チルダu)を求め、この求められたメンバーシップを用いて車室内に車両が存在するか否かを判断する方法である。
Further, according to a fourth aspect of the present invention, there is provided a method for detecting a vehicle in a parking lot, wherein fuzzy clustering is performed on image data obtained by photographing the parking lot to determine whether the passenger compartment is in a parking state or an empty state. Detection method,
A vehicle compartment is cut out from a photographed image taken by the camera for photographing, and a plurality of representative values are obtained from the image data for each cut out compartment, normalized, and image data consisting of the normalized representative values is vectorized. The dimension of the vectorized vector data is compressed, the Mahalanobis distance to the cluster center obtained from the training data of the compressed vector data in advance is obtained, and the obtained Mahalanobis distance is expressed by the following equation (3) Substituting into the membership function (u * ) shown below and substituting this function value into the following equation (4) to determine the membership (tilde u), and using this calculated membership, there is a vehicle in the passenger compartment This is a method for determining whether or not to do so.

Figure 2011013924
但し、上記式中、αqjはクラスq内のクラスターjの混合比率、Sは分散共分散行列、πはクラスqの混合比率である。
Figure 2011013924
In the above formula, α qj is the mixing ratio of cluster j in class q, S is the variance-covariance matrix, and π q is the mixing ratio of class q.

また、請求項5に係る駐車場における車両の検知方法は、請求項4に係る検知方法において、
(3)式に示すメンバーシップ関数(u)の各パラメータについては、訓練用データに基づき予め決定し、
且つこの決定に際しては、
まず訓練用データを用いて駐車状態および空車状態を示すクラス毎にセミハードクラスタリングを行うことにより、各クラス毎における各クラスターの中心およびメンバーシップを求め、
次に評価用データにより、(3)式に示すメンバーシップ関数(u)および(4)式に示すメンバーシップ(チルダu)を用いて当該メンバーシップが正しいクラスに所属するように、(3)式における各パラメータ(m,γ,ν,α)の最適化を図る方法である。
Moreover, the detection method of the vehicle in the parking lot which concerns on Claim 5 is the detection method which concerns on Claim 4,
About each parameter of membership function (u * ) shown in (3) formula, it determines beforehand based on training data,
And in making this decision,
First, by performing semi-hard clustering for each class that shows parking and empty conditions using training data, the center and membership of each cluster in each class is obtained,
Next, using the evaluation data, the membership function (u * ) shown in the expression (3) and the membership (tilde u) shown in the expression (4) are used so that the membership belongs to the correct class (3 ) Is a method for optimizing each parameter (m, γ, ν, α) in the equation.

さらに、請求項6に係る駐車場における車両の検知方法は、請求項4に係る検知方法において、
(3)式にて示すメンバーシップ関数(u)における各パラメータ(m,γ,ν,α)の最適化を行う際に、粒子群最適化法を用いる方法である。
Furthermore, the detection method of the vehicle in the parking lot according to claim 6 is the detection method according to claim 4,
This is a method of using the particle swarm optimization method when optimizing each parameter (m, γ, ν, α) in the membership function (u * ) expressed by equation (3).

上記検知システムおよび検知方法によると、撮影用カメラにより撮影された撮影画像から車室を切り出すとともにこの切り出された車室毎の画像データから複数の代表値を取得して正規化し、この画像データをベクトル化し、このベクトル化されたベクトルデータの次元を圧縮し、この次元圧縮されたベクトルデータの予め訓練用データで求められたクラスター中心に対するマハラノビス距離を求め、この求められたマハラノビス距離をメンバーシップ関数に代入するとともにこの関数値に基づきメンバーシップを求め、そしてこの求められたメンバーシップを用いて車室内に車両が存在するか否かを判断するようにしたので、駐車場がたとえ屋外であっても、精度良く、高い識別率でもって、駐車状態および空車状態を判断することができる。   According to the detection system and the detection method, the vehicle compartment is cut out from the captured image taken by the photographing camera, and a plurality of representative values are obtained from the image data for each of the cut out vehicle compartments, and the image data is normalized. Vectorize, compress the dimension of the vectorized vector data, calculate the Mahalanobis distance to the cluster center obtained from the training data of the dimension-compressed vector data in advance, and use the obtained Mahalanobis distance as a membership function And the membership value is calculated based on this function value, and it is determined whether there is a vehicle in the passenger compartment using the calculated membership value. It is possible to judge parking and empty conditions with high accuracy and high identification rate. .

本発明の実施例に係る車両の検知システムが用いられる駐車場の概略斜視図である。1 is a schematic perspective view of a parking lot in which a vehicle detection system according to an embodiment of the present invention is used. 同検知システムの概略全体構成を示すブロック図である。It is a block diagram which shows the schematic whole structure of the detection system. 同検知システムにおける車室設定部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the vehicle interior setting part in the detection system. 同検知システムにおけるデータ等作成・調整部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the data creation / adjustment part in the detection system. 同検知システムにおける画像圧縮係数計算部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image compression coefficient calculation part in the detection system. 同検知システムにおけるパラメータ調整部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the parameter adjustment part in the detection system. 同検知システムにおける駐・空判断部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the parking / vacancy judgment part in the detection system. 同検知システムにおけるファジィクラスタリングの説明図である。It is explanatory drawing of the fuzzy clustering in the detection system.

以下、本発明の実施の形態に係る駐車場における車両の検知システムおよび検知方法を、具体的に示した実施例に基づき説明する。
本実施例に係る駐車場は、屋外に設けられているものとして説明する。
DESCRIPTION OF EMBODIMENTS Hereinafter, a vehicle detection system and a detection method in a parking lot according to an embodiment of the present invention will be described based on specific examples.
The parking lot which concerns on a present Example is demonstrated as what is provided outdoors.

この駐車場は、図1に示すように、地上に多数の駐車スペース(駐車場所であり、以下、車室という)Sが配置されたものであり、例えば適当な複数個所に支柱1が立設されるとともに、所定の支柱1に撮影用カメラ(例えば、CCDカメラが用いられる)2が固定され、この撮影用カメラ2からの撮影画像を用いて車室Sに車両Cが存在しているか否かを判断する、すなわち駐車状態であるか空車状態であるかを判断して車両Cの検知を効率的に行う検知システムが具備されている。   As shown in FIG. 1, this parking lot has a large number of parking spaces (parking places, hereinafter referred to as vehicle compartments) S arranged on the ground. At the same time, a shooting camera (for example, a CCD camera is used) 2 is fixed to a predetermined column 1, and whether or not the vehicle C exists in the passenger compartment S using a shot image from the shooting camera 2. In other words, a detection system that efficiently detects the vehicle C by determining whether the vehicle is in a parking state or an empty state is provided.

以下、車両の検知システムおよび検知方法を、図2〜図8に基づき説明する。
ところで、この車両の検知システムおよび検知方法(これらを、検知システム等ともいう)には、ファジィクラスタリング法が用いられる。
Hereinafter, a vehicle detection system and a detection method will be described with reference to FIGS.
By the way, a fuzzy clustering method is used for this vehicle detection system and detection method (these are also referred to as a detection system or the like).

まず、この検知システム等で用いられるファジィクラスタリング法を概略的に説明すると、最初に訓練用データを用いて駐車状態(クラス1と称す)と空車状態(クラス2と称す)とにクラス分けを行う、つまり分類するとともに、クラス毎についても、例えば2つのクラスターに分類し、そしてこのとき得られたクラスター中心位置(以下、クラスター中心という)、分散共分散行列などのデータおよび評価用データを用いて、メンバーシップ関数(後述する)の各パラメータの最適化を図るようにしたものである。なお、訓練用データは、予め、撮影された車室の駐車状態および空車状態の画像データであり、評価用データについても、撮影用カメラにて撮影された車室の画像データである。   First, the fuzzy clustering method used in this detection system and the like will be briefly described. First, classification is performed into a parking state (referred to as class 1) and an empty state (referred to as class 2) using training data. That is, in addition to classification, for each class, for example, it is classified into two clusters, and using the data such as cluster center position (hereinafter referred to as cluster center), variance-covariance matrix, and evaluation data obtained at this time The parameters of the membership function (described later) are optimized. It should be noted that the training data is image data of the parking state and the empty vehicle state of the vehicle imaged in advance, and the evaluation data is also image data of the vehicle room imaged by the imaging camera.

次に、このファジィクラスタリング法(FCM:fuzzy c−means)を詳しく説明する。
このファジィクラスタリング法は繰返し重み付き最小二乗法を用いるので目的関数Jは下記(1)式のように設定される。
Next, the fuzzy clustering method (FCM: fuzzy c-means) will be described in detail.
Since this fuzzy clustering method uses an iteratively weighted least square method, the objective function J i is set as shown in the following equation (1).

Figure 2011013924
但し、(1)式中、Dはマハラノビス距離で、下記(2)式にて表わされる。
Figure 2011013924
However, in Formula (1), D is Mahalanobis distance and is represented by the following Formula (2).

Figure 2011013924
は分散共分散行列(ファジィ分散共分散行列)、vはデータの平均値つまりクラスター(i)の中心で、それぞれ下記(3)式および(4)式にて表わされる。なお、kはデータ番号である。
Figure 2011013924
S i is a variance-covariance matrix (fuzzy variance-covariance matrix), and v i is an average value of data, that is, the center of cluster (i), and is represented by the following formulas (3) and (4), respectively. Note that k is a data number.

Figure 2011013924
ここで、クラスター(i)の混合比率αを下記(5)式のように表わす。
Figure 2011013924
Here, the mixing ratio α of the cluster (i) is expressed by the following equation (5).

Figure 2011013924
上記(2)式〜(5)式を(1)式で示す目的関数値が収束するまで繰り返すのがFCMクラスタリング法である。
Figure 2011013924
The FCM clustering method repeats the above equations (2) to (5) until the objective function value represented by equation (1) converges.

そして、この車両検知システムにおいては、マハラノビス距離を計算するためのクラスター中心と分散共分散行列を求めるために訓練用データのクラスタリングをクラス毎に行う第1フェーズと、メンバーシップ関数のパラメータの最適化を行うために評価用データを各クラスに分類(識別)する第2フェーズとが具備されている。   In this vehicle detection system, the cluster phase of the Mahalanobis distance and the first phase in which training data is clustered for each class to obtain the variance-covariance matrix, and optimization of membership function parameters And a second phase for classifying (identifying) the evaluation data into classes.

ところで、k番目のデータxのクラスqへのメンバーシップ(値)(チルダuqk)は下記(6)式にて表わされる。式中では、uの頭に、チルダの記号(〜)を付加しており、この「チルダu」を文章中では、「*u」として表記する。なお、メンバーシップ関数については、下記に示すように「u」と表記する。 By the way, the membership (value) (tilde u qk ) to the class q of the k-th data x k is expressed by the following equation (6). In the formula, a tilde symbol (˜) is added to the head of u, and this “tilde u” is expressed as “* u” in the text. The membership function is expressed as “u * ” as shown below.

Figure 2011013924
(6)式中、uqkj はクラスターjに対するメンバーシップ関数で、下記(7)式で表わされる。
Figure 2011013924
In the equation (6), u qkj * is a membership function for the cluster j and is represented by the following equation (7).

πはクラスqの混合比率(訓練用データの混合比率)、すなわち事前確率であり、cはクラス毎のクラスターjの数で、本実施例ではc=2である。 π q is a mixing ratio of class q (mixing ratio of training data), that is, a prior probability, c is the number of clusters j for each class, and c = 2 in this embodiment.

Figure 2011013924
上記(7)式のメンバーシップ関数uqkj には複数のパラメータが含まれており、これらのパラメータは、上述したように、訓練用データおよび評価用データを用いて最適化が行われる。
Figure 2011013924
The membership function u qkj * of the above equation (7) includes a plurality of parameters, and these parameters are optimized using the training data and the evaluation data as described above.

そして、クラスタリングを行う際に、計算時間の短縮化を図るために、セミハードクラスタリングが行われる。このセミハードクラスタリングにおいては、メンバーシップとして離散値(例えば、0.6とか、0.8など)が用いられる。   When performing clustering, semi-hardware clustering is performed in order to shorten the calculation time. In this semi-hardware clustering, discrete values (for example, 0.6, 0.8, etc.) are used as membership.

また、このセミハードクラスタリングにおいては、上述したように、クラスを2つ、つまり駐車状態をクラス1にするとともに空車状態をクラス2とし、さらにこれら各クラスを2つのクラスターに分けるものとする。これは、経験上、各クラスを2つのクラスターに分割するのが、効率良くクラスタリングを行うことが判っているからである。なお、クラスター個数については、2つに限定されるものでもなく、例えば1つまたは3つ以上であってもよい。例えば、上記離散値を0.5とすると、クラスター数は1となり、離散値を1.0とすると、ハード(ファジィではない)な2つのクラスターとなる。   In this semi-hardware clustering, as described above, there are two classes, that is, the parking state is class 1, the empty state is class 2, and each of these classes is further divided into two clusters. This is because experience has shown that dividing each class into two clusters performs efficient clustering. The number of clusters is not limited to two, and may be one or three or more, for example. For example, when the discrete value is 0.5, the number of clusters is 1, and when the discrete value is 1.0, two hard (not fuzzy) clusters are obtained.

第1フェーズでは、訓練用データを用いて、クラス毎に、つまり駐車状態の画像データおよび空車状態の画像データに対して、セミハードクラスタリングを行う。
ハードとファジイの中間的なセミハードクラスタリングをするために、メンバーシップukiを下記(8)式のように設定する。
In the first phase, semi-hardware clustering is performed for each class, that is, for the image data in the parking state and the image data in the empty state, using the training data.
In order to perform semi-hard clustering that is intermediate between hard and fuzzy, membership u ki is set as shown in the following equation (8).

Figure 2011013924
以下、具体的な手順について説明する(クラスター数(i)は2個とする)。なお、βは上述した離散値で指定される。
Figure 2011013924
Hereinafter, a specific procedure will be described (the number of clusters (i) is two). Note that β is specified by the discrete value described above.

まず、クラスター毎の初期メンバーシップ(uk1,uk2)を下記(9)式および(10)式のように設定する。 First, the initial membership (u k1 , u k2 ) for each cluster is set as in the following equations (9) and (10).

Figure 2011013924
なお、上記式中、fは1つのクラスの画像データxの主成分得点である。
Figure 2011013924
In the above formula, f k is a main component score of one class of image data x k .

上記の式により、メンバーシップが与えられると、(4)式からvを、(3)式からSを求め、そして(2)式と(3)式とからマハラノビス距離Dを求め、(8)式でメンバーシップuを更新する。この更新は、メンバーシップが収束するまで繰り返し行われる。   When membership is given by the above equation, v is obtained from equation (4), S is obtained from equation (3), and Mahalanobis distance D is obtained from equations (2) and (3), (8) Update membership u with formula. This update is repeated until membership has converged.

次に、訓練用データを用いて、クラス毎(クラス1→駐車状態;クラス2→空車状態)にクラスタリングする。すなわち、各クラスをそれぞれ2つのクラスターに分割する。
このとき、目的関数Jを用いてセミハードクラスタリングを行う。
Next, clustering is performed for each class (class 1 → parking state; class 2 → empty state) using the training data. That is, each class is divided into two clusters.
At this time, semi-hardware clustering is performed using the objective function J.

すなわち、目的関数Jが最小となるような訓練用データ毎のメンバーシップuを求める。これにより、各クラスターの中心vとそのメンバーシップuとが求められる。
そして、上記求められたメンバーシップuに基づき、各クラス毎にクラスタリングが行われる。
That is, the membership u for each training data that minimizes the objective function J is obtained. Thus, the center v of each cluster and its membership u are obtained.
Then, based on the obtained membership u, clustering is performed for each class.

第2フェーズでは、評価用データを用いて識別(クラシフィケーション)が行われる。
すなわち、第1フェーズにて求められた各クラスターの中心vに対して、マハラノビス距離Dを求める。このとき、第1フェーズで求められたメンバーシップuが用いられる。
In the second phase, identification (classification) is performed using the evaluation data.
That is, the Mahalanobis distance D is obtained for the center v of each cluster obtained in the first phase. At this time, the membership u obtained in the first phase is used.

そして、予め定められた(6)式にて示すメンバーシップ関数uに、上記求められたマハラノビス距離Dを適用して(用いて)、メンバーシップ関数uにおける各パラメータ(m,γ,ν,α;これらを自由パラメータまたはハイパーパラメータともいう)の最適化を図る。この最適化においては、粒子群最適化法(PSO)が用いられる。 Then, by applying (using) the obtained Mahalanobis distance D to the membership function u * shown by the predetermined equation (6), each parameter (m, γ, ν) in the membership function u * is used. , Α; these are also called free parameters or hyper parameters). In this optimization, a particle swarm optimization method (PSO) is used.

ここで、この粒子群最適化法を簡単に説明しておく。
この粒子群最適化法は、メンバーシップ関数uにおける3つのパラメータ(m,γ,ν)と同じくパラメータであるクラスターの混合比率αの最適化が行われる。
Here, this particle swarm optimization method will be briefly described.
In this particle swarm optimization method, the cluster mixing ratio α, which is the same parameter as the three parameters (m, γ, ν) in the membership function u * , is optimized.

すなわち、この粒子群最適化法では、粒子群の最良位置の探索が、以下に示す(11)式および(12)式の更新式により行われる。   That is, in this particle group optimization method, the search for the best position of the particle group is performed by the following update formulas (11) and (12).

Figure 2011013924
上記式中、Paraは粒子の位置を示すパラメータで、α,m,γ,νからなるベクトルである。Veloは粒子の速度ベクトルである。Randは「0」と「1」との間の乱数の対角行列である。w,c,cはスカラー定数である。pbset とgbest はそれぞれpbset とgbestの位置ベクトルである。
Figure 2011013924
In the above formula, Para is a parameter indicating the position of the particle and is a vector composed of α, m, γ, and ν. Velo is the velocity vector of the particle. Rand is a diagonal matrix of random numbers between “0” and “1”. w 0 , c 1 , and c 2 are scalar constants. pbset and gbest are position vectors of pbset and gbest, respectively.

そして、これらの自由パラメータは、評価用データの誤識別率を最小にするように決定される。
すなわち、上記メンバーシップ関数uを用いたメンバーシップ*uが、正しいクラスに属するように、言い換えれば、正しいクラスのメンバーシップ*uの方が大きくなるように、最適化が図られる。
These free parameters are determined so as to minimize the misidentification rate of the evaluation data.
That is, optimization is performed so that the membership * u using the membership function u * belongs to the correct class, in other words, the correct class membership * u is larger.

上述した準備工程にて、メンバーシップ関数uが求められる。
そして、実際に、駐車の有無を判断する判断工程の概略について説明する。
すなわち、撮影されて所定の処理(後述する)が施された画像データの、上記準備工程で求められた各クラスターの中心vに対するマハラノビス距離Dを求めるとともに、このマハラノビス距離を上記(6)式に代入して求められるメンバーシップ関数値uを上記(5)式に代入し、各クラスにおけるクラスターに対するメンバーシップ*uを求める。そして、クラスター毎に求められたメンバーシップ*uを加算し、クラス毎のメンバーシップ*u,*uを求める。
In the above-described preparation process, the membership function u * is obtained.
And the outline of the judgment process which actually judges the presence or absence of parking is demonstrated.
That is, the Mahalanobis distance D with respect to the center v of each cluster obtained in the preparation step of image data that has been photographed and subjected to predetermined processing (described later) is obtained, and this Mahalanobis distance is expressed by the above equation (6). The membership function value u * obtained by substitution is substituted into the above equation (5) to obtain the membership * u for the cluster in each class. Then, membership * u obtained for each cluster is added to obtain memberships * u 1 and * u 2 for each class.

そして、クラス1のメンバーシップ*uとクラス2のメンバーシップ*uとを比較し、値の大きい方が、当該画像データが所属するクラスと判断できる。つまり、クラス1のメンバーシップ*uが大きい場合には、駐車状態であると判断される。逆に、クラス2のメンバーシップ*uが大きい場合には、空車状態であると判断される。 Then, by comparing the membership * u 2 membership * u 1 and Class 2 Class 1, the larger the value is, it can be determined that the class to which the image data belongs. In other words, if the membership * u 1 of the class 1 is large, it is determined that the parking state. On the other hand, when the membership * u 2 of Class 2 is large, it is determined that the unladen state.

以下、上述した準備工程および判断工程を実行する車両の検知システムについて説明する。
なお、以下の説明では、自由パラメータ(m,γ,ν,α)およびクラスター中心v,分散共分散行列S、クラスの混合比率πなどが識別に関わる要素であるため、判断用パラメータと称して説明する。
Hereinafter, a vehicle detection system that performs the above-described preparation process and determination process will be described.
In the following description, the free parameters (m, γ, ν, α), the cluster center v, the variance-covariance matrix S, the class mixture ratio π, and the like are factors involved in the identification, and are therefore referred to as determination parameters. explain.

この検知システム(プログラムとして)には、図2に示すように、大きく分けて、車室設定部(車室設定プログラム)11と、例えば画像圧縮係数(後述する)などの必要データの作成および車両の有無の判断に用いる判断用パラメータの調整を行うためのデータ等作成・調整部(データ等作成・調整用プログラム)12と、設定された車室Sが駐車状態か空車状態かを判断する駐・空判断部(駐・空判断用プログラム)13と、基本データ、各種パラメータなどを記憶しておくデータベース部14とが具備されている。なお、上記車室設定部11、データ等作成・調整部12は準備用であり、駐・空判断部13が実稼動用である。勿論、データベース部14は準備用と実稼動用の両方に用いられる。   As shown in FIG. 2, the detection system (as a program) is roughly divided into a vehicle interior setting unit (vehicle interior setting program) 11 and creation of necessary data such as an image compression coefficient (described later) and a vehicle. A data creation / adjustment unit (data creation / adjustment program) 12 for adjusting determination parameters used to determine the presence or absence of a vehicle, and parking to determine whether the set cabin S is parked or empty An empty determination unit (parking / empty determination program) 13 and a database unit 14 for storing basic data, various parameters, and the like are provided. The passenger compartment setting unit 11 and the data creation / adjustment unit 12 are for preparation, and the parking / vacancy determination unit 13 is for actual operation. Of course, the database unit 14 is used for both preparation and actual operation.

上記車室設定部11は、図3に示すように、例えば支柱1に固定された撮影用カメラ2で撮影された画像データを入力して当該画像データ内(つまり、撮影画面内)に車両の有無を判断(判定)するための車室Sを設定する車室位置設定部21と、この車室位置設定部21で設定された(位置が決められた)車室位置情報を取得する車室位置情報取得部22とから構成され、この車室位置情報取得部22で取得された車室位置情報は、データベース部14に記憶される。   As shown in FIG. 3, the passenger compartment setting unit 11 inputs image data captured by the imaging camera 2 fixed to the column 1, for example, and inputs the vehicle data into the image data (that is, in the imaging screen). The vehicle interior position setting unit 21 that sets the vehicle interior S for determining (determining) the presence / absence, and the vehicle interior that acquires the vehicle interior location information set (position determined) by the vehicle interior location setting unit 21. The vehicle location information acquired by the vehicle location information acquisition unit 22 is stored in the database unit 14.

上記データ等作成・調整部12は、図4に示すように、既に撮影された画像データに基づき画像データを圧縮するための画像圧縮係数を計算する画像圧縮係数計算部31と、同じく既に撮影された画像データに基づき判断用パラメータの調整を行うパラメータ調整部32とから構成され、画像圧縮係数計算部31で求められた画像圧縮係数とパラメータ調整部32で調整された判断用パラメータは、データベース部14に記憶される。   As shown in FIG. 4, the data creation / adjustment unit 12 is already photographed in the same manner as an image compression coefficient calculation unit 31 that calculates an image compression coefficient for compressing image data based on already photographed image data. A parameter adjustment unit 32 that adjusts a determination parameter based on the image data, and the image compression coefficient obtained by the image compression coefficient calculation unit 31 and the determination parameter adjusted by the parameter adjustment unit 32 are stored in a database unit. 14 is stored.

上記画像圧縮係数計算部31は、図5に示すように、予め撮影された画像データを読み込む(取り込む)画像読込部31aと、この画像読込部31aにて読み込まれた画像データから車室1を切り出す(例えば、平行四辺形などの矩形状にて切り出す)車室切出部31bと、この車室切出部31bにて切り出された車室1を正規化する正規化部31cと、この正規化部31cにて正規化された画像データを入力して主成分分析を行うことによりデータの次元を少なくして(例えば、1024次元から50次元程度にして)データの圧縮を行う主成分分析部31dと、この主成分分析部31dで得られた主成分ベクトル(基底ベクトル)および画像データの平均ベクトルを画像圧縮係数として取得する画像圧縮係数取得部31eとから構成されている。なお、上述した正規化とは、例えば撮影した画像データ上では、車室の位置(特に、遠近の違い)により、車室であると判断される画面の大きさが異なるため、これらを全て同一の画素データ(同一のデータ数)にすることである。具体的には、カラーの画像データを白黒データに変換し、つまり輝度値(例えば、0〜255の数値)に変換した画像データを縦横とも例えば32分割して1024(=32×32)個の画素値を得る(正規化である)。実際には、1024個の各分割領域(複数領域)における一つの画素(例えば、分割領域の中心画素)の輝度値が代表値として用いられる(代表値として、各分割領域の平均輝度値を用いることもできる)。これにより、1024次元のデータが得られる。したがって、この正規化部31cは、画像データを入力して複数箇所(例えば、1024箇所)にて画像データの代表値を取得するデータ取得部により構成されている。なお、この正規化部31cは、画像データを入力して複数領域に分割するデータ領域分割部と、このデータ領域分割部で分割された分割領域での画像データの代表値を取得するデータ取得部とから構成されているともいえる。   As shown in FIG. 5, the image compression coefficient calculation unit 31 reads an image reading unit 31 a that reads (captures) previously captured image data, and the vehicle interior 1 from the image data read by the image reading unit 31 a. A vehicle compartment cutout portion 31b that is cut out (for example, cut out in a rectangular shape such as a parallelogram), a normalization portion 31c that normalizes the vehicle compartment 1 cut out at the vehicle compartment cutout portion 31b, The principal component analysis unit that compresses the data by reducing the dimension of the data (for example, from about 1024 dimensions to about 50 dimensions) by inputting the normalized image data in the conversion unit 31c and performing the principal component analysis 31d and an image compression coefficient acquisition unit 31e that acquires the principal component vector (base vector) obtained by the principal component analysis unit 31d and the average vector of the image data as image compression coefficients. There. Note that the normalization described above is, for example, on the captured image data, because the size of the screen that is determined to be a passenger compartment differs depending on the position of the passenger compartment (especially, the difference in perspective). Pixel data (the same number of data). Specifically, color image data is converted into black and white data, that is, the image data converted into luminance values (for example, numerical values of 0 to 255) is divided into, for example, 32 in both vertical and horizontal directions to obtain 1024 (= 32 × 32) pieces. Get the pixel value (normalization). Actually, the luminance value of one pixel (for example, the central pixel of the divided region) in each of the 1024 divided regions (plural regions) is used as the representative value (the average luminance value of each divided region is used as the representative value). Can also). Thereby, 1024-dimensional data is obtained. Therefore, the normalization unit 31c is configured by a data acquisition unit that inputs image data and acquires representative values of the image data at a plurality of locations (for example, 1024 locations). The normalization unit 31c includes a data region dividing unit that inputs image data and divides it into a plurality of regions, and a data acquisition unit that acquires representative values of image data in the divided regions divided by the data region dividing unit. It can be said that it is composed of

また、上記データ等作成・調整部32は、図6に示すように、予め撮影された画像データを読み込む(取り込む)画像読込部32aと、上記画像圧縮係数取得部31eにて取得された画像圧縮係数を用いて上記画像読込部32aにて読み込まれた画像データの次元を低次元に、すなわち次元圧縮を行う次元圧縮部32bと、この次元圧縮部32bで次元圧縮された画像データを訓練用画像として蓄積する訓練画像蓄積部32cと、この訓練画像蓄積部32cで蓄積された画像データを入力して訓練を行うことにより判断用パラメータを取得するパラメータ取得部32dとから構成されている。なお、このデータ等作成・調整部32にて取得される判断用パラメータは、稼動時における初期パラメータとして用いられ、また訓練時における初期値としても用いられる。   Further, as shown in FIG. 6, the data etc. creating / adjusting unit 32 reads (captures) previously captured image data, and the image compression acquired by the image compression coefficient acquisition unit 31e. The dimension of the image data read by the image reading unit 32a using a coefficient is reduced to a low dimension, that is, a dimension compression unit 32b that performs dimension compression, and the image data that has been dimensionally compressed by the dimension compression unit 32b is used as a training image. As a training image storage unit 32c, and a parameter acquisition unit 32d that acquires the judgment parameters by performing training by inputting the image data stored in the training image storage unit 32c. The determination parameter acquired by the data creation / adjustment unit 32 is used as an initial parameter during operation, and also as an initial value during training.

次に、実際の稼動時に実行される駐・空判断部13について説明する。
なお、この駐・空判断部13は、単独で作動するものであるため、画像データを読み込み、次元圧縮などの構成部分については、上述したものと同一のものが具備されており、当然ながら、この構成部分も再度説明する。
Next, the parking / empty determination unit 13 executed during actual operation will be described.
Since the parking / air determination unit 13 operates independently, the image data is read and the components such as dimensional compression are provided with the same components as described above. This component will also be described again.

この駐・空判断部13は、図7に示すように、撮影用カメラ2で撮影された撮影画像である画像データを読み込む画像読込部41と、この画像読込部41にて読み込まれた画像データから車室を切り出す(特定する)車室切出部42と、この車室切出部42にて切り出された車室の画像データを正規化する、つまり画像データを1024に分割する正規化部43と、この正規化部43で正規化された画像データを1024次元のベクトルにするベクトル化部44と、このベクトル化部44でベクトル化されたベクトルデータの次元を例えば50次元に圧縮する次元圧縮部45と、この次元圧縮部45で次元圧縮された画像データの予め求められたクラスターの中心に対するマハラノビス距離を求めるマハラノビス距離計算部46と、このマハラノビス距離計算部46で求められたマハラノビス距離に基づきメンバーシップ関数uおよびメンバーシップ*uを求める上記(7)式および(6)式が具備されたメンバーシップ計算部47と、このメンバーシップ計算部47で求められたメンバーシップ*uに基づき、当該画像データが、いずれのクラスつまり駐車状態か空車状態であるかを判断する在車判断部48とから構成されている。上記車室切出部42、次元圧縮部45、マハラノビス距離計算部46、メンバーシップ計算部47および在車判断部48での計算に際しては、データベース部14から適切な車室位置情報、画像圧縮係数、判断用パラメータなどが読み込まれて使用される。なお、実稼動時において、読み込まれる判断用パラメータは訓練などにより最適に調整された値である。ところで、駐車場が広い場合には、当然、撮影用カメラで撮影する範囲が限られるため、グループ分けが行われる。したがって、これらグループ毎にファジィクラスタリングが行わることになるため、判断用パラメータについても、各グループ毎に調整される。また、画像圧縮係数については、少し広い範囲に対して求められる。例えば、グループ毎ではなく、駐車場毎に求められる。 As shown in FIG. 7, the parking / air determination unit 13 includes an image reading unit 41 that reads image data that is a captured image taken by the shooting camera 2, and image data that is read by the image reading unit 41. A vehicle compartment cutout unit 42 that cuts out (specifies) the vehicle compartment from the vehicle, and a normalization unit that normalizes the image data of the vehicle compartment cut out by the vehicle compartment cutout unit 42, that is, divides the image data into 1024 43, a vectorizing unit 44 that converts the image data normalized by the normalizing unit 43 into a 1024-dimensional vector, and a dimension for compressing the dimension of the vector data vectorized by the vectorizing unit 44 to, for example, 50 dimensions A compression unit 45; a Mahalanobis distance calculation unit 46 for obtaining a Mahalanobis distance with respect to a center of a cluster obtained in advance of the image data dimensionally compressed by the dimension compression unit 45; The membership calculation section 47 above (7) and the equation (6) is provided to determine the membership functions u * and membership * u based on the Mahalanobis distances determined by Nobis distance calculator 46, the membership calculation Based on the membership * u obtained by the unit 47, the image data is constituted by a vehicle presence determination unit 48 that determines which class, that is, a parking state or an empty state. In the calculation by the vehicle compartment cutout section 42, the dimension compression section 45, the Mahalanobis distance calculation section 46, the membership calculation section 47, and the vehicle presence determination section 48, appropriate vehicle compartment position information and image compression coefficients are obtained from the database section 14. The determination parameters are read and used. Note that, in actual operation, the read determination parameter is a value optimally adjusted by training or the like. By the way, when the parking lot is large, the range of photographing with the photographing camera is naturally limited, so that grouping is performed. Therefore, since fuzzy clustering is performed for each group, the determination parameter is also adjusted for each group. Also, the image compression coefficient is obtained over a slightly wide range. For example, it is calculated | required for every parking lot instead of every group.

具体的には、マハラノビス距離計算部46では、画像データの予め求められているクラスター中心に対するマハラノビス距離Dが求められ、そしてメンバーシップ計算部47では、マハラノビス距離Dに基づきメンバーシップ関数u(関数値)が求まり、このメンバーシップ関数uに基づきメンバーシップ*uが求められる。つまり、各クラスターに対してメンバーシップ*u,*uが求められる。そして、各クラス毎において、メンバーシップが加算されて、クラスにおけるメンバーシップ*uc1,*uc2が求められる。 Specifically, the Mahalanobis distance calculation unit 46 calculates the Mahalanobis distance D with respect to the cluster center obtained in advance of the image data, and the membership calculation unit 47 calculates the membership function u * (function) based on the Mahalanobis distance D. Value), and membership * u is obtained based on this membership function u * . That is, membership * u 1 , * u 2 is obtained for each cluster. Then, for each class, membership is added, and memberships * u c1 and * u c2 in the class are obtained.

そして、在車判断部48において、これら求められた各クラスでのメンバーシップ*uc1,*uc2同士が比較されて、その値が大きい方に、この画像データが属していると判断される。 Then, the vehicle presence determination unit 48 compares the obtained memberships * u c1 and * u c2 in each class, and determines that the image data belongs to the larger one. .

例えば、この判断時の各クラスにおけるメンバーシップを図8に示す。図8は、2つのクラス1およびクラス2に、それぞれ2つのクラスター1およびクラスター2をそれぞれ形成したもので、クラス1側には、v11のクラスター1とv12のクラスター2とがあり、またクラス2側にも、v21のクラスター1と、v22のクラスター2とがある。図8において、Xの地点が判断すべき画像データであるとすると、クラス1における一方のクラスター1に対するXのメンバーシップをu11、他方のクラスター2に対するXのメンバーシップをu12とし、またクラス2の一方のクラスター1に対するXのメンバーシップをu21、他方のクラスター2に対するXのメンバーシップをu22とすると、Xのクラス1に対するメンバーシップuは、u11+u12となり、またXのクラス2に対するメンバーシップuは、u21+u22となる。つまり、各クラスにおける各クラスターのメンバーシップの合計値(両クラスターに対するメンバーシップの高さの合計である)が各クラスに対するメンバーシップとなる。そして、そのメンバーシップu,uのうち、大きい方のクラスに所属していることになる。クラス1に所属していれば、駐車状態であり、またクラス2に所属していれば、空車状態を示している。 For example, the membership in each class at the time of this determination is shown in FIG. 8, the two Class 1 and Class 2, in which respectively form two clusters 1 and cluster 2, respectively, the class 1 side, there is a cluster 2 clusters 1 and v 12 of v 11, also On the class 2 side, there is also a cluster 1 of v 21 and a cluster 2 of v 22 . In FIG. 8, if the point of X is image data to be judged, the membership of X for one cluster 1 in class 1 is u 11 , the membership of X for the other cluster 2 is u 12 , and the class 2, the membership of X to class 1 is u 21 , and the membership of X to the other cluster 2 is u 22 , the membership u 1 to class 1 of X is u 11 + u 12 , membership u 2 for the class 2, the u 21 + u 22. That is, the total value of membership of each cluster in each class (which is the sum of membership heights for both clusters) becomes the membership for each class. Of the memberships u 1 and u 2 , they belong to the larger class. If it belongs to class 1, it is in a parking state, and if it belongs to class 2, it indicates an empty state.

なお、上述した粒子群最適化法にて誤識別率が最小となるように自由パラメータが探索されるが、例えばクラスターの混合比率αを変化させると、図8のクラスターの領域(等高線で示す)の形状が変化することになり、したがって2つのクラスの境界線も非線形に変化する。   Note that free parameters are searched so that the misidentification rate is minimized by the particle swarm optimization method described above. For example, when the cluster mixing ratio α is changed, the cluster region (shown by contour lines) in FIG. Will change, and therefore the boundaries of the two classes will also change non-linearly.

ここで、全体のシステムの設置から稼動開始までの概略工程について説明する。
まず、この検知システムの設置に際しては、下記に示すように、二つの場合が考えられ、以下、この設置に際しての手順を概略的に説明した後、一つの場合に基づき具体的に説明する。
Here, an outline process from installation of the entire system to start of operation will be described.
First, there are two cases in installing the detection system, as described below. Hereinafter, a procedure for the installation will be schematically described, and then a specific description will be given based on one case.

一つ目は、現地(駐車場)のカメラ画像すなわち画像データをシステム稼動前に入手できる場合(既設カメラ流用時)で、二つ目は、現地の画像データをシステム稼動前に入手できない場合(カメラ新設時)である。   The first is when the local (parking lot) camera image, that is, image data can be obtained before system operation (when the existing camera is diverted), and the second is when the local image data cannot be obtained before system operation ( (When a camera is newly established).

一つ目の場合;
前もって入手した画像データを用いて、車室位置の設定、画像圧縮係数の計算および判断用パラメータの生成(訓練)を実施しておき、これらを用いてシステムを稼動させる。
In the first case;
Using the image data obtained in advance, the setting of the passenger compartment position, the calculation of the image compression coefficient, and the generation (training) of the determination parameters are performed, and the system is operated using these.

そして、システム稼動後も、現地の画像データを収集して、判断用パラメータの訓練を続けることにより、識別精度の向上が図られる。
なお、駐車場で用いる画像圧縮係数および判断用パラメータは、データベース部14に登録される(別の駐車場でも利用される)。
Even after the system is operated, the accuracy of the identification can be improved by collecting local image data and continuing the training of the determination parameters.
Note that the image compression coefficient and the determination parameter used in the parking lot are registered in the database unit 14 (also used in another parking lot).

二つ目の場合;
撮影用カメラが設置されて画像データの取り込みが可能になると、画像データを取り込み、車室位置を仮に設定する。
In the second case;
When the photographing camera is installed and image data can be captured, the image data is captured, and the vehicle interior position is temporarily set.

しかし、画像データの取り込みが可能になっても、駐車場がオープンするまで車両は駐車しないので、現地での画像データの収集を行うことができず、したがって現地での画像データを使って判断用パラメータの訓練をすることができない。   However, even if the image data can be captured, the vehicle is not parked until the parking lot is opened, so it is not possible to collect on-site image data. Unable to train parameters.

そこで、駐車場オープン当初は、データベース部14の中から当該駐車場に条件が似ている駐車場の画像圧縮係数および判断用パラメータを使って、システムを稼動させる。
これと同時に、この駐車場での画像データを収集しておき、この画像データを使って車室位置を詳細に設定し、新たに画像圧縮係数の計算および判断用パラメータの生成(訓練)を実施する。
Therefore, when the parking lot is initially opened, the system is operated using the image compression coefficient and the determination parameter of the parking lot whose conditions are similar to the parking lot in the database unit 14.
At the same time, image data at this parking lot is collected, the position of the passenger compartment is set in detail using this image data, and a new calculation of image compression coefficient and generation (training) of judgment parameters are performed. To do.

そして、この判断用パラメータによる識別精度が、現在使っている他の駐車場の判断用パラメータよりも良くなった段階で、判断用パラメータを入れ替える。
その後も、現地の画像データを収集して判断用パラメータを訓練し続け、識別精度を向上させる。勿論、この場合も、駐車場で使用する画像圧縮係数および判断用パラメータはデータベース部に登録される(別の駐車場でも利用される)。
Then, when the identification accuracy based on the determination parameter becomes better than the determination parameter of the other parking lot currently used, the determination parameter is replaced.
After that, we continue to collect local image data and train the judgment parameters to improve the identification accuracy. Of course, also in this case, the image compression coefficient and the determination parameter used in the parking lot are registered in the database unit (also used in another parking lot).

次に、一つ目の場合について、さらに具体的に説明する。
すなわち、データベース部14には、既設駐車場の画像データにより得られた画像圧縮係数および判断用パラメータが記憶されている。
Next, the first case will be described more specifically.
That is, the database unit 14 stores an image compression coefficient and determination parameters obtained from image data of an existing parking lot.

画像圧縮係数は、上述したように、画像データを主成分分析で圧縮する際の主成分ベクトル(基底ベクトル)と画像データの平均ベクトルである。この主成分ベクトルは、圧縮する次元数だけ存在する。すなわち、次元の数がm個(例えば、50個)で、画素の数がn個(例えば、32×32=1024個)であれば、画像圧縮係数は、n×(m+1(平均ベクトル分))個存在することになる。   As described above, the image compression coefficient is a principal component vector (base vector) when image data is compressed by principal component analysis and an average vector of the image data. There are as many principal component vectors as the number of dimensions to be compressed. That is, if the number of dimensions is m (for example, 50) and the number of pixels is n (for example, 32 × 32 = 1024), the image compression coefficient is n × (m + 1 (for the average vector). ) Will exist.

また、判断用パラメータは、最初に求められている各クラスターに対するマハラノビス距離を求めるためのデータで、例えば各クラスターの中心などである。
そして、新しい駐車場の検知システムにおいては、新しく設置された撮影用カメラにより画像データを収集して、判断用パラメータの精度の向上が図られる。
The determination parameter is data for obtaining the Mahalanobis distance for each cluster that is initially obtained, and is, for example, the center of each cluster.
In a new parking lot detection system, image data is collected by a newly installed shooting camera to improve the accuracy of determination parameters.

すなわち、撮影用カメラ2にて新しい駐車場を撮影し、この撮影された画像データに基づき車室Sの位置を特定する。
車室Sの位置が特定されると、撮影用カメラ2から画像データを読み込み、この画像データを正規化およびベクトル化した後、データベース部14に記憶されている画像圧縮係数に基づき次元を、例えば1024次元から50次元に圧縮する。そして、この次元圧縮された画像データに対して、マハラノビス距離を求めるとともに、このマハラノビス距離を用いてメンバーシップ関数を求め、この求められたメンバーシップ関数値を用いて、各クラスに対するメンバーシップを求める。
That is, a new parking lot is photographed by the photographing camera 2, and the position of the passenger compartment S is specified based on the photographed image data.
When the position of the passenger compartment S is specified, image data is read from the photographing camera 2, the image data is normalized and vectorized, and then the dimension is determined based on the image compression coefficient stored in the database unit 14. Compress from 1024 dimensions to 50 dimensions. Then, the Mahalanobis distance is obtained for the dimensionally compressed image data, the membership function is obtained using the Mahalanobis distance, and the membership for each class is obtained using the obtained membership function value. .

これら求められたメンバーシップについては、各クラス毎に加算してクラス毎のメンバーシップを求め、メンバーシップが大きい方のクラスに所属すると判断される。この工程を全ての画像データに繰り返して行うことにより、判断用パラメータが修正される。   These obtained memberships are added for each class to obtain the membership for each class, and it is determined that the membership belongs to the class with the larger membership. By repeating this process for all image data, the determination parameter is corrected.

次に、駐車状態であるか否かの判断について、具体的に説明する。
すなわち、撮影用カメラ2にて撮影された車室Sの画像データが画像読込部41に読み込まれ、この画像データは車室切出部42、正規化部43およびベクトル化部44で例えば1024次元データにベクトル化された後、次元圧縮部45で次元が圧縮される。この次元圧縮部45では、データベース部14に記憶されている画像圧縮係数に基づき、その次元が1024次元から50次元に圧縮される。次に、この次元圧縮された画像データはマハラノビス距離計算部46にてマハラノビス距離が求められ、そしてメンバーシップ計算部47において、マハラノビス距離を用いてメンバーシップ関数が求められた後、この求められたメンバーシップ関数値を用いて、各クラスに対するメンバーシップが求められる。そして、これら求められたメンバーシップの内、各クラス毎に加算してクラス毎のメンバーシップが求められる。
Next, the determination as to whether or not the vehicle is in a parking state will be specifically described.
That is, the image data of the passenger compartment S photographed by the photographing camera 2 is read into the image reading unit 41, and this image data is, for example, 1024-dimensional by the passenger compartment cutout unit 42, the normalizing unit 43, and the vectorizing unit 44. After being vectorized into data, the dimension is compressed by the dimension compression unit 45. In the dimension compressing unit 45, the dimension is compressed from 1024 dimensions to 50 dimensions based on the image compression coefficient stored in the database unit 14. Next, the dimensionally compressed image data is obtained after the Mahalanobis distance is obtained by the Mahalanobis distance calculation unit 46 and the membership function is obtained by the membership calculation unit 47 using the Mahalanobis distance. Membership for each class is determined using the membership function value. Then, among these obtained memberships, membership for each class is obtained by adding for each class.

次に、これらクラス毎のメンバーシップが、在車判断部48に入力されて、当該画像データに係るメンバーシップがいずれのクラスに所属するかが判断される。すなわち、撮影した画像が、駐車状態であるか空車状態であるかが判断される。   Next, the membership for each class is input to the vehicle presence determination unit 48, and it is determined to which class the membership related to the image data belongs. That is, it is determined whether the captured image is in a parking state or an empty state.

なお、上記説明におけるデータ等作成・調整部、各種計算部、圧縮部、各判断部などの殆どの構成部分は、プログラムにより、その機能が実現されるものである。
また、上記説明においては、駐車場を屋外として説明したが、撮影条件が良い屋内にも、当然に、この検知システムを適用することができる。
Note that most of the components such as the data creation / adjustment unit, the various calculation units, the compression unit, and the determination units in the above description are implemented by programs.
In the above description, the parking lot is described as being outdoors, but the detection system can naturally be applied to indoors with good shooting conditions.

ここで、この検知システムを実際に適用した実験結果について説明しておく。
屋上駐車場に設置されている監視カメラ(撮影用カメラである)の画像から27車室の駐車状況の識別を行った。実験には、天候や時間帯の異なる様々な条件下の3週間分の画像データから、2600枚の画像を選んで用いた。
Here, an experimental result in which this detection system is actually applied will be described.
The parking situation of 27 compartments was identified from the image of the surveillance camera (which is a camera for photographing) installed in the rooftop parking lot. In the experiment, 2600 images were selected and used from image data for 3 weeks under various conditions with different weather and time zones.

性能評価を行った手順を以下に説明する。
最初にカメラ番号や用いる画像の枚数、車室数やそのグループ分けを指定し、次に車室の切り出し箇所を画面上で指定した。
The procedure for performing the performance evaluation will be described below.
First, the camera number, the number of images to be used, the number of passenger compartments and their grouping were specified, and then the cutout location of the passenger compartment was specified on the screen.

まず、最初の100枚(2700件)の画像データから50の主成分ベクトルを求めた。訓練用データは第1週目の1000枚と第3週目の600枚から選び、テストとして第2週目の1000枚(27000件)で評価した。第1週から20枚(50枚飛び)の画像を選び各駐車スペースの駐・空(クラス)を入力することで、訓練用データを集め、識別器の学習・訓練を行った。   First, 50 principal component vectors were obtained from the first 100 (2700) image data. The training data was selected from 1000 sheets in the first week and 600 sheets in the 3rd week, and evaluated as 1000 tests (27000) in the 2nd week. By selecting 20 images (50 jumps) from the first week and inputting parking / vacancy (class) of each parking space, training data was collected and learning / training of the classifier was performed.

次に、第1週の画像で誤識別のあるものを訓練データに追加し、最後にもう一度、識別器の学習・訓練を行った。さらに、第3週目についても同様に訓練データを追加した。
下記に示す(表1)および(表2)の下段に、第2週目の1000枚(27000件)で評価した誤識別率を示す。なお、各表は、昼夜を分けた場合の誤識別率を示す。
Next, the image of the first week with misidentification was added to the training data, and finally the classifier was learned and trained again. Furthermore, training data was added in the same manner for the third week.
In the lower part of (Table 1) and (Table 2) shown below, the misidentification rate evaluated with 1000 sheets (27000 cases) in the second week is shown. In addition, each table | surface shows the misidentification rate at the time of dividing day and night.

すなわち、カメラ画像から空の一部を切り取り、その平均輝度の閾値で昼夜を判定した。(表1)は訓練用データを第1週目の1000枚から111枚(2997件)選び、(表2)は第3週目の600枚から44枚(1188件)を追加して第1週目と第3週目のデータから合計155枚(4185件)を訓練用データとした。第3週目の訓練用データを追加した場合(表2)は、追加しない場合に比べて(表1)、昼は2.53%から1.42%に減少し、昼夜全体では2.04%で実用化可能な誤識別率になった。誤識別の評価には正しいクラス情報の入った第2週目のテストデータ27000件を用いた。   That is, a part of the sky was cut out from the camera image, and day / night was determined based on the threshold of the average brightness. (Table 1) selects the training data for the first week from the 1000 sheets of 111 sheets (2997 cases), and (Table 2) adds the first week from the 600 sheets for the first week to 44 sheets (1188 cases). A total of 155 sheets (4185 cases) from the week and third week data were used as training data. When training data for the third week was added (Table 2), compared to the case where it was not added (Table 1), the daytime decreased from 2.53% to 1.42%, and the whole day and night was 2.04. %, The misidentification rate was practical. For evaluation of misidentification, 27000 test data of the second week containing correct class information were used.

Figure 2011013924
Figure 2011013924

Figure 2011013924
このように、屋外では1台の撮影用カメラで多くの駐車スペースをカバーできるため、室内用に比べて低コストの検知システムを実現することができる。また、センサー方式に比べても安価であり、既設駐車場への適用も容易であり、上記のように、性能評価実験では2.04%という実用化可能な誤識別率となった。
Figure 2011013924
In this way, since a large number of parking spaces can be covered with a single camera for shooting outdoors, a low-cost detection system can be realized as compared with indoor use. Moreover, it is cheaper than the sensor method and can be easily applied to an existing parking lot. As described above, in the performance evaluation experiment, a misclassification rate of 2.04% that can be put into practical use was obtained.

上述したように、この検知システムおよび検知方法によると、撮影用カメラにより撮影された撮影画像すなわち画像データから車室を切り出すとともにこの切り出された車室毎の画像データから複数の代表値を取得して正規化し、この正規化された代表値としての画像データをベクトル化し、このベクトル化されたベクトルデータの次元を圧縮し、この圧縮されたベクトルデータの予め訓練用データで求められたクラスター中心に対するマハラノビス距離を求め、この求められたマハラノビス距離をメンバーシップ関数に代入するとともにこの関数値に基づきメンバーシップを求め、この求められたメンバーシップを用いて車室内に車両が存在するか否かを判断するようにしたので、駐車場が屋外であっても、効率良く、すなわち高い識別率でもって(誤識別が少ない状態で)、駐車状態および空車状態を判断することができる。   As described above, according to the detection system and the detection method, the vehicle interior is cut out from the captured image captured by the imaging camera, that is, the image data, and a plurality of representative values are acquired from the image data for each of the extracted vehicle compartments. Normalize, vectorize the image data as the normalized representative value, compress the dimension of the vectorized vector data, and apply the compressed vector data to the cluster center previously obtained from the training data. Calculate the Mahalanobis distance, substitute the calculated Mahalanobis distance into the membership function, determine the membership based on this function value, and use this calculated membership to determine whether there is a vehicle in the passenger compartment. So, even if the parking lot is outdoors, it is efficient, that is, high identification rate Have been (in misidentification less state), it is possible to determine the parking state and the unladen state.

また、画像データの次元を主成分分析法により圧縮するようにしたので、画像の特徴を維持した状態で画素データを少なくすることができる。言い換えれば、構成としては安価な構成である撮影用カメラを用いて、精度良く駐車状態または空車状態を検知することができる。   Further, since the dimensions of the image data are compressed by the principal component analysis method, the pixel data can be reduced while maintaining the image characteristics. In other words, it is possible to detect a parking state or an empty state with high accuracy by using an imaging camera that is an inexpensive configuration.

さらに、判断用パラメータのうち、メンバーシップ関数の自由パラメータについては、粒子群最適化法により最適化を図るようにしているので、迅速且つ効率的に、その最適化を図ることができる。つまり、誤識別率を低下させることができる。性能評価実験で示したように、訓練用データを追加して再最適化することで、さらに誤識別率を大幅に低減させることができる。   Furthermore, among the determination parameters, the membership function free parameters are optimized by the particle swarm optimization method, so that the optimization can be achieved quickly and efficiently. That is, the misidentification rate can be reduced. As shown in the performance evaluation experiment, the misidentification rate can be further greatly reduced by re-optimizing by adding training data.

S 駐車スペース
1 支柱
2 撮影用カメラ
11 車室設定部
12 データ等作成・調整部
13 駐・空判断部
14 データベース部
21 車室位置設定部
22 車室位置情報取得部
31 画像圧縮係数計算部
31a 画像読込部
31b 車室切出部
31c 正規化部
31d 主成分分析部
31e 画像圧縮係数取得部
32 パラメータ調整部
32a 画像読込部
32b 画像圧縮部
32c 訓練画像蓄積部
32d パラメータ取得部
41 画像読込部
42 車室切出部
43 正規化部
44 ベクトル化部
45 次元圧縮部
46 マハラノビス距離計算部
47 メンバーシップ計算部
48 在車判断部
DESCRIPTION OF SYMBOLS S Parking space 1 Support | pillar 2 Camera for imaging | photography 11 Vehicle compartment setting part 12 Data etc. preparation / adjustment part 13 Parking / vacancy judgment part 14 Database part 21 Vehicle compartment position setting part 22 Vehicle compartment position information acquisition part 31 Image reading unit 31b Vehicle compartment extraction unit 31c Normalization unit 31d Principal component analysis unit 31e Image compression coefficient acquisition unit 32 Parameter adjustment unit 32a Image reading unit 32b Image compression unit 32c Training image storage unit 32d Parameter acquisition unit 41 Image reading unit 42 Vehicle compartment extraction part 43 Normalization part 44 Vectorization part 45 Dimension compression part 46 Mahalanobis distance calculation part 47 Membership calculation part 48 Presence determination part

Claims (6)

駐車場を撮影した画像データに対してファジィクラスタリングを行い車室が駐車状態であるか空車状態であるかを判断する車両の検知システムであって、
撮影用カメラにより撮影された撮影画像から車室を切り出すとともにこの切り出された車室毎の画像データから複数の代表値を取得して正規化する正規化部と、この正規化部で得られた代表値よりなる画像データをベクトル化するベクトル化部と、このベクトル化部でベクトル化されたベクトルデータの次元を圧縮する次元圧縮部と、この次元圧縮部で圧縮されたベクトルデータの予め訓練用データで求められたクラスター中心に対するマハラノビス距離を求めるマハラノビス距離計算部と、このマハラノビス距離計算部で求められたマハラノビス距離を下記(1)式に示すメンバーシップ関数(u)に代入するとともにこの関数値を下記(2)式に代入してメンバーシップ(チルダu)を求めるメンバーシップ計算部と、このメンバーシップ計算部で求められたメンバーシップを用いて駐車状態または空車状態のいずれかのクラスにクラスタリングを行い車室内に車両が存在するか否かを判断する車両判断部とを具備したことを特徴とする駐車場における車両の検知システム。
Figure 2011013924
但し、上記式中、αqjはクラスターq内のクラスターjの混合比率、Sは分散共分散行列、πはクラスqの混合比率である。
A vehicle detection system that performs fuzzy clustering on image data obtained by photographing a parking lot and determines whether the passenger compartment is in a parking state or an empty state.
A normalization unit that cuts out the passenger compartment from the captured image taken by the camera for photography and obtains and normalizes a plurality of representative values from the image data for each of the extracted passenger compartments, and obtained by this normalization unit A vectorization unit that vectorizes image data consisting of representative values, a dimension compression unit that compresses the dimension of the vector data vectorized by the vectorization unit, and a vector data compressed by the dimension compression unit for training in advance The Mahalanobis distance calculation unit for obtaining the Mahalanobis distance with respect to the cluster center obtained from the data, and substituting the Mahalanobis distance obtained by the Mahalanobis distance calculation unit into the membership function (u * ) shown in the following equation (1) Membership calculator that calculates the membership (tilde u) by substituting the value into the following formula (2), and this member And a vehicle determination unit that performs clustering on either a parking state or an empty vehicle class using the membership obtained by the top-up calculation unit and determines whether or not a vehicle exists in the passenger compartment. A vehicle detection system in a parking lot.
Figure 2011013924
In the above formula, α qj is a mixing ratio of cluster j in cluster q, S is a dispersion covariance matrix, and π q is a mixing ratio of class q.
次元圧縮部にて次元を圧縮する際に、主成分分析法を用いたことを特徴とする請求項1に記載の駐車場における車両の検知システム。   The system for detecting a vehicle in a parking lot according to claim 1, wherein a principal component analysis method is used when the dimension is compressed by the dimension compression unit. (1)式にて示すメンバーシップ関数(u)における各パラメータ(m,γ,ν,α)の最適化を行う際に、粒子群最適化法を用いたことを特徴とする請求項1に記載の駐車場における車両の検知システム。 The particle swarm optimization method is used when optimizing each parameter (m, γ, ν, α) in the membership function (u * ) represented by the equation (1). The vehicle detection system in the parking lot described in 1. 駐車場を撮影した画像データに対してファジィクラスタリングを行い車室が駐車状態であるか空車状態であるかを判断する車両の検知方法であって、
撮影用カメラにより撮影された撮影画像から車室を切り出すとともにこの切り出された車室毎の画像データから複数の代表値を取得して正規化し、この正規化された代表値よりなる画像データをベクトル化し、このベクトル化されたベクトルデータの次元を圧縮し、この圧縮されたベクトルデータの予め訓練用データで求められたクラスター中心に対するマハラノビス距離を求め、この求められたマハラノビス距離を下記(3)式に示すメンバーシップ関数(u)に代入するとともにこの関数値を下記(4)式に代入してメンバーシップ(チルダu)を求め、この求められたメンバーシップを用いて車室内に車両が存在するか否かを判断することを特徴とする駐車場における車両の検知方法。
Figure 2011013924
但し、上記式中、αqjはクラスターq内の混合比率、Sは分散共分散行列、πはクラスqの混合比率である。
A vehicle detection method for performing fuzzy clustering on image data obtained by photographing a parking lot and determining whether a vehicle compartment is in a parking state or an empty state,
A vehicle compartment is cut out from a photographed image taken by a camera for photography, and a plurality of representative values are acquired from the image data for each cut out vehicle compartment, normalized, and image data composed of the normalized representative values is vectorized. The dimension of the vectorized vector data is compressed, the Mahalanobis distance to the cluster center obtained from the training data of the compressed vector data in advance is obtained, and the obtained Mahalanobis distance is expressed by the following equation (3) Substituting into the membership function (u * ) shown below and substituting this function value into the following equation (4) to determine membership (tilde u), and using this calculated membership, there is a vehicle in the passenger compartment A method of detecting a vehicle in a parking lot, characterized by determining whether or not to do so.
Figure 2011013924
In the above formula, α qj is a mixing ratio in the cluster q, S is a dispersion covariance matrix, and π q is a mixing ratio of class q.
(3)式に示すメンバーシップ関数(u)の各パラメータについては、訓練用データに基づき予め決定し、
且つこの決定に際しては、
まず訓練用データを用いて駐車状態および空車状態を示すクラス毎にセミハードクラスタリングを行うことにより、各クラス毎における各クラスターの中心およびメンバーシップを求め、
次に評価用データにより、(3)式に示すメンバーシップ関数(u)および(4)式に示すメンバーシップ(チルダu)を用いて当該メンバーシップが正しいクラスに所属するように、(3)式における各パラメータ(m,γ,ν,α)の最適化を図るようにしたことを特徴とする請求項4に記載の駐車場における車両の検知方法。
About each parameter of membership function (u * ) shown in (3) formula, it determines beforehand based on training data,
And in making this decision,
First, by performing semi-hard clustering for each class that shows parking and empty conditions using training data, the center and membership of each cluster in each class is obtained,
Next, using the evaluation data, the membership function (u * ) shown in the expression (3) and the membership (tilde u) shown in the expression (4) are used so that the membership belongs to the correct class (3 5. The method for detecting a vehicle in a parking lot according to claim 4, wherein each parameter (m, γ, ν, α) in the equation (5) is optimized.
(3)式にて示すメンバーシップ関数(u)における各パラメータ(m,γ,ν,α)の最適化を行う際に、粒子群最適化法を用いたことを特徴とする請求項5に記載の駐車場における車両の検知方法。 6. The particle swarm optimization method is used when optimizing each parameter (m, γ, ν, α) in the membership function (u * ) expressed by equation (3). The detection method of the vehicle in the parking lot of description.
JP2009157372A 2009-07-02 2009-07-02 Vehicle detection system and detection method in parking lot Active JP5361576B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009157372A JP5361576B2 (en) 2009-07-02 2009-07-02 Vehicle detection system and detection method in parking lot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009157372A JP5361576B2 (en) 2009-07-02 2009-07-02 Vehicle detection system and detection method in parking lot

Publications (2)

Publication Number Publication Date
JP2011013924A true JP2011013924A (en) 2011-01-20
JP5361576B2 JP5361576B2 (en) 2013-12-04

Family

ID=43592734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009157372A Active JP5361576B2 (en) 2009-07-02 2009-07-02 Vehicle detection system and detection method in parking lot

Country Status (1)

Country Link
JP (1) JP5361576B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206462A (en) * 2012-03-29 2013-10-07 Xerox Corp Method for measuring parking lot occupancy state from digital camera image
JP2014010091A (en) * 2012-07-02 2014-01-20 Hitachi Zosen Corp Refuse state detection device in refuse incinerator
JP2015036980A (en) * 2013-08-09 2015-02-23 ゼロックス コーポレイションXerox Corporation Hybrid method and system of video and vision based access control for parking stall occupancy determination
JP2022059737A (en) * 2020-10-02 2022-04-14 国立大学法人東京工業大学 Passenger compartment authentication program and passenger compartment authentication device
JP2022099572A (en) * 2020-12-23 2022-07-05 名古屋電機工業株式会社 Information processor, information processing method and program
JP7522577B2 (en) 2020-04-10 2024-07-25 パーク二四株式会社 Parking lot camera system, information terminal and computer program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112053584B (en) * 2020-08-21 2021-07-27 杭州目博科技有限公司 Road tooth parking space state prediction management system based on geomagnetism, radar and camera shooting and management method thereof

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04216182A (en) * 1990-12-17 1992-08-06 Nippon Telegr & Teleph Corp <Ntt> Object recognition processing method
JPH0741118A (en) * 1993-06-29 1995-02-10 Toshiba Corp Empty area detector
JPH11306325A (en) * 1998-04-24 1999-11-05 Toshiba Tec Corp Method and device for object detection
JP2002259953A (en) * 2001-02-27 2002-09-13 Nagoya Electric Works Co Ltd Congestion status determining method and its device
JP2005182504A (en) * 2003-12-19 2005-07-07 Matsushita Electric Ind Co Ltd Parking support system
JP2006053608A (en) * 2004-08-09 2006-02-23 Kyushu Institute Of Technology Authentication system for imprint
JP2007280073A (en) * 2006-04-07 2007-10-25 Kenwood Corp Guidance system in parking lot, guidance device on parking lot side, guidance device on car side and guidance method in parking lot
JP2008140093A (en) * 2006-12-01 2008-06-19 Nippon Telegr & Teleph Corp <Ntt> Abnormal event extraction device, abnormal event extraction method, program for the method, and storage medium recording the program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04216182A (en) * 1990-12-17 1992-08-06 Nippon Telegr & Teleph Corp <Ntt> Object recognition processing method
JPH0741118A (en) * 1993-06-29 1995-02-10 Toshiba Corp Empty area detector
JPH11306325A (en) * 1998-04-24 1999-11-05 Toshiba Tec Corp Method and device for object detection
JP2002259953A (en) * 2001-02-27 2002-09-13 Nagoya Electric Works Co Ltd Congestion status determining method and its device
JP2005182504A (en) * 2003-12-19 2005-07-07 Matsushita Electric Ind Co Ltd Parking support system
JP2006053608A (en) * 2004-08-09 2006-02-23 Kyushu Institute Of Technology Authentication system for imprint
JP2007280073A (en) * 2006-04-07 2007-10-25 Kenwood Corp Guidance system in parking lot, guidance device on parking lot side, guidance device on car side and guidance method in parking lot
JP2008140093A (en) * 2006-12-01 2008-06-19 Nippon Telegr & Teleph Corp <Ntt> Abnormal event extraction device, abnormal event extraction method, program for the method, and storage medium recording the program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206462A (en) * 2012-03-29 2013-10-07 Xerox Corp Method for measuring parking lot occupancy state from digital camera image
GB2502187A (en) * 2012-03-29 2013-11-20 Xerox Corp Determining parking lot occupancy from digital camera images
US9129524B2 (en) 2012-03-29 2015-09-08 Xerox Corporation Method of determining parking lot occupancy from digital camera images
GB2502187B (en) * 2012-03-29 2018-12-05 Conduent Business Services Llc A Method And System For Determining Parking Lot Occupancy from Digital Camera Images
JP2014010091A (en) * 2012-07-02 2014-01-20 Hitachi Zosen Corp Refuse state detection device in refuse incinerator
JP2015036980A (en) * 2013-08-09 2015-02-23 ゼロックス コーポレイションXerox Corporation Hybrid method and system of video and vision based access control for parking stall occupancy determination
JP7522577B2 (en) 2020-04-10 2024-07-25 パーク二四株式会社 Parking lot camera system, information terminal and computer program
JP2022059737A (en) * 2020-10-02 2022-04-14 国立大学法人東京工業大学 Passenger compartment authentication program and passenger compartment authentication device
JP7223962B2 (en) 2020-10-02 2023-02-17 国立大学法人東京工業大学 Vehicle interior authentication program and vehicle interior authentication device
JP2022099572A (en) * 2020-12-23 2022-07-05 名古屋電機工業株式会社 Information processor, information processing method and program
JP7461866B2 (en) 2020-12-23 2024-04-04 名古屋電機工業株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP5361576B2 (en) 2013-12-04

Similar Documents

Publication Publication Date Title
JP5361576B2 (en) Vehicle detection system and detection method in parking lot
US9602783B2 (en) Image recognition method and camera system
JP5823270B2 (en) Image recognition apparatus and method
JP6320112B2 (en) Information processing apparatus and information processing method
CN110309781B (en) House damage remote sensing identification method based on multi-scale spectrum texture self-adaptive fusion
CN105139023B (en) A kind of seed recognition methods based on multi-scale feature fusion and extreme learning machine
CN109684922B (en) Multi-model finished dish identification method based on convolutional neural network
JP5483961B2 (en) Image processing apparatus, subject discrimination method, program, and storage medium
CN102708361B (en) Human face collecting method at a distance
CN107909081B (en) Method for quickly acquiring and quickly calibrating image data set in deep learning
CN107273832B (en) License plate recognition method and system based on integral channel characteristics and convolutional neural network
JP5257274B2 (en) MOBILE BODY DETECTING DEVICE, MOBILE BODY DETECTING METHOD, AND COMPUTER PROGRAM
CN107153819A (en) A kind of queue length automatic testing method and queue length control method
JP6095817B1 (en) Object detection device
JP5500024B2 (en) Image recognition method, apparatus, and program
CN107766801B (en) Insulator identification method and device based on infrared hotspot tracking
JP2009301104A (en) Object detecting apparatus
CN106503638B (en) Image procossing, vehicle color identification method and system for color identification
US20100322510A1 (en) Sky detection system used in image extraction device and method using sky detection system
CN110427815B (en) Video processing method and device for realizing interception of effective contents of entrance guard
CN109035254A (en) Based on the movement fish body shadow removal and image partition method for improving K-means cluster
JP4946878B2 (en) Image identification apparatus and program
CN116740652B (en) Method and system for monitoring rust area expansion based on neural network model
CN115661720A (en) Target tracking and identifying method and system for shielded vehicle
KR101874968B1 (en) Visibility measuring system base on image information and method for using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120509

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130731

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130903

R150 Certificate of patent or registration of utility model

Ref document number: 5361576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250