JP2011013924A - Detection system and detection method for vehicle in parking lot - Google Patents
Detection system and detection method for vehicle in parking lot Download PDFInfo
- Publication number
- JP2011013924A JP2011013924A JP2009157372A JP2009157372A JP2011013924A JP 2011013924 A JP2011013924 A JP 2011013924A JP 2009157372 A JP2009157372 A JP 2009157372A JP 2009157372 A JP2009157372 A JP 2009157372A JP 2011013924 A JP2011013924 A JP 2011013924A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- membership
- data
- image data
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 52
- 238000012549 training Methods 0.000 claims abstract description 38
- 239000013598 vector Substances 0.000 claims abstract description 28
- 239000011159 matrix material Substances 0.000 claims abstract description 11
- 230000006835 compression Effects 0.000 claims description 41
- 238000007906 compression Methods 0.000 claims description 41
- 238000000034 method Methods 0.000 claims description 32
- 238000004364 calculation method Methods 0.000 claims description 26
- 238000005457 optimization Methods 0.000 claims description 15
- 238000002156 mixing Methods 0.000 claims description 13
- 239000002245 particle Substances 0.000 claims description 13
- 238000011156 evaluation Methods 0.000 claims description 12
- 238000010606 normalization Methods 0.000 claims description 12
- 238000012847 principal component analysis method Methods 0.000 claims description 3
- 239000006185 dispersion Substances 0.000 claims 2
- 239000000203 mixture Substances 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 35
- 238000010586 diagram Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 238000002360 preparation method Methods 0.000 description 6
- 238000000513 principal component analysis Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000000691 measurement method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、駐車場の駐車室に車両が存在しているか否か、すなわち駐車状態または空車状態を判断し得る車両の検知システムおよび検知方法に関する。 The present invention relates to a vehicle detection system and a detection method capable of determining whether a vehicle is present in a parking room of a parking lot, that is, a parking state or an empty vehicle state.
駐車場を管理する際に、駐車状況を把握する必要があり、既に、駐車状況を測定し得る駐車状況測定方法などが提案されている(例えば、特許文献1参照)。
この駐車状況測定方法は、駐車場の特定駐車エリアにおける駐車台数からニューラルネットワークを用いて駐車場全体の駐車率を推定する駐車状況測定方法において、特定駐車エリアの駐車台数を各車種別に設けた車種別用ニューラルネットワークに入力して車種別の駐車率を求め、その求めた各駐車率を全体用ニューラルネットワークに入力して駐車場全体の駐車率を推定する方法である。
When managing a parking lot, it is necessary to grasp the parking situation, and a parking situation measuring method that can measure the parking situation has already been proposed (for example, see Patent Document 1).
This parking situation measurement method is a parking situation measurement method in which the parking rate of the entire parking lot is estimated using a neural network from the number of parking lots in the specific parking area of the parking lot. This is a method of calculating the parking rate for each vehicle type by inputting it into the neural network for type and estimating the parking rate for the entire parking lot by inputting each calculated parking rate into the overall neural network.
ところで、この測定方法において、車両の有無を検出するのに、テレビカメラを用いており、すなわちテレビカメラで駐車場を撮影するとともに、この撮影画像に画像処理を施し、駐車場に車両が駐車しているか否かが判断されていた。 By the way, in this measurement method, a television camera is used to detect the presence or absence of a vehicle, that is, a parking lot is photographed with the television camera, image processing is performed on the photographed image, and the vehicle is parked in the parking lot. It was judged whether or not.
しかし、車両を検出するのに、画像処理が用いられており、通常は、エッジ抽出などが行われるとともに、この抽出画像と参照用画像データとが比較されて、車両の有無が判断されている。 However, image processing is used to detect the vehicle. Usually, edge extraction or the like is performed, and the presence of the vehicle is determined by comparing the extracted image with reference image data. .
ところで、撮影画像から車両を抽出するようにしているが、駐車場が屋内である場合には、太陽光線の影響をそれ程受けることはないが、駐車場が屋外である場合には、太陽光線の影響、すなわち天候の影響を受けるため、認識率が低下するという問題があった。 By the way, the vehicle is extracted from the captured image, but when the parking lot is indoors, it is not so much affected by the sun rays, but when the parking lot is outdoors, Due to the influence, that is, the influence of the weather, there is a problem that the recognition rate is lowered.
そこで、本発明は、屋外の駐車場における撮影画像であっても認識率が高い駐車場における車両の検知システムおよび検知方法を提供することを目的とする。 Then, an object of this invention is to provide the detection system and detection method of the vehicle in a parking lot with a high recognition rate even if it is a picked-up image in an outdoor parking lot.
上記課題を解決するため、本発明の請求項1に係る駐車場における車両の検知システムは、駐車場を撮影した画像データに対してファジィクラスタリングを行い車室が駐車状態であるか空車状態であるかを判断する車両の検知システムであって、
撮影用カメラにより撮影された撮影画像から車室を切り出すとともにこの切り出された車室毎の画像データから複数の代表値を取得して正規化する正規化部と、この正規化部で得られた代表値よりなる画像データをベクトル化するベクトル化部と、このベクトル化部でベクトル化されたベクトルデータの次元を圧縮する次元圧縮部と、この次元圧縮部で圧縮されたベクトルデータの予め訓練用データで求められたクラスター中心に対するマハラノビス距離を求めるマハラノビス距離計算部と、このマハラノビス距離計算部で求められたマハラノビス距離を下記(1)式に示すメンバーシップ関数(u*)に代入するとともにこの関数値を下記(2)式に代入してメンバーシップ(チルダu)を求めるメンバーシップ計算部と、このメンバーシップ計算部で求められたメンバーシップを用いて駐車状態または空車状態のいずれかのクラスにクラスタリングを行い車室内に車両が存在するか否かを判断する在車判断部とを具備したものである。
In order to solve the above-described problem, the vehicle detection system in the parking lot according to claim 1 of the present invention performs fuzzy clustering on the image data obtained by photographing the parking lot, and the vehicle compartment is in the parking state or in the empty state. A vehicle detection system for determining whether
A normalization unit that cuts out the passenger compartment from the captured image taken by the camera for photography and obtains and normalizes a plurality of representative values from the image data for each of the extracted passenger compartments, and obtained by this normalization unit A vectorization unit that vectorizes image data consisting of representative values, a dimension compression unit that compresses the dimension of the vector data vectorized by the vectorization unit, and a vector data compressed by the dimension compression unit for training in advance The Mahalanobis distance calculation unit for obtaining the Mahalanobis distance with respect to the cluster center obtained from the data, and substituting the Mahalanobis distance obtained by the Mahalanobis distance calculation unit into the membership function (u * ) shown in the following equation (1) Membership calculator that calculates the membership (tilde u) by substituting the value into the following formula (2), and this member A vehicle presence determination unit that performs clustering on either the parking state or the empty vehicle class using the membership obtained by the top calculation unit to determine whether or not a vehicle exists in the vehicle interior. is there.
また、請求項2に係る駐車場における車両の検知システムは、請求項1に記載の検知システムにおいて、次元圧縮部にて次元を圧縮する際に、主成分分析法を用いたものである。
A vehicle detection system in a parking lot according to
さらに、請求項3に係る駐車場における車両の検知システムは、請求項1に記載の検知システムにおいて、(1)式にて示すメンバーシップ関数(u*)における各パラメータ(m,γ,ν,α)の最適化を行う際に、粒子群最適化法を用いたものである。 Moreover, the vehicle detection system in parking according to claim 3 is the detection system of claim 1, the parameters at (1) the membership function shown in equation (u *) (m, gamma, [nu, The particle swarm optimization method is used in the optimization of α).
さらに、本発明の請求項4に係る駐車場における車両の検知方法は、駐車場を撮影した画像データに対してファジィクラスタリングを行い車室が駐車状態であるか空車状態であるかを判断する車両の検知方法であって、
撮影用カメラにより撮影された撮影画像から車室を切り出すとともにこの切り出された車室毎の画像データから複数の代表値を取得して正規化し、この正規化された代表値よりなる画像データをベクトル化し、このベクトル化されたベクトルデータの次元を圧縮し、この圧縮されたベクトルデータの予め訓練用データで求められたクラスター中心に対するマハラノビス距離を求め、この求められたマハラノビス距離を下記(3)式に示すメンバーシップ関数(u*)に代入するとともにこの関数値を下記(4)式に代入してメンバーシップ(チルダu)を求め、この求められたメンバーシップを用いて車室内に車両が存在するか否かを判断する方法である。
Further, according to a fourth aspect of the present invention, there is provided a method for detecting a vehicle in a parking lot, wherein fuzzy clustering is performed on image data obtained by photographing the parking lot to determine whether the passenger compartment is in a parking state or an empty state. Detection method,
A vehicle compartment is cut out from a photographed image taken by the camera for photographing, and a plurality of representative values are obtained from the image data for each cut out compartment, normalized, and image data consisting of the normalized representative values is vectorized. The dimension of the vectorized vector data is compressed, the Mahalanobis distance to the cluster center obtained from the training data of the compressed vector data in advance is obtained, and the obtained Mahalanobis distance is expressed by the following equation (3) Substituting into the membership function (u * ) shown below and substituting this function value into the following equation (4) to determine the membership (tilde u), and using this calculated membership, there is a vehicle in the passenger compartment This is a method for determining whether or not to do so.
また、請求項5に係る駐車場における車両の検知方法は、請求項4に係る検知方法において、
(3)式に示すメンバーシップ関数(u*)の各パラメータについては、訓練用データに基づき予め決定し、
且つこの決定に際しては、
まず訓練用データを用いて駐車状態および空車状態を示すクラス毎にセミハードクラスタリングを行うことにより、各クラス毎における各クラスターの中心およびメンバーシップを求め、
次に評価用データにより、(3)式に示すメンバーシップ関数(u*)および(4)式に示すメンバーシップ(チルダu)を用いて当該メンバーシップが正しいクラスに所属するように、(3)式における各パラメータ(m,γ,ν,α)の最適化を図る方法である。
Moreover, the detection method of the vehicle in the parking lot which concerns on Claim 5 is the detection method which concerns on Claim 4,
About each parameter of membership function (u * ) shown in (3) formula, it determines beforehand based on training data,
And in making this decision,
First, by performing semi-hard clustering for each class that shows parking and empty conditions using training data, the center and membership of each cluster in each class is obtained,
Next, using the evaluation data, the membership function (u * ) shown in the expression (3) and the membership (tilde u) shown in the expression (4) are used so that the membership belongs to the correct class (3 ) Is a method for optimizing each parameter (m, γ, ν, α) in the equation.
さらに、請求項6に係る駐車場における車両の検知方法は、請求項4に係る検知方法において、
(3)式にて示すメンバーシップ関数(u*)における各パラメータ(m,γ,ν,α)の最適化を行う際に、粒子群最適化法を用いる方法である。
Furthermore, the detection method of the vehicle in the parking lot according to claim 6 is the detection method according to claim 4,
This is a method of using the particle swarm optimization method when optimizing each parameter (m, γ, ν, α) in the membership function (u * ) expressed by equation (3).
上記検知システムおよび検知方法によると、撮影用カメラにより撮影された撮影画像から車室を切り出すとともにこの切り出された車室毎の画像データから複数の代表値を取得して正規化し、この画像データをベクトル化し、このベクトル化されたベクトルデータの次元を圧縮し、この次元圧縮されたベクトルデータの予め訓練用データで求められたクラスター中心に対するマハラノビス距離を求め、この求められたマハラノビス距離をメンバーシップ関数に代入するとともにこの関数値に基づきメンバーシップを求め、そしてこの求められたメンバーシップを用いて車室内に車両が存在するか否かを判断するようにしたので、駐車場がたとえ屋外であっても、精度良く、高い識別率でもって、駐車状態および空車状態を判断することができる。 According to the detection system and the detection method, the vehicle compartment is cut out from the captured image taken by the photographing camera, and a plurality of representative values are obtained from the image data for each of the cut out vehicle compartments, and the image data is normalized. Vectorize, compress the dimension of the vectorized vector data, calculate the Mahalanobis distance to the cluster center obtained from the training data of the dimension-compressed vector data in advance, and use the obtained Mahalanobis distance as a membership function And the membership value is calculated based on this function value, and it is determined whether there is a vehicle in the passenger compartment using the calculated membership value. It is possible to judge parking and empty conditions with high accuracy and high identification rate. .
以下、本発明の実施の形態に係る駐車場における車両の検知システムおよび検知方法を、具体的に示した実施例に基づき説明する。
本実施例に係る駐車場は、屋外に設けられているものとして説明する。
DESCRIPTION OF EMBODIMENTS Hereinafter, a vehicle detection system and a detection method in a parking lot according to an embodiment of the present invention will be described based on specific examples.
The parking lot which concerns on a present Example is demonstrated as what is provided outdoors.
この駐車場は、図1に示すように、地上に多数の駐車スペース(駐車場所であり、以下、車室という)Sが配置されたものであり、例えば適当な複数個所に支柱1が立設されるとともに、所定の支柱1に撮影用カメラ(例えば、CCDカメラが用いられる)2が固定され、この撮影用カメラ2からの撮影画像を用いて車室Sに車両Cが存在しているか否かを判断する、すなわち駐車状態であるか空車状態であるかを判断して車両Cの検知を効率的に行う検知システムが具備されている。
As shown in FIG. 1, this parking lot has a large number of parking spaces (parking places, hereinafter referred to as vehicle compartments) S arranged on the ground. At the same time, a shooting camera (for example, a CCD camera is used) 2 is fixed to a predetermined column 1, and whether or not the vehicle C exists in the passenger compartment S using a shot image from the
以下、車両の検知システムおよび検知方法を、図2〜図8に基づき説明する。
ところで、この車両の検知システムおよび検知方法(これらを、検知システム等ともいう)には、ファジィクラスタリング法が用いられる。
Hereinafter, a vehicle detection system and a detection method will be described with reference to FIGS.
By the way, a fuzzy clustering method is used for this vehicle detection system and detection method (these are also referred to as a detection system or the like).
まず、この検知システム等で用いられるファジィクラスタリング法を概略的に説明すると、最初に訓練用データを用いて駐車状態(クラス1と称す)と空車状態(クラス2と称す)とにクラス分けを行う、つまり分類するとともに、クラス毎についても、例えば2つのクラスターに分類し、そしてこのとき得られたクラスター中心位置(以下、クラスター中心という)、分散共分散行列などのデータおよび評価用データを用いて、メンバーシップ関数(後述する)の各パラメータの最適化を図るようにしたものである。なお、訓練用データは、予め、撮影された車室の駐車状態および空車状態の画像データであり、評価用データについても、撮影用カメラにて撮影された車室の画像データである。 First, the fuzzy clustering method used in this detection system and the like will be briefly described. First, classification is performed into a parking state (referred to as class 1) and an empty state (referred to as class 2) using training data. That is, in addition to classification, for each class, for example, it is classified into two clusters, and using the data such as cluster center position (hereinafter referred to as cluster center), variance-covariance matrix, and evaluation data obtained at this time The parameters of the membership function (described later) are optimized. It should be noted that the training data is image data of the parking state and the empty vehicle state of the vehicle imaged in advance, and the evaluation data is also image data of the vehicle room imaged by the imaging camera.
次に、このファジィクラスタリング法(FCM:fuzzy c−means)を詳しく説明する。
このファジィクラスタリング法は繰返し重み付き最小二乗法を用いるので目的関数Jiは下記(1)式のように設定される。
Next, the fuzzy clustering method (FCM: fuzzy c-means) will be described in detail.
Since this fuzzy clustering method uses an iteratively weighted least square method, the objective function J i is set as shown in the following equation (1).
そして、この車両検知システムにおいては、マハラノビス距離を計算するためのクラスター中心と分散共分散行列を求めるために訓練用データのクラスタリングをクラス毎に行う第1フェーズと、メンバーシップ関数のパラメータの最適化を行うために評価用データを各クラスに分類(識別)する第2フェーズとが具備されている。 In this vehicle detection system, the cluster phase of the Mahalanobis distance and the first phase in which training data is clustered for each class to obtain the variance-covariance matrix, and optimization of membership function parameters And a second phase for classifying (identifying) the evaluation data into classes.
ところで、k番目のデータxkのクラスqへのメンバーシップ(値)(チルダuqk)は下記(6)式にて表わされる。式中では、uの頭に、チルダの記号(〜)を付加しており、この「チルダu」を文章中では、「*u」として表記する。なお、メンバーシップ関数については、下記に示すように「u*」と表記する。 By the way, the membership (value) (tilde u qk ) to the class q of the k-th data x k is expressed by the following equation (6). In the formula, a tilde symbol (˜) is added to the head of u, and this “tilde u” is expressed as “* u” in the text. The membership function is expressed as “u * ” as shown below.
πqはクラスqの混合比率(訓練用データの混合比率)、すなわち事前確率であり、cはクラス毎のクラスターjの数で、本実施例ではc=2である。 π q is a mixing ratio of class q (mixing ratio of training data), that is, a prior probability, c is the number of clusters j for each class, and c = 2 in this embodiment.
そして、クラスタリングを行う際に、計算時間の短縮化を図るために、セミハードクラスタリングが行われる。このセミハードクラスタリングにおいては、メンバーシップとして離散値(例えば、0.6とか、0.8など)が用いられる。 When performing clustering, semi-hardware clustering is performed in order to shorten the calculation time. In this semi-hardware clustering, discrete values (for example, 0.6, 0.8, etc.) are used as membership.
また、このセミハードクラスタリングにおいては、上述したように、クラスを2つ、つまり駐車状態をクラス1にするとともに空車状態をクラス2とし、さらにこれら各クラスを2つのクラスターに分けるものとする。これは、経験上、各クラスを2つのクラスターに分割するのが、効率良くクラスタリングを行うことが判っているからである。なお、クラスター個数については、2つに限定されるものでもなく、例えば1つまたは3つ以上であってもよい。例えば、上記離散値を0.5とすると、クラスター数は1となり、離散値を1.0とすると、ハード(ファジィではない)な2つのクラスターとなる。
In this semi-hardware clustering, as described above, there are two classes, that is, the parking state is class 1, the empty state is
第1フェーズでは、訓練用データを用いて、クラス毎に、つまり駐車状態の画像データおよび空車状態の画像データに対して、セミハードクラスタリングを行う。
ハードとファジイの中間的なセミハードクラスタリングをするために、メンバーシップukiを下記(8)式のように設定する。
In the first phase, semi-hardware clustering is performed for each class, that is, for the image data in the parking state and the image data in the empty state, using the training data.
In order to perform semi-hard clustering that is intermediate between hard and fuzzy, membership u ki is set as shown in the following equation (8).
まず、クラスター毎の初期メンバーシップ(uk1,uk2)を下記(9)式および(10)式のように設定する。 First, the initial membership (u k1 , u k2 ) for each cluster is set as in the following equations (9) and (10).
上記の式により、メンバーシップが与えられると、(4)式からvを、(3)式からSを求め、そして(2)式と(3)式とからマハラノビス距離Dを求め、(8)式でメンバーシップuを更新する。この更新は、メンバーシップが収束するまで繰り返し行われる。 When membership is given by the above equation, v is obtained from equation (4), S is obtained from equation (3), and Mahalanobis distance D is obtained from equations (2) and (3), (8) Update membership u with formula. This update is repeated until membership has converged.
次に、訓練用データを用いて、クラス毎(クラス1→駐車状態;クラス2→空車状態)にクラスタリングする。すなわち、各クラスをそれぞれ2つのクラスターに分割する。
このとき、目的関数Jを用いてセミハードクラスタリングを行う。
Next, clustering is performed for each class (class 1 → parking state;
At this time, semi-hardware clustering is performed using the objective function J.
すなわち、目的関数Jが最小となるような訓練用データ毎のメンバーシップuを求める。これにより、各クラスターの中心vとそのメンバーシップuとが求められる。
そして、上記求められたメンバーシップuに基づき、各クラス毎にクラスタリングが行われる。
That is, the membership u for each training data that minimizes the objective function J is obtained. Thus, the center v of each cluster and its membership u are obtained.
Then, based on the obtained membership u, clustering is performed for each class.
第2フェーズでは、評価用データを用いて識別(クラシフィケーション)が行われる。
すなわち、第1フェーズにて求められた各クラスターの中心vに対して、マハラノビス距離Dを求める。このとき、第1フェーズで求められたメンバーシップuが用いられる。
In the second phase, identification (classification) is performed using the evaluation data.
That is, the Mahalanobis distance D is obtained for the center v of each cluster obtained in the first phase. At this time, the membership u obtained in the first phase is used.
そして、予め定められた(6)式にて示すメンバーシップ関数u*に、上記求められたマハラノビス距離Dを適用して(用いて)、メンバーシップ関数u*における各パラメータ(m,γ,ν,α;これらを自由パラメータまたはハイパーパラメータともいう)の最適化を図る。この最適化においては、粒子群最適化法(PSO)が用いられる。 Then, by applying (using) the obtained Mahalanobis distance D to the membership function u * shown by the predetermined equation (6), each parameter (m, γ, ν) in the membership function u * is used. , Α; these are also called free parameters or hyper parameters). In this optimization, a particle swarm optimization method (PSO) is used.
ここで、この粒子群最適化法を簡単に説明しておく。
この粒子群最適化法は、メンバーシップ関数u*における3つのパラメータ(m,γ,ν)と同じくパラメータであるクラスターの混合比率αの最適化が行われる。
Here, this particle swarm optimization method will be briefly described.
In this particle swarm optimization method, the cluster mixing ratio α, which is the same parameter as the three parameters (m, γ, ν) in the membership function u * , is optimized.
すなわち、この粒子群最適化法では、粒子群の最良位置の探索が、以下に示す(11)式および(12)式の更新式により行われる。 That is, in this particle group optimization method, the search for the best position of the particle group is performed by the following update formulas (11) and (12).
そして、これらの自由パラメータは、評価用データの誤識別率を最小にするように決定される。
すなわち、上記メンバーシップ関数u*を用いたメンバーシップ*uが、正しいクラスに属するように、言い換えれば、正しいクラスのメンバーシップ*uの方が大きくなるように、最適化が図られる。
These free parameters are determined so as to minimize the misidentification rate of the evaluation data.
That is, optimization is performed so that the membership * u using the membership function u * belongs to the correct class, in other words, the correct class membership * u is larger.
上述した準備工程にて、メンバーシップ関数u*が求められる。
そして、実際に、駐車の有無を判断する判断工程の概略について説明する。
すなわち、撮影されて所定の処理(後述する)が施された画像データの、上記準備工程で求められた各クラスターの中心vに対するマハラノビス距離Dを求めるとともに、このマハラノビス距離を上記(6)式に代入して求められるメンバーシップ関数値u*を上記(5)式に代入し、各クラスにおけるクラスターに対するメンバーシップ*uを求める。そして、クラスター毎に求められたメンバーシップ*uを加算し、クラス毎のメンバーシップ*u1,*u2を求める。
In the above-described preparation process, the membership function u * is obtained.
And the outline of the judgment process which actually judges the presence or absence of parking is demonstrated.
That is, the Mahalanobis distance D with respect to the center v of each cluster obtained in the preparation step of image data that has been photographed and subjected to predetermined processing (described later) is obtained, and this Mahalanobis distance is expressed by the above equation (6). The membership function value u * obtained by substitution is substituted into the above equation (5) to obtain the membership * u for the cluster in each class. Then, membership * u obtained for each cluster is added to obtain memberships * u 1 and * u 2 for each class.
そして、クラス1のメンバーシップ*u1とクラス2のメンバーシップ*u2とを比較し、値の大きい方が、当該画像データが所属するクラスと判断できる。つまり、クラス1のメンバーシップ*u1が大きい場合には、駐車状態であると判断される。逆に、クラス2のメンバーシップ*u2が大きい場合には、空車状態であると判断される。
Then, by comparing the membership * u 2 membership * u 1 and
以下、上述した準備工程および判断工程を実行する車両の検知システムについて説明する。
なお、以下の説明では、自由パラメータ(m,γ,ν,α)およびクラスター中心v,分散共分散行列S、クラスの混合比率πなどが識別に関わる要素であるため、判断用パラメータと称して説明する。
Hereinafter, a vehicle detection system that performs the above-described preparation process and determination process will be described.
In the following description, the free parameters (m, γ, ν, α), the cluster center v, the variance-covariance matrix S, the class mixture ratio π, and the like are factors involved in the identification, and are therefore referred to as determination parameters. explain.
この検知システム(プログラムとして)には、図2に示すように、大きく分けて、車室設定部(車室設定プログラム)11と、例えば画像圧縮係数(後述する)などの必要データの作成および車両の有無の判断に用いる判断用パラメータの調整を行うためのデータ等作成・調整部(データ等作成・調整用プログラム)12と、設定された車室Sが駐車状態か空車状態かを判断する駐・空判断部(駐・空判断用プログラム)13と、基本データ、各種パラメータなどを記憶しておくデータベース部14とが具備されている。なお、上記車室設定部11、データ等作成・調整部12は準備用であり、駐・空判断部13が実稼動用である。勿論、データベース部14は準備用と実稼動用の両方に用いられる。
As shown in FIG. 2, the detection system (as a program) is roughly divided into a vehicle interior setting unit (vehicle interior setting program) 11 and creation of necessary data such as an image compression coefficient (described later) and a vehicle. A data creation / adjustment unit (data creation / adjustment program) 12 for adjusting determination parameters used to determine the presence or absence of a vehicle, and parking to determine whether the set cabin S is parked or empty An empty determination unit (parking / empty determination program) 13 and a
上記車室設定部11は、図3に示すように、例えば支柱1に固定された撮影用カメラ2で撮影された画像データを入力して当該画像データ内(つまり、撮影画面内)に車両の有無を判断(判定)するための車室Sを設定する車室位置設定部21と、この車室位置設定部21で設定された(位置が決められた)車室位置情報を取得する車室位置情報取得部22とから構成され、この車室位置情報取得部22で取得された車室位置情報は、データベース部14に記憶される。
As shown in FIG. 3, the passenger
上記データ等作成・調整部12は、図4に示すように、既に撮影された画像データに基づき画像データを圧縮するための画像圧縮係数を計算する画像圧縮係数計算部31と、同じく既に撮影された画像データに基づき判断用パラメータの調整を行うパラメータ調整部32とから構成され、画像圧縮係数計算部31で求められた画像圧縮係数とパラメータ調整部32で調整された判断用パラメータは、データベース部14に記憶される。
As shown in FIG. 4, the data creation /
上記画像圧縮係数計算部31は、図5に示すように、予め撮影された画像データを読み込む(取り込む)画像読込部31aと、この画像読込部31aにて読み込まれた画像データから車室1を切り出す(例えば、平行四辺形などの矩形状にて切り出す)車室切出部31bと、この車室切出部31bにて切り出された車室1を正規化する正規化部31cと、この正規化部31cにて正規化された画像データを入力して主成分分析を行うことによりデータの次元を少なくして(例えば、1024次元から50次元程度にして)データの圧縮を行う主成分分析部31dと、この主成分分析部31dで得られた主成分ベクトル(基底ベクトル)および画像データの平均ベクトルを画像圧縮係数として取得する画像圧縮係数取得部31eとから構成されている。なお、上述した正規化とは、例えば撮影した画像データ上では、車室の位置(特に、遠近の違い)により、車室であると判断される画面の大きさが異なるため、これらを全て同一の画素データ(同一のデータ数)にすることである。具体的には、カラーの画像データを白黒データに変換し、つまり輝度値(例えば、0〜255の数値)に変換した画像データを縦横とも例えば32分割して1024(=32×32)個の画素値を得る(正規化である)。実際には、1024個の各分割領域(複数領域)における一つの画素(例えば、分割領域の中心画素)の輝度値が代表値として用いられる(代表値として、各分割領域の平均輝度値を用いることもできる)。これにより、1024次元のデータが得られる。したがって、この正規化部31cは、画像データを入力して複数箇所(例えば、1024箇所)にて画像データの代表値を取得するデータ取得部により構成されている。なお、この正規化部31cは、画像データを入力して複数領域に分割するデータ領域分割部と、このデータ領域分割部で分割された分割領域での画像データの代表値を取得するデータ取得部とから構成されているともいえる。
As shown in FIG. 5, the image compression
また、上記データ等作成・調整部32は、図6に示すように、予め撮影された画像データを読み込む(取り込む)画像読込部32aと、上記画像圧縮係数取得部31eにて取得された画像圧縮係数を用いて上記画像読込部32aにて読み込まれた画像データの次元を低次元に、すなわち次元圧縮を行う次元圧縮部32bと、この次元圧縮部32bで次元圧縮された画像データを訓練用画像として蓄積する訓練画像蓄積部32cと、この訓練画像蓄積部32cで蓄積された画像データを入力して訓練を行うことにより判断用パラメータを取得するパラメータ取得部32dとから構成されている。なお、このデータ等作成・調整部32にて取得される判断用パラメータは、稼動時における初期パラメータとして用いられ、また訓練時における初期値としても用いられる。
Further, as shown in FIG. 6, the data etc. creating / adjusting
次に、実際の稼動時に実行される駐・空判断部13について説明する。
なお、この駐・空判断部13は、単独で作動するものであるため、画像データを読み込み、次元圧縮などの構成部分については、上述したものと同一のものが具備されており、当然ながら、この構成部分も再度説明する。
Next, the parking /
Since the parking /
この駐・空判断部13は、図7に示すように、撮影用カメラ2で撮影された撮影画像である画像データを読み込む画像読込部41と、この画像読込部41にて読み込まれた画像データから車室を切り出す(特定する)車室切出部42と、この車室切出部42にて切り出された車室の画像データを正規化する、つまり画像データを1024に分割する正規化部43と、この正規化部43で正規化された画像データを1024次元のベクトルにするベクトル化部44と、このベクトル化部44でベクトル化されたベクトルデータの次元を例えば50次元に圧縮する次元圧縮部45と、この次元圧縮部45で次元圧縮された画像データの予め求められたクラスターの中心に対するマハラノビス距離を求めるマハラノビス距離計算部46と、このマハラノビス距離計算部46で求められたマハラノビス距離に基づきメンバーシップ関数u*およびメンバーシップ*uを求める上記(7)式および(6)式が具備されたメンバーシップ計算部47と、このメンバーシップ計算部47で求められたメンバーシップ*uに基づき、当該画像データが、いずれのクラスつまり駐車状態か空車状態であるかを判断する在車判断部48とから構成されている。上記車室切出部42、次元圧縮部45、マハラノビス距離計算部46、メンバーシップ計算部47および在車判断部48での計算に際しては、データベース部14から適切な車室位置情報、画像圧縮係数、判断用パラメータなどが読み込まれて使用される。なお、実稼動時において、読み込まれる判断用パラメータは訓練などにより最適に調整された値である。ところで、駐車場が広い場合には、当然、撮影用カメラで撮影する範囲が限られるため、グループ分けが行われる。したがって、これらグループ毎にファジィクラスタリングが行わることになるため、判断用パラメータについても、各グループ毎に調整される。また、画像圧縮係数については、少し広い範囲に対して求められる。例えば、グループ毎ではなく、駐車場毎に求められる。
As shown in FIG. 7, the parking /
具体的には、マハラノビス距離計算部46では、画像データの予め求められているクラスター中心に対するマハラノビス距離Dが求められ、そしてメンバーシップ計算部47では、マハラノビス距離Dに基づきメンバーシップ関数u*(関数値)が求まり、このメンバーシップ関数u*に基づきメンバーシップ*uが求められる。つまり、各クラスターに対してメンバーシップ*u1,*u2が求められる。そして、各クラス毎において、メンバーシップが加算されて、クラスにおけるメンバーシップ*uc1,*uc2が求められる。
Specifically, the Mahalanobis
そして、在車判断部48において、これら求められた各クラスでのメンバーシップ*uc1,*uc2同士が比較されて、その値が大きい方に、この画像データが属していると判断される。
Then, the vehicle
例えば、この判断時の各クラスにおけるメンバーシップを図8に示す。図8は、2つのクラス1およびクラス2に、それぞれ2つのクラスター1およびクラスター2をそれぞれ形成したもので、クラス1側には、v11のクラスター1とv12のクラスター2とがあり、またクラス2側にも、v21のクラスター1と、v22のクラスター2とがある。図8において、Xの地点が判断すべき画像データであるとすると、クラス1における一方のクラスター1に対するXのメンバーシップをu11、他方のクラスター2に対するXのメンバーシップをu12とし、またクラス2の一方のクラスター1に対するXのメンバーシップをu21、他方のクラスター2に対するXのメンバーシップをu22とすると、Xのクラス1に対するメンバーシップu1は、u11+u12となり、またXのクラス2に対するメンバーシップu2は、u21+u22となる。つまり、各クラスにおける各クラスターのメンバーシップの合計値(両クラスターに対するメンバーシップの高さの合計である)が各クラスに対するメンバーシップとなる。そして、そのメンバーシップu1,u2のうち、大きい方のクラスに所属していることになる。クラス1に所属していれば、駐車状態であり、またクラス2に所属していれば、空車状態を示している。
For example, the membership in each class at the time of this determination is shown in FIG. 8, the two Class 1 and
なお、上述した粒子群最適化法にて誤識別率が最小となるように自由パラメータが探索されるが、例えばクラスターの混合比率αを変化させると、図8のクラスターの領域(等高線で示す)の形状が変化することになり、したがって2つのクラスの境界線も非線形に変化する。 Note that free parameters are searched so that the misidentification rate is minimized by the particle swarm optimization method described above. For example, when the cluster mixing ratio α is changed, the cluster region (shown by contour lines) in FIG. Will change, and therefore the boundaries of the two classes will also change non-linearly.
ここで、全体のシステムの設置から稼動開始までの概略工程について説明する。
まず、この検知システムの設置に際しては、下記に示すように、二つの場合が考えられ、以下、この設置に際しての手順を概略的に説明した後、一つの場合に基づき具体的に説明する。
Here, an outline process from installation of the entire system to start of operation will be described.
First, there are two cases in installing the detection system, as described below. Hereinafter, a procedure for the installation will be schematically described, and then a specific description will be given based on one case.
一つ目は、現地(駐車場)のカメラ画像すなわち画像データをシステム稼動前に入手できる場合(既設カメラ流用時)で、二つ目は、現地の画像データをシステム稼動前に入手できない場合(カメラ新設時)である。 The first is when the local (parking lot) camera image, that is, image data can be obtained before system operation (when the existing camera is diverted), and the second is when the local image data cannot be obtained before system operation ( (When a camera is newly established).
一つ目の場合;
前もって入手した画像データを用いて、車室位置の設定、画像圧縮係数の計算および判断用パラメータの生成(訓練)を実施しておき、これらを用いてシステムを稼動させる。
In the first case;
Using the image data obtained in advance, the setting of the passenger compartment position, the calculation of the image compression coefficient, and the generation (training) of the determination parameters are performed, and the system is operated using these.
そして、システム稼動後も、現地の画像データを収集して、判断用パラメータの訓練を続けることにより、識別精度の向上が図られる。
なお、駐車場で用いる画像圧縮係数および判断用パラメータは、データベース部14に登録される(別の駐車場でも利用される)。
Even after the system is operated, the accuracy of the identification can be improved by collecting local image data and continuing the training of the determination parameters.
Note that the image compression coefficient and the determination parameter used in the parking lot are registered in the database unit 14 (also used in another parking lot).
二つ目の場合;
撮影用カメラが設置されて画像データの取り込みが可能になると、画像データを取り込み、車室位置を仮に設定する。
In the second case;
When the photographing camera is installed and image data can be captured, the image data is captured, and the vehicle interior position is temporarily set.
しかし、画像データの取り込みが可能になっても、駐車場がオープンするまで車両は駐車しないので、現地での画像データの収集を行うことができず、したがって現地での画像データを使って判断用パラメータの訓練をすることができない。 However, even if the image data can be captured, the vehicle is not parked until the parking lot is opened, so it is not possible to collect on-site image data. Unable to train parameters.
そこで、駐車場オープン当初は、データベース部14の中から当該駐車場に条件が似ている駐車場の画像圧縮係数および判断用パラメータを使って、システムを稼動させる。
これと同時に、この駐車場での画像データを収集しておき、この画像データを使って車室位置を詳細に設定し、新たに画像圧縮係数の計算および判断用パラメータの生成(訓練)を実施する。
Therefore, when the parking lot is initially opened, the system is operated using the image compression coefficient and the determination parameter of the parking lot whose conditions are similar to the parking lot in the
At the same time, image data at this parking lot is collected, the position of the passenger compartment is set in detail using this image data, and a new calculation of image compression coefficient and generation (training) of judgment parameters are performed. To do.
そして、この判断用パラメータによる識別精度が、現在使っている他の駐車場の判断用パラメータよりも良くなった段階で、判断用パラメータを入れ替える。
その後も、現地の画像データを収集して判断用パラメータを訓練し続け、識別精度を向上させる。勿論、この場合も、駐車場で使用する画像圧縮係数および判断用パラメータはデータベース部に登録される(別の駐車場でも利用される)。
Then, when the identification accuracy based on the determination parameter becomes better than the determination parameter of the other parking lot currently used, the determination parameter is replaced.
After that, we continue to collect local image data and train the judgment parameters to improve the identification accuracy. Of course, also in this case, the image compression coefficient and the determination parameter used in the parking lot are registered in the database unit (also used in another parking lot).
次に、一つ目の場合について、さらに具体的に説明する。
すなわち、データベース部14には、既設駐車場の画像データにより得られた画像圧縮係数および判断用パラメータが記憶されている。
Next, the first case will be described more specifically.
That is, the
画像圧縮係数は、上述したように、画像データを主成分分析で圧縮する際の主成分ベクトル(基底ベクトル)と画像データの平均ベクトルである。この主成分ベクトルは、圧縮する次元数だけ存在する。すなわち、次元の数がm個(例えば、50個)で、画素の数がn個(例えば、32×32=1024個)であれば、画像圧縮係数は、n×(m+1(平均ベクトル分))個存在することになる。 As described above, the image compression coefficient is a principal component vector (base vector) when image data is compressed by principal component analysis and an average vector of the image data. There are as many principal component vectors as the number of dimensions to be compressed. That is, if the number of dimensions is m (for example, 50) and the number of pixels is n (for example, 32 × 32 = 1024), the image compression coefficient is n × (m + 1 (for the average vector). ) Will exist.
また、判断用パラメータは、最初に求められている各クラスターに対するマハラノビス距離を求めるためのデータで、例えば各クラスターの中心などである。
そして、新しい駐車場の検知システムにおいては、新しく設置された撮影用カメラにより画像データを収集して、判断用パラメータの精度の向上が図られる。
The determination parameter is data for obtaining the Mahalanobis distance for each cluster that is initially obtained, and is, for example, the center of each cluster.
In a new parking lot detection system, image data is collected by a newly installed shooting camera to improve the accuracy of determination parameters.
すなわち、撮影用カメラ2にて新しい駐車場を撮影し、この撮影された画像データに基づき車室Sの位置を特定する。
車室Sの位置が特定されると、撮影用カメラ2から画像データを読み込み、この画像データを正規化およびベクトル化した後、データベース部14に記憶されている画像圧縮係数に基づき次元を、例えば1024次元から50次元に圧縮する。そして、この次元圧縮された画像データに対して、マハラノビス距離を求めるとともに、このマハラノビス距離を用いてメンバーシップ関数を求め、この求められたメンバーシップ関数値を用いて、各クラスに対するメンバーシップを求める。
That is, a new parking lot is photographed by the photographing
When the position of the passenger compartment S is specified, image data is read from the photographing
これら求められたメンバーシップについては、各クラス毎に加算してクラス毎のメンバーシップを求め、メンバーシップが大きい方のクラスに所属すると判断される。この工程を全ての画像データに繰り返して行うことにより、判断用パラメータが修正される。 These obtained memberships are added for each class to obtain the membership for each class, and it is determined that the membership belongs to the class with the larger membership. By repeating this process for all image data, the determination parameter is corrected.
次に、駐車状態であるか否かの判断について、具体的に説明する。
すなわち、撮影用カメラ2にて撮影された車室Sの画像データが画像読込部41に読み込まれ、この画像データは車室切出部42、正規化部43およびベクトル化部44で例えば1024次元データにベクトル化された後、次元圧縮部45で次元が圧縮される。この次元圧縮部45では、データベース部14に記憶されている画像圧縮係数に基づき、その次元が1024次元から50次元に圧縮される。次に、この次元圧縮された画像データはマハラノビス距離計算部46にてマハラノビス距離が求められ、そしてメンバーシップ計算部47において、マハラノビス距離を用いてメンバーシップ関数が求められた後、この求められたメンバーシップ関数値を用いて、各クラスに対するメンバーシップが求められる。そして、これら求められたメンバーシップの内、各クラス毎に加算してクラス毎のメンバーシップが求められる。
Next, the determination as to whether or not the vehicle is in a parking state will be specifically described.
That is, the image data of the passenger compartment S photographed by the photographing
次に、これらクラス毎のメンバーシップが、在車判断部48に入力されて、当該画像データに係るメンバーシップがいずれのクラスに所属するかが判断される。すなわち、撮影した画像が、駐車状態であるか空車状態であるかが判断される。
Next, the membership for each class is input to the vehicle
なお、上記説明におけるデータ等作成・調整部、各種計算部、圧縮部、各判断部などの殆どの構成部分は、プログラムにより、その機能が実現されるものである。
また、上記説明においては、駐車場を屋外として説明したが、撮影条件が良い屋内にも、当然に、この検知システムを適用することができる。
Note that most of the components such as the data creation / adjustment unit, the various calculation units, the compression unit, and the determination units in the above description are implemented by programs.
In the above description, the parking lot is described as being outdoors, but the detection system can naturally be applied to indoors with good shooting conditions.
ここで、この検知システムを実際に適用した実験結果について説明しておく。
屋上駐車場に設置されている監視カメラ(撮影用カメラである)の画像から27車室の駐車状況の識別を行った。実験には、天候や時間帯の異なる様々な条件下の3週間分の画像データから、2600枚の画像を選んで用いた。
Here, an experimental result in which this detection system is actually applied will be described.
The parking situation of 27 compartments was identified from the image of the surveillance camera (which is a camera for photographing) installed in the rooftop parking lot. In the experiment, 2600 images were selected and used from image data for 3 weeks under various conditions with different weather and time zones.
性能評価を行った手順を以下に説明する。
最初にカメラ番号や用いる画像の枚数、車室数やそのグループ分けを指定し、次に車室の切り出し箇所を画面上で指定した。
The procedure for performing the performance evaluation will be described below.
First, the camera number, the number of images to be used, the number of passenger compartments and their grouping were specified, and then the cutout location of the passenger compartment was specified on the screen.
まず、最初の100枚(2700件)の画像データから50の主成分ベクトルを求めた。訓練用データは第1週目の1000枚と第3週目の600枚から選び、テストとして第2週目の1000枚(27000件)で評価した。第1週から20枚(50枚飛び)の画像を選び各駐車スペースの駐・空(クラス)を入力することで、訓練用データを集め、識別器の学習・訓練を行った。 First, 50 principal component vectors were obtained from the first 100 (2700) image data. The training data was selected from 1000 sheets in the first week and 600 sheets in the 3rd week, and evaluated as 1000 tests (27000) in the 2nd week. By selecting 20 images (50 jumps) from the first week and inputting parking / vacancy (class) of each parking space, training data was collected and learning / training of the classifier was performed.
次に、第1週の画像で誤識別のあるものを訓練データに追加し、最後にもう一度、識別器の学習・訓練を行った。さらに、第3週目についても同様に訓練データを追加した。
下記に示す(表1)および(表2)の下段に、第2週目の1000枚(27000件)で評価した誤識別率を示す。なお、各表は、昼夜を分けた場合の誤識別率を示す。
Next, the image of the first week with misidentification was added to the training data, and finally the classifier was learned and trained again. Furthermore, training data was added in the same manner for the third week.
In the lower part of (Table 1) and (Table 2) shown below, the misidentification rate evaluated with 1000 sheets (27000 cases) in the second week is shown. In addition, each table | surface shows the misidentification rate at the time of dividing day and night.
すなわち、カメラ画像から空の一部を切り取り、その平均輝度の閾値で昼夜を判定した。(表1)は訓練用データを第1週目の1000枚から111枚(2997件)選び、(表2)は第3週目の600枚から44枚(1188件)を追加して第1週目と第3週目のデータから合計155枚(4185件)を訓練用データとした。第3週目の訓練用データを追加した場合(表2)は、追加しない場合に比べて(表1)、昼は2.53%から1.42%に減少し、昼夜全体では2.04%で実用化可能な誤識別率になった。誤識別の評価には正しいクラス情報の入った第2週目のテストデータ27000件を用いた。 That is, a part of the sky was cut out from the camera image, and day / night was determined based on the threshold of the average brightness. (Table 1) selects the training data for the first week from the 1000 sheets of 111 sheets (2997 cases), and (Table 2) adds the first week from the 600 sheets for the first week to 44 sheets (1188 cases). A total of 155 sheets (4185 cases) from the week and third week data were used as training data. When training data for the third week was added (Table 2), compared to the case where it was not added (Table 1), the daytime decreased from 2.53% to 1.42%, and the whole day and night was 2.04. %, The misidentification rate was practical. For evaluation of misidentification, 27000 test data of the second week containing correct class information were used.
上述したように、この検知システムおよび検知方法によると、撮影用カメラにより撮影された撮影画像すなわち画像データから車室を切り出すとともにこの切り出された車室毎の画像データから複数の代表値を取得して正規化し、この正規化された代表値としての画像データをベクトル化し、このベクトル化されたベクトルデータの次元を圧縮し、この圧縮されたベクトルデータの予め訓練用データで求められたクラスター中心に対するマハラノビス距離を求め、この求められたマハラノビス距離をメンバーシップ関数に代入するとともにこの関数値に基づきメンバーシップを求め、この求められたメンバーシップを用いて車室内に車両が存在するか否かを判断するようにしたので、駐車場が屋外であっても、効率良く、すなわち高い識別率でもって(誤識別が少ない状態で)、駐車状態および空車状態を判断することができる。 As described above, according to the detection system and the detection method, the vehicle interior is cut out from the captured image captured by the imaging camera, that is, the image data, and a plurality of representative values are acquired from the image data for each of the extracted vehicle compartments. Normalize, vectorize the image data as the normalized representative value, compress the dimension of the vectorized vector data, and apply the compressed vector data to the cluster center previously obtained from the training data. Calculate the Mahalanobis distance, substitute the calculated Mahalanobis distance into the membership function, determine the membership based on this function value, and use this calculated membership to determine whether there is a vehicle in the passenger compartment. So, even if the parking lot is outdoors, it is efficient, that is, high identification rate Have been (in misidentification less state), it is possible to determine the parking state and the unladen state.
また、画像データの次元を主成分分析法により圧縮するようにしたので、画像の特徴を維持した状態で画素データを少なくすることができる。言い換えれば、構成としては安価な構成である撮影用カメラを用いて、精度良く駐車状態または空車状態を検知することができる。 Further, since the dimensions of the image data are compressed by the principal component analysis method, the pixel data can be reduced while maintaining the image characteristics. In other words, it is possible to detect a parking state or an empty state with high accuracy by using an imaging camera that is an inexpensive configuration.
さらに、判断用パラメータのうち、メンバーシップ関数の自由パラメータについては、粒子群最適化法により最適化を図るようにしているので、迅速且つ効率的に、その最適化を図ることができる。つまり、誤識別率を低下させることができる。性能評価実験で示したように、訓練用データを追加して再最適化することで、さらに誤識別率を大幅に低減させることができる。 Furthermore, among the determination parameters, the membership function free parameters are optimized by the particle swarm optimization method, so that the optimization can be achieved quickly and efficiently. That is, the misidentification rate can be reduced. As shown in the performance evaluation experiment, the misidentification rate can be further greatly reduced by re-optimizing by adding training data.
S 駐車スペース
1 支柱
2 撮影用カメラ
11 車室設定部
12 データ等作成・調整部
13 駐・空判断部
14 データベース部
21 車室位置設定部
22 車室位置情報取得部
31 画像圧縮係数計算部
31a 画像読込部
31b 車室切出部
31c 正規化部
31d 主成分分析部
31e 画像圧縮係数取得部
32 パラメータ調整部
32a 画像読込部
32b 画像圧縮部
32c 訓練画像蓄積部
32d パラメータ取得部
41 画像読込部
42 車室切出部
43 正規化部
44 ベクトル化部
45 次元圧縮部
46 マハラノビス距離計算部
47 メンバーシップ計算部
48 在車判断部
DESCRIPTION OF SYMBOLS S Parking space 1 Support |
Claims (6)
撮影用カメラにより撮影された撮影画像から車室を切り出すとともにこの切り出された車室毎の画像データから複数の代表値を取得して正規化する正規化部と、この正規化部で得られた代表値よりなる画像データをベクトル化するベクトル化部と、このベクトル化部でベクトル化されたベクトルデータの次元を圧縮する次元圧縮部と、この次元圧縮部で圧縮されたベクトルデータの予め訓練用データで求められたクラスター中心に対するマハラノビス距離を求めるマハラノビス距離計算部と、このマハラノビス距離計算部で求められたマハラノビス距離を下記(1)式に示すメンバーシップ関数(u*)に代入するとともにこの関数値を下記(2)式に代入してメンバーシップ(チルダu)を求めるメンバーシップ計算部と、このメンバーシップ計算部で求められたメンバーシップを用いて駐車状態または空車状態のいずれかのクラスにクラスタリングを行い車室内に車両が存在するか否かを判断する車両判断部とを具備したことを特徴とする駐車場における車両の検知システム。
A normalization unit that cuts out the passenger compartment from the captured image taken by the camera for photography and obtains and normalizes a plurality of representative values from the image data for each of the extracted passenger compartments, and obtained by this normalization unit A vectorization unit that vectorizes image data consisting of representative values, a dimension compression unit that compresses the dimension of the vector data vectorized by the vectorization unit, and a vector data compressed by the dimension compression unit for training in advance The Mahalanobis distance calculation unit for obtaining the Mahalanobis distance with respect to the cluster center obtained from the data, and substituting the Mahalanobis distance obtained by the Mahalanobis distance calculation unit into the membership function (u * ) shown in the following equation (1) Membership calculator that calculates the membership (tilde u) by substituting the value into the following formula (2), and this member And a vehicle determination unit that performs clustering on either a parking state or an empty vehicle class using the membership obtained by the top-up calculation unit and determines whether or not a vehicle exists in the passenger compartment. A vehicle detection system in a parking lot.
撮影用カメラにより撮影された撮影画像から車室を切り出すとともにこの切り出された車室毎の画像データから複数の代表値を取得して正規化し、この正規化された代表値よりなる画像データをベクトル化し、このベクトル化されたベクトルデータの次元を圧縮し、この圧縮されたベクトルデータの予め訓練用データで求められたクラスター中心に対するマハラノビス距離を求め、この求められたマハラノビス距離を下記(3)式に示すメンバーシップ関数(u*)に代入するとともにこの関数値を下記(4)式に代入してメンバーシップ(チルダu)を求め、この求められたメンバーシップを用いて車室内に車両が存在するか否かを判断することを特徴とする駐車場における車両の検知方法。
A vehicle compartment is cut out from a photographed image taken by a camera for photography, and a plurality of representative values are acquired from the image data for each cut out vehicle compartment, normalized, and image data composed of the normalized representative values is vectorized. The dimension of the vectorized vector data is compressed, the Mahalanobis distance to the cluster center obtained from the training data of the compressed vector data in advance is obtained, and the obtained Mahalanobis distance is expressed by the following equation (3) Substituting into the membership function (u * ) shown below and substituting this function value into the following equation (4) to determine membership (tilde u), and using this calculated membership, there is a vehicle in the passenger compartment A method of detecting a vehicle in a parking lot, characterized by determining whether or not to do so.
且つこの決定に際しては、
まず訓練用データを用いて駐車状態および空車状態を示すクラス毎にセミハードクラスタリングを行うことにより、各クラス毎における各クラスターの中心およびメンバーシップを求め、
次に評価用データにより、(3)式に示すメンバーシップ関数(u*)および(4)式に示すメンバーシップ(チルダu)を用いて当該メンバーシップが正しいクラスに所属するように、(3)式における各パラメータ(m,γ,ν,α)の最適化を図るようにしたことを特徴とする請求項4に記載の駐車場における車両の検知方法。 About each parameter of membership function (u * ) shown in (3) formula, it determines beforehand based on training data,
And in making this decision,
First, by performing semi-hard clustering for each class that shows parking and empty conditions using training data, the center and membership of each cluster in each class is obtained,
Next, using the evaluation data, the membership function (u * ) shown in the expression (3) and the membership (tilde u) shown in the expression (4) are used so that the membership belongs to the correct class (3 5. The method for detecting a vehicle in a parking lot according to claim 4, wherein each parameter (m, γ, ν, α) in the equation (5) is optimized.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009157372A JP5361576B2 (en) | 2009-07-02 | 2009-07-02 | Vehicle detection system and detection method in parking lot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009157372A JP5361576B2 (en) | 2009-07-02 | 2009-07-02 | Vehicle detection system and detection method in parking lot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011013924A true JP2011013924A (en) | 2011-01-20 |
JP5361576B2 JP5361576B2 (en) | 2013-12-04 |
Family
ID=43592734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009157372A Active JP5361576B2 (en) | 2009-07-02 | 2009-07-02 | Vehicle detection system and detection method in parking lot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5361576B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013206462A (en) * | 2012-03-29 | 2013-10-07 | Xerox Corp | Method for measuring parking lot occupancy state from digital camera image |
JP2014010091A (en) * | 2012-07-02 | 2014-01-20 | Hitachi Zosen Corp | Refuse state detection device in refuse incinerator |
JP2015036980A (en) * | 2013-08-09 | 2015-02-23 | ゼロックス コーポレイションXerox Corporation | Hybrid method and system of video and vision based access control for parking stall occupancy determination |
JP2022059737A (en) * | 2020-10-02 | 2022-04-14 | 国立大学法人東京工業大学 | Passenger compartment authentication program and passenger compartment authentication device |
JP2022099572A (en) * | 2020-12-23 | 2022-07-05 | 名古屋電機工業株式会社 | Information processor, information processing method and program |
JP7522577B2 (en) | 2020-04-10 | 2024-07-25 | パーク二四株式会社 | Parking lot camera system, information terminal and computer program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112053584B (en) * | 2020-08-21 | 2021-07-27 | 杭州目博科技有限公司 | Road tooth parking space state prediction management system based on geomagnetism, radar and camera shooting and management method thereof |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04216182A (en) * | 1990-12-17 | 1992-08-06 | Nippon Telegr & Teleph Corp <Ntt> | Object recognition processing method |
JPH0741118A (en) * | 1993-06-29 | 1995-02-10 | Toshiba Corp | Empty area detector |
JPH11306325A (en) * | 1998-04-24 | 1999-11-05 | Toshiba Tec Corp | Method and device for object detection |
JP2002259953A (en) * | 2001-02-27 | 2002-09-13 | Nagoya Electric Works Co Ltd | Congestion status determining method and its device |
JP2005182504A (en) * | 2003-12-19 | 2005-07-07 | Matsushita Electric Ind Co Ltd | Parking support system |
JP2006053608A (en) * | 2004-08-09 | 2006-02-23 | Kyushu Institute Of Technology | Authentication system for imprint |
JP2007280073A (en) * | 2006-04-07 | 2007-10-25 | Kenwood Corp | Guidance system in parking lot, guidance device on parking lot side, guidance device on car side and guidance method in parking lot |
JP2008140093A (en) * | 2006-12-01 | 2008-06-19 | Nippon Telegr & Teleph Corp <Ntt> | Abnormal event extraction device, abnormal event extraction method, program for the method, and storage medium recording the program |
-
2009
- 2009-07-02 JP JP2009157372A patent/JP5361576B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04216182A (en) * | 1990-12-17 | 1992-08-06 | Nippon Telegr & Teleph Corp <Ntt> | Object recognition processing method |
JPH0741118A (en) * | 1993-06-29 | 1995-02-10 | Toshiba Corp | Empty area detector |
JPH11306325A (en) * | 1998-04-24 | 1999-11-05 | Toshiba Tec Corp | Method and device for object detection |
JP2002259953A (en) * | 2001-02-27 | 2002-09-13 | Nagoya Electric Works Co Ltd | Congestion status determining method and its device |
JP2005182504A (en) * | 2003-12-19 | 2005-07-07 | Matsushita Electric Ind Co Ltd | Parking support system |
JP2006053608A (en) * | 2004-08-09 | 2006-02-23 | Kyushu Institute Of Technology | Authentication system for imprint |
JP2007280073A (en) * | 2006-04-07 | 2007-10-25 | Kenwood Corp | Guidance system in parking lot, guidance device on parking lot side, guidance device on car side and guidance method in parking lot |
JP2008140093A (en) * | 2006-12-01 | 2008-06-19 | Nippon Telegr & Teleph Corp <Ntt> | Abnormal event extraction device, abnormal event extraction method, program for the method, and storage medium recording the program |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013206462A (en) * | 2012-03-29 | 2013-10-07 | Xerox Corp | Method for measuring parking lot occupancy state from digital camera image |
GB2502187A (en) * | 2012-03-29 | 2013-11-20 | Xerox Corp | Determining parking lot occupancy from digital camera images |
US9129524B2 (en) | 2012-03-29 | 2015-09-08 | Xerox Corporation | Method of determining parking lot occupancy from digital camera images |
GB2502187B (en) * | 2012-03-29 | 2018-12-05 | Conduent Business Services Llc | A Method And System For Determining Parking Lot Occupancy from Digital Camera Images |
JP2014010091A (en) * | 2012-07-02 | 2014-01-20 | Hitachi Zosen Corp | Refuse state detection device in refuse incinerator |
JP2015036980A (en) * | 2013-08-09 | 2015-02-23 | ゼロックス コーポレイションXerox Corporation | Hybrid method and system of video and vision based access control for parking stall occupancy determination |
JP7522577B2 (en) | 2020-04-10 | 2024-07-25 | パーク二四株式会社 | Parking lot camera system, information terminal and computer program |
JP2022059737A (en) * | 2020-10-02 | 2022-04-14 | 国立大学法人東京工業大学 | Passenger compartment authentication program and passenger compartment authentication device |
JP7223962B2 (en) | 2020-10-02 | 2023-02-17 | 国立大学法人東京工業大学 | Vehicle interior authentication program and vehicle interior authentication device |
JP2022099572A (en) * | 2020-12-23 | 2022-07-05 | 名古屋電機工業株式会社 | Information processor, information processing method and program |
JP7461866B2 (en) | 2020-12-23 | 2024-04-04 | 名古屋電機工業株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5361576B2 (en) | 2013-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5361576B2 (en) | Vehicle detection system and detection method in parking lot | |
US9602783B2 (en) | Image recognition method and camera system | |
JP5823270B2 (en) | Image recognition apparatus and method | |
JP6320112B2 (en) | Information processing apparatus and information processing method | |
CN110309781B (en) | House damage remote sensing identification method based on multi-scale spectrum texture self-adaptive fusion | |
CN105139023B (en) | A kind of seed recognition methods based on multi-scale feature fusion and extreme learning machine | |
CN109684922B (en) | Multi-model finished dish identification method based on convolutional neural network | |
JP5483961B2 (en) | Image processing apparatus, subject discrimination method, program, and storage medium | |
CN102708361B (en) | Human face collecting method at a distance | |
CN107909081B (en) | Method for quickly acquiring and quickly calibrating image data set in deep learning | |
CN107273832B (en) | License plate recognition method and system based on integral channel characteristics and convolutional neural network | |
JP5257274B2 (en) | MOBILE BODY DETECTING DEVICE, MOBILE BODY DETECTING METHOD, AND COMPUTER PROGRAM | |
CN107153819A (en) | A kind of queue length automatic testing method and queue length control method | |
JP6095817B1 (en) | Object detection device | |
JP5500024B2 (en) | Image recognition method, apparatus, and program | |
CN107766801B (en) | Insulator identification method and device based on infrared hotspot tracking | |
JP2009301104A (en) | Object detecting apparatus | |
CN106503638B (en) | Image procossing, vehicle color identification method and system for color identification | |
US20100322510A1 (en) | Sky detection system used in image extraction device and method using sky detection system | |
CN110427815B (en) | Video processing method and device for realizing interception of effective contents of entrance guard | |
CN109035254A (en) | Based on the movement fish body shadow removal and image partition method for improving K-means cluster | |
JP4946878B2 (en) | Image identification apparatus and program | |
CN116740652B (en) | Method and system for monitoring rust area expansion based on neural network model | |
CN115661720A (en) | Target tracking and identifying method and system for shielded vehicle | |
KR101874968B1 (en) | Visibility measuring system base on image information and method for using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120509 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130731 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5361576 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |