JP4102885B2 - Parked vehicle detection method and parked vehicle detection system - Google Patents

Parked vehicle detection method and parked vehicle detection system Download PDF

Info

Publication number
JP4102885B2
JP4102885B2 JP2005206656A JP2005206656A JP4102885B2 JP 4102885 B2 JP4102885 B2 JP 4102885B2 JP 2005206656 A JP2005206656 A JP 2005206656A JP 2005206656 A JP2005206656 A JP 2005206656A JP 4102885 B2 JP4102885 B2 JP 4102885B2
Authority
JP
Japan
Prior art keywords
parked vehicle
vehicle
image
unit
parked
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2005206656A
Other languages
Japanese (ja)
Other versions
JP2006012178A (en
Inventor
克史 池内
俊介 上條
政隆 影沢
清隆 平原
晋太郎 小野
昌文 森
和彦 牧村
淳 森尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute for Land and Infrastructure Management
Original Assignee
National Institute for Land and Infrastructure Management
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute for Land and Infrastructure Management filed Critical National Institute for Land and Infrastructure Management
Priority to JP2005206656A priority Critical patent/JP4102885B2/en
Publication of JP2006012178A publication Critical patent/JP2006012178A/en
Application granted granted Critical
Publication of JP4102885B2 publication Critical patent/JP4102885B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明は、駐車車両を自動的に検知する駐車車両検知方法及び駐車車両検出システムに関する。   The present invention relates to a parked vehicle detection method and a parked vehicle detection system for automatically detecting a parked vehicle.

路上に駐車されている車両(以下「駐車車両」という)は、渋滞や交通事故を招来し、消防活動や救急活動を阻害する要因ともなり得るものである。そのため、従来より、国や地方自治体などによって駐車車両の台数を調査して渋滞等に与える影響を分析することが行われている。   Vehicles parked on the road (hereinafter referred to as “parked vehicles”) may cause traffic jams and traffic accidents, and may be a factor that hinders fire fighting activities and emergency activities. For this reason, conventionally, the number of parked vehicles has been investigated by the national and local governments to analyze the impact on traffic congestion and the like.

このような駐車車両の調査は、一般に、車両や自転車に搭乗した調査員の手作業によって行われていた。しかし、この調査方法では、作業に手間がかかって効率が悪いと共に駐車車両のカウントや集計にミスが生じ易く、調査精度の面でも問題があった。   Such a survey of parked vehicles is generally performed manually by an investigator on a vehicle or bicycle. However, this investigation method has a problem in terms of investigation accuracy because it takes a lot of work and is inefficient and easily causes mistakes in counting and counting of parked vehicles.

この問題を解決するため、CCDカメラ等で駐車車両を撮像し、この撮像データを画像処理することで、駐車車両を識別してカウントすることも考えられる。   In order to solve this problem, it is conceivable that the parked vehicle is imaged with a CCD camera or the like, and the captured data is image-processed to identify and count the parked vehicle.

しかしながら、上記した駐車車両の計測方法では、画像処理に時間とコストがかかる割に駐車車両の検知精度が良くないという問題がある。例えば、撮像データの画像処理において、エッジの抽出や2値化処理などの単純な処理だけでは、駐車車両とその背景にある建物や街路樹とを精度良く識別することは困難である。特に、駐車車両は路側に複数台が連続して駐車されるという傾向があるため、個々の駐車車両を検知することができないと、駐車車両の台数をカウントできないことになる。   However, the above-described method for measuring a parked vehicle has a problem in that the detection accuracy of the parked vehicle is not good, although it takes time and cost for image processing. For example, in image processing of captured data, it is difficult to accurately identify a parked vehicle and a building or roadside tree in the background only by simple processing such as edge extraction or binarization processing. In particular, since there is a tendency that a plurality of parked vehicles are continuously parked on the road side, the number of parked vehicles cannot be counted unless individual parked vehicles can be detected.

さらに、調査の高速化・効率化のために調査車両を移動させながら駐車車両の画像データを取得する場合には、画像処理がより一層困難になる。   Furthermore, image processing becomes even more difficult when acquiring image data of a parked vehicle while moving the survey vehicle in order to increase the speed and efficiency of the survey.

本発明は上記の課題を解決するためになされたもので、駐車車両の調査を効率的で精度良く行うことができる駐車車両検知方法及び駐車車両検知システムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a parked vehicle detection method and a parked vehicle detection system that can efficiently and accurately investigate a parked vehicle.

本発明の第1の主要な観点によれば、路上を走行する計測車両に搭載されたラインスキャンカメラで路上の対象物を水平方向に複数回ラインスキャンして得られた複数のライン画像を時系列に沿って合成して、時間と空間の成分を有するエピポーラ平面画像(EPI画像)を取得する工程と、前記ライン画像における対象物の一以上の特徴点の位置を時系列で結んだ1以上の直線を前記EPI画像における当該対象物一以上の特徴軌跡として抽出する工程と、前記EPI画像における時間と空間の成分を座標軸とする座標上で、前記抽出した特徴軌跡の傾きを演算する工程と、演算した特徴軌跡の傾きと前記計測車両の移動速度とに基づいて、対象物の特徴点までの奥行き距離を所定の式に従って演算する工程と、演算した対象物の特徴点までの奥行き距離を所定の閾値と比較することで駐車車両の有無を判別する工程とを備えたことを特徴とする駐車車両検知方法が提供される。
According to the first main aspect of the present invention, a plurality of line images obtained by performing a line scan of an object on a road a plurality of times in a horizontal direction with a line scan camera mounted on a measurement vehicle traveling on the road are sometimes obtained. A step of obtaining an epipolar plane image (EPI image) having temporal and spatial components by combining along a sequence, and one or more connecting the positions of one or more feature points of the object in the line image in time series a step of the linear extracted as one or more features trajectory of the object in the EPI image, on coordinates of the component axes of time and space in the EPI image, the step of calculating an inclination of the extracted feature trajectory If, based on the slope of the calculated characteristic trace and the moving velocity of the measuring vehicle, a step of calculating according to a predetermined formula the depth distance to feature points of the object, feature points of the computed object Parked vehicle detection method characterized by comprising the step of determining the presence or absence of a parked vehicle by a depth distance is compared with a predetermined threshold in is provided.

このような構成によれば、複数回のラインスキャンによって取得したEPI画像(撮像データ)を解析して駐車車両を判別するようにしたので、駐車車両を確実に判別できる。また、駐車車両の周囲のデータも同時に取得することで、駐車車両の規制等の道路行政に有益なデータを提供することができる。
According to such a configuration, since the EPI image (imaging data) acquired by a plurality of line scans is analyzed to discriminate the parked vehicle, the parked vehicle can be reliably discriminated. Further, by acquiring data around the parked vehicle at the same time, it is possible to provide data useful for road administration such as the regulation of the parked vehicle.

また、本発明の第2の主要な観点によれば、路上を走行する計測車両に搭載されたラインスキャンカメラが、路上の対象物を水平方向に複数回ラインスキャンした複数のライン画像を取得する画像データ取得部と、前記対象物の複数のライン画像を時系列に沿って合成することで水平方向のエピポーラ平面画像(EPI画像を取得する路上撮像部と、前記ライン画像における対象物の一以上の特徴点の位置を時系列で結んだ1以上の直線を前記EPI画像における当該対象物一以上の特徴軌跡として抽出する特徴軌跡抽出部と、前記EPI画像における時間と空間の成分を座標軸とする座標上で、前記抽出した特徴軌跡の傾きを演算する傾き演算部と、演算した特徴軌跡の傾きと前記計測車両の移動速度とに基づいて、対象物の特徴点までの奥行き距離を所定の式に従って演算する距離演算部と、演算した対象物の特徴点までの奥行き距離を所定の閾値と比較することで駐車車両の有無を判別する駐車車両有無判別部とを備えたことを特徴とする駐車車両検知システムが提供される。
Moreover, according to the second main aspect of the present invention, a line scan camera mounted on a measurement vehicle traveling on the road acquires a plurality of line images obtained by performing a line scan of an object on the road a plurality of times in the horizontal direction. An image data acquisition unit, a road imaging unit that acquires a horizontal epipolar plane image ( EPI image ) by synthesizing a plurality of line images of the object in time series, and an object in the line image a feature trajectory extraction unit that extracts one or more straight line connecting one or more of the positions of feature points in chronological as one or more features trajectory of the object in the EPI image, the component of time and space in the EPI image Based on the inclination calculation unit that calculates the inclination of the extracted feature trajectory on the coordinate axis, and the calculated feature trajectory and the moving speed of the measurement vehicle, the feature point of the target object is calculated. A distance calculation unit that calculates the depth distance in accordance with a predetermined expression, and a parked vehicle presence / absence determination unit that determines the presence / absence of a parked vehicle by comparing the calculated depth distance to the feature point of the target object with a predetermined threshold. A parked vehicle detection system is provided.

このような構成によれば、上記した第1の主要な観点における駐車車両検知方法を好適に実現可能な駐車車両検知システムを得ることができる。   According to such a structure, the parked vehicle detection system which can implement | achieve the parked vehicle detection method in the above-mentioned 1st main viewpoint suitably can be obtained.

以上説明したように、本発明によれば、駐車車両の調査を効率的で精度良く行うことができる駐車車両検知方法及び駐車車両検知システムを得ることができる。
As described above, according to the present invention, it is possible to obtain a parked vehicle detection method and a parked vehicle detection system that can efficiently and accurately investigate a parked vehicle.

特に、走行する調査車両から撮像データを取得しながら駐車車両の判別やカウントを行うことができ、駐車車両の調査を効率良く行うことができる駐車車両検知方法等を得ることができる。   In particular, it is possible to obtain a parked vehicle detection method and the like that can determine and count a parked vehicle while acquiring imaging data from a traveling survey vehicle, and that can efficiently survey the parked vehicle.

なお、この発明の他の特徴と顕著な効果は、次の発明の実施の形態の項の記載と添付した図面とを参照することで、より明確に理解される。   The other features and remarkable effects of the present invention can be understood more clearly by referring to the description of the following embodiments of the present invention and the attached drawings.

以下、本発明の実施の形態を図面に基づき説明する。以下においては、まず、本発明の参考となる実施形態を説明してから、本発明の実施形態を説明する。
(参考となる実施形態)
図1は、この実施形態にかかる駐車車両検知システムの概略説明図である。この図で符号1で示す駐車車両検知装置は、レーザスキャナ2によって路上の駐車車両3を含む撮像データを取得するものであり、道路4を走行する計測車両5に搭載されている。前記駐車車両検知装置1は、駐車車両3及び背景の街路樹6や建物7などの対象物までの距離情報、すなわち奥行きに基づいて、前記レーザスキャナ2が撮像した路上データから駐車車両3の側面データを抽出するものである。この実施形態では、前記撮像データの取得、駐車車両3の判別、カウント及び出力の各処理を走行する計測車両5上においてリアルタイムで実行するようにしている。これにより、駐車車両の調査を効率良く行うことができるようになる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following, first, an embodiment serving as a reference of the present invention will be described, and then an embodiment of the present invention will be described.
(Reference embodiment)
FIG. 1 is a schematic explanatory diagram of a parked vehicle detection system according to this embodiment. The parked vehicle detection apparatus denoted by reference numeral 1 in this figure acquires imaging data including a parked vehicle 3 on the road by the laser scanner 2 and is mounted on a measurement vehicle 5 traveling on the road 4. The parked vehicle detection device 1 detects the side surface of the parked vehicle 3 from road data captured by the laser scanner 2 based on distance information to the parked vehicle 3 and an object such as a background roadside tree 6 or a building 7, that is, depth. Data is extracted. In this embodiment, the acquisition of the imaging data, the determination of the parked vehicle 3, the counting, and the output are executed in real time on the measurement vehicle 5 that travels. As a result, the parked vehicle can be investigated efficiently.

ここで、本実施形態における路上撮像手段である前記レーザスキャナ2の概略構成を図2を参照して説明する。   Here, a schematic configuration of the laser scanner 2 which is a road imaging unit in the present embodiment will be described with reference to FIG.

このレーザスキャナ2は、主として、対象物に対してレーザ光を送出するレーザ光送出部8と、対象物から反射されたレーザ光を受信するレーザ光受信部9とからなる。前記レーザ光送出部8は、半導体レーザダイオード10と、一対のプリズム11、11と、送出用レンズ12と、回転可能なポリゴンミラー13と、スキャンライン調整用ミラー14とを備えている。また、前記レーザ光受信部9は、複数の受信用ミラー15、15と、受信用レンズ16と、フォトダイオード17とを備えている。なお、符号18は、レーザ光の送受信用の窓である。   The laser scanner 2 mainly includes a laser light transmitting unit 8 that transmits laser light to an object, and a laser light receiving unit 9 that receives laser light reflected from the object. The laser beam sending unit 8 includes a semiconductor laser diode 10, a pair of prisms 11 and 11, a sending lens 12, a rotatable polygon mirror 13, and a scan line adjusting mirror 14. The laser beam receiver 9 includes a plurality of receiving mirrors 15, 15, a receiving lens 16, and a photodiode 17. Reference numeral 18 denotes a window for transmitting and receiving laser light.

このような構成において、前記半導体レーザダイオード10からレーザ光を発振するとポリゴンミラー13の回転によって水平方向に1次元的なスキャンラインを描き、ラインスキャンが可能となる。さらに、前記ミラー14の回転を加えることで、このスキャンラインを微小角度ずつ垂直方向に変化させ、2次元のエリアスキャンが可能となる。鉛直方向にラインスキャンする場合は、このレーザスキャナ2を90度傾けて設置すれば良い。   In such a configuration, when laser light is oscillated from the semiconductor laser diode 10, a one-dimensional scan line is drawn in the horizontal direction by the rotation of the polygon mirror 13, and line scanning becomes possible. Further, by adding the rotation of the mirror 14, the scan line is changed in the vertical direction by a minute angle, and two-dimensional area scanning becomes possible. When performing a line scan in the vertical direction, the laser scanner 2 may be installed with an inclination of 90 degrees.

前記レーザスキャナ2を使用して対象物までの距離を計測する方法として、例えば時間差計測法と位相差計測法がある。ここでは、時間差計測法の例を、図3を参照して説明する。この方法は、パルスレーザ光の飛行時間(time-of-flight;TOF)を直接計測することにより、対象物までの距離を求める方法である。この計測法では、対象物までの距離D[m]は、計測された時間差Δt[sec]から次式で求められる。   As a method of measuring the distance to the object using the laser scanner 2, there are, for example, a time difference measurement method and a phase difference measurement method. Here, an example of the time difference measurement method will be described with reference to FIG. This method is a method for obtaining the distance to an object by directly measuring the time-of-flight (TOF) of the pulse laser beam. In this measurement method, the distance D [m] to the object is obtained from the measured time difference Δt [sec] by the following equation.

2D=cΔt(ただし、光速度c=3.0×10[m/sec])
時間差計測法を採用する場合、光の速度が速いため、測定精度を上げるには短い時間間隔を正確に計測しなければならない。例えば、測定精度が1mの場合には6.7×10−9sec(=6.7ns)、さらに1cmでは0.067nsの時間分解能を必要とする。なお、この方法の測定精度は原理的に測定距離の大小には依存しないという特性を有する。
2D = cΔt (where light velocity c = 3.0 × 10 2 [m / sec])
When the time difference measurement method is employed, the speed of light is fast, and thus a short time interval must be accurately measured in order to improve measurement accuracy. For example, a time resolution of 6.7 × 10 −9 sec (= 6.7 ns) is required when the measurement accuracy is 1 m, and a time resolution of 0.067 ns is required at 1 cm. Note that the measurement accuracy of this method has a characteristic that it does not depend on the size of the measurement distance in principle.

このような距離計測と、図2で説明した2次元のエリアスキャン機構とを組み合わせることで、路上の対象物を3次元的に計測することが可能となる。このとき、対象物の3次元形状は、高精度な3次元位置情報をもつ点の集合、すなわちレンジポイントとして表されることになる。   Combining such distance measurement with the two-dimensional area scan mechanism described with reference to FIG. 2 enables three-dimensional measurement of an object on the road. At this time, the three-dimensional shape of the object is represented as a set of points having highly accurate three-dimensional position information, that is, range points.

このレンジポイントで駐車車両3を表わした例を図4に示す。図中の無数の点がレンジポイントである。この図から明らかなように、駐車車両3の車体はレンジポイントが密集している部分(集合)として示されており、このような集合を抽出することで、駐車車両3の存在はもとより、車体の大きさ等を判別することができるものである。   An example in which the parked vehicle 3 is represented by this range point is shown in FIG. Innumerable points in the figure are range points. As is apparent from this figure, the vehicle body of the parked vehicle 3 is shown as a portion (set) where the range points are dense. By extracting such a set, the vehicle body as well as the presence of the parked vehicle 3 is shown. Can be determined.

また、駐車車両3の後方(y軸方向)には、レンジポイントが全く現れない領域、すなわち駐車車両3によってレーザ光が遮蔽された領域(影)が存在する。この遮蔽領域を抽出することによっても駐車車両3の有無を容易に判別できるものである。   In addition, behind the parked vehicle 3 (y-axis direction), there is a region where no range point appears, that is, a region (shadow) where the laser beam is shielded by the parked vehicle 3. The presence or absence of the parked vehicle 3 can also be easily determined by extracting this shielding area.

次に、図5のブロック図を参照して、駐車車両検知装置1の構成を説明する。
この装置1は、前記計測車両5に搭載されたコンピュータシステムに設けられており、CPU20とRAM21とモデム等の通信デバイス22と入出力装置23が接続されたバス24に、データ格納部25とプログラム格納部26とを備えて構成されている。
Next, the configuration of the parked vehicle detection device 1 will be described with reference to the block diagram of FIG.
The device 1 is provided in a computer system mounted on the measurement vehicle 5. A data storage unit 25 and a program are connected to a bus 24 to which a CPU 20, a RAM 21, a communication device 22 such as a modem and an input / output device 23 are connected. And a storage unit 26.

前記データ格納部25は、レーザスキャナ2が撮像したデータを格納する撮像データ格納部27と、後述する駐車車両有無判別部36によって判別された駐車車両3の側面データ等を格納する駐車車両データ格納部28と、駐車車両3の計測条件・計測環境等を格納する計測条件格納部29とを備えている。ここで、計測条件格納部29には、例えば、計測の日時・計測時の気象条件・計測車両5の平均速度・設定された閾値などが格納される。   The data storage unit 25 stores an imaging data storage unit 27 that stores data captured by the laser scanner 2, and parked vehicle data storage that stores side data of the parked vehicle 3 determined by the parked vehicle presence / absence determination unit 36 described later. And a measurement condition storage unit 29 for storing the measurement conditions / measurement environment and the like of the parked vehicle 3. Here, the measurement condition storage unit 29 stores, for example, the date and time of measurement, the weather condition at the time of measurement, the average speed of the measurement vehicle 5, the set threshold value, and the like.

前記プログラム格納部26は、メインプログラム32の他、前記レーザスキャナ2が撮像した路上の画像データを受取って前記撮像データ格納部27に格納する撮像データ取得部33と、本発明の要旨である側面データ抽出部34及び遮蔽領域抽出部35と、駐車車両有無判別部36と、駐車車両台数算出部37と、駐車領域占有率演算部38と、例えば、計測車両5のタイヤの回転数等から計測時の速度や距離の条件を取得して前記計測条件格納部29に格納する速度・距離情報取得部39と、算出された駐車車両3の台数や駐車領域占有率等の処理結果を前記入出力装置23のディスプレイ等に出力する処理結果出力部40とを備えている。   The program storage unit 26 receives the image data on the road imaged by the laser scanner 2 in addition to the main program 32, and stores the image data acquisition unit 33 in the imaging data storage unit 27. Measured from the data extraction unit 34, the shielding region extraction unit 35, the parked vehicle presence / absence determination unit 36, the number of parked vehicle units calculation unit 37, the parking region occupancy rate calculation unit 38, and the number of rotations of tires of the measurement vehicle 5, for example The speed / distance information acquisition unit 39 that acquires speed and distance conditions and stores them in the measurement condition storage unit 29, and the input / output of processing results such as the calculated number of parked vehicles 3 and parking area occupancy And a processing result output unit 40 for outputting to a display or the like of the device 23.

前記側面データ抽出部34は、路上の対象物を撮像した撮像データから路上に駐車した駐車車両3の側面データを抽出するものであり、図6に示す構成を備えている。   The side data extraction unit 34 extracts side data of the parked vehicle 3 parked on the road from image data obtained by imaging an object on the road, and has the configuration shown in FIG.

すなわち、この側面データ抽出部34は、取得した撮像データのノイズ除去等の前処理を行う撮像データ前処理部41と、前記撮像データに含まれるレンジポイントの高さの情報(図4のz軸の値)に基いて前記対象物の高さを演算する高さ演算部42と、車両の一般的な車高若しくはタイヤ径の少なくとも何れかに基づいて対象物の高さの閾値を設定する高さ閾値設定部43と、前記駐車車両有無判別部36で判別された駐車車両3の所定台数毎若しくはレーザ光の所定の走査周期毎の高さ情報をランダムに抽出する高さデータ抽出部44と、抽出された複数の高さ情報に基づいて前記設定された閾値を動的に更新する閾値更新部45と、演算した対象物の高さが所定の閾値以上のフレームが所定数連続する場合に、その連続するフレームを駐車車両3の側面データとして出力する側面データ出力部46と、前記移動体の移動速度に基づいて、前記フレームが連続する所定数の基準値を設定する基準フレーム数設定部47とを備えている。   That is, the side data extraction unit 34 includes an imaging data pre-processing unit 41 that performs pre-processing such as noise removal of the acquired imaging data, and information on the height of the range point included in the imaging data (z axis in FIG. 4). A height calculating unit 42 for calculating the height of the object based on the value of the object), and a height for setting a threshold of the height of the object based on at least one of a general vehicle height and a tire diameter of the vehicle A height threshold value setting unit 43, and a height data extracting unit 44 that randomly extracts height information for each predetermined number of parked vehicles 3 or for each predetermined scanning period of laser light determined by the parked vehicle presence / absence determining unit 36. A threshold updating unit 45 that dynamically updates the set threshold based on a plurality of extracted height information, and a predetermined number of frames in which the calculated height of the target object is equal to or greater than the predetermined threshold. Its consecutive frames A side data output unit 46 that outputs the side data of the parked vehicle 3, and a reference frame number setting unit 47 that sets a predetermined number of reference values in which the frames continue based on the moving speed of the moving body. .

ここで、前記撮像データ前処理部41は、主として、前記レーザスキャナ2から取得した撮像データのセンサ座標系の変換及び撮像された対象物の三次元形状の復元と、前記高さ演算部42が演算した車体側面点集合の平滑化の各処理を行うものである。   Here, the imaging data pre-processing unit 41 mainly converts the sensor coordinate system of the imaging data acquired from the laser scanner 2, restores the three-dimensional shape of the imaged object, and the height calculation unit 42. Each process of smoothing the calculated vehicle body side surface point set is performed.

また、前記高さデータ抽出部44は、前記のように高さデータをランダムに抽出して閾値更新部45に送出するものである。これにより、閾値を動的に更新して検知精度の向上を図ることができ、また更新した閾値に基づいて再度側面データの抽出処理を行うことで、側面データの抽出漏れを検証することができる。   Further, the height data extraction unit 44 extracts the height data at random as described above and sends the height data to the threshold update unit 45. As a result, the threshold value can be dynamically updated to improve detection accuracy, and the extraction of side data can be verified by performing the side data extraction process again based on the updated threshold value. .

なお、前記撮像データ前処理部41及び高さ演算部42が行う各処理の詳細については後述する。   The details of each process performed by the imaging data preprocessing unit 41 and the height calculation unit 42 will be described later.

次に、図5に示す前記遮蔽領域抽出部35は、前記撮像データから、対象物によってレーザ光が遮蔽された領域(オクルージョン)を抽出するものである(図4参照)。この遮蔽領域抽出部35は、本実施形態では、前記側面データ抽出部34を補完する機能を備えている。すなわち、対象物が黒色の場合はレーザ光の反射率が極端に低いため、黒色の駐車車両3については側面データを抽出できないおそれがある。そのため、遮蔽領域の抽出による駐車車両3の判別を併用することで、判別精度の向上を図るものである。なお、遮蔽領域抽出部35の機能等は、後に詳しく説明する。   Next, the shielding area extracting unit 35 shown in FIG. 5 extracts an area (occlusion) where the laser beam is shielded by the object from the imaging data (see FIG. 4). In the present embodiment, the shielding area extraction unit 35 has a function of complementing the side data extraction unit 34. That is, when the object is black, the reflectance of the laser light is extremely low, and therefore there is a possibility that side data cannot be extracted for the black parked vehicle 3. Therefore, the discrimination accuracy is improved by using the discrimination of the parked vehicle 3 by extracting the shielding area together. The function and the like of the shielding area extraction unit 35 will be described in detail later.

前記駐車車両有無判別部36は、前記側面データ抽出部34が抽出した駐車車両3の側面データ若しくは遮蔽領域抽出部35が抽出した遮蔽領域データに基づいて、駐車車両3の有無を判別するものである。   The parked vehicle presence / absence discriminating unit 36 discriminates the presence / absence of the parked vehicle 3 based on the side data of the parked vehicle 3 extracted by the side surface data extracting unit 34 or the shielding area data extracted by the shielding area extracting unit 35. is there.

前記駐車車両台数算出部37は、前記駐車車両有無判別部36で判別された駐車車両3の台数をリアルタイムでカウントするものである。   The parked vehicle number calculation unit 37 counts the number of parked vehicles 3 determined by the parked vehicle presence / absence determination unit 36 in real time.

前記駐車領域占有率演算部38は、前記駐車車両有無判別部36で駐車車両3が存在すると判別されたフレームの数を、前記撮像データの総フレーム数で除算することで、駐車可能な領域に占める駐車車両の比率を算出するものである。この占有率の具体的な考え方を図7に示す。   The parking area occupancy rate calculation unit 38 divides the number of frames determined by the parked vehicle presence / absence determination unit 36 that the parked vehicle 3 is present by the total number of frames of the imaging data, so that the parking area can be parked. The ratio of parked vehicles is calculated. A specific concept of this occupation ratio is shown in FIG.

この図において、右下がりの斜線で示すのが駐車車両3によって占有されたフレーム数であり、右上がりの斜線で示すのが計測対象の全フレーム数である。この図から明らかなように、車両の長さの固定値(例えば3m)に駐車車両3の台数を乗じて画一的に算出するのではなく、駐車車両3のフレーム数(すなわち、車両の全長)を基礎とすることで占有率をより正確に算出できるものである。   In this figure, the number of frames occupied by the parked vehicle 3 is indicated by the right-down diagonal line, and the total number of frames to be measured is indicated by the right-up diagonal line. As is apparent from this figure, the fixed value (for example, 3 m) of the vehicle length is not uniformly calculated by multiplying the number of parked vehicles 3, but the number of frames of the parked vehicle 3 (that is, the total length of the vehicle) ) Can be calculated more accurately.

このように、駐車領域における占有率という新たな指標を提供することで、渋滞の解消等の道路行政の種々の課題解決への有効活用が期待できる。   In this way, by providing a new index called the occupation ratio in the parking area, it can be expected to be effectively used for solving various problems in road administration such as elimination of traffic congestion.

上記の各構成要素等は、実際には、コンピュータシステムにインストールされたコンピュータソフトウエアプログラム若しくは1つのプログラム中のサブルーチンである。そして、前記CPU20によってRAM21上に呼び出され実行されることで、この発明の各機能を奏するものである。   Each of the above components is actually a computer software program installed in a computer system or a subroutine in one program. Each function of the present invention is exhibited by being called and executed on the RAM 21 by the CPU 20.

次に、図8〜図10を参照して前記撮像データ前処理部41が行う各処理を説明する。   Next, each process performed by the imaging data pre-processing unit 41 will be described with reference to FIGS.

まず、センサ座標系の変換について説明する。
前記レーザスキャナ2が撮像したデータでは、1つのレンジポイントについて以下の情報を得ることができる。
First, the transformation of the sensor coordinate system will be described.
With the data captured by the laser scanner 2, the following information can be obtained for one range point.

フレーム番号:m(その点が属するフレームの番号;m=1、2、3、L)
スキャン番号:n(フレーム内でのその点の番号;n=1、2、3…165)
点までの距離:r
スイング角:α(一定値;α=0°)
スキャン角:β(−50°≦β≦+20°)
計測時刻:t(n=1の時のみ)
ここで、本実施形態では、対象物を鉛直(縦)方向に走査するラインスキャンを行うようにしており、水平方向の計測角を示す前記スイング角αは0°に固定されている。また、前記スキャン角βは垂直方向の計測角を示している。これらの計測角は、図8に示すように、計測車両5と計測対象である駐車車両3との距離や車高、レーザスキャナ2の設置高さ等を参照して設定される。
Frame number: m (number of the frame to which the point belongs; m = 1, 2, 3, L)
Scan number: n (number of the point in the frame; n = 1, 2, 3,... 165)
Distance to point: r
Swing angle: α (constant value; α = 0 °)
Scan angle: β (−50 ° ≦ β ≦ + 20 °)
Measurement time: t (only when n = 1)
Here, in the present embodiment, a line scan for scanning the object in the vertical (longitudinal) direction is performed, and the swing angle α indicating the measurement angle in the horizontal direction is fixed at 0 °. Further, the scan angle β represents a measurement angle in the vertical direction. As shown in FIG. 8, these measurement angles are set with reference to the distance between the measurement vehicle 5 and the parked vehicle 3 to be measured, the vehicle height, the installation height of the laser scanner 2, and the like.

また本実施形態では、計測車両5が走行しながらレーザスキャナ2で路上の対象物をスキャンしており、レーザスキャナ2の位置が時々刻々と変化している。そのため、「センサ座標系」上の値である「点までの距離r、スイング角α及びスキャン角β」を夫々ワールド座標系に変換してレンジポイントの位置を実空間上で正確に表現する必要がある。このような座標系の変換は図9に示す工程で行う。また、ワールド座標系(p)とセンサ座標系(p’)との関係を図10に示す。   In the present embodiment, the object on the road is scanned by the laser scanner 2 while the measuring vehicle 5 travels, and the position of the laser scanner 2 changes from moment to moment. Therefore, it is necessary to accurately represent the position of the range point in the real space by converting “the distance r to the point, the swing angle α and the scan angle β”, which are values on the “sensor coordinate system”, into the world coordinate system, respectively. There is. Such transformation of the coordinate system is performed in the process shown in FIG. FIG. 10 shows the relationship between the world coordinate system (p) and the sensor coordinate system (p ′).

前記レンジポイントは、全てが特定のスキャンラインに属し、その中でも何番目にスキャンされた点であるかという情報を持っているため、m、nのIDタグが付加される。従って、対象物の三次元形状を以下のように表わすことができる。   Since the range points all belong to a specific scan line and have information indicating the number of points scanned among them, m and n ID tags are added. Therefore, the three-dimensional shape of the object can be expressed as follows.

Figure 0004102885
Figure 0004102885

上記のような座標変換を行うことで、駐車車両3の三次元形状を復元したのが前記した図4の状態である。このような処理は、換言すれば、レーザスキャナで2で取得されたデータは計測点から対象物までの距離情報を有し、極座標系モデルによって記述される。このデータを直交座標系モデルに変換することで、前記三次元形状への復元を行うものである。   The state of FIG. 4 described above restores the three-dimensional shape of the parked vehicle 3 by performing the coordinate conversion as described above. In other words, in this process, the data acquired by the laser scanner 2 has distance information from the measurement point to the object, and is described by a polar coordinate system model. By converting this data into an orthogonal coordinate system model, the three-dimensional shape is restored.

また、この撮像データ前処理部41は、車体側面点集合の平滑化も行う。この平滑化処理は、前記高さ演算部42が作成した後述する高さ曲線について、所定の幅でフィルタ処理を行い、所定の重み係数を適用することで、この高さ曲線に含まれるノイズを除去するものである。   The imaging data preprocessing unit 41 also smoothes the vehicle body side point set. This smoothing process performs filtering processing with a predetermined width on a later-described height curve created by the height calculation unit 42, and applies a predetermined weighting coefficient to reduce noise included in the height curve. To be removed.

次に、前記高さ演算部42が、撮像データに含まれる対象物の高さを演算する工程を詳細に説明する。   Next, the step of calculating the height of the object included in the imaging data by the height calculation unit 42 will be described in detail.

まず、この高さ演算部42は、撮像データから車体側面を示す点の集合(B)を以下の式に従って抽出する。   First, the height calculation unit 42 extracts a set (B) of points indicating the side surface of the vehicle body from the imaging data according to the following expression.

Figure 0004102885
Figure 0004102885

この式では、以下の式で抽出した路面点集合(A)に属さない点のうち、y座標が適当な範囲におさまっているレンジポイントを車体側面点集合(B)に属するとみなしている。なお、次式は遮蔽領域の抽出の際にも用いる。   In this equation, among the points that do not belong to the road surface point set (A) extracted by the following equation, a range point whose y coordinate is within an appropriate range is regarded as belonging to the vehicle body side surface point set (B). Note that the following equation is also used when extracting the shielding area.

Figure 0004102885
Figure 0004102885

また、上記の「適当な範囲」の例を図11に示す。この図では、煩雑さを避けるため、レンジポイントが密集した部分を右上がりの斜線で示し、レンジポイントの密度が小さい部分を左上がりの斜線で示している。この例では、最小値を1.0mの固定値とし、最大値については、ypeakなる奥行き位置を決めてそれよりも1.0m奥までを最大値とした。このypeakは、「前記路面点集合に属さない点集合内において、y軸方向に沿って点の個数のヒストグラムをとり、最初の極大値を与えるy座標」と定義できる。これにより、ypeakは縦列駐車された駐車車両の車体右側付近に存在することになり、車体側面の点集合を正確に抽出することができる。また、レーザスキャナ2の測定精度(0.5m等)を考慮して駐車車両の側面を含む領域を抽出するのが好ましい。なお、この図で、駐車車両の奥側に現れているレンジポイントの密集部分は、ガードレール若しくは建物の壁等の背景と考えられる。 An example of the “appropriate range” is shown in FIG. In this figure, in order to avoid complication, a portion where the range points are dense is indicated by a diagonal line rising to the right, and a portion where the density of the range points is small is indicated by a diagonal line rising to the left. In this example, the minimum value is set to a fixed value of 1.0 m, and the maximum value is set to a depth position of y peak and the maximum value is set to 1.0 m deeper than that. This y peak can be defined as “y-coordinate that takes a histogram of the number of points along the y-axis direction in the point set that does not belong to the road surface point set and gives the first maximum value”. As a result, y peak exists in the vicinity of the vehicle body right side of the parked vehicle parked in parallel, and the point set on the side surface of the vehicle body can be accurately extracted. In addition, it is preferable to extract a region including the side surface of the parked vehicle in consideration of the measurement accuracy (0.5 m or the like) of the laser scanner 2. In this figure, the dense part of the range points appearing on the back side of the parked vehicle is considered to be the background of the guardrail or the wall of the building.

このようにして抽出した車体側面点集合(B)の内の各スキャンラインについて、座標が最大となる点を結ぶことによって図12に示す高さ曲線が得られる。なお、この高さ曲線については、前記撮像データ前処理部41が平滑化フィルタにより高周波ノイズを除去することで車体側面の稜線(輪郭線)を表わす線を取得するようにする。一例として、フィルタの幅は3(前後1近傍)、各重み係数は何れも1に設定する。   The height curve shown in FIG. 12 is obtained by connecting the points having the maximum coordinates for each scan line in the vehicle body side point set (B) extracted in this way. For this height curve, the imaging data pre-processing unit 41 removes high-frequency noise with a smoothing filter to obtain a line representing a ridge line (contour line) on the side surface of the vehicle body. As an example, the filter width is set to 3 (near the front and back 1), and each weighting coefficient is set to 1.

また、この高さ曲線の主変数はスキャンライン番号nであり、次式で表わすことができる。   The main variable of the height curve is a scan line number n, which can be expressed by the following equation.

Figure 0004102885
Figure 0004102885

図12(A)は前記撮像データ前処理部41による平滑化処理前、(B)は平滑化処理後の高さ曲線である。この図に示す撮像データからは、車体側面データが3台分抽出されることが分かる。   FIG. 12A shows a height curve before smoothing processing by the imaging data preprocessing unit 41, and FIG. 12B shows a height curve after smoothing processing. It can be seen from the imaging data shown in this figure that three pieces of vehicle side surface data are extracted.

次に、前記駐車車両有無判別部36が、前記高さ曲線に基づいて駐車車両の有無を判別する工程を詳細に説明する。   Next, the process in which the parked vehicle presence / absence determining unit 36 determines the presence / absence of a parked vehicle based on the height curve will be described in detail.

この駐車車両有無判別部36は、図12に示した高さ曲線に所定の閾値を与えて、高さ曲線の交点から交点までを駐車車両の候補が存在する部分、あるいは存在しない部分と判断するものである。   This parked vehicle presence / absence discriminating unit 36 gives a predetermined threshold to the height curve shown in FIG. 12, and determines from the intersection of the height curve to the intersection as a portion where there is a candidate for the parked vehicle or a portion where it does not exist. Is.

高さ曲線に与える閾値をzthとすると、車両候補の存在判定は次式で表現される。 If the threshold given to the height curve is zth , the vehicle candidate presence determination is expressed by the following equation.

Figure 0004102885
Figure 0004102885

ここで、Eは、第m番目のフレームに駐車車両の候補が存在しているかどうかを表す0/1変数である。1は車両候補が存在することを、0は存在しないことを意味する。 Here, E m is a 0/1 variable indicating whether a candidate for a parked vehicle exists in the m-th frame. 1 means that there is a vehicle candidate and 0 means that it does not exist.

また、閾値zthは、例えば次式で与えることができる。 Further, the threshold value z th can be given by the following equation, for example.

Figure 0004102885
Figure 0004102885

0.5mという固定値は、駐車車両3のタイヤ径よりも高い位置にある車両本体を考慮して前記高さ閾値設定部43が設定したものである。   The fixed value of 0.5 m is set by the height threshold setting unit 43 in consideration of the vehicle main body located at a position higher than the tire diameter of the parked vehicle 3.

前記Eは1本のスキャンラインにのみ関する情報である。そこで、E、E、E、…のシーケンスから、「0111…1110」のように1が連続するパターンを検索する。また、ノイズや突出値の影響を取り除くため、予め「011110」や「100001」のように幅が4以内の1若しくは0は、すべて0若しくは1に変換してEを修正しておく。 Wherein E m is the information concerning only the one scan line. Therefore, a pattern in which 1 continues like “0111... 1110” is searched from the sequence of E 1 , E 2 , E 3 ,. Also, to remove the influence of noise and outliers, 1 or 0 of the width within 4 as previously "011110" and "100001" is kept correct the E m all converted to 0 or 1.

検索されたパターンのうち、「111L111」の幅がF以上であるものを1台の駐車車両と識別する。Fの値は、前記基準フレーム数設定部47が計測車両5の走行速度vに応じて設定するものである。ここでは、長さが2m以上のものを1車両と識別することにし、次式のように与えることにした。 In the search pattern, identified as one of the parked vehicle what width is equal to or greater than F m of "111L111". The value of F m is set by the reference frame number setting unit 47 according to the traveling speed v of the measurement vehicle 5. Here, a vehicle with a length of 2 m or more is identified as one vehicle, and given by the following equation.

Figure 0004102885
Figure 0004102885

このような処理を行うことで、図12(B)に示すように、適切な位置に閾値線を引くことができ、高さ曲線に基づいて駐車車両を正確に識別することができる。   By performing such processing, a threshold line can be drawn at an appropriate position as shown in FIG. 12B, and the parked vehicle can be accurately identified based on the height curve.

以下、この駐車車両検知装置1の詳細な機能を実際の動作と共に、図13を参照して説明する。なお、これらの図のS1〜S12は処理順序を示す符号であり、以下の説明のステップS1〜S12に対応する。   Hereinafter, the detailed function of this parked vehicle detection apparatus 1 is demonstrated with reference to FIG. 13 with an actual operation | movement. In addition, S1-S12 of these figures is a code | symbol which shows a process order, and respond | corresponds to step S1-S12 of the following description.

まず、前記撮像データ取得部33が、レーザスキャナ2が路上を撮像した撮像データを取得して、前記撮像データ格納部27に格納する(ステップS1)。   First, the imaging data acquisition unit 33 acquires imaging data obtained by imaging the road by the laser scanner 2 and stores it in the imaging data storage unit 27 (step S1).

ついで、取得した撮像データについて、前記撮像データ前処理部48が所定の前処理を実行する。具体的には、上記したように「センサ座標系」をワールド座標系に変換し(ステップS2)、図11に示すように、IDタグ付き点集合によって対象物の3次元形状を復元する(ステップS3)。   Next, for the acquired imaging data, the imaging data preprocessing unit 48 executes a predetermined preprocessing. Specifically, as described above, the “sensor coordinate system” is converted into the world coordinate system (step S2), and the three-dimensional shape of the object is restored by the point set with ID tag as shown in FIG. 11 (step S2). S3).

ついで、前記高さ演算部42が車体側面の点集合を抽出する(ステップS4)。抽出した点集合にはノイズが多く含まれていることから、前記撮像データ前処理部48が平滑化処理によってノイズを除去する(ステップS5)。   Next, the height calculator 42 extracts a point set on the side surface of the vehicle body (step S4). Since the extracted point set includes a lot of noise, the imaging data preprocessing unit 48 removes the noise by the smoothing process (step S5).

ついで、前記高さ演算部42が、対象物の高さ曲線を演算すると共に(ステップS6)、前記高さ閾値設定部43が、車高やタイヤ径に基づいて対象物の高さ曲線に対する閾値線(この例では0.5m)を算出する(ステップS7)。この状態で、高さが閾値線よりも大きいフレームを前記側面データ出力部46が抽出して前記駐車車両有無判別部36に送出する(ステップS8)。抽出された高さのデータが車両の候補となる。   Next, the height calculation unit 42 calculates the height curve of the object (step S6), and the height threshold setting unit 43 sets a threshold for the object height curve based on the vehicle height and the tire diameter. A line (0.5 m in this example) is calculated (step S7). In this state, the side data output unit 46 extracts a frame whose height is larger than the threshold line and sends it to the parked vehicle presence / absence determining unit 36 (step S8). The extracted height data is a vehicle candidate.

抽出された高さ(車両候補)のデータを受取った駐車車両有無判別部36は、対象物の高さが閾値線よりも大きい「E=1」フレームが所定数以上連続しているかを判断し、連続していないフレームについては「E=0」に補正する(ステップS9)。補正した結果、「E=1」が所定数連続するフレームを駐車車両3と判別する(ステップS10)。そして、前記駐車車両台数算出部37が、前記駐車車両3と判別された台数をカウントして出力する(ステップS11)。また、前記駐車領域占有率演算部38が、図7に示すように、駐車車両3と判別されたフレームの数に基づいて駐車車両3の占有率を演算する(ステップS12)。 The parked vehicle presence / absence discriminating unit 36 that has received the extracted height (vehicle candidate) data determines whether or not “E m = 1” frames in which the height of the object is greater than the threshold line continue for a predetermined number or more. For non-continuous frames, correction is made to “E m = 0” (step S9). As a result of the correction, a frame in which a predetermined number of “E m = 1” continues is determined as the parked vehicle 3 (step S10). The parked vehicle number calculating section 37 counts and outputs the number of parked vehicles 3 (step S11). Further, as shown in FIG. 7, the parking area occupancy rate calculation unit 38 calculates the occupancy rate of the parked vehicle 3 based on the number of frames determined to be the parked vehicle 3 (step S <b> 12).

次に、前記遮蔽領域抽出部35について説明する。
本の実施形態では、上記したように前記側面データ抽出部34が抽出する側面データと、遮蔽領域抽出部35が抽出するレーザ光の遮蔽エリア(路面点集合)とに基づいて駐車車両3の有無を判別する点に特徴を有している。
Next, the shielding area extraction unit 35 will be described.
In the present embodiment, as described above, the presence / absence of the parked vehicle 3 is determined based on the side data extracted by the side data extraction unit 34 and the shielding area (a set of road surface points) of the laser light extracted by the shielding region extraction unit 35. It has the feature in the point which discriminate | determines.

図14に示すように、この実施形態にかかる遮蔽領域抽出部35は、撮像データ前処理部50と、前記撮像データに含まれるレンジポイントの奥行きの情報(図4のyの値)に基いて前記対象物の奥行きを演算する奥行き演算部51と、車両の全幅に基づいて対象物の奥行きの閾値を設定する奥行き閾値設定部52と、奥行きデータ抽出部53と、閾値更新部54と、演算した対象物の奥行きが所定の閾値以下のフレームが所定数連続する場合に、その連続するフレームを駐車車両3による遮蔽領域として出力する遮蔽領域出力部55と、基準フレーム数設定部56とを備えている。   As shown in FIG. 14, the shielding region extraction unit 35 according to this embodiment is based on the imaging data preprocessing unit 50 and the depth point depth information (value y in FIG. 4) included in the imaging data. A depth calculation unit 51 for calculating the depth of the object, a depth threshold setting unit 52 for setting a threshold of the depth of the object based on the full width of the vehicle, a depth data extraction unit 53, and a threshold update unit 54 When a predetermined number of frames whose depth of the target object is equal to or less than a predetermined threshold continues, a shielding area output unit 55 that outputs the consecutive frames as a shielding area by the parked vehicle 3 and a reference frame number setting unit 56 are provided. ing.

前記奥行き演算部51は、まず、次式によって撮像データから路面を示す点の集合(A)を抽出する。この路面点集合の抽出は、レンジポイントの垂直位置(路面からの高さ)に着目して行う。この例では、駐車車両の前後のタイヤの間(車体の底面)はレーザ光が車体側面よりも奥側に到達することから、タイヤ径よりも高い位置のレンジポイントを基準にするため、高さを0.5mに設定した。この場合も、レーザスキャナ2の測定精度を考慮して路面点集合を抽出する領域を決定するのが好ましい。   The depth calculation unit 51 first extracts a set (A) of points indicating the road surface from the imaging data by the following equation. This road surface point set extraction is performed by paying attention to the vertical position (height from the road surface) of the range point. In this example, the distance between the tires before and after the parked vehicle (the bottom of the vehicle body) reaches the back side of the vehicle body side, so that the height is based on the range point at a position higher than the tire diameter. Was set to 0.5 m. Also in this case, it is preferable to determine a region for extracting a road surface point set in consideration of the measurement accuracy of the laser scanner 2.

Figure 0004102885
Figure 0004102885

次に、抽出した路面点集合から、図15に示す奥行き曲線を作成する。具体的には、抽出した路面点集合の内の各スキャンラインについて、y座標が最大となる点を結ぶことによって得られる。この奥行き曲線はスキャンライン番号nを主変数とし、以下のように表される。   Next, a depth curve shown in FIG. 15 is created from the extracted road surface point set. Specifically, it is obtained by connecting the points with the maximum y coordinate for each scan line in the extracted set of road surface points. This depth curve is expressed as follows, with scanline number n as the main variable.

Figure 0004102885
Figure 0004102885

この奥行き曲線は、レーザスキャナ2から離れた位置の少ないレンジポイントに基づいて作成することになり、ノイズを多く含むことから、前記撮像データ前処理部50によってフィルタをかけて平滑化しておく。具体的には、路面データの分布領域は、レーザによる路面上の可視領域を意味し、その奥行き(y軸)方向の境界は、スキャン毎のyの最大値から構成することができることになる。この奥行き方向の境界線から、平滑化フィルタによって高周波ノイズを除去することで、路上駐車車両による遮蔽部分を表わす奥行き曲線を好適に取得できる。一例として、フィルタの幅は9(前後4近傍)、各重み係数は何れも1に設定した。   This depth curve is created based on a range point with a small position away from the laser scanner 2 and contains a lot of noise. Therefore, the depth curve is smoothed by filtering by the imaging data preprocessing unit 50. Specifically, the road surface data distribution region means a visible region on the road surface by the laser, and the boundary in the depth (y-axis) direction can be configured from the maximum value of y for each scan. By removing high-frequency noise from the boundary line in the depth direction using a smoothing filter, a depth curve representing a shielded portion by a road parked vehicle can be suitably acquired. As an example, the width of the filter is set to 9 (near 4 front and rear), and each weighting factor is set to 1.

これにより図15の奥行き曲線が得られる。図15(A)は前記撮像データ前処理部50による平滑化処理前、(B)は平滑化処理後の奥行き曲線である。この図に示す撮像データからは、遮蔽領域データが3台分抽出されることが分かる。   Thereby, the depth curve of FIG. 15 is obtained. FIG. 15A shows a depth curve before smoothing processing by the imaging data preprocessing unit 50, and FIG. 15B shows a depth curve after smoothing processing. From the imaging data shown in this figure, it can be seen that three pieces of shielding area data are extracted.

また、この状態の遮蔽領域データが前記駐車車両有無判別部36に送出されると、この駐車車両有無判別部36は、図15に示した奥行き曲線に所定の閾値を与えて、奥行き曲線の交点から交点までを駐車車両の候補が存在する部分、あるいは存在しない部分と判断する。   Further, when the shielding area data in this state is sent to the parked vehicle presence / absence determining unit 36, the parked vehicle presence / absence determining unit 36 gives a predetermined threshold to the depth curve shown in FIG. To the intersection is determined to be a portion where a candidate for a parked vehicle exists or a portion where no candidate exists.

奥行き曲線に与える閾値をythとすると、車両候補の存在判定は次式で表現される。なお、この閾値は、前記奥行き閾値設定部52が設定するものである。 When the threshold value that gives the depth curve and y th, presence determination of vehicle candidates are expressed by the following equation. This threshold value is set by the depth threshold value setting unit 52.

Figure 0004102885
Figure 0004102885

ここで、Eは、第m番目のフレームに駐車車両の候補が存在しているかどうかを表す0/1変数である。1は車両候補が存在することを、0は存在しないことを意味する。 Here, E m is a 0/1 variable indicating whether a candidate for a parked vehicle exists in the m-th frame. 1 means that there is a vehicle candidate and 0 means that it does not exist.

また、閾値ythは、例えば次式で与えることができる。 Further, the threshold value y th can be given by the following equation, for example.

Figure 0004102885
Figure 0004102885

このように、駐車車両と識別された若しくは識別される可能性が高いデータに基づいて閾値を設定することで、駐車車両の判別精度を向上させることができる。また、1.5mという固定値は、駐車車両3の全幅が通常3m程度であることを考慮したものである。   Thus, the discrimination accuracy of a parked vehicle can be improved by setting a threshold value based on data that is identified or highly likely to be identified as a parked vehicle. Moreover, the fixed value of 1.5 m takes into consideration that the full width of the parked vehicle 3 is normally about 3 m.

このようにして設定された閾値線(この例では約5.5m)を適用すると共に、第1の実施形態と同様にEを修正することで、図15(B)のように、駐車車両3台分の遮蔽領域を出力することができる。 By applying the threshold line set in this way (about 5.5 m in this example) and correcting Em as in the first embodiment, a parked vehicle as shown in FIG. Three shielding areas can be output.

以下、この実施形態にかかるシステム1の詳細な機能を実際の動作と共に、図16を参照して説明する。なお、これらの図のS13〜S26は処理順序を示す符号であり、以下の説明のステップS13〜S26に対応する。また、上記した第1の実施形態と共通の処理工程は詳細説明を省略する。   Hereinafter, detailed functions of the system 1 according to this embodiment will be described together with actual operations with reference to FIG. Note that S13 to S26 in these figures are codes indicating the processing order and correspond to steps S13 to S26 in the following description. Further, detailed description of the processing steps common to the first embodiment described above is omitted.

まず、前記撮像データ取得部33が撮像データを取得して前記撮像データ格納部27に格納する(ステップS13)。ついで、取得した撮像データについて、前記撮像データ前処理部48が所定の前処理を実行する(ステップS14、S1
5)。
First, the imaging data acquisition unit 33 acquires imaging data and stores it in the imaging data storage unit 27 (step S13). Next, for the acquired imaging data, the imaging data preprocessing unit 48 executes a predetermined preprocessing (steps S14 and S1).
5).

ついで、前記奥行き演算部51が、前記撮像データのレンジポイントの高さ情報に基いて路面点集合(A領域)を抽出する(ステップS16)。また、前記撮像データ前処理部50が路面点情報を平滑化してノイズを除去する(ステップS17)。   Next, the depth calculation unit 51 extracts a set of road surface points (A area) based on the height information of the range points of the imaging data (step S16). Further, the imaging data preprocessing unit 50 smoothes road surface point information and removes noise (step S17).

ついで、前記奥行き演算部51が、対象物の奥行き曲線を演算すると共に(ステップS17)、奥行き閾値設定部52が駐車車両の全幅などに基づいて奥行き曲線の閾値を設定する(ステップS18、S19)。この状態で、奥行きが閾値線よりも小さいフレームを前記遮蔽領域出力部55が抽出して前記駐車車両有無判別部36に送出する(ステップS21)。抽出された高さのデータが車両の候補となる。   Next, the depth calculation unit 51 calculates the depth curve of the object (step S17), and the depth threshold setting unit 52 sets the threshold of the depth curve based on the full width of the parked vehicle (steps S18 and S19). . In this state, the shielding area output unit 55 extracts a frame whose depth is smaller than the threshold line and sends it to the parked vehicle presence / absence determination unit 36 (step S21). The extracted height data is a vehicle candidate.

前記駐車車両有無判別部36は、奥行きが閾値線よりも低いフレームが所定数以上連続しているかを判断し、連続していないフレームについて補正する(ステップS22)。   The parked vehicle presence / absence discriminating unit 36 determines whether or not a predetermined number or more of frames whose depth is lower than the threshold line is continuous, and corrects the frames that are not continuous (step S22).

ついで、抽出された路面点データに基づいて前記駐車車両有無判別部36が、駐車車両3と判別する(ステップS23)。判別した結果に基づいて、前記駐車車両台数算出部37が駐車車両の台数を出力し、前記駐車領域占有率演算部38が駐車車両3の占有率を演算する(ステップS24、S25)。   Next, the parked vehicle presence / absence discriminating unit 36 discriminates the parked vehicle 3 based on the extracted road surface point data (step S23). Based on the determined result, the number of parked vehicle number calculation unit 37 outputs the number of parked vehicles, and the parking area occupancy rate calculation unit 38 calculates the occupancy rate of the parked vehicle 3 (steps S24 and S25).

(本発明の実施形態)
次に、図17乃至図22を参照して、本発明の実施形態を説明する。この実施形態は、ラインスキャンカメラを使用して3次元のエピポーラ平面画像(EPI画像)を取得し、取得した画像データの特徴軌跡の傾きに基づいて駐車車両を判別する点に特徴を有する。
(Embodiment of the present invention)
Next, an embodiment of the present invention will be described with reference to FIGS. This embodiment is characterized in that a three-dimensional epipolar plane image (EPI image) is acquired using a line scan camera, and a parked vehicle is determined based on the inclination of the characteristic locus of the acquired image data.

この実施形態にかかる駐車車両検知装置60は、図17に示すように、路上を走行する計測車両5から路上の対象物を水平方向に複数回ラインスキャンしてエピポーラ平面画像(EPI画像)を取得するラインスキャンカメラ61と、前記対象物のEPI画像を時系列に沿って合成することで水平方向のEPI画像を取得する路上撮像部62と、前記取得したEPI画像から前記対象物に関する一以上の特徴軌跡を抽出する特徴軌跡抽出部63と、抽出した対象物の特徴軌跡の傾きを演算する傾き演算部64と、演算した特徴軌跡の傾きと前記計測車両5の走行速度とに基づいて、計測車両5から対象物までの距離を演算する距離演算部65と、演算した対象物までの距離に基づいて駐車車両3の有無を判別する駐車車両有無判別部66とを備えている。   As shown in FIG. 17, the parked vehicle detection device 60 according to this embodiment acquires an epipolar plane image (EPI image) by performing line scanning of an object on the road a plurality of times in the horizontal direction from the measurement vehicle 5 traveling on the road. A line scan camera 61, a road imaging unit 62 that acquires an EPI image in a horizontal direction by synthesizing EPI images of the object in time series, and at least one of the objects related to the object from the acquired EPI images Based on the characteristic trajectory extraction unit 63 that extracts the characteristic trajectory, the inclination calculation unit 64 that calculates the inclination of the characteristic trajectory of the extracted object, and the measured characteristic trajectory and the traveling speed of the measurement vehicle 5 A distance calculation unit 65 that calculates the distance from the vehicle 5 to the object, and a parked vehicle presence / absence determination unit 66 that determines the presence or absence of the parked vehicle 3 based on the calculated distance to the object. Eteiru.

実際の駐車車両3の画像データを図18(A)に、前記ラインスキャンカメラ61によって取得された画像を図18(B)に、前記特徴軌跡抽出部63や傾き演算部64等によって画像処理した結果を図18(C)に夫々示す。   Image data of the actual parked vehicle 3 is processed in FIG. 18A, and an image acquired by the line scan camera 61 is processed in FIG. 18B by the feature locus extraction unit 63, the inclination calculation unit 64, and the like. The results are shown in FIG.

まず、図18(B)の画像は、縦一列の画像が1ライン分であり、スキャンを繰り返すたびに横に右方向にライン画像を並べていくことで生成される.このことから、左から右へ向かう方向が時間を、縦方向は空間を意味する時空間画像、すなわちエピポーラ平面画像(EPI画像)と考えることができる。   First, the image of FIG. 18B is generated by arranging a line image in the right direction horizontally each time the scanning is repeated. From this, it can be considered that the direction from left to right is time, and the vertical direction is a spatio-temporal image that means space, that is, an epipolar plane image (EPI image).

この画像中には、対象物の特徴点の軌跡67が右下がりの直線として現れている。この画像を処理することで、特徴軌跡(feature path)を抽出し、それらの直線の傾きからその特徴点までの奥行き距離を求めることができる。   In this image, the trajectory 67 of the feature point of the object appears as a straight line descending to the right. By processing this image, a feature path can be extracted and the depth distance from the inclination of the straight line to the feature point can be obtained.

以下に、具体的な画像処理の工程を説明する。   Hereinafter, specific image processing steps will be described.

(前処理工程)
まず、前記時空間画像を、時間方向に一定のライン数ずつ、重複することなく分割する。この各分割画像に対して、Cannyのエッジ検出アルゴズムでエッジを検出することで、図19に示すように2値化する。この図から、直線が鮮明に現れていることが分かる。
(Pretreatment process)
First, the spatiotemporal image is divided by a certain number of lines in the time direction without overlapping. By detecting an edge of each divided image using the Canny edge detection algorithm, the image is binarized as shown in FIG. From this figure, it can be seen that the straight line appears clearly.

(直線抽出工程)
次に、得られた2値化画像中の直線を抽出するために、ハフ変換処理を行う。分割画像中の直線は、図20のように原点Oから直線へ下ろした垂線の足をRとすれば、r=ORと法線ベクトル角度φによって一意に表せる。また、上の分割画像に対してハフ変換を適用して得られたハフ空間像を図21に示す。r=−500、φ=145度付近にピークがあり、これが最も強い特徴軌跡を意味する。したがって分割画像中での特徴軌跡の傾きは、145−90=55°である。
(Linear extraction process)
Next, in order to extract a straight line in the obtained binary image, a Hough transform process is performed. The straight line in the divided image can be uniquely expressed by r = OR and the normal vector angle φ, where R is a perpendicular line drawn from the origin O to the straight line as shown in FIG. FIG. 21 shows a Hough space image obtained by applying the Hough transform to the upper divided image. There is a peak near r = −500 and φ = 145 degrees, which means the strongest feature trajectory. Therefore, the inclination of the feature locus in the divided image is 145−90 = 55 °.

(奥行き計算工程)
抽出された直線の傾きmに対して、それに対応する特徴点までの奥行距離Lが次式にしたがって計算される。
(Depth calculation process)
For the extracted slope m of the straight line, the depth distance L to the corresponding feature point is calculated according to the following equation.

Figure 0004102885
Figure 0004102885

したがって、奥行き距離LとEPI画像中の直線の傾きmは比例する。そこで時間方向に200本ずつのライン数で分割した画像にハフ変換を適用し、各分割画像に対して得られたハフ空間像における最大のピークに対応する直線だけを抽出する。この直線はEPI中の最もエッジの強い特徴軌跡を意味する。このようにして抽出された直線の法線方向の角度φを、分割画像の時系列にしたがってプロットしたものが図18(C)のグラフである。この図から、法線方向角度φ=145°、つまり、EPI中で傾き145−90=55°をもつ特徴軌跡の奥行き距離が最も短いことを分かる。これが駐車車両の奥行き距離に相当する。   Therefore, the depth distance L and the slope m of the straight line in the EPI image are proportional. Therefore, the Hough transform is applied to an image divided by 200 lines in the time direction, and only the straight line corresponding to the maximum peak in the Hough space image obtained for each divided image is extracted. This straight line means the feature locus with the strongest edge in the EPI. FIG. 18C is a graph in which the angle φ in the normal direction of the extracted straight line is plotted according to the time series of the divided images. From this figure, it can be seen that the normal direction angle φ = 145 °, that is, the depth distance of the feature trajectory having the inclination 145-90 = 55 ° in the EPI is the shortest. This corresponds to the depth distance of the parked vehicle.

(閾値設定工程)
EPI画像から抽出された直線の法線方向角度の時間変化は図18(C)のようなグラフとして得られる。また、法線方向角度と奥行距離とが比例することから、駐車車両3の検出には、図18(C)のグラフのように閾値を利用するのが簡便である。このときの閾値φthは次式のように、カメラ(=計測車両)の速度Vと奥行距離Lthに依存することが分かる。
(Threshold setting process)
The time change of the normal direction angle of the straight line extracted from the EPI image is obtained as a graph as shown in FIG. In addition, since the normal direction angle and the depth distance are proportional, it is easy to use the threshold value as shown in the graph of FIG. It can be seen that the threshold φ th at this time depends on the speed V of the camera (= measurement vehicle) and the depth distance L th as shown in the following equation.

Figure 0004102885
Figure 0004102885

なお、計測車両5の速度Vは計測可能であるが、計測車両5と駐車車両3との距離Lthは計測環境、特に道路の車線の幅や計測車両5の横方向運動軌跡に依存するため、その値を特定することは困難である。そこで、車線の幅、駐車車両の例としてセダンタイプの車両の全幅、及び計測車両5の全幅に基づいてLthを算出する工程を図22に示す。 Although the speed V of the measurement vehicle 5 can be measured, the distance L th between the measurement vehicle 5 and the parked vehicle 3 depends on the measurement environment, particularly the width of the road lane and the lateral movement locus of the measurement vehicle 5. It is difficult to specify its value. Accordingly, it is shown lane width, full width sedan type of vehicle as an example of the parked vehicle, and a step of calculating the L th based on the entire width of the measuring vehicle 5 in FIG. 22.

(正規化)
この例では、分割画像のサイズは約1:7の縦横比を持つ画像としているため、同程度に強いエッジを持つ直線であっても、縦の直線の長さは横に比してかなり短くなる。そこで、抽出における直線の強さの指標をその直線の長さに対する相対的な強さとして扱って正規化している。これにより、ノイズを低減できる。
(Normalization)
In this example, since the size of the divided image is an image having an aspect ratio of about 1: 7, the length of the vertical straight line is considerably shorter than the horizontal even for a straight line having a similarly strong edge. Become. Therefore, the index of the strength of the straight line in the extraction is normalized as a relative strength with respect to the length of the straight line. Thereby, noise can be reduced.

(実施形態の効果)
上記した各実施形態によれば、以下のような効果を得ることができる。
(Effect of embodiment)
According to each embodiment described above, the following effects can be obtained.

1)路上の対象物を撮像したデータから駐車車両の側面データを抽出する側面データ抽出工程と、前記抽出した側面データに基づいて、駐車車両の有無を判別する駐車車両有無判別工程と、路上を走行する車両から前記対象物にレーザ光を走査しながら送出し、その反射レーザ光を検出することで前記対象物の撮像データを取得する路上撮像工程を実行するようにした。これにより、撮像データから抽出した駐車車両の側面データに基づいて駐車車両の有無を判別することができるようになる。また、側面データを参照することで、駐車車両の整列状況による影響が少なく、検知精度を向上させることができる。さらに、レーザ光で走査することで、天候や影、屋外光などの影響を受けずに撮像データを取得することができる。この方法では、対象物までの距離を直接計測できるため、取得したデータの解析に要するコスト及び時間を低減できる。さらに、レーザ光を反射したレンジポイントの密度が高い車体の側面を参照することになるので、ノイズの影響を最小限に抑えることができ、検知精度をより向上させることができる。   1) A side data extraction step for extracting side data of a parked vehicle from data obtained by imaging an object on the road, a parked vehicle presence / absence determination step for determining the presence / absence of a parked vehicle based on the extracted side data, A road imaging process is performed in which a laser beam is transmitted from a traveling vehicle to the object while scanning and the reflected laser beam is detected to acquire imaging data of the object. Thereby, the presence or absence of the parked vehicle can be determined based on the side data of the parked vehicle extracted from the imaging data. Further, by referring to the side data, there is little influence due to the alignment state of the parked vehicles, and the detection accuracy can be improved. Furthermore, by scanning with laser light, it is possible to acquire imaging data without being affected by weather, shadows, outdoor light, and the like. In this method, since the distance to the object can be directly measured, the cost and time required for analyzing the acquired data can be reduced. Furthermore, since the side of the vehicle body having a high density of range points reflecting the laser beam is referred to, the influence of noise can be minimized, and the detection accuracy can be further improved.

2)前記駐車車両有無判別工程で判別された駐車車両の台数をカウントして出力する駐車車両台数算出工程を実行することで、レーザ光による撮像データを取得しながら、駐車車両の台数をカウントすることができるようになる。   2) Counting the number of parked vehicles while acquiring imaging data by laser light by executing the parked vehicle number calculating step of counting and outputting the number of parked vehicles determined in the parked vehicle presence / absence determining step Will be able to.

3)前記路上撮像工程で、前記レーザ光を水平方向に走査し、このレーザ光を、撮像データの各フレームに属するスキャンラインとそれに連続する1以上のフレームに属するスキャンラインとをオーバーラップさせて走査したり、さらに、前記レーザ光を路上の対象物に対して水平方向に複数回走査することで、対象物までの距離の情報を有するエピポーラ平面距離画像データを取得するようにした。これにより、ラインスキャンによって駐車車両の判別に有益な撮像データを得ることができる。   3) In the road imaging step, the laser beam is scanned in the horizontal direction, and the scan line belonging to each frame of the imaging data is overlapped with the scan line belonging to one or more consecutive frames. Epipolar plane distance image data having information on the distance to the object is obtained by scanning or further scanning the object on the road with the laser beam a plurality of times in the horizontal direction. Thereby, imaging data useful for discrimination of a parked vehicle can be obtained by line scanning.

4)前記路上撮像工程で、レーザ光の送出から反射光の検出までの時間差若しくは照射したレーザ光と検出した反射光との位相差に基づいて、路上の対象物までの距離データを有する撮像データを取得することにより、取得した撮像データに基づいて車両の側面データを確実に抽出することができる。   4) Imaging data having distance data to an object on the road based on the time difference from the transmission of the laser light to the detection of the reflected light or the phase difference between the irradiated laser light and the detected reflected light in the road imaging step. By acquiring the vehicle side data, the vehicle side data can be reliably extracted based on the acquired imaging data.

5)前記側面データ抽出工程で、前記撮像データに含まれるレンジポイントの高さの情報に基いて前記対象物の高さを演算する高さ演算工程と、演算した対象物の高さが所定の閾値以上のフレームを駐車車両の側面データとして出力する側面データ出力工程とを実行するようにした。また、前記側面データ抽出工程で、車両の車高に基づいて対象物の高さの閾値を設定する高さ閾値設定工程を実行することにした。また、前記高さ閾値設定工程において、前記駐車車両有無判別工程で判別された駐車車両の所定台数毎若しくはレーザ光の所定の走査周期毎の高さ情報を抽出する高さ情報抽出工程と、抽出された複数の高さ情報に基づいて前記設定された閾値を更新する閾値更新工程とを実行するようにした。さらに、前記側面データ出力工程で、対象物の高さが所定の閾値以上のフレームが所定数連続する場合に、その連続するフレームを駐車車両の側面データとして出力するようにした。このような構成により、撮像データから側面データを抽出する際の閾値を適切な値に設定・更新できる。   5) In the side surface data extraction step, a height calculation step of calculating the height of the target object based on information on the height of the range point included in the imaging data, and the calculated height of the target object is predetermined. A side data output step of outputting a frame equal to or greater than the threshold value as side data of the parked vehicle is executed. Further, in the side surface data extraction step, a height threshold value setting step for setting a threshold value of the height of the object based on the vehicle height of the vehicle is executed. Further, in the height threshold value setting step, a height information extracting step for extracting height information for each predetermined number of parked vehicles or for each predetermined scanning period of the laser beam determined in the parked vehicle presence / absence determining step, and extraction And a threshold updating step for updating the set threshold based on the plurality of height information. Further, in the side data output step, when a predetermined number of frames having an object height equal to or higher than a predetermined threshold value continue, the continuous frames are output as side data of the parked vehicle. With such a configuration, it is possible to set / update a threshold value when extracting side surface data from imaging data to an appropriate value.

6)前記側面データ抽出工程で、前記撮像データに含まれるレンジポイントの奥行きの情報に基いて前記対象物の奥行きを演算する奥行き演算工程と、演算した対象物の奥行きが所定の閾値以下であるフレームを駐車車両の側面データとして出力する側面データ出力工程を実行するようにした。また、この側面データ出力工程で、車両の全幅に基づいて対象物の奥行きの閾値を設定する奥行き閾値設定工程を実行したり、対象物の奥行きが所定の閾値以下のフレームが所定数連続する場合に、その連続するフレームを駐車車両の側面データとして出力するようにしたり、前記車両の移動速度に基づいて、前記フレームが連続する所定数の基準値を設定する基準フレーム数設定工程を実行するようにした。また、前記奥行き閾値設定工程において、前記駐車車両有無判別工程で判別された駐車車両の所定台数毎若しくはレーザ光の所定の走査周期毎の奥行き情報を抽出する奥行き情報抽出工程と、抽出された複数の奥行き情報に基づいて前記設定された閾値を更新する閾値更新工程とを実行するようにした。このような構成により、撮像データに含まれる奥行きの情報に基づいて、この撮像データかた側面データを抽出することができる。   6) A depth calculation step of calculating the depth of the object based on the depth information of the range point included in the imaging data in the side surface data extraction step, and the calculated depth of the object is equal to or less than a predetermined threshold value. The side data output process for outputting the frame as side data of the parked vehicle is executed. Also, in this side surface data output step, a depth threshold setting step for setting a depth threshold of an object based on the full width of the vehicle is executed, or a predetermined number of frames having a depth of the object equal to or less than a predetermined threshold are consecutive In addition, the continuous frame is output as the side data of the parked vehicle, or the reference frame number setting step of setting a predetermined number of reference values in which the frame continues is executed based on the moving speed of the vehicle. I made it. Further, in the depth threshold setting step, a depth information extracting step for extracting depth information for each predetermined number of parked vehicles or for each predetermined scanning period of the laser light determined in the parked vehicle presence / absence determining step, and a plurality of extracted And a threshold value updating step for updating the set threshold value based on the depth information. With such a configuration, it is possible to extract side surface data from this imaging data based on depth information included in the imaging data.

7)前記撮像データから、対象物によってレーザ光が遮蔽された領域(オクルージョン)を抽出する遮蔽領域抽出工程をさらに実行し、前記駐車車両有無判別工程で、前記抽出された駐車車両の側面データ若しくは遮蔽領域データの少なくとも何れかに基づいて駐車車両の有無を判別することにより、側面データの抽出が困難な場合でも遮蔽領域に基づいて駐車車両を判別することができる。   7) further executing a shielding region extraction step of extracting a region (occlusion) where the laser beam is shielded by the object from the imaging data, and in the parking vehicle presence / absence determination step, the extracted side data of the parked vehicle or By determining the presence / absence of a parked vehicle based on at least one of the shielding area data, the parked vehicle can be identified based on the shielding area even when it is difficult to extract side data.

8)前記駐車車両有無判別工程で駐車車両が存在すると判別されたフレームの数を、前記撮像データの総フレーム数で除算し、駐車可能な領域に占める駐車車両の比率を算出する駐車領域占有率演算工程を実行することにより、駐車車両の規制等に有益で客観的な情報を提供することができる。   8) A parking area occupancy ratio in which the number of frames determined to have a parked vehicle in the parked vehicle presence / absence determining step is divided by the total number of frames of the imaging data to calculate the ratio of the parked vehicle in the parking area By executing the calculation step, it is possible to provide objective information that is useful for the regulation of parked vehicles.

9)路上を走行する計測車両に搭載される駐車車両検知装置を、前記対象物にレーザ光を照射し、対象物から反射されたレーザ光を受信して撮像データを取得する路上撮像部と、取得した撮像データから駐車車両の側面データを抽出する側面データ抽出部と、抽出された側面データに基づいて駐車車両の有無を判別する駐車車両有無判別部と、判別された駐車車両の台数をカウントして出力する駐車車両カウント部とで構成した。これにより、撮像データの取得や駐車車両の判別及び判別した駐車車両のカウントの各処理を、計測車両で走行しながらリアルタイムで行うことができる。   9) A parking vehicle detection device mounted on a measurement vehicle that travels on the road, a road imaging unit that irradiates the object with laser light, receives laser light reflected from the object, and acquires imaging data; A side data extraction unit that extracts side data of a parked vehicle from the acquired imaging data, a parked vehicle presence / absence judgment unit that discriminates the presence or absence of a parked vehicle based on the extracted side data, and counts the number of parked vehicles And a parked vehicle count unit for outputting. Thereby, each process of acquisition of imaging data, discrimination | determination of a parked vehicle, and count of the discriminate | determined parked vehicle can be performed in real time, drive | working with a measurement vehicle.

なお、この発明は上記した各実施形態に限定されるものではなく、発明の要旨を変更しない範囲で種々変形可能である。   In addition, this invention is not limited to each above-mentioned embodiment, A various deformation | transformation is possible in the range which does not change the summary of invention.

例えば、上記実施形態においては、計測車両5に搭載した駐車車両検知装置1を搭載し、路上を走行しながらリアルタイムで駐車車両3を検知するようにしたがこれに限定されない。例えば、計測車両5にはレーザスキャナ2と撮像データ格納部27だけを搭載し、取得した撮像データを後刻一括して処理するようにしても良い。これにより、計測車両5に搭載する機器を簡素化できると共に、撮像データの処理速度を考慮して計測車両5の走行速度を加減する必要がない。   For example, in the above-described embodiment, the parked vehicle detection device 1 mounted on the measurement vehicle 5 is mounted and the parked vehicle 3 is detected in real time while traveling on the road. However, the present invention is not limited to this. For example, the measurement vehicle 5 may be equipped with only the laser scanner 2 and the imaging data storage unit 27, and the acquired imaging data may be processed collectively at a later time. As a result, the equipment mounted on the measurement vehicle 5 can be simplified, and it is not necessary to increase or decrease the traveling speed of the measurement vehicle 5 in consideration of the processing speed of the imaging data.

また、レーザスキャナ2が取得した撮像データを情報処理センタのサーバに随時送信して、複数の計測車両5が取得した撮像データを集中的に処理するようにしても良い。   Moreover, the imaging data acquired by the laser scanner 2 may be transmitted to the server of the information processing center as needed to process the imaging data acquired by the plurality of measurement vehicles 5 in a concentrated manner.

また、本発明は路上の駐車車両3の検知に限らず、種々の駐車場における駐車車両3の検知にも適用できる。また、レーザスキャナ等を搭載する移動体も計測車両5に限らず、駐車場や特定の道路の路側等の所定のエリアに予め敷設された軌道上で移動可能な計測装置でも良い。この場合は、計測装置を所定の周期で移動させてエリア内の駐車車両を定期的に検知するようにするのが好ましい。   Moreover, this invention is applicable not only to the detection of the parked vehicle 3 on a road but to the detection of the parked vehicle 3 in various parking lots. In addition, the moving body on which the laser scanner or the like is mounted is not limited to the measuring vehicle 5, and may be a measuring device that can move on a track previously laid in a predetermined area such as a parking lot or a roadside of a specific road. In this case, it is preferable to periodically detect parked vehicles in the area by moving the measuring device at a predetermined cycle.

さらに、撮像データを取得するセンサの種類や撮像データの解析方法、アルゴリズム等は上記した例に限定されず、種々変更可能である。レーザスキャナの走査方向も、鉛直方向・水平方向・斜め方向の何れでも良い。   Furthermore, the type of sensor that acquires the imaging data, the analysis method of the imaging data, the algorithm, and the like are not limited to the above-described examples, and can be variously changed. The scanning direction of the laser scanner may be any of a vertical direction, a horizontal direction, and an oblique direction.

また、計測車両5が非等速で走行した場合でも、GPS(global positioning system)やINS(inertial navigational system「慣性航法装置)を用いて計測車両5(レーザスキャナ2等)の自己位置を同時に記録することで、検知精度を維持することができる。   Even when the measuring vehicle 5 travels at a non-constant speed, the self-position of the measuring vehicle 5 (laser scanner 2 or the like) is simultaneously recorded using GPS (global positioning system) or INS (inertial navigational system). By doing so, the detection accuracy can be maintained.

また、上記した参考実施形態のレーザスキャナ2を使用して、本発明の実施形態のようなEPI画像を取得することも可能である。例えば、図23に示すように、水平方向のスキャンラインをラインスキャンカメラのように時間軸に沿って層のように縦方向に並べる(図23(a))。この層を走行速度に応じて横にスライドさせたのが図23(b)である。これを平面状に投射すると図23(c)(d)の画像になる。この図から、4台の駐車車両が存在することがわかる。この手法では、(b)の画像を導く再の処理にEPI解析の手法を応用することで、レーザスキャナ(計測車両)の移動速度が未知の場合であっても、適切な位置併せを行うことができるものである。   It is also possible to acquire an EPI image as in the embodiment of the present invention by using the laser scanner 2 of the reference embodiment described above. For example, as shown in FIG. 23, horizontal scan lines are arranged vertically like layers along the time axis like a line scan camera (FIG. 23A). FIG. 23 (b) shows that this layer is slid horizontally according to the traveling speed. When this is projected onto a plane, the images shown in FIGS. From this figure, it can be seen that there are four parked vehicles. In this method, by applying the EPI analysis method to the re-processing to derive the image of (b), even if the moving speed of the laser scanner (measurement vehicle) is unknown, appropriate alignment is performed. It is something that can be done.

以下に、上記実施形態として説明した駐車車両検知装置を使用して行った駐車車両の検知結果について説明する。   Below, the detection result of the parked vehicle performed using the parked vehicle detection apparatus demonstrated as the said embodiment is demonstrated.

(実施例1)
まず、計測車両に搭載したレーザスキャナが撮像したデータから車両の側面データ若しくは遮蔽領域を抽出して駐車車両の有無を判別した例を説明する。
(Example 1)
First, an example in which the presence or absence of a parked vehicle is determined by extracting vehicle side data or a shielding area from data captured by a laser scanner mounted on a measurement vehicle will be described.

計測条件を図24に、計測結果を図25に夫々示す。
これらの図から明らかなように、走行する計測車両に搭載したレーザスキャナで撮像したデータから、駐車車両の存在を正確に判別することができている。また、レーザスキャナによる撮像データの解析に要する時間がわずか数秒であることを考えると、高速で走行しながら、路側の駐車車両を判別してリアルタイムでカウントすることが可能であることが容易に理解できる。さらに、車体側面データを抽出する方法と、遮蔽領域を抽出する方法の何れにおいても、良好な計測結果が得られた。
FIG. 24 shows the measurement conditions, and FIG. 25 shows the measurement results.
As is apparent from these drawings, the presence of the parked vehicle can be accurately determined from the data captured by the laser scanner mounted on the traveling measurement vehicle. In addition, considering that it takes only a few seconds to analyze the image data captured by the laser scanner, it is easy to understand that it is possible to discriminate parked vehicles on the roadside and count in real time while traveling at high speed. it can. Furthermore, good measurement results were obtained both in the method of extracting the vehicle side surface data and the method of extracting the shielding area.

(実施例2)
次に、計測車両に搭載したラインスキャンカメラが撮像したEPI画像から車両の特徴軌跡を抽出し、その傾きによって駐車車両の有無を判別した例を説明する。
(Example 2)
Next, an example will be described in which a feature trajectory of a vehicle is extracted from an EPI image captured by a line scan camera mounted on a measurement vehicle, and the presence / absence of a parked vehicle is determined based on its inclination.

計測条件を図26に、計測結果を図27に夫々示す。
これらの図から理解できるように、駐車車両はほぼ全数を検出できたが、一方で誤検出した台数も若干あった。走行速度による精度の相違は認められなかった。
FIG. 26 shows the measurement conditions, and FIG. 27 shows the measurement results.
As can be understood from these figures, almost all of the parked vehicles were detected, but there were some that were erroneously detected. There was no difference in accuracy depending on the running speed.

誤検出の原因としては、例えば、駐車車両からの反射光や駐車車両への周囲の映り込み、及び特殊構造の駐車車両などが挙げられる。これらの原因に対しては、レンズにフードを装着したり、円偏向フィルタを利用したり、複数のラインスキャンカメラを使用することによって何れも容易に除去することができるものであった。   Causes of erroneous detection include, for example, reflected light from a parked vehicle, reflection in the surroundings of the parked vehicle, and a parked vehicle having a special structure. These causes can be easily removed by attaching a hood to the lens, using a circular deflection filter, or using a plurality of line scan cameras.

本発明の参考となる実施形態にかかる駐車車両検知システムの概略説明図。BRIEF DESCRIPTION OF THE DRAWINGS Schematic explanatory drawing of the parked vehicle detection system concerning embodiment used as the reference of this invention. レーザスキャナの概略構成図。The schematic block diagram of a laser scanner. 時間差計測法を説明するための図。The figure for demonstrating the time difference measuring method. レンジポイントで駐車車両を表わした図。The figure showing the parked vehicle by the range point. 駐車車両検知装置の概略構成を示すブロック図。The block diagram which shows schematic structure of a parked vehicle detection apparatus. 側面データ抽出部の概略構成を示す図。The figure which shows schematic structure of a side data extraction part. 駐車領域占有率の考え方を説明するための図。The figure for demonstrating the idea of a parking area occupation rate. スキャン角β(垂直方向の計測角)を示す図。The figure which shows scan angle (beta) (measurement angle of a perpendicular direction). 座標系の変換工程を示す図。The figure which shows the conversion process of a coordinate system. ワールド座標系(p)とセンサ座標系(p’)との関係を示す図。The figure which shows the relationship between a world coordinate system (p) and a sensor coordinate system (p '). 車両側面を示すレンジポイントを示す図。The figure which shows the range point which shows a vehicle side surface. 対象物の高さデータとフレームとから作成した高さ曲線のグラフ。Graph of height curve created from object height data and frame. 車体側面データを抽出して駐車車両を判別する工程を示すフローチャート。The flowchart which shows the process of extracting vehicle body side data and discriminating a parked vehicle. 遮蔽領域抽出部の概略構成を示す図。The figure which shows schematic structure of a shielding area extraction part. 抽出した路面点集合から作成した奥行き曲線のグラフ。Depth curve graph created from extracted road surface point set. 遮蔽領域を抽出して駐車車両を判別する工程を示すフローチャート。The flowchart which shows the process of extracting a shielding area and discriminating a parked vehicle. 本発明の一実施形態にかかる駐車車両検知システムの概略構成を示す図。The figure which shows schematic structure of the parked vehicle detection system concerning one Embodiment of this invention. ラインスキャンカメラによる駐車車両の撮影画面と、特徴軌跡と、解析結果をそれぞれ示す図。The figure which each shows the imaging | photography screen of a parked vehicle by a line scan camera, a characteristic locus | trajectory, and an analysis result. 時空間画像を分割した後の分割画像を2値化した状態を示す図。The figure which shows the state which binarized the divided image after dividing a spatiotemporal image. 原点からの特徴軌跡までの距離と法線の傾きとの関係を説明する図。The figure explaining the relationship between the distance from the origin to the feature locus and the slope of the normal. ハフ空間像を示す図。The figure which shows a Hough space image. 閾値を設定する工程を示す図。The figure which shows the process of setting a threshold value. レーザスキャナを使用して、第3の実施形態のようなEPI画像を取得する例を示す図。The figure which shows the example which acquires an EPI image like 3rd Embodiment using a laser scanner. 実施例1における計測条件を示す表図。3 is a table showing measurement conditions in Example 1. FIG. 実施例1における計測結果を示す図。FIG. 6 is a diagram showing measurement results in Example 1. 実施例2における計測条件を示す表図。FIG. 6 is a table showing measurement conditions in Example 2. 実施例2における計測結果を示す図。The figure which shows the measurement result in Example 2. FIG.

符号の説明Explanation of symbols

1…駐車車両検知装置
2…レーザスキャナ
3…駐車車両
4…道路
5…計測車両
25…データ格納部
26…プログラム格納部
27…撮像データ格納部
28…駐車車両データ格納部
29…計測条件格納部
32…メインプログラム
33…撮像データ取得部
34…側面データ抽出部
35…遮蔽領域抽出部
36…駐車車両有無判別部
37…駐車車両台数算出部
38…駐車領域占有率演算部
39…速度・距離情報取得部
40…処理結果出力部
41…撮像データ前処理部
42…高さ演算部
43…高さ閾値設定部
44…高さデータ抽出部
45…閾値更新部
46…側面データ出力部
47…基準フレーム数設定部
48…撮像データ前処理部
50…撮像データ前処理部
51…奥行き演算部
52…奥行き閾値設定部
53…奥行きデータ抽出部
54…閾値更新部
55…遮蔽領域出力部
56…基準フレーム数設定部
60…駐車車両検知装置
61…ラインスキャンカメラ
62…路上撮像部
63…特徴軌跡抽出部
64…傾き演算部
65…距離演算部
66…駐車車両有無判別部
67…特徴軌跡
DESCRIPTION OF SYMBOLS 1 ... Parked vehicle detection apparatus 2 ... Laser scanner 3 ... Parked vehicle 4 ... Road 5 ... Measurement vehicle 25 ... Data storage part 26 ... Program storage part 27 ... Imaging data storage part 28 ... Parked vehicle data storage part 29 ... Measurement condition storage part 32 ... Main program 33 ... Imaging data acquisition unit 34 ... Side surface data extraction unit 35 ... Shielded region extraction unit 36 ... Parked vehicle presence / absence determination unit 37 ... Number of parked vehicle number calculation unit 38 ... Parking region occupancy rate calculation unit 39 ... Speed / distance information Acquisition unit 40 ... processing result output unit 41 ... imaging data pre-processing unit 42 ... height calculation unit 43 ... height threshold setting unit 44 ... height data extraction unit 45 ... threshold update unit 46 ... side data output unit 47 ... reference frame Number setting unit 48 ... Imaging data pre-processing unit 50 ... Imaging data pre-processing unit 51 ... Depth calculation unit 52 ... Depth threshold setting unit 53 ... Depth data extraction unit 54 ... threshold update unit 55 ... shielded area output unit 56 ... reference frame number setting unit 60 ... parked vehicle detection device 61 ... line scan camera 62 ... road imaging unit 63 ... characteristic locus extraction unit 64 ... tilt calculation unit 65 ... distance calculation unit 66 ... Parking vehicle presence / absence discriminator 67 ... Feature trajectory

Claims (2)

路上を走行する計測車両に搭載されたラインスキャンカメラで路上の対象物を水平方向に複数回ラインスキャンして得られた複数のライン画像を時系列に沿って合成して、時間と空間の成分を有するエピポーラ平面画像(EPI画像)を取得する工程と、
前記ライン画像における対象物の一以上の特徴点の位置を時系列で結んだ1以上の直線を前記EPI画像における当該対象物一以上の特徴軌跡として抽出する工程と、
前記EPI画像における時間と空間の成分を座標軸とする座標上で、前記抽出した特徴軌跡の傾きを演算する工程と、
演算した特徴軌跡の傾きと前記計測車両の移動速度とに基づいて、対象物の特徴点までの奥行き距離を以下の式に従って演算する工程と、

Figure 0004102885

演算した対象物の特徴点までの奥行き距離を所定の閾値と比較することで駐車車両の有無を判別する工程と
を備えたことを特徴とする駐車車両検知方法。
Time and space components are synthesized in time series by combining multiple line images obtained by multiple line scans of an object on the road in the horizontal direction with a line scan camera mounted on a measurement vehicle traveling on the road. Obtaining an epipolar plane image (EPI image) having:
Extracting one or more straight lines connecting the positions of one or more feature points of the object in the line image in time series as one or more feature trajectories of the object in the EPI image;
Calculating an inclination of the extracted feature trajectory on coordinates having time and space components in the EPI image as coordinate axes ;
A step of calculating a depth distance to the feature point of the object according to the following formula based on the calculated inclination of the feature trajectory and the moving speed of the measurement vehicle ;

Figure 0004102885

And a step of determining the presence or absence of the parked vehicle by comparing the calculated depth distance to the feature point with a predetermined threshold .
路上を走行する計測車両に搭載されたラインスキャンカメラが、路上の対象物を水平方向に複数回ラインスキャンした複数のライン画像を取得する画像データ取得部と、
前記対象物の複数のライン画像を時系列に沿って合成することで水平方向のエピポーラ平面画像(EPI画像を取得する路上撮像部と、
前記ライン画像における対象物の一以上の特徴点の位置を時系列で結んだ1以上の直線を前記EPI画像における当該対象物一以上の特徴軌跡として抽出する特徴軌跡抽出部と、
前記EPI画像における時間と空間の成分を座標軸とする座標上で、前記抽出した特徴軌跡の傾きを演算する傾き演算部と、
演算した特徴軌跡の傾きと前記計測車両の移動速度とに基づいて、対象物の特徴点までの奥行き距離を以下の式に従って演算する距離演算部と、

Figure 0004102885

演算した対象物の特徴点までの奥行き距離を所定の閾値と比較することで駐車車両の有無を判別する駐車車両有無判別部と
を備えたことを特徴とする駐車車両検知システム。
An image data acquisition unit that acquires a plurality of line images obtained by scanning a target object on the road a plurality of times in a horizontal direction by a line scan camera mounted on a measurement vehicle traveling on the road;
A road imaging unit that acquires a horizontal epipolar plane image ( EPI image ) by synthesizing a plurality of line images of the object along a time series;
A feature trajectory extraction unit that extracts one or more straight lines connecting the positions of one or more feature points of the object in the line image in time series as one or more feature trajectories of the object in the EPI image;
An inclination calculation unit for calculating an inclination of the extracted feature locus on coordinates having time and space components in the EPI image as coordinate axes ;
A distance calculation unit that calculates the depth distance to the feature point of the target object according to the following formula based on the calculated inclination of the characteristic locus and the moving speed of the measurement vehicle ;

Figure 0004102885

A parked vehicle detection system, comprising: a parked vehicle presence / absence determining unit that determines the presence / absence of a parked vehicle by comparing the calculated depth distance to a feature point with a predetermined threshold .
JP2005206656A 2005-07-15 2005-07-15 Parked vehicle detection method and parked vehicle detection system Expired - Lifetime JP4102885B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005206656A JP4102885B2 (en) 2005-07-15 2005-07-15 Parked vehicle detection method and parked vehicle detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005206656A JP4102885B2 (en) 2005-07-15 2005-07-15 Parked vehicle detection method and parked vehicle detection system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002174204A Division JP3740531B2 (en) 2002-06-14 2002-06-14 Parked vehicle detection method, detection system, and parked vehicle detection device

Publications (2)

Publication Number Publication Date
JP2006012178A JP2006012178A (en) 2006-01-12
JP4102885B2 true JP4102885B2 (en) 2008-06-18

Family

ID=35779284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005206656A Expired - Lifetime JP4102885B2 (en) 2005-07-15 2005-07-15 Parked vehicle detection method and parked vehicle detection system

Country Status (1)

Country Link
JP (1) JP4102885B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100843085B1 (en) * 2006-06-20 2008-07-02 삼성전자주식회사 Method of building gridmap in mobile robot and method of cell decomposition using it
JP5267785B2 (en) * 2008-09-01 2013-08-21 株式会社Ihi Laser radar and boundary monitoring method using laser radar
JP5462662B2 (en) * 2010-02-25 2014-04-02 キヤノン株式会社 Position / orientation measurement apparatus, object identification apparatus, position / orientation measurement method, and program
JP6324968B2 (en) * 2012-09-20 2018-05-16 ウェイモ エルエルシー Road weather condition detection
JP6184237B2 (en) * 2013-08-07 2017-08-23 株式会社東芝 Three-dimensional data processing apparatus, processing method thereof, and processing program thereof
US10192122B2 (en) 2014-08-21 2019-01-29 Mitsubishi Electric Corporation Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program
CN108140309B (en) 2015-11-20 2020-12-08 三菱电机株式会社 Driving support device, driving support system, and driving support method
CN106228835B (en) * 2016-07-18 2019-04-26 北京精英智通科技股份有限公司 A kind of parking stall Parking judgment method and system
JP6798264B2 (en) * 2016-11-14 2020-12-09 住友ゴム工業株式会社 Tire performance evaluation method
CN107134147B (en) * 2017-07-03 2023-04-07 智慧互通科技股份有限公司 Method, device and system for managing parking spaces under pole based on camera and sensor

Also Published As

Publication number Publication date
JP2006012178A (en) 2006-01-12

Similar Documents

Publication Publication Date Title
JP4102885B2 (en) Parked vehicle detection method and parked vehicle detection system
US11320833B2 (en) Data processing method, apparatus and terminal
US9330320B2 (en) Object detection apparatus, object detection method, object detection program and device control system for moveable apparatus
JP3367170B2 (en) Obstacle detection device
JP5407898B2 (en) Object detection apparatus and program
EP3576008B1 (en) Image based lane marking classification
JP5822255B2 (en) Object identification device and program
US10580155B2 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
JP5820774B2 (en) Road boundary estimation apparatus and program
KR20190082065A (en) Method and apparatus for processing point cloud data
US20180357495A1 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and recording medium
JP2003296736A (en) Device for detecting obstacle and method thereof
JP2009064410A (en) Method for detecting moving objects in blind spot of vehicle and blind spot detection device
JP2002352225A (en) Obstacle detector and its method
JP3596339B2 (en) Inter-vehicle distance measurement device
JPH085388A (en) Running road detecting device
JP2003084064A (en) Device and method for recognizing vehicle in front side
US20190014302A1 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and recording medium
JP2008304344A (en) Target detector
CN110794406A (en) Multi-source sensor data fusion system and method
CN111213153A (en) Target object motion state detection method, device and storage medium
JP2013140515A (en) Solid object detection device and program
KR20210062672A (en) Method and processing unit for determining information related to objects in the surrounding environment of the vehicle
JPWO2017145634A1 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
JP2009245042A (en) Traffic flow measurement device and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080226

R150 Certificate of patent or registration of utility model

Ref document number: 4102885

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

EXPY Cancellation because of completion of term