JP2006012178A - Method and system for detecting parking vehicle - Google Patents
Method and system for detecting parking vehicle Download PDFInfo
- Publication number
- JP2006012178A JP2006012178A JP2005206656A JP2005206656A JP2006012178A JP 2006012178 A JP2006012178 A JP 2006012178A JP 2005206656 A JP2005206656 A JP 2005206656A JP 2005206656 A JP2005206656 A JP 2005206656A JP 2006012178 A JP2006012178 A JP 2006012178A
- Authority
- JP
- Japan
- Prior art keywords
- parked vehicle
- vehicle
- unit
- image
- road
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、駐車車両を自動的に検知する駐車車両検知方法及び駐車車両検出システムに関する。 The present invention relates to a parked vehicle detection method and a parked vehicle detection system for automatically detecting a parked vehicle.
路上に駐車されている車両(以下「駐車車両」という)は、渋滞や交通事故を招来し、消防活動や救急活動を阻害する要因ともなり得るものである。そのため、従来より、国や地方自治体などによって駐車車両の台数を調査して渋滞等に与える影響を分析することが行われている。 Vehicles parked on the road (hereinafter referred to as “parked vehicles”) may cause traffic jams and traffic accidents, and may be a factor that hinders fire fighting activities and emergency activities. For this reason, conventionally, the number of parked vehicles has been investigated by the national and local governments to analyze the impact on traffic congestion and the like.
このような駐車車両の調査は、一般に、車両や自転車に搭乗した調査員の手作業によって行われていた。しかし、この調査方法では、作業に手間がかかって効率が悪いと共に駐車車両のカウントや集計にミスが生じ易く、調査精度の面でも問題があった。 Such a survey of parked vehicles is generally performed manually by an investigator on a vehicle or bicycle. However, this investigation method has a problem in terms of investigation accuracy because it takes a lot of work and is inefficient and easily causes mistakes in counting and counting of parked vehicles.
この問題を解決するため、CCDカメラ等で駐車車両を撮像し、この撮像データを画像処理することで、駐車車両を識別してカウントすることも考えられる。 In order to solve this problem, it is conceivable that the parked vehicle is imaged with a CCD camera or the like, and the captured data is image-processed to identify and count the parked vehicle.
しかしながら、上記した駐車車両の計測方法では、画像処理に時間とコストがかかる割に駐車車両の検知精度が良くないという問題がある。例えば、撮像データの画像処理において、エッジの抽出や2値化処理などの単純な処理だけでは、駐車車両とその背景にある建物や街路樹とを精度良く識別することは困難である。特に、駐車車両は路側に複数台が連続して駐車されるという傾向があるため、個々の駐車車両を検知することができないと、駐車車両の台数をカウントできないことになる。 However, the above-described method for measuring a parked vehicle has a problem in that the detection accuracy of the parked vehicle is not good, although it takes time and cost for image processing. For example, in image processing of captured data, it is difficult to accurately identify a parked vehicle and a building or roadside tree in the background only by simple processing such as edge extraction or binarization processing. In particular, since there is a tendency that a plurality of parked vehicles are continuously parked on the road side, the number of parked vehicles cannot be counted unless individual parked vehicles can be detected.
さらに、調査の高速化・効率化のために調査車両を移動させながら駐車車両の画像データを取得する場合には、画像処理がより一層困難になる。 Furthermore, image processing becomes even more difficult when acquiring image data of a parked vehicle while moving the survey vehicle in order to increase the speed and efficiency of the survey.
本発明は上記の課題を解決するためになされたもので、駐車車両の調査を効率的で精度良く行うことができる駐車車両検知方法及び駐車車両検知システムを提供することを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a parked vehicle detection method and a parked vehicle detection system that can efficiently and accurately investigate a parked vehicle.
本発明の第1の主要な観点によれば、路上を走行する車両から路上の対象物を水平方向に複数回ラインスキャンしてエピポーラ平面画像(EPI画像)を取得する工程と、前記取得したEPI画像から、撮像した対象物に関する一以上の特徴軌跡を抽出する工程と、抽出した対象物の特徴軌跡の傾きを演算する工程と、演算した特徴軌跡の傾きと前記移動体の移動速度とに基づいて、対象物までの距離を演算する工程と、演算した対象物までの距離に基づいて駐車車両の有無を判別する工程とを備えたことを特徴とする駐車車両検知方法が提供される。 According to a first main aspect of the present invention, an epipolar plane image (EPI image) is acquired by performing line scanning of an object on a road a plurality of times in a horizontal direction from a vehicle traveling on the road, and the acquired EPI Based on the step of extracting one or more feature trajectories related to the captured object from the image, the step of calculating the tilt of the feature trajectory of the extracted object, and the calculated tilt of the feature trajectory and the moving speed of the moving object Thus, there is provided a parked vehicle detection method comprising a step of calculating a distance to an object and a step of determining the presence or absence of a parked vehicle based on the calculated distance to the object.
このような構成によれば、複数回のラインスキャンによって取得したEPI画像(撮像データ)を解析して駐車車両を判別するようにしたので、駐車車両を確実に判別できる。また、駐車車両の周囲のデータも同時に取得することで、駐車車両の規制等の道路行政に有益なデータを提供することができる。このようなEPI画像は、ラインスキャンカメラによる撮像の他、レーザスキャナが水平方向に複数回ラインスキャンを繰り返すことでも取得することができる。 According to such a configuration, since the EPI image (imaging data) acquired by a plurality of line scans is analyzed to discriminate the parked vehicle, the parked vehicle can be reliably discriminated. Further, by acquiring data around the parked vehicle at the same time, it is possible to provide data useful for road administration such as the regulation of the parked vehicle. Such an EPI image can be acquired not only by imaging by a line scan camera but also by a laser scanner repeating a line scan a plurality of times in the horizontal direction.
また、本発明の第2の主要な観点によれば、路上を走行する車両から路上の対象物を水平方向に複数回ラインスキャンしてエピポーラ平面画像(EPI画像)を取得する画像データ取得部と、前記対象物のEPI画像を時系列に沿って合成することで水平方向のEPI画像を取得する路上撮像部と、前記取得したEPI画像から前記対象物に関する一以上の特徴軌跡を抽出する特徴軌跡抽出部と、抽出した対象物の特徴軌跡の傾きを演算する傾き演算部と、演算した特徴軌跡の傾きと前記移動体の移動速度とに基づいて、移動体から対象物までの距離を演算する距離演算部と、演算した対象物までの距離に基づいて駐車車両の有無を判別する駐車車両有無判別部とを備えたことを特徴とする駐車車両検知システムが提供される。 Further, according to a second main aspect of the present invention, an image data acquisition unit that acquires an epipolar plane image (EPI image) by scanning a line of an object on the road a plurality of times in the horizontal direction from a vehicle traveling on the road; A road imaging unit that acquires an EPI image in a horizontal direction by synthesizing EPI images of the object in time series, and a feature locus that extracts one or more feature loci related to the object from the acquired EPI image The distance from the moving object to the object is calculated based on the extraction unit, the inclination calculating unit that calculates the inclination of the feature locus of the extracted object, and the calculated inclination of the feature locus and the moving speed of the moving object. There is provided a parked vehicle detection system including a distance calculation unit and a parked vehicle presence / absence determination unit that determines the presence / absence of a parked vehicle based on the calculated distance to an object.
このような構成によれば、上記した第1の主要な観点における駐車車両検知方法を好適に実現可能な駐車車両検知システムを得ることができる。 According to such a structure, the parked vehicle detection system which can implement | achieve the parked vehicle detection method in the above-mentioned 1st main viewpoint suitably can be obtained.
以上説明したように、本発明によれば、駐車車両の調査を効率的で精度良く行うことができる駐車車両検知方法、検知システム及び駐車車両検知装置を得ることができる。 As described above, according to the present invention, it is possible to obtain a parked vehicle detection method, a detection system, and a parked vehicle detection device that can efficiently and accurately investigate a parked vehicle.
特に、走行する調査車両から撮像データを取得しながら駐車車両の判別やカウントを行うことができ、駐車車両の調査を効率良く行うことができる駐車車両検知方法等を得ることができる。 In particular, it is possible to obtain a parked vehicle detection method and the like that can determine and count a parked vehicle while acquiring imaging data from a traveling survey vehicle, and that can efficiently survey the parked vehicle.
なお、この発明の他の特徴と顕著な効果は、次の発明の実施の形態の項の記載と添付した図面とを参照することで、より明確に理解される。 The other features and remarkable effects of the present invention can be understood more clearly by referring to the description of the following embodiments of the present invention and the attached drawings.
以下、本発明の実施の形態を図面に基づき説明する。以下においては、まず、本発明の参考となる実施形態を説明してから、本発明の実施形態を説明する。
(参考となる実施形態)
図1は、この実施形態にかかる駐車車両検知システムの概略説明図である。この図で符号1で示す駐車車両検知装置は、レーザスキャナ2によって路上の駐車車両3を含む撮像データを取得するものであり、道路4を走行する計測車両5に搭載されている。前記駐車車両検知装置1は、駐車車両3及び背景の街路樹6や建物7などの対象物までの距離情報、すなわち奥行きに基づいて、前記レーザスキャナ2が撮像した路上データから駐車車両3の側面データを抽出するものである。この実施形態では、前記撮像データの取得、駐車車両3の判別、カウント及び出力の各処理を走行する計測車両5上においてリアルタイムで実行するようにしている。これにより、駐車車両の調査を効率良く行うことができるようになる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following, first, an embodiment serving as a reference of the present invention will be described, and then an embodiment of the present invention will be described.
(Reference embodiment)
FIG. 1 is a schematic explanatory diagram of a parked vehicle detection system according to this embodiment. The parked vehicle detection apparatus denoted by
ここで、本実施形態における路上撮像手段である前記レーザスキャナ2の概略構成を図2を参照して説明する。
Here, a schematic configuration of the
このレーザスキャナ2は、主として、対象物に対してレーザ光を送出するレーザ光送出部8と、対象物から反射されたレーザ光を受信するレーザ光受信部9とからなる。前記レーザ光送出部8は、半導体レーザダイオード10と、一対のプリズム11、11と、送出用レンズ12と、回転可能なポリゴンミラー13と、スキャンライン調整用ミラー14とを備えている。また、前記レーザ光受信部9は、複数の受信用ミラー15、15と、受信用レンズ16と、フォトダイオード17とを備えている。なお、符号18は、レーザ光の送受信用の窓である。
The
このような構成において、前記半導体レーザダイオード10からレーザ光を発振するとポリゴンミラー13の回転によって水平方向に1次元的なスキャンラインを描き、ラインスキャンが可能となる。さらに、前記ミラー14の回転を加えることで、このスキャンラインを微小角度ずつ垂直方向に変化させ、2次元のエリアスキャンが可能となる。鉛直方向にラインスキャンする場合は、このレーザスキャナ2を90度傾けて設置すれば良い。
In such a configuration, when laser light is oscillated from the
前記レーザスキャナ2を使用して対象物までの距離を計測する方法として、例えば時間差計測法と位相差計測法がある。ここでは、時間差計測法の例を、図3を参照して説明する。この方法は、パルスレーザ光の飛行時間(time-of-flight;TOF)を直接計測することにより、対象物までの距離を求める方法である。この計測法では、対象物までの距離D[m]は、計測された時間差Δt[sec]から次式で求められる。
As a method of measuring the distance to the object using the
2D=cΔt(ただし、光速度c=3.0×102[m/sec])
時間差計測法を採用する場合、光の速度が速いため、測定精度を上げるには短い時間間隔を正確に計測しなければならない。例えば、測定精度が1mの場合には6.7×10−9sec(=6.7ns)、さらに1cmでは0.067nsの時間分解能を必要とする。なお、この方法の測定精度は原理的に測定距離の大小には依存しないという特性を有する。
2D = cΔt (where light velocity c = 3.0 × 10 2 [m / sec])
When the time difference measurement method is employed, the speed of light is fast, and thus a short time interval must be accurately measured in order to improve measurement accuracy. For example, a time resolution of 6.7 × 10 −9 sec (= 6.7 ns) is required when the measurement accuracy is 1 m, and a time resolution of 0.067 ns is required at 1 cm. Note that the measurement accuracy of this method has a characteristic that it does not depend on the size of the measurement distance in principle.
このような距離計測と、図2で説明した2次元のエリアスキャン機構とを組み合わせることで、路上の対象物を3次元的に計測することが可能となる。このとき、対象物の3次元形状は、高精度な3次元位置情報をもつ点の集合、すなわちレンジポイントとして表されることになる。 Combining such distance measurement with the two-dimensional area scan mechanism described with reference to FIG. 2 enables three-dimensional measurement of an object on the road. At this time, the three-dimensional shape of the object is represented as a set of points having highly accurate three-dimensional position information, that is, range points.
このレンジポイントで駐車車両3を表わした例を図4に示す。図中の無数の点がレンジポイントである。この図から明らかなように、駐車車両3の車体はレンジポイントが密集している部分(集合)として示されており、このような集合を抽出することで、駐車車両3の存在はもとより、車体の大きさ等を判別することができるものである。
An example in which the parked
また、駐車車両3の後方(y軸方向)には、レンジポイントが全く現れない領域、すなわち駐車車両3によってレーザ光が遮蔽された領域(影)が存在する。この遮蔽領域を抽出することによっても駐車車両3の有無を容易に判別できるものである。
In addition, behind the parked vehicle 3 (y-axis direction), there is a region where no range point appears, that is, a region (shadow) where the laser beam is shielded by the parked
次に、図5のブロック図を参照して、駐車車両検知装置1の構成を説明する。
この装置1は、前記計測車両5に搭載されたコンピュータシステムに設けられており、CPU20とRAM21とモデム等の通信デバイス22と入出力装置23が接続されたバス24に、データ格納部25とプログラム格納部26とを備えて構成されている。
Next, the configuration of the parked
The
前記データ格納部25は、レーザスキャナ2が撮像したデータを格納する撮像データ格納部27と、後述する駐車車両有無判別部36によって判別された駐車車両3の側面データ等を格納する駐車車両データ格納部28と、駐車車両3の計測条件・計測環境等を格納する計測条件格納部29とを備えている。ここで、計測条件格納部29には、例えば、計測の日時・計測時の気象条件・計測車両5の平均速度・設定された閾値などが格納される。
The
前記プログラム格納部26は、メインプログラム32の他、前記レーザスキャナ2が撮像した路上の画像データを受取って前記撮像データ格納部27に格納する撮像データ取得部33と、本発明の要旨である側面データ抽出部34及び遮蔽領域抽出部35と、駐車車両有無判別部36と、駐車車両台数算出部37と、駐車領域占有率演算部38と、例えば、計測車両5のタイヤの回転数等から計測時の速度や距離の条件を取得して前記計測条件格納部29に格納する速度・距離情報取得部39と、算出された駐車車両3の台数や駐車領域占有率等の処理結果を前記入出力装置23のディスプレイ等に出力する処理結果出力部40とを備えている。
The program storage unit 26 receives the image data on the road imaged by the
前記側面データ抽出部34は、路上の対象物を撮像した撮像データから路上に駐車した駐車車両3の側面データを抽出するものであり、図6に示す構成を備えている。
The side
すなわち、この側面データ抽出部34は、取得した撮像データのノイズ除去等の前処理を行う撮像データ前処理部41と、前記撮像データに含まれるレンジポイントの高さの情報(図4のz軸の値)に基いて前記対象物の高さを演算する高さ演算部42と、車両の一般的な車高若しくはタイヤ径の少なくとも何れかに基づいて対象物の高さの閾値を設定する高さ閾値設定部43と、前記駐車車両有無判別部36で判別された駐車車両3の所定台数毎若しくはレーザ光の所定の走査周期毎の高さ情報をランダムに抽出する高さデータ抽出部44と、抽出された複数の高さ情報に基づいて前記設定された閾値を動的に更新する閾値更新部45と、演算した対象物の高さが所定の閾値以上のフレームが所定数連続する場合に、その連続するフレームを駐車車両3の側面データとして出力する側面データ出力部46と、前記移動体の移動速度に基づいて、前記フレームが連続する所定数の基準値を設定する基準フレーム数設定部47とを備えている。
That is, the side
ここで、前記撮像データ前処理部41は、主として、前記レーザスキャナ2から取得した撮像データのセンサ座標系の変換及び撮像された対象物の三次元形状の復元と、前記高さ演算部42が演算した車体側面点集合の平滑化の各処理を行うものである。
Here, the imaging
また、前記高さデータ抽出部44は、前記のように高さデータをランダムに抽出して閾値更新部45に送出するものである。これにより、閾値を動的に更新して検知精度の向上を図ることができ、また更新した閾値に基づいて再度側面データの抽出処理を行うことで、側面データの抽出漏れを検証することができる。
Further, the height
なお、前記撮像データ前処理部41及び高さ演算部42が行う各処理の詳細については後述する。
The details of each process performed by the imaging
次に、図5に示す前記遮蔽領域抽出部35は、前記撮像データから、対象物によってレーザ光が遮蔽された領域(オクルージョン)を抽出するものである(図4参照)。この遮蔽領域抽出部35は、本実施形態では、前記側面データ抽出部34を補完する機能を備えている。すなわち、対象物が黒色の場合はレーザ光の反射率が極端に低いため、黒色の駐車車両3については側面データを抽出できないおそれがある。そのため、遮蔽領域の抽出による駐車車両3の判別を併用することで、判別精度の向上を図るものである。なお、遮蔽領域抽出部35の機能等は、後に詳しく説明する。
Next, the shielding
前記駐車車両有無判別部36は、前記側面データ抽出部34が抽出した駐車車両3の側面データ若しくは遮蔽領域抽出部35が抽出した遮蔽領域データに基づいて、駐車車両3の有無を判別するものである。
The parked vehicle presence / absence discriminating unit 36 discriminates the presence / absence of the parked
前記駐車車両台数算出部37は、前記駐車車両有無判別部36で判別された駐車車両3の台数をリアルタイムでカウントするものである。
The parked vehicle number calculation unit 37 counts the number of parked
前記駐車領域占有率演算部38は、前記駐車車両有無判別部36で駐車車両3が存在すると判別されたフレームの数を、前記撮像データの総フレーム数で除算することで、駐車可能な領域に占める駐車車両の比率を算出するものである。この占有率の具体的な考え方を図7に示す。
The parking area occupancy rate calculation unit 38 divides the number of frames determined by the parked vehicle presence / absence determination unit 36 that the parked
この図において、右下がりの斜線で示すのが駐車車両3によって占有されたフレーム数であり、右上がりの斜線で示すのが計測対象の全フレーム数である。この図から明らかなように、車両の長さの固定値(例えば3m)に駐車車両3の台数を乗じて画一的に算出するのではなく、駐車車両3のフレーム数(すなわち、車両の全長)を基礎とすることで占有率をより正確に算出できるものである。
In this figure, the number of frames occupied by the parked
このように、駐車領域における占有率という新たな指標を提供することで、渋滞の解消等の道路行政の種々の課題解決への有効活用が期待できる。 In this way, by providing a new index called the occupation ratio in the parking area, it can be expected to be effectively used for solving various problems in road administration such as elimination of traffic congestion.
上記の各構成要素等は、実際には、コンピュータシステムにインストールされたコンピュータソフトウエアプログラム若しくは1つのプログラム中のサブルーチンである。そして、前記CPU20によってRAM21上に呼び出され実行されることで、この発明の各機能を奏するものである。
Each of the above components is actually a computer software program installed in a computer system or a subroutine in one program. Each function of the present invention is exhibited by being called and executed on the RAM 21 by the
次に、図8〜図10を参照して前記撮像データ前処理部41が行う各処理を説明する。
Next, each process performed by the imaging
まず、センサ座標系の変換について説明する。
前記レーザスキャナ2が撮像したデータでは、1つのレンジポイントについて以下の情報を得ることができる。
First, the transformation of the sensor coordinate system will be described.
With the data captured by the
フレーム番号:m(その点が属するフレームの番号;m=1、2、3、L)
スキャン番号:n(フレーム内でのその点の番号;n=1、2、3…165)
点までの距離:r
スイング角:α(一定値;α=0°)
スキャン角:β(−50°≦β≦+20°)
計測時刻:t(n=1の時のみ)
ここで、本実施形態では、対象物を鉛直(縦)方向に走査するラインスキャンを行うようにしており、水平方向の計測角を示す前記スイング角αは0°に固定されている。また、前記スキャン角βは垂直方向の計測角を示している。これらの計測角は、図8に示すように、計測車両5と計測対象である駐車車両3との距離や車高、レーザスキャナ2の設置高さ等を参照して設定される。
Frame number: m (number of the frame to which the point belongs; m = 1, 2, 3, L)
Scan number: n (number of the point in the frame; n = 1, 2, 3,... 165)
Distance to point: r
Swing angle: α (constant value; α = 0 °)
Scan angle: β (−50 ° ≦ β ≦ + 20 °)
Measurement time: t (only when n = 1)
Here, in the present embodiment, a line scan for scanning the object in the vertical (longitudinal) direction is performed, and the swing angle α indicating the measurement angle in the horizontal direction is fixed at 0 °. Further, the scan angle β represents a measurement angle in the vertical direction. As shown in FIG. 8, these measurement angles are set with reference to the distance between the
また本実施形態では、計測車両5が走行しながらレーザスキャナ2で路上の対象物をスキャンしており、レーザスキャナ2の位置が時々刻々と変化している。そのため、「センサ座標系」上の値である「点までの距離r、スイング角α及びスキャン角β」を夫々ワールド座標系に変換してレンジポイントの位置を実空間上で正確に表現する必要がある。このような座標系の変換は図9に示す工程で行う。また、ワールド座標系(p)とセンサ座標系(p’)との関係を図10に示す。
In the present embodiment, the object on the road is scanned by the
前記レンジポイントは、全てが特定のスキャンラインに属し、その中でも何番目にスキャンされた点であるかという情報を持っているため、m、nのIDタグが付加される。従って、対象物の三次元形状を以下のように表わすことができる。 Since the range points all belong to a specific scan line and have information indicating the number of points scanned among them, m and n ID tags are added. Therefore, the three-dimensional shape of the object can be expressed as follows.
上記のような座標変換を行うことで、駐車車両3の三次元形状を復元したのが前記した図4の状態である。このような処理は、換言すれば、レーザスキャナで2で取得されたデータは計測点から対象物までの距離情報を有し、極座標系モデルによって記述される。このデータを直交座標系モデルに変換することで、前記三次元形状への復元を行うものである。
The state of FIG. 4 described above restores the three-dimensional shape of the parked
また、この撮像データ前処理部41は、車体側面点集合の平滑化も行う。この平滑化処理は、前記高さ演算部42が作成した後述する高さ曲線について、所定の幅でフィルタ処理を行い、所定の重み係数を適用することで、この高さ曲線に含まれるノイズを除去するものである。
The imaging
次に、前記高さ演算部42が、撮像データに含まれる対象物の高さを演算する工程を詳細に説明する。
Next, the step of calculating the height of the object included in the imaging data by the
まず、この高さ演算部42は、撮像データから車体側面を示す点の集合(B)を以下の式に従って抽出する。
First, the
この式では、以下の式で抽出した路面点集合(A)に属さない点のうち、y座標が適当な範囲におさまっているレンジポイントを車体側面点集合(B)に属するとみなしている。なお、次式は遮蔽領域の抽出の際にも用いる。 In this equation, among the points that do not belong to the road surface point set (A) extracted by the following equation, a range point whose y coordinate is within an appropriate range is regarded as belonging to the vehicle body side surface point set (B). Note that the following equation is also used when extracting the shielding area.
また、上記の「適当な範囲」の例を図11に示す。この図では、煩雑さを避けるため、レンジポイントが密集した部分を右上がりの斜線で示し、レンジポイントの密度が小さい部分を左上がりの斜線で示している。この例では、最小値を1.0mの固定値とし、最大値については、ypeakなる奥行き位置を決めてそれよりも1.0m奥までを最大値とした。このypeakは、「前記路面点集合に属さない点集合内において、y軸方向に沿って点の個数のヒストグラムをとり、最初の極大値を与えるy座標」と定義できる。これにより、ypeakは縦列駐車された駐車車両の車体右側付近に存在することになり、車体側面の点集合を正確に抽出することができる。また、レーザスキャナ2の測定精度(0.5m等)を考慮して駐車車両の側面を含む領域を抽出するのが好ましい。なお、この図で、駐車車両の奥側に現れているレンジポイントの密集部分は、ガードレール若しくは建物の壁等の背景と考えられる。
An example of the “appropriate range” is shown in FIG. In this figure, in order to avoid complication, a portion where the range points are dense is indicated by a diagonal line rising to the right, and a portion where the density of the range points is small is indicated by a diagonal line rising to the left. In this example, the minimum value is set to a fixed value of 1.0 m, and the maximum value is set to a depth position of y peak and the maximum value is set to 1.0 m deeper than that. This y peak can be defined as “y-coordinate that takes a histogram of the number of points along the y-axis direction in the point set that does not belong to the road surface point set and gives the first maximum value”. As a result, y peak exists in the vicinity of the vehicle body right side of the parked vehicle parked in parallel, and the point set on the side surface of the vehicle body can be accurately extracted. In addition, it is preferable to extract a region including the side surface of the parked vehicle in consideration of the measurement accuracy (0.5 m or the like) of the
このようにして抽出した車体側面点集合(B)の内の各スキャンラインについて、座標が最大となる点を結ぶことによって図12に示す高さ曲線が得られる。なお、この高さ曲線については、前記撮像データ前処理部41が平滑化フィルタにより高周波ノイズを除去することで車体側面の稜線(輪郭線)を表わす線を取得するようにする。一例として、フィルタの幅は3(前後1近傍)、各重み係数は何れも1に設定する。
The height curve shown in FIG. 12 is obtained by connecting the points having the maximum coordinates for each scan line in the vehicle body side point set (B) extracted in this way. For this height curve, the imaging
また、この高さ曲線の主変数はスキャンライン番号nであり、次式で表わすことができる。 The main variable of the height curve is a scan line number n, which can be expressed by the following equation.
図12(A)は前記撮像データ前処理部41による平滑化処理前、(B)は平滑化処理後の高さ曲線である。この図に示す撮像データからは、車体側面データが3台分抽出されることが分かる。
FIG. 12A shows a height curve before smoothing processing by the imaging
次に、前記駐車車両有無判別部36が、前記高さ曲線に基づいて駐車車両の有無を判別する工程を詳細に説明する。 Next, the process in which the parked vehicle presence / absence determining unit 36 determines the presence / absence of a parked vehicle based on the height curve will be described in detail.
この駐車車両有無判別部36は、図12に示した高さ曲線に所定の閾値を与えて、高さ曲線の交点から交点までを駐車車両の候補が存在する部分、あるいは存在しない部分と判断するものである。 This parked vehicle presence / absence discriminating unit 36 gives a predetermined threshold to the height curve shown in FIG. 12, and determines from the intersection of the height curve to the intersection as a portion where there is a candidate for the parked vehicle or a portion where there is not. Is.
高さ曲線に与える閾値をzthとすると、車両候補の存在判定は次式で表現される。 If the threshold given to the height curve is zth , the vehicle candidate presence determination is expressed by the following equation.
ここで、Emは、第m番目のフレームに駐車車両の候補が存在しているかどうかを表す0/1変数である。1は車両候補が存在することを、0は存在しないことを意味する。 Here, E m is a 0/1 variable indicating whether a candidate for a parked vehicle exists in the m-th frame. 1 means that there is a vehicle candidate and 0 means that it does not exist.
また、閾値zthは、例えば次式で与えることができる。 Further, the threshold value z th can be given by the following equation, for example.
0.5mという固定値は、駐車車両3のタイヤ径よりも高い位置にある車両本体を考慮して前記高さ閾値設定部43が設定したものである。
The fixed value of 0.5 m is set by the height
前記Emは1本のスキャンラインにのみ関する情報である。そこで、E1、E2、E3、…のシーケンスから、「0111…1110」のように1が連続するパターンを検索する。また、ノイズや突出値の影響を取り除くため、予め「011110」や「100001」のように幅が4以内の1若しくは0は、すべて0若しくは1に変換してEmを修正しておく。 Wherein E m is the information concerning only the one scan line. Therefore, a pattern in which 1 continues like “0111... 1110” is searched from the sequence of E 1 , E 2 , E 3 ,. Also, to remove the influence of noise and outliers, 1 or 0 of the width within 4 as previously "011110" and "100001" is kept correct the E m all converted to 0 or 1.
検索されたパターンのうち、「111L111」の幅がFm以上であるものを1台の駐車車両と識別する。Fmの値は、前記基準フレーム数設定部47が計測車両5の走行速度vに応じて設定するものである。ここでは、長さが2m以上のものを1車両と識別することにし、次式のように与えることにした。
In the search pattern, identified as one of the parked vehicle what width is equal to or greater than F m of "111L111". The value of F m is set by the reference frame
このような処理を行うことで、図12(B)に示すように、適切な位置に閾値線を引くことができ、高さ曲線に基づいて駐車車両を正確に識別することができる。 By performing such processing, a threshold line can be drawn at an appropriate position as shown in FIG. 12B, and the parked vehicle can be accurately identified based on the height curve.
以下、この駐車車両検知装置1の詳細な機能を実際の動作と共に、図13を参照して説明する。なお、これらの図のS1〜S12は処理順序を示す符号であり、以下の説明のステップS1〜S12に対応する。
Hereinafter, the detailed function of this parked
まず、前記撮像データ取得部33が、レーザスキャナ2が路上を撮像した撮像データを取得して、前記撮像データ格納部27に格納する(ステップS1)。
First, the imaging data acquisition unit 33 acquires imaging data obtained by imaging the road by the
ついで、取得した撮像データについて、前記撮像データ前処理部48が所定の前処理を実行する。具体的には、上記したように「センサ座標系」をワールド座標系に変換し(ステップS2)、図11に示すように、IDタグ付き点集合によって対象物の3次元形状を復元する(ステップS3)。 Next, for the acquired imaging data, the imaging data preprocessing unit 48 executes a predetermined preprocessing. Specifically, as described above, the “sensor coordinate system” is converted into the world coordinate system (step S2), and the three-dimensional shape of the object is restored by the ID-tagged point set as shown in FIG. 11 (step S2). S3).
ついで、前記高さ演算部42が車体側面の点集合を抽出する(ステップS4)。抽出した点集合にはノイズが多く含まれていることから、前記撮像データ前処理部48が平滑化処理によってノイズを除去する(ステップS5)。
Next, the
ついで、前記高さ演算部42が、対象物の高さ曲線を演算すると共に(ステップS6)、前記高さ閾値設定部43が、車高やタイヤ径に基づいて対象物の高さ曲線に対する閾値線(この例では0.5m)を算出する(ステップS7)。この状態で、高さが閾値線よりも大きいフレームを前記側面データ出力部46が抽出して前記駐車車両有無判別部36に送出する(ステップS8)。抽出された高さのデータが車両の候補となる。
Next, the
抽出された高さ(車両候補)のデータを受取った駐車車両有無判別部36は、対象物の高さが閾値線よりも大きい「Em=1」フレームが所定数以上連続しているかを判断し、連続していないフレームについては「Em=0」に補正する(ステップS9)。補正した結果、「Em=1」が所定数連続するフレームを駐車車両3と判別する(ステップS10)。そして、前記駐車車両台数算出部37が、前記駐車車両3と判別された台数をカウントして出力する(ステップS11)。また、前記駐車領域占有率演算部38が、図7に示すように、駐車車両3と判別されたフレームの数に基づいて駐車車両3の占有率を演算する(ステップS12)。
The parked vehicle presence / absence discriminating unit 36 that has received the extracted height (vehicle candidate) data determines whether or not “E m = 1” frames in which the height of the object is greater than the threshold line continue for a predetermined number or more. For non-continuous frames, correction is made to “E m = 0” (step S9). As a result of the correction, a frame in which a predetermined number of “E m = 1” continues is determined as the parked vehicle 3 (step S10). The parked vehicle number calculating section 37 counts and outputs the number of parked vehicles 3 (step S11). Further, as shown in FIG. 7, the parking area occupancy rate calculation unit 38 calculates the occupancy rate of the parked
次に、前記遮蔽領域抽出部35について説明する。
本の実施形態では、上記したように前記側面データ抽出部34が抽出する側面データと、遮蔽領域抽出部35が抽出するレーザ光の遮蔽エリア(路面点集合)とに基づいて駐車車両3の有無を判別する点に特徴を有している。
Next, the shielding
In the present embodiment, as described above, the presence / absence of the parked
図14に示すように、この実施形態にかかる遮蔽領域抽出部35は、撮像データ前処理部50と、前記撮像データに含まれるレンジポイントの奥行きの情報(図4のyの値)に基いて前記対象物の奥行きを演算する奥行き演算部51と、車両の全幅に基づいて対象物の奥行きの閾値を設定する奥行き閾値設定部52と、奥行きデータ抽出部53と、閾値更新部54と、演算した対象物の奥行きが所定の閾値以下のフレームが所定数連続する場合に、その連続するフレームを駐車車両3による遮蔽領域として出力する遮蔽領域出力部55と、基準フレーム数設定部56とを備えている。
As shown in FIG. 14, the shielding
前記奥行き演算部51は、まず、次式によって撮像データから路面を示す点の集合(A)を抽出する。この路面点集合の抽出は、レンジポイントの垂直位置(路面からの高さ)に着目して行う。この例では、駐車車両の前後のタイヤの間(車体の底面)はレーザ光が車体側面よりも奥側に到達することから、タイヤ径よりも高い位置のレンジポイントを基準にするため、高さを0.5mに設定した。この場合も、レーザスキャナ2の測定精度を考慮して路面点集合を抽出する領域を決定するのが好ましい。
The
次に、抽出した路面点集合から、図15に示す奥行き曲線を作成する。具体的には、抽出した路面点集合の内の各スキャンラインについて、y座標が最大となる点を結ぶことによって得られる。この奥行き曲線はスキャンライン番号nを主変数とし、以下のように表される。 Next, a depth curve shown in FIG. 15 is created from the extracted road surface point set. Specifically, it is obtained by connecting the points with the maximum y coordinate for each scan line in the extracted set of road surface points. This depth curve is expressed as follows, with scanline number n as the main variable.
この奥行き曲線は、レーザスキャナ2から離れた位置の少ないレンジポイントに基づいて作成することになり、ノイズを多く含むことから、前記撮像データ前処理部50によってフィルタをかけて平滑化しておく。具体的には、路面データの分布領域は、レーザによる路面上の可視領域を意味し、その奥行き(y軸)方向の境界は、スキャン毎のyの最大値から構成することができることになる。この奥行き方向の境界線から、平滑化フィルタによって高周波ノイズを除去することで、路上駐車車両による遮蔽部分を表わす奥行き曲線を好適に取得できる。一例として、フィルタの幅は9(前後4近傍)、各重み係数は何れも1に設定した。
This depth curve is created based on a range point with a small position away from the
これにより図15の奥行き曲線が得られる。図15(A)は前記撮像データ前処理部50による平滑化処理前、(B)は平滑化処理後の奥行き曲線である。この図に示す撮像データからは、遮蔽領域データが3台分抽出されることが分かる。
Thereby, the depth curve of FIG. 15 is obtained. FIG. 15A shows a depth curve before smoothing processing by the imaging
また、この状態の遮蔽領域データが前記駐車車両有無判別部36に送出されると、この駐車車両有無判別部36は、図15に示した奥行き曲線に所定の閾値を与えて、奥行き曲線の交点から交点までを駐車車両の候補が存在する部分、あるいは存在しない部分と判断する。 Further, when the shielding area data in this state is sent to the parked vehicle presence / absence determining unit 36, the parked vehicle presence / absence determining unit 36 gives a predetermined threshold to the depth curve shown in FIG. To the intersection is determined to be a portion where a candidate for a parked vehicle exists or a portion where no candidate exists.
奥行き曲線に与える閾値をythとすると、車両候補の存在判定は次式で表現される。なお、この閾値は、前記奥行き閾値設定部52が設定するものである。
When the threshold value that gives the depth curve and y th, presence determination of vehicle candidates are expressed by the following equation. This threshold value is set by the depth threshold
ここで、Emは、第m番目のフレームに駐車車両の候補が存在しているかどうかを表す0/1変数である。1は車両候補が存在することを、0は存在しないことを意味する。 Here, E m is a 0/1 variable indicating whether a candidate for a parked vehicle exists in the m-th frame. 1 means that there is a vehicle candidate and 0 means that it does not exist.
また、閾値ythは、例えば次式で与えることができる。 Further, the threshold value y th can be given by the following equation, for example.
このように、駐車車両と識別された若しくは識別される可能性が高いデータに基づいて閾値を設定することで、駐車車両の判別精度を向上させることができる。また、1.5mという固定値は、駐車車両3の全幅が通常3m程度であることを考慮したものである。
Thus, the discrimination accuracy of a parked vehicle can be improved by setting a threshold value based on data that is identified or highly likely to be identified as a parked vehicle. Moreover, the fixed value of 1.5 m takes into consideration that the full width of the parked
このようにして設定された閾値線(この例では約5.5m)を適用すると共に、第1の実施形態と同様にEmを修正することで、図15(B)のように、駐車車両3台分の遮蔽領域を出力することができる。 By applying the threshold line set in this way (about 5.5 m in this example) and correcting Em as in the first embodiment, a parked vehicle as shown in FIG. Three shielding areas can be output.
以下、この実施形態にかかるシステム1の詳細な機能を実際の動作と共に、図16を参照して説明する。なお、これらの図のS13〜S26は処理順序を示す符号であり、以下の説明のステップS13〜S26に対応する。また、上記した第1の実施形態と共通の処理工程は詳細説明を省略する。
Hereinafter, detailed functions of the
まず、前記撮像データ取得部33が撮像データを取得して前記撮像データ格納部27に格納する(ステップS13)。ついで、取得した撮像データについて、前記撮像データ前処理部48が所定の前処理を実行する(ステップS14、S1
5)。
First, the imaging data acquisition unit 33 acquires imaging data and stores it in the imaging data storage unit 27 (step S13). Next, for the acquired imaging data, the imaging data preprocessing unit 48 executes a predetermined preprocessing (steps S14 and S1).
5).
ついで、前記奥行き演算部51が、前記撮像データのレンジポイントの高さ情報に基いて路面点集合(A領域)を抽出する(ステップS16)。また、前記撮像データ前処理部50が路面点情報を平滑化してノイズを除去する(ステップS17)。
Next, the
ついで、前記奥行き演算部51が、対象物の奥行き曲線を演算すると共に(ステップS17)、奥行き閾値設定部52が駐車車両の全幅などに基づいて奥行き曲線の閾値を設定する(ステップS18、S19)。この状態で、奥行きが閾値線よりも小さいフレームを前記遮蔽領域出力部55が抽出して前記駐車車両有無判別部36に送出する(ステップS21)。抽出された高さのデータが車両の候補となる。
Next, the
前記駐車車両有無判別部36は、奥行きが閾値線よりも低いフレームが所定数以上連続しているかを判断し、連続していないフレームについて補正する(ステップS22)。 The parked vehicle presence / absence discriminating unit 36 determines whether or not a predetermined number or more of frames whose depth is lower than the threshold line is continuous, and corrects the frames that are not continuous (step S22).
ついで、抽出された路面点データに基づいて前記駐車車両有無判別部36が、駐車車両3と判別する(ステップS23)。判別した結果に基づいて、前記駐車車両台数算出部37が駐車車両の台数を出力し、前記駐車領域占有率演算部38が駐車車両3の占有率を演算する(ステップS24、S25)。
Next, the parked vehicle presence / absence discriminating unit 36 discriminates the parked
(本発明の実施形態)
次に、図17乃至図22を参照して、本発明の実施形態を説明する。この実施形態は、ラインスキャンカメラを使用して3次元のエピポーラ平面画像(EPI画像)を取得し、取得した画像データの特徴軌跡の傾きに基づいて駐車車両を判別する点に特徴を有する。
(Embodiment of the present invention)
Next, an embodiment of the present invention will be described with reference to FIGS. This embodiment is characterized in that a three-dimensional epipolar plane image (EPI image) is acquired using a line scan camera, and a parked vehicle is determined based on the inclination of the characteristic locus of the acquired image data.
この実施形態にかかる駐車車両検知装置60は、図17に示すように、路上を走行する計測車両5から路上の対象物を水平方向に複数回ラインスキャンしてエピポーラ平面画像(EPI画像)を取得するラインスキャンカメラ61と、前記対象物のEPI画像を時系列に沿って合成することで水平方向のEPI画像を取得する路上撮像部62と、前記取得したEPI画像から前記対象物に関する一以上の特徴軌跡を抽出する特徴軌跡抽出部63と、抽出した対象物の特徴軌跡の傾きを演算する傾き演算部64と、演算した特徴軌跡の傾きと前記計測車両5の走行速度とに基づいて、計測車両5から対象物までの距離を演算する距離演算部65と、演算した対象物までの距離に基づいて駐車車両3の有無を判別する駐車車両有無判別部66とを備えている。
As shown in FIG. 17, the parked
実際の駐車車両3の画像データを図18(A)に、前記ラインスキャンカメラ61によって取得された画像を図18(B)に、前記特徴軌跡抽出部63や傾き演算部64等によって画像処理した結果を図18(C)に夫々示す。
Image data of the actual parked
まず、図18(B)の画像は、縦一列の画像が1ライン分であり、スキャンを繰り返すたびに横に右方向にライン画像を並べていくことで生成される.このことから、左から右へ向かう方向が時間を、縦方向は空間を意味する時空間画像、すなわちエピポーラ平面画像(EPI画像)と考えることができる。 First, the image in FIG. 18B is generated by arranging a line image in the right direction horizontally each time the scan is repeated for one line. From this, it can be considered that the direction from the left to the right is time, and the vertical direction is a spatio-temporal image, that is, an epipolar plane image (EPI image).
この画像中には、対象物の特徴点の軌跡67が右下がりの直線として現れている。この画像を処理することで、特徴軌跡(feature path)を抽出し、それらの直線の傾きからその特徴点までの奥行き距離を求めることができる。 In this image, the trajectory 67 of the feature point of the object appears as a straight line descending to the right. By processing this image, a feature path can be extracted and the depth distance from the inclination of the straight line to the feature point can be obtained.
以下に、具体的な画像処理の工程を説明する。 Hereinafter, specific image processing steps will be described.
(前処理工程)
まず、前記時空間画像を、時間方向に一定のライン数ずつ、重複することなく分割する。この各分割画像に対して、Cannyのエッジ検出アルゴズムでエッジを検出することで、図19に示すように2値化する。この図から、直線が鮮明に現れていることが分かる。
(Pretreatment process)
First, the spatiotemporal image is divided by a certain number of lines in the time direction without overlapping. By detecting an edge of each divided image using the Canny edge detection algorithm, the image is binarized as shown in FIG. From this figure, it can be seen that the straight line appears clearly.
(直線抽出工程)
次に、得られた2値化画像中の直線を抽出するために、ハフ変換処理を行う。分割画像中の直線は、図20のように原点Oから直線へ下ろした垂線の足をRとすれば、r=ORと法線ベクトル角度φによって一意に表せる。また、上の分割画像に対してハフ変換を適用して得られたハフ空間像を図21に示す。r=−500、φ=145度付近にピークがあり、これが最も強い特徴軌跡を意味する。したがって分割画像中での特徴軌跡の傾きは、145−90=55°である。
(Linear extraction process)
Next, in order to extract a straight line in the obtained binary image, a Hough transform process is performed. The straight line in the divided image can be uniquely expressed by r = OR and the normal vector angle φ, where R is a perpendicular line drawn from the origin O to the straight line as shown in FIG. FIG. 21 shows a Hough space image obtained by applying the Hough transform to the upper divided image. There is a peak near r = −500 and φ = 145 degrees, which means the strongest feature trajectory. Therefore, the inclination of the feature locus in the divided image is 145−90 = 55 °.
(奥行き計算工程)
抽出された直線の傾きmに対して、それに対応する特徴点までの奥行距離Lが次式にしたがって計算される。
(Depth calculation process)
For the extracted slope m of the straight line, the depth distance L to the corresponding feature point is calculated according to the following equation.
したがって、奥行き距離LとEPI画像中の直線の傾きmは比例する。そこで時間方向に200本ずつのライン数で分割した画像にハフ変換を適用し、各分割画像に対して得られたハフ空間像における最大のピークに対応する直線だけを抽出する。この直線はEPI中の最もエッジの強い特徴軌跡を意味する。このようにして抽出された直線の法線方向の角度φを、分割画像の時系列にしたがってプロットしたものが図18(C)のグラフである。この図から、法線方向角度φ=145°、つまり、EPI中で傾き145−90=55°をもつ特徴軌跡の奥行き距離が最も短いことを分かる。これが駐車車両の奥行き距離に相当する。 Therefore, the depth distance L and the slope m of the straight line in the EPI image are proportional. Therefore, the Hough transform is applied to an image divided by 200 lines in the time direction, and only the straight line corresponding to the maximum peak in the Hough space image obtained for each divided image is extracted. This straight line means the feature locus with the strongest edge in the EPI. FIG. 18C is a graph in which the angle φ in the normal direction of the extracted straight line is plotted according to the time series of the divided images. From this figure, it can be seen that the normal direction angle φ = 145 °, that is, the depth distance of the feature trajectory having the inclination 145-90 = 55 ° in the EPI is the shortest. This corresponds to the depth distance of the parked vehicle.
(閾値設定工程)
EPI画像から抽出された直線の法線方向角度の時間変化は図18(C)のようなグラフとして得られる。また、法線方向角度と奥行距離とが比例することから、駐車車両3の検出には、図18(C)のグラフのように閾値を利用するのが簡便である。このときの閾値φthは次式のように、カメラ(=計測車両)の速度Vと奥行距離Lthに依存することが分かる。
(Threshold setting process)
The time change of the normal direction angle of the straight line extracted from the EPI image is obtained as a graph as shown in FIG. In addition, since the normal direction angle and the depth distance are proportional, it is easy to use the threshold value as shown in the graph of FIG. It can be seen that the threshold φ th at this time depends on the speed V of the camera (= measurement vehicle) and the depth distance L th as shown in the following equation.
なお、計測車両5の速度Vは計測可能であるが、計測車両5と駐車車両3との距離Lthは計測環境、特に道路の車線の幅や計測車両5の横方向運動軌跡に依存するため、その値を特定することは困難である。そこで、車線の幅、駐車車両の例としてセダンタイプの車両の全幅、及び計測車両5の全幅に基づいてLthを算出する工程を図22に示す。
Incidentally, the speed V of the measuring
(正規化)
この例では、分割画像のサイズは約1:7の縦横比を持つ画像としているため、同程度に強いエッジを持つ直線であっても、縦の直線の長さは横に比してかなり短くなる。そこで、抽出における直線の強さの指標をその直線の長さに対する相対的な強さとして扱って正規化している。これにより、ノイズを低減できる。
(Normalization)
In this example, since the size of the divided image is an image having an aspect ratio of about 1: 7, the length of the vertical straight line is considerably shorter than the horizontal even for a straight line having a similarly strong edge. Become. Therefore, the index of the strength of the straight line in the extraction is normalized as a relative strength with respect to the length of the straight line. Thereby, noise can be reduced.
(実施形態の効果)
上記した各実施形態によれば、以下のような効果を得ることができる。
(Effect of embodiment)
According to each embodiment described above, the following effects can be obtained.
1)路上の対象物を撮像したデータから駐車車両の側面データを抽出する側面データ抽出工程と、前記抽出した側面データに基づいて、駐車車両の有無を判別する駐車車両有無判別工程と、路上を走行する車両から前記対象物にレーザ光を走査しながら送出し、その反射レーザ光を検出することで前記対象物の撮像データを取得する路上撮像工程を実行するようにした。これにより、撮像データから抽出した駐車車両の側面データに基づいて駐車車両の有無を判別することができるようになる。また、側面データを参照することで、駐車車両の整列状況による影響が少なく、検知精度を向上させることができる。さらに、レーザ光で走査することで、天候や影、屋外光などの影響を受けずに撮像データを取得することができる。この方法では、対象物までの距離を直接計測できるため、取得したデータの解析に要するコスト及び時間を低減できる。さらに、レーザ光を反射したレンジポイントの密度が高い車体の側面を参照することになるので、ノイズの影響を最小限に抑えることができ、検知精度をより向上させることができる。 1) A side data extraction step for extracting side data of a parked vehicle from data obtained by imaging an object on the road, a parked vehicle presence / absence determination step for determining the presence / absence of a parked vehicle based on the extracted side data, A road imaging process is performed in which a laser beam is transmitted from a traveling vehicle to the object while scanning and the reflected laser beam is detected to acquire imaging data of the object. Thereby, the presence or absence of the parked vehicle can be determined based on the side data of the parked vehicle extracted from the imaging data. Further, by referring to the side data, there is little influence due to the alignment state of the parked vehicles, and the detection accuracy can be improved. Furthermore, by scanning with laser light, it is possible to acquire imaging data without being affected by weather, shadows, outdoor light, and the like. In this method, since the distance to the object can be directly measured, the cost and time required for analyzing the acquired data can be reduced. Furthermore, since the side of the vehicle body having a high density of range points reflecting the laser beam is referred to, the influence of noise can be minimized, and the detection accuracy can be further improved.
2)前記駐車車両有無判別工程で判別された駐車車両の台数をカウントして出力する駐車車両台数算出工程を実行することで、レーザ光による撮像データを取得しながら、駐車車両の台数をカウントすることができるようになる。 2) Counting the number of parked vehicles while acquiring imaging data by laser light by executing the parked vehicle number calculating step of counting and outputting the number of parked vehicles determined in the parked vehicle presence / absence determining step Will be able to.
3)前記路上撮像工程で、前記レーザ光を水平方向に走査し、このレーザ光を、撮像データの各フレームに属するスキャンラインとそれに連続する1以上のフレームに属するスキャンラインとをオーバーラップさせて走査したり、さらに、前記レーザ光を路上の対象物に対して水平方向に複数回走査することで、対象物までの距離の情報を有するエピポーラ平面距離画像データを取得するようにした。これにより、ラインスキャンによって駐車車両の判別に有益な撮像データを得ることができる。 3) In the road imaging step, the laser beam is scanned in the horizontal direction, and the scan line belonging to each frame of the imaging data is overlapped with the scan line belonging to one or more consecutive frames. Epipolar plane distance image data having information on the distance to the object is obtained by scanning or further scanning the object on the road with the laser beam a plurality of times in the horizontal direction. Thereby, imaging data useful for discrimination of a parked vehicle can be obtained by line scanning.
4)前記路上撮像工程で、レーザ光の送出から反射光の検出までの時間差若しくは照射したレーザ光と検出した反射光との位相差に基づいて、路上の対象物までの距離データを有する撮像データを取得することにより、取得した撮像データに基づいて車両の側面データを確実に抽出することができる。 4) Imaging data having distance data to an object on the road based on the time difference from the transmission of the laser light to the detection of the reflected light or the phase difference between the irradiated laser light and the detected reflected light in the road imaging step. By acquiring the vehicle side data, the vehicle side data can be reliably extracted based on the acquired imaging data.
5)前記側面データ抽出工程で、前記撮像データに含まれるレンジポイントの高さの情報に基いて前記対象物の高さを演算する高さ演算工程と、演算した対象物の高さが所定の閾値以上のフレームを駐車車両の側面データとして出力する側面データ出力工程とを実行するようにした。また、前記側面データ抽出工程で、車両の車高に基づいて対象物の高さの閾値を設定する高さ閾値設定工程を実行することにした。また、前記高さ閾値設定工程において、前記駐車車両有無判別工程で判別された駐車車両の所定台数毎若しくはレーザ光の所定の走査周期毎の高さ情報を抽出する高さ情報抽出工程と、抽出された複数の高さ情報に基づいて前記設定された閾値を更新する閾値更新工程とを実行するようにした。さらに、前記側面データ出力工程で、対象物の高さが所定の閾値以上のフレームが所定数連続する場合に、その連続するフレームを駐車車両の側面データとして出力するようにした。このような構成により、撮像データから側面データを抽出する際の閾値を適切な値に設定・更新できる。 5) In the side surface data extraction step, a height calculation step of calculating the height of the target object based on information on the height of the range point included in the imaging data, and the calculated height of the target object is predetermined. A side data output step of outputting a frame equal to or greater than the threshold value as side data of the parked vehicle is executed. Further, in the side surface data extraction step, a height threshold value setting step for setting a threshold value of the height of the object based on the vehicle height of the vehicle is executed. Further, in the height threshold value setting step, a height information extracting step for extracting height information for each predetermined number of parked vehicles or for each predetermined scanning period of the laser beam determined in the parked vehicle presence / absence determining step, and extraction And a threshold updating step for updating the set threshold based on the plurality of height information. Further, in the side data output step, when a predetermined number of frames having an object height equal to or higher than a predetermined threshold value continue, the continuous frames are output as side data of the parked vehicle. With such a configuration, it is possible to set / update the threshold value when extracting the side data from the imaging data to an appropriate value.
6)前記側面データ抽出工程で、前記撮像データに含まれるレンジポイントの奥行きの情報に基いて前記対象物の奥行きを演算する奥行き演算工程と、演算した対象物の奥行きが所定の閾値以下であるフレームを駐車車両の側面データとして出力する側面データ出力工程を実行するようにした。また、この側面データ出力工程で、車両の全幅に基づいて対象物の奥行きの閾値を設定する奥行き閾値設定工程を実行したり、対象物の奥行きが所定の閾値以下のフレームが所定数連続する場合に、その連続するフレームを駐車車両の側面データとして出力するようにしたり、前記車両の移動速度に基づいて、前記フレームが連続する所定数の基準値を設定する基準フレーム数設定工程を実行するようにした。また、前記奥行き閾値設定工程において、前記駐車車両有無判別工程で判別された駐車車両の所定台数毎若しくはレーザ光の所定の走査周期毎の奥行き情報を抽出する奥行き情報抽出工程と、抽出された複数の奥行き情報に基づいて前記設定された閾値を更新する閾値更新工程とを実行するようにした。このような構成により、撮像データに含まれる奥行きの情報に基づいて、この撮像データかた側面データを抽出することができる。 6) A depth calculation step of calculating the depth of the object based on the depth information of the range point included in the imaging data in the side surface data extraction step, and the calculated depth of the object is equal to or less than a predetermined threshold value. The side data output process for outputting the frame as side data of the parked vehicle is executed. Also, in this side surface data output step, a depth threshold setting step for setting a depth threshold of an object based on the full width of the vehicle is executed, or a predetermined number of frames having a depth of the object equal to or less than a predetermined threshold are consecutive In addition, the continuous frame is output as the side data of the parked vehicle, or the reference frame number setting step of setting a predetermined number of reference values in which the frame continues is executed based on the moving speed of the vehicle. I made it. Further, in the depth threshold setting step, a depth information extracting step for extracting depth information for each predetermined number of parked vehicles or for each predetermined scanning period of the laser light determined in the parked vehicle presence / absence determining step, and a plurality of extracted And a threshold value updating step for updating the set threshold value based on the depth information. With such a configuration, it is possible to extract side surface data from this imaging data based on depth information included in the imaging data.
7)前記撮像データから、対象物によってレーザ光が遮蔽された領域(オクルージョン)を抽出する遮蔽領域抽出工程をさらに実行し、前記駐車車両有無判別工程で、前記抽出された駐車車両の側面データ若しくは遮蔽領域データの少なくとも何れかに基づいて駐車車両の有無を判別することにより、側面データの抽出が困難な場合でも遮蔽領域に基づいて駐車車両を判別することができる。 7) further executing a shielding region extraction step of extracting a region (occlusion) where the laser beam is shielded by the object from the imaging data, and in the parking vehicle presence / absence determination step, the extracted side data of the parked vehicle or By determining the presence / absence of a parked vehicle based on at least one of the shielding area data, the parked vehicle can be identified based on the shielding area even when it is difficult to extract side data.
8)前記駐車車両有無判別工程で駐車車両が存在すると判別されたフレームの数を、前記撮像データの総フレーム数で除算し、駐車可能な領域に占める駐車車両の比率を算出する駐車領域占有率演算工程を実行することにより、駐車車両の規制等に有益で客観的な情報を提供することができる。 8) A parking area occupancy ratio in which the number of frames determined to have a parked vehicle in the parked vehicle presence / absence determining step is divided by the total number of frames of the imaging data to calculate the ratio of the parked vehicle in the parking area By executing the calculation step, it is possible to provide objective information that is useful for the regulation of parked vehicles.
9)路上を走行する計測車両に搭載される駐車車両検知装置を、前記対象物にレーザ光を照射し、対象物から反射されたレーザ光を受信して撮像データを取得する路上撮像部と、取得した撮像データから駐車車両の側面データを抽出する側面データ抽出部と、抽出された側面データに基づいて駐車車両の有無を判別する駐車車両有無判別部と、判別された駐車車両の台数をカウントして出力する駐車車両カウント部とで構成した。これにより、撮像データの取得や駐車車両の判別及び判別した駐車車両のカウントの各処理を、計測車両で走行しながらリアルタイムで行うことができる。 9) A parking vehicle detection device mounted on a measurement vehicle that travels on the road, a road imaging unit that irradiates the object with laser light, receives laser light reflected from the object, and acquires imaging data; A side data extraction unit that extracts side data of a parked vehicle from the acquired imaging data, a parked vehicle presence / absence judgment unit that discriminates the presence or absence of a parked vehicle based on the extracted side data, and counts the number of parked vehicles And a parked vehicle count unit for outputting. Thereby, each process of acquisition of imaging data, discrimination | determination of a parked vehicle, and count of the discriminate | determined parked vehicle can be performed in real time, drive | working with a measurement vehicle.
なお、この発明は上記した各実施形態に限定されるものではなく、発明の要旨を変更しない範囲で種々変形可能である。 In addition, this invention is not limited to each above-mentioned embodiment, A various deformation | transformation is possible in the range which does not change the summary of invention.
例えば、上記実施形態においては、計測車両5に搭載した駐車車両検知装置1を搭載し、路上を走行しながらリアルタイムで駐車車両3を検知するようにしたがこれに限定されない。例えば、計測車両5にはレーザスキャナ2と撮像データ格納部27だけを搭載し、取得した撮像データを後刻一括して処理するようにしても良い。これにより、計測車両5に搭載する機器を簡素化できると共に、撮像データの処理速度を考慮して計測車両5の走行速度を加減する必要がない。
For example, in the above-described embodiment, the parked
また、レーザスキャナ2が取得した撮像データを情報処理センタのサーバに随時送信して、複数の計測車両5が取得した撮像データを集中的に処理するようにしても良い。
Moreover, the imaging data acquired by the
また、本発明は路上の駐車車両3の検知に限らず、種々の駐車場における駐車車両3の検知にも適用できる。また、レーザスキャナ等を搭載する移動体も計測車両5に限らず、駐車場や特定の道路の路側等の所定のエリアに予め敷設された軌道上で移動可能な計測装置でも良い。この場合は、計測装置を所定の周期で移動させてエリア内の駐車車両を定期的に検知するようにするのが好ましい。
Moreover, this invention is applicable not only to the detection of the parked
さらに、撮像データを取得するセンサの種類や撮像データの解析方法、アルゴリズム等は上記した例に限定されず、種々変更可能である。レーザスキャナの走査方向も、鉛直方向・水平方向・斜め方向の何れでも良い。 Furthermore, the type of sensor that acquires the imaging data, the analysis method of the imaging data, the algorithm, and the like are not limited to the above-described examples, and can be variously changed. The scanning direction of the laser scanner may be any of a vertical direction, a horizontal direction, and an oblique direction.
また、計測車両5が非等速で走行した場合でも、GPS(global positioning system)やINS(inertial navigational system「慣性航法装置)を用いて計測車両5(レーザスキャナ2等)の自己位置を同時に記録することで、検知精度を維持することができる。
Even when the measuring
また、上記した参考実施形態のレーザスキャナ2を使用して、本発明の実施形態のようなEPI画像を取得することも可能である。例えば、図23に示すように、水平方向のスキャンラインをラインスキャンカメラのように時間軸に沿って層のように縦方向に並べる(図23(a))。この層を走行速度に応じて横にスライドさせたのが図23(b)である。これを平面状に投射すると図23(c)(d)の画像になる。この図から、4台の駐車車両が存在することがわかる。この手法では、(b)の画像を導く再の処理にEPI解析の手法を応用することで、レーザスキャナ(計測車両)の移動速度が未知の場合であっても、適切な位置併せを行うことができるものである。
It is also possible to acquire an EPI image as in the embodiment of the present invention by using the
以下に、上記実施形態として説明した駐車車両検知装置を使用して行った駐車車両の検知結果について説明する。 Below, the detection result of the parked vehicle performed using the parked vehicle detection apparatus demonstrated as the said embodiment is demonstrated.
(実施例1)
まず、計測車両に搭載したレーザスキャナが撮像したデータから車両の側面データ若しくは遮蔽領域を抽出して駐車車両の有無を判別した例を説明する。
Example 1
First, an example in which the presence or absence of a parked vehicle is determined by extracting vehicle side data or a shielding area from data captured by a laser scanner mounted on a measurement vehicle will be described.
計測条件を図24に、計測結果を図25に夫々示す。
これらの図から明らかなように、走行する計測車両に搭載したレーザスキャナで撮像したデータから、駐車車両の存在を正確に判別することができている。また、レーザスキャナによる撮像データの解析に要する時間がわずか数秒であることを考えると、高速で走行しながら、路側の駐車車両を判別してリアルタイムでカウントすることが可能であることが容易に理解できる。さらに、車体側面データを抽出する方法と、遮蔽領域を抽出する方法の何れにおいても、良好な計測結果が得られた。
FIG. 24 shows the measurement conditions, and FIG. 25 shows the measurement results.
As is apparent from these drawings, the presence of the parked vehicle can be accurately determined from the data captured by the laser scanner mounted on the traveling measurement vehicle. In addition, considering that it takes only a few seconds to analyze the image data captured by the laser scanner, it is easy to understand that it is possible to discriminate parked vehicles on the roadside and count in real time while traveling at high speed. it can. Furthermore, good measurement results were obtained both in the method of extracting the vehicle side surface data and the method of extracting the shielding area.
(実施例2)
次に、計測車両に搭載したラインスキャンカメラが撮像したEPI画像から車両の特徴軌跡を抽出し、その傾きによって駐車車両の有無を判別した例を説明する。
(Example 2)
Next, an example will be described in which a feature trajectory of a vehicle is extracted from an EPI image captured by a line scan camera mounted on a measurement vehicle, and the presence / absence of a parked vehicle is determined based on its inclination.
計測条件を図26に、計測結果を図27に夫々示す。
これらの図から理解できるように、駐車車両はほぼ全数を検出できたが、一方で誤検出した台数も若干あった。走行速度による精度の相違は認められなかった。
FIG. 26 shows the measurement conditions, and FIG. 27 shows the measurement results.
As can be understood from these figures, almost all of the parked vehicles were detected, but there were some that were erroneously detected. There was no difference in accuracy depending on the running speed.
誤検出の原因としては、例えば、駐車車両からの反射光や駐車車両への周囲の映り込み、及び特殊構造の駐車車両などが挙げられる。これらの原因に対しては、レンズにフードを装着したり、円偏向フィルタを利用したり、複数のラインスキャンカメラを使用することによって何れも容易に除去することができるものであった。 Causes of erroneous detection include, for example, reflected light from a parked vehicle, reflection in the surroundings of the parked vehicle, and a parked vehicle having a special structure. These causes can be easily removed by attaching a hood to the lens, using a circular deflection filter, or using a plurality of line scan cameras.
1…駐車車両検知装置
2…レーザスキャナ
3…駐車車両
4…道路
5…計測車両
25…データ格納部
26…プログラム格納部
27…撮像データ格納部
28…駐車車両データ格納部
29…計測条件格納部
32…メインプログラム
33…撮像データ取得部
34…側面データ抽出部
35…遮蔽領域抽出部
36…駐車車両有無判別部
37…駐車車両台数算出部
38…駐車領域占有率演算部
39…速度・距離情報取得部
40…処理結果出力部
41…撮像データ前処理部
42…高さ演算部
43…高さ閾値設定部
44…高さデータ抽出部
45…閾値更新部
46…側面データ出力部
47…基準フレーム数設定部
48…撮像データ前処理部
50…撮像データ前処理部
51…奥行き演算部
52…奥行き閾値設定部
53…奥行きデータ抽出部
54…閾値更新部
55…遮蔽領域出力部
56…基準フレーム数設定部
60…駐車車両検知装置
61…ラインスキャンカメラ
62…路上撮像部
63…特徴軌跡抽出部
64…傾き演算部
65…距離演算部
66…駐車車両有無判別部
67…特徴軌跡
DESCRIPTION OF
Claims (2)
前記取得したEPI画像から、撮像した対象物に関する一以上の特徴軌跡を抽出する工程と、
抽出した対象物の特徴軌跡の傾きを演算する工程と、
演算した特徴軌跡の傾きと前記移動体の移動速度とに基づいて、対象物までの距離を演算する工程と、
演算した対象物までの距離に基づいて駐車車両の有無を判別する工程と
を備えたことを特徴とする駐車車両検知方法。 Obtaining a epipolar plane image (EPI image) from a vehicle traveling on the road by line scanning the object on the road a plurality of times in the horizontal direction;
Extracting one or more feature trajectories related to the captured object from the acquired EPI image;
Calculating the inclination of the feature trajectory of the extracted object;
A step of calculating a distance to the object based on the calculated inclination of the characteristic locus and the moving speed of the moving body;
And a step of determining the presence or absence of a parked vehicle based on the calculated distance to the object.
前記対象物のEPI画像を時系列に沿って合成することで水平方向のEPI画像を取得する路上撮像部と、
前記取得したEPI画像から前記対象物に関する一以上の特徴軌跡を抽出する特徴軌跡抽出部と、
抽出した対象物の特徴軌跡の傾きを演算する傾き演算部と、
演算した特徴軌跡の傾きと前記移動体の移動速度とに基づいて、移動体から対象物までの距離を演算する距離演算部と、
演算した対象物までの距離に基づいて駐車車両の有無を判別する駐車車両有無判別部と
を備えたことを特徴とする駐車車両検知システム。
An image data acquisition unit for acquiring an epipolar plane image (EPI image) by performing a line scan of an object on the road a plurality of times in the horizontal direction from a vehicle traveling on the road;
A road imaging unit that acquires an EPI image in a horizontal direction by synthesizing EPI images of the object in time series,
A feature trajectory extraction unit that extracts one or more feature trajectories related to the object from the acquired EPI image;
An inclination calculator that calculates the inclination of the feature trajectory of the extracted object;
A distance calculation unit that calculates the distance from the moving object to the object based on the calculated inclination of the characteristic locus and the moving speed of the moving object;
A parked vehicle detection system comprising: a parked vehicle presence / absence determining unit that determines the presence / absence of a parked vehicle based on the calculated distance to the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005206656A JP4102885B2 (en) | 2005-07-15 | 2005-07-15 | Parked vehicle detection method and parked vehicle detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005206656A JP4102885B2 (en) | 2005-07-15 | 2005-07-15 | Parked vehicle detection method and parked vehicle detection system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002174204A Division JP3740531B2 (en) | 2002-06-14 | 2002-06-14 | Parked vehicle detection method, detection system, and parked vehicle detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006012178A true JP2006012178A (en) | 2006-01-12 |
JP4102885B2 JP4102885B2 (en) | 2008-06-18 |
Family
ID=35779284
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005206656A Expired - Lifetime JP4102885B2 (en) | 2005-07-15 | 2005-07-15 | Parked vehicle detection method and parked vehicle detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4102885B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008004078A (en) * | 2006-06-20 | 2008-01-10 | Samsung Electronics Co Ltd | Method, apparatus and medium for building grid map of mobile robot, and method, apparatus and medium for cell decomposition using the same |
JP2010060309A (en) * | 2008-09-01 | 2010-03-18 | Ihi Corp | Laser radar and method of monitoring boundary by same |
JP2011174891A (en) * | 2010-02-25 | 2011-09-08 | Canon Inc | Device and method for measuring position and attitude, and program |
JP2015034711A (en) * | 2013-08-07 | 2015-02-19 | 株式会社東芝 | Three-dimensional data processing apparatus, three-dimensional data processing method, and three-dimensional data processing program |
JP2015535204A (en) * | 2012-09-20 | 2015-12-10 | グーグル インコーポレイテッド | Road weather condition detection |
CN106228835A (en) * | 2016-07-18 | 2016-12-14 | 北京精英智通科技股份有限公司 | A kind of parking stall Parking determination methods and system |
CN107134147A (en) * | 2017-07-03 | 2017-09-05 | 智慧互通科技有限公司 | Method, apparatus and system based on video camera and sensor management bar parking space |
JP2018080942A (en) * | 2016-11-14 | 2018-05-24 | 住友ゴム工業株式会社 | Method of evaluating tire performance |
US10192122B2 (en) | 2014-08-21 | 2019-01-29 | Mitsubishi Electric Corporation | Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program |
US10410072B2 (en) | 2015-11-20 | 2019-09-10 | Mitsubishi Electric Corporation | Driving support apparatus, driving support system, driving support method, and computer readable recording medium |
-
2005
- 2005-07-15 JP JP2005206656A patent/JP4102885B2/en not_active Expired - Lifetime
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008004078A (en) * | 2006-06-20 | 2008-01-10 | Samsung Electronics Co Ltd | Method, apparatus and medium for building grid map of mobile robot, and method, apparatus and medium for cell decomposition using the same |
JP4664326B2 (en) * | 2006-06-20 | 2011-04-06 | 三星電子株式会社 | Region separation method, apparatus, and medium using grid map of mobile robot |
US8060254B2 (en) | 2006-06-20 | 2011-11-15 | Samsung Electronics Co., Ltd. | Method, apparatus, and medium for building grid map in mobile robot and method, apparatus, and medium for cell decomposition that uses grid map |
JP2010060309A (en) * | 2008-09-01 | 2010-03-18 | Ihi Corp | Laser radar and method of monitoring boundary by same |
JP2011174891A (en) * | 2010-02-25 | 2011-09-08 | Canon Inc | Device and method for measuring position and attitude, and program |
JP2015535204A (en) * | 2012-09-20 | 2015-12-10 | グーグル インコーポレイテッド | Road weather condition detection |
JP2015034711A (en) * | 2013-08-07 | 2015-02-19 | 株式会社東芝 | Three-dimensional data processing apparatus, three-dimensional data processing method, and three-dimensional data processing program |
US10192122B2 (en) | 2014-08-21 | 2019-01-29 | Mitsubishi Electric Corporation | Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program |
US10410072B2 (en) | 2015-11-20 | 2019-09-10 | Mitsubishi Electric Corporation | Driving support apparatus, driving support system, driving support method, and computer readable recording medium |
CN106228835A (en) * | 2016-07-18 | 2016-12-14 | 北京精英智通科技股份有限公司 | A kind of parking stall Parking determination methods and system |
JP2018080942A (en) * | 2016-11-14 | 2018-05-24 | 住友ゴム工業株式会社 | Method of evaluating tire performance |
CN107134147A (en) * | 2017-07-03 | 2017-09-05 | 智慧互通科技有限公司 | Method, apparatus and system based on video camera and sensor management bar parking space |
Also Published As
Publication number | Publication date |
---|---|
JP4102885B2 (en) | 2008-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4102885B2 (en) | Parked vehicle detection method and parked vehicle detection system | |
US11320833B2 (en) | Data processing method, apparatus and terminal | |
US9330320B2 (en) | Object detection apparatus, object detection method, object detection program and device control system for moveable apparatus | |
JP3367170B2 (en) | Obstacle detection device | |
JP5407898B2 (en) | Object detection apparatus and program | |
EP3576008B1 (en) | Image based lane marking classification | |
JP5820774B2 (en) | Road boundary estimation apparatus and program | |
JP5822255B2 (en) | Object identification device and program | |
US10580155B2 (en) | Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium | |
US10860867B2 (en) | Image processing apparatus, imaging apparatus, mobile device control system, and recording medium | |
KR101395089B1 (en) | System and method for detecting obstacle applying to vehicle | |
JP4363295B2 (en) | Plane estimation method using stereo images | |
US11064177B2 (en) | Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and recording medium | |
JP2003296736A (en) | Device for detecting obstacle and method thereof | |
JP2003084064A (en) | Device and method for recognizing vehicle in front side | |
JP2001004368A (en) | Object recognizing apparatus | |
JP2002352225A (en) | Obstacle detector and its method | |
JP2008304344A (en) | Target detector | |
JP6524529B2 (en) | Building limit judging device | |
JP2013140515A (en) | Solid object detection device and program | |
CN111213153A (en) | Target object motion state detection method, device and storage medium | |
Sehestedt et al. | Robust lane detection in urban environments | |
KR20210062672A (en) | Method and processing unit for determining information related to objects in the surrounding environment of the vehicle | |
JP2000266539A (en) | Inter-vehicle distance measuring apparatus | |
JPWO2017145634A1 (en) | Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071023 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4102885 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
EXPY | Cancellation because of completion of term |