JP2008309533A - Method and apparatus for measuring vehicle shape - Google Patents
Method and apparatus for measuring vehicle shape Download PDFInfo
- Publication number
- JP2008309533A JP2008309533A JP2007155831A JP2007155831A JP2008309533A JP 2008309533 A JP2008309533 A JP 2008309533A JP 2007155831 A JP2007155831 A JP 2007155831A JP 2007155831 A JP2007155831 A JP 2007155831A JP 2008309533 A JP2008309533 A JP 2008309533A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- voxel
- data
- dimensional
- coordinate value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、静止している車両形状を複数の計測位置から計測し、その距離データから車両の寸法(車長や車幅)、位置、及び姿勢を計測する車両形状計測方法と装置に関する。 The present invention relates to a vehicle shape measuring method and apparatus for measuring a stationary vehicle shape from a plurality of measurement positions and measuring the dimensions (vehicle length and width), position, and posture of the vehicle from the distance data.
乗用車等の駐車設備において、駐車する車両の車幅等の車体本体を非接触で計測する手段として、特許文献1〜5が既に開示されている。
In a parking facility such as a passenger car,
特許文献1は、通過する車両を停止させることなく、数mmオーダの高精度で車幅を自動計測でき、ガントリー等の大型設備や反射板等の付帯設備が不要であり、かつ少ない検出装置で車幅を自動計測でき、流線形の車体でも或いはドアミラーや窓から出た乗員の腕等を検知しても、正確に車体本体の最大車幅を計測でき、車両が斜めに通過する場合でも、正確に車幅を計測できることを目的とする。
そのため、この手段は、図13に示すように、車両が通過する車路の両側に水平間隔Dを隔てかつ対向して設けられた1対のレーザレーダ52a,52bと、各レーザレーダを制御し得られたデータを処理する制御処理装置54とを備え、各レーザレーダにより、通過する車両に対して上下に所定の角度範囲でレーザ光をスキャンして車体の両側面の断面データを求め、これから各レーザレーダから車体の両側面までの水平距離L1,L2を計測し、その差W(=D−L1−L2)を車両の全長にわたり記憶し、その最大値を車幅とするものである。
Therefore, as shown in FIG. 13, this means controls a pair of
特許文献2は、構成を簡略化してコストの削減を図り、設置工事を容易にすることを目的とする。
そのため、この手段は、図14に示すように、走行路Rの上方からその幅方向に走査する走査型測距手段Lを1台として、これを走行路Rの片側の上方に設置することとし、この走査型測距手段Lで得られる測距データを処理して車幅および車高を求めるデータ処理部61では、走査される側の車両側面部の形状に対応するデータで、車両Mの反対側の側面形状に対応するデータを補う演算を行って車幅を求めるものである。
Therefore, as shown in FIG. 14, this means has one scanning type distance measuring means L that scans in the width direction from above the traveling path R, and is installed above one side of the traveling path R. In the data processing unit 61 that processes the distance measurement data obtained by the scanning distance measuring means L to obtain the vehicle width and height, the data corresponding to the shape of the side surface of the vehicle to be scanned is the data. The vehicle width is obtained by performing an operation to supplement the data corresponding to the side shape on the opposite side.
特許文献3は、天井が低く、CCDカメラを十分な高さに設置できない場合でも、正確な車幅計測が可能であり、かつハイルーフ車の場合でも、車幅計測が可能であることを目的とする。
そのため、この手段は、図15に示すように、計測位置を通過する車両91を、複数のCCDカメラ72,対の非接触距離計74及び光電センサ76で同時に検出する。次いで、光電センサ76により車両を普通常用車として区分けする場合、同時に非接触距離計により車両の両側面位置La,Lbを検出し、検出された車両側面に最も近い1対のCCDカメラ72b,72cからの画像により、車幅を画像処理により計測する。また、光電センサにより車両をハイルーフ車として区分けする場合、同時に非接触距離計により車両の両側面位置La,Lbを検出し、両側面位置の間隔を車幅とするものである。
Therefore, as shown in FIG. 15, this means simultaneously detects a vehicle 91 passing through the measurement position by a plurality of
特許文献4は、車体色やその濃度によらず、かつ車両が計測部を斜めに通過しても正確な車幅を確実に計測することを目的とする。
そのため、この手段は、車両の幅方向に直線状に延びた縞模様を有する計測床面と、計測床面の上部に鉛直下向きに設置されたCCDカメラと、撮像画像を処理する画像処理装置とを備え、図16に示すように、(A)CCDカメラにより、計測床面を背景とする車両両側面の画像を撮像し、(C)画像上の車両濃度と縞模様の濃度との差を微分処理して濃度の急変線分を抽出し、(D)急変線分のうち、ほぼ前後方向に所定の長さ以上延び、かつ幅方向に最も間隔を隔てた線分を抽出セグメントとし、(E)ほぼ同一線上に位置する抽出セグメントを結んで1対の平行線を求め、該平行線の間隔を車幅とするものである。
Therefore, this means includes a measurement floor surface having a striped pattern extending linearly in the width direction of the vehicle, a CCD camera installed vertically downward on the measurement floor surface, and an image processing device for processing captured images. As shown in FIG. 16, (A) a CCD camera is used to capture images of both sides of the vehicle against the measurement floor, and (C) the difference between the vehicle density on the image and the stripe pattern density is calculated. (D) Among the sudden change line segments, a line segment extending substantially more than a predetermined length in the front-rear direction and spaced most apart in the width direction is used as an extraction segment. E) A pair of parallel lines is obtained by connecting extracted segments located substantially on the same line, and the interval between the parallel lines is defined as the vehicle width.
特許文献5は、被測定車両を停止させず、通常に道路を通過している状態でそのミラーを含めた車幅を計測できることを目的とする。
そのため、この手段は、図17に示すように、道路Mに対して垂直に等間隔の光線Bを照射する半導体レーザ群81A,81Bを、被測定車両82の進行方向に直角な上方位置に配設し、レーザ群81A,81Bの平行位置に光スポットを検出するCCDリニアセンサ83A,83Bを設け、道路M上にレーザ群81A,81Bに対向して、入力した光線Bをリニアセンサ83A,83Bへ反射する反射板84A,84Bを設け、リニアセンサ83A,83Bにて検出された反射光の光スポットの個数から被測定車両2の車幅を判定する車幅判定装置86を備えるものである。
Therefore, as shown in FIG. 17, this means arranges
上述した特許文献3,4では、CCDカメラを車両の通行路の天井に配置し、車両を上から撮影した画像を画像処理することによって、車両の左右の輪郭線を抽出して車幅を計測している。
しかし、CCDカメラを用いた場合、背景である床面と車両との濃淡のコントラスト差が高くないと安定性にかける欠点がある。
そこで、特許文献4では、床面に縞状の模様を描くなどコントラストを出すよう工夫しているが、駐車場等の床面を細工することは一般に駐車場オーナーの了解が得にくい。また、ドアミラーなどの突起物の検出は一般に難しい。
In
However, when a CCD camera is used, there is a drawback that stability is required unless the contrast difference between the background floor and the vehicle is high.
Thus,
また上述した特許文献1,2では、走査式の2次元レーザレーダを車両の通行路に配置して、車両の左右の輪郭線までの距離を車両が通過する間得ることによって、車幅を計測している。すなわち、レーザ光が当たった位置を点として表し、それらの点群によって車両の側面を再構成して車幅を求めている。
しかし、特許文献1,2のように、2次元レーザレーダを車両の通行路に配置して、車両が通過している間計測する手段では、車両の全体形状の情報を得ることができるが、車長(車両の進行方向)については、車両の速度によって変化するため、信頼できる値は得られない。
また、車両が移動していることから、車両の側面部分の同一箇所をレーザ光で1回しか計測することができず、レーザレーダの距離精度に大きく依存して、誤差が一般に大きく、ノイズとの区別も付きにくい。
また、誤差の影響も考慮していないため、得られた計測結果に対して、実際の車幅の範囲を推定することもできない。
さらに、計測点群で車両側面を再構成しているため、誤差の影響によってドアミラーなどの突起物と側面部との境界や、ノイズとの区別が付きにくい。
Further, in
However, as in
Further, since the vehicle is moving, the same part of the side surface portion of the vehicle can be measured only once with the laser beam, and the error is generally large depending on the distance accuracy of the laser radar, and noise and noise It is also difficult to distinguish.
In addition, since the influence of errors is not taken into consideration, the actual vehicle width range cannot be estimated from the obtained measurement result.
Furthermore, since the vehicle side surface is reconstructed with the measurement point group, it is difficult to distinguish between the boundary between the projection such as the door mirror and the side surface part and noise from the influence of the error.
半導体レーザ群を用いる特許文献5では、車長(車両の進行方向)については、車両の速度によって変化するため、信頼できる値は得られない。
また、車両が移動していることから、車両の側面部分の同一箇所をレーザ光で1回しか計測することができない。
In
Further, since the vehicle is moving, the same part of the side surface portion of the vehicle can be measured only once with the laser beam.
また、上述した従来の手段では、車両が所定の位置を、所定の姿勢(向き)で通過することを前提としているため、ある領域内の任意に位置に任意の姿勢(向き)で車両が静止している場合には、その車両の寸法(車長や車幅)、位置、及び姿勢を計測することができなかった。 Further, since the conventional means described above is based on the premise that the vehicle passes through a predetermined position in a predetermined posture (orientation), the vehicle stops at an arbitrary position (orientation) in an arbitrary region. In such a case, the dimensions (vehicle length and width), position, and posture of the vehicle could not be measured.
本発明は上述した問題点を解決するために創案されたものである。すなわち、本発明の目的は、所定の駐車エリア内に任意の姿勢(向き)で静止している車両を、離れた位置から計測し、その計測データから車両の寸法(車高、車長、車幅)、位置、及び姿勢を計測することができる車両形状計測方法と装置を提供することにある。 The present invention has been developed to solve the above-described problems. That is, an object of the present invention is to measure a vehicle stationary in an arbitrary posture (orientation) within a predetermined parking area from a remote position, and measure the vehicle dimensions (vehicle height, vehicle length, vehicle The object is to provide a vehicle shape measuring method and apparatus capable of measuring a width), a position, and an attitude.
本発明によれば、所定の駐車エリア内に静止している車両の車長及び車幅を該車両から離れた位置から計測する車両形状計測方法であって、
複数の3次元レーザレーダにより、前記駐車エリア内の車両の両側面に向けてパルスレーザ光を3次元的に照射し、前記両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測する3次元座標値計測ステップと、
コンピュータにより、前記3次元座標値をデータ処理して、車両の車長及び車幅を含む車両データを決定するデータ処理ステップと、
前記決定された車両データを出力する車両データ出力ステップとを有する、ことを特徴とする車両形状計測方法が提供される。
According to the present invention, there is provided a vehicle shape measuring method for measuring a vehicle length and a vehicle width of a vehicle stationary in a predetermined parking area from a position away from the vehicle,
A plurality of three-dimensional laser radars irradiate three-dimensionally with a pulse laser beam toward both sides of the vehicle in the parking area, and the three-dimensional coordinate values of both sides are obtained from the pulse laser beam reflected on the both sides. A three-dimensional coordinate value measuring step for measuring;
A data processing step of performing data processing on the three-dimensional coordinate value by a computer and determining vehicle data including a vehicle length and a vehicle width of the vehicle;
And a vehicle data output step of outputting the determined vehicle data. A vehicle shape measuring method is provided.
本発明の好ましい実施形態によれば、前記データ処理ステップは、3次元座標値計測ステップで計測した3次元座標値をコンピュータに入力するデータ入力ステップと、
前記駐車エリアの存在する空間領域を、境界表面が互いに直交する直方体からなる複数のボクセルに分割し、各ボクセル位置を記憶する環境モデルを構築するモデル構築ステップと、
前記座標値に対応するボクセルの内部に代表点とその誤差分布を設定し記憶するマッチングステップと、
各ボクセルの代表点の位置に基づいて車体の表面を再構成する表面再構成ステップと、
得られたボクセルの3次元データから車長や車幅を決定する車両データ決定ステップとを有する。
According to a preferred embodiment of the present invention, the data processing step includes a data input step of inputting the three-dimensional coordinate value measured in the three-dimensional coordinate value measurement step to a computer;
A model construction step of constructing an environment model that divides the space area where the parking area exists into a plurality of voxels made of rectangular parallelepipeds whose boundary surfaces are orthogonal to each other, and stores each voxel position;
A matching step of setting and storing a representative point and its error distribution inside the voxel corresponding to the coordinate value;
A surface reconstruction step of reconstructing the surface of the vehicle body based on the position of the representative point of each voxel;
A vehicle data determining step for determining a vehicle length and a vehicle width from the obtained three-dimensional data of voxels.
前記車両データ決定ステップにおいて、表面再構成ステップで得られたボクセルの3次元データを床面に投影して2次元平面情報にして、その2次元形状の包含図形を求めることによって、車長や車幅を決定する。 In the vehicle data determination step, the three-dimensional data of the voxel obtained in the surface reconstruction step is projected onto the floor surface to obtain two-dimensional plane information, and the inclusion figure of the two-dimensional shape is obtained. Determine the width.
前記モデル構築ステップにおいて、最大のボクセルを必要最小限の分解能に相当する大きさに設定し、かつ単一のボクセル内に複数の被計測点が存在する場合に、単一のボクセル内に単一の被計測点のみが存在するように、該ボクセルを更に分割して階層的に複数のボクセルに分割する。 In the model building step, when a maximum voxel is set to a size corresponding to the minimum necessary resolution and there are a plurality of measurement points in a single voxel, a single voxel is single. The voxel is further divided into a plurality of voxels hierarchically so that only the measured point exists.
前記マッチングステップの後に、前記環境モデルを更新するモデル更新ステップを有し、該モデル更新ステップにおいて、新たに入力された被計測点の座標値に対応するボクセルを探索し、
ボクセルが保有する誤差分布が十分収束して小さいボクセル内に代表点が存在するボクセルがある一定以上連なっている部分を車両の側面部とみなして、ノイズ点やドアミラー等の付属品と側面部とを分離する。
After the matching step, a model update step for updating the environmental model is performed, and in the model update step, a voxel corresponding to a coordinate value of a newly input measurement point is searched,
The error distribution held by the voxel is sufficiently converged and the part where a certain voxel with a representative point exists in a small voxel is connected to a certain side is regarded as the side part of the vehicle. Isolate.
前記マッチングステップの後に、前記環境モデルを更新するモデル更新ステップを有し、該モデル更新ステップにおいて、新たに入力された被計測点の座標値に対応するボクセルを探索し、
該ボクセル内に代表点がない場合に、前記座標値と誤差分布を代表点の座標値と誤差分布として設定する。
After the matching step, a model update step for updating the environmental model is performed, and in the model update step, a voxel corresponding to a coordinate value of a newly input measurement point is searched,
When there is no representative point in the voxel, the coordinate value and error distribution are set as the coordinate value and error distribution of the representative point.
前記マッチングステップの後に、前記環境モデルを更新するモデル更新ステップを有し、該モデル更新ステップにおいて、新たに入力された被計測点の座標値に対応するボクセルを探索し、
前記ボクセル内に既に設定した代表点がある場合に、新たに取得した誤差分布と既に設定したボクセル内の誤差分布とを比較し、
誤差分布が互いに重複する場合に、両誤差分布から新たな誤差分布と新たな代表点を再設定し、
誤差分布が互いに重複しない場合に、単一のボクセル内に単一の代表点のみが存在するように、該ボクセルを更に分割して階層的に複数のボクセルに分割する。
After the matching step, a model update step for updating the environmental model is performed, and in the model update step, a voxel corresponding to a coordinate value of a newly input measurement point is searched,
When there is a representative point already set in the voxel, the newly acquired error distribution is compared with the already set error distribution in the voxel,
If the error distributions overlap each other, reset a new error distribution and a new representative point from both error distributions,
When the error distributions do not overlap with each other, the voxel is further divided into a plurality of voxels hierarchically so that only a single representative point exists within a single voxel.
ボクセルの内部に代表点とその誤差分布に加えて、確率値を併せ持つ、ことが好ましい。 It is preferable to have a probability value in addition to the representative point and its error distribution inside the voxel.
また、本発明によれば、所定の駐車エリア内に静止している車両の車長及び車幅を該車両から離れた位置から計測する車両形状計測装置であって、
前記駐車エリア内の車両の両側面に向けてパルスレーザ光を3次元的に照射し、前記両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測する複数の3次元レーザレーダと、
前記3次元座標値をデータ処理して、車両の車長及び車幅を含む車両データを決定するデータ処理装置と、
前記決定された車両データを出力する車両データ出力装置とを有する、ことを特徴とする車両形状計測装置が提供される。
Moreover, according to the present invention, there is provided a vehicle shape measuring device that measures the vehicle length and the vehicle width of a vehicle stationary within a predetermined parking area from a position away from the vehicle,
A plurality of three-dimensional laser radars that three-dimensionally irradiate a pulse laser beam toward both sides of the vehicle in the parking area and measure a three-dimensional coordinate value on both sides from the pulse laser beam reflected on the both sides When,
A data processing device that processes the three-dimensional coordinate values to determine vehicle data including a vehicle length and a vehicle width;
There is provided a vehicle shape measuring device comprising a vehicle data output device for outputting the determined vehicle data.
本発明の好ましい実施形態によれば、前記データ処理装置は、3次元レーザレーダで計測した3次元座標値をコンピュータに入力するデータ入力装置と、
前記駐車エリアに存在する空間領域を、境界表面が互いに直交する直方体からなる複数のボクセルに分割し、各ボクセル位置を記憶する環境モデルを構築するモデル構築装置と、
前記座標値に対応するボクセルの内部に代表点とその誤差分布を設定し記憶するマッチング装置と、
各ボクセルの代表点の位置に基づいて車体の表面を再構築する表面再構築装置と、
得られたボクセルの3次元データから車長や車幅を決定する車両データ決定装置とを有する。
According to a preferred embodiment of the present invention, the data processing device includes a data input device that inputs a three-dimensional coordinate value measured by a three-dimensional laser radar to a computer;
A model construction device that divides a spatial region existing in the parking area into a plurality of voxels made of rectangular parallelepipeds whose boundary surfaces are orthogonal to each other, and constructs an environmental model that stores each voxel position;
A matching device for setting and storing a representative point and its error distribution inside a voxel corresponding to the coordinate value;
A surface reconstruction device that reconstructs the surface of the vehicle body based on the position of the representative point of each voxel;
A vehicle data determination device that determines the vehicle length and vehicle width from the obtained three-dimensional data of voxels.
また、前記車両データ決定装置により、表面再構築装置で得られたボクセルの3次元データを床面に投影して2次元平面情報にして、その2次元形状の包含図形を求めることによって、車長や車幅を決定する。 Further, the vehicle data determination device projects the three-dimensional data of the voxels obtained by the surface reconstruction device onto the floor surface to obtain two-dimensional plane information, and obtains an inclusion figure of the two-dimensional shape, thereby And determine the vehicle width.
上述した本発明の方法及び装置によれば、複数の3次元レーザレーダを用いた3次元座標値計測ステップにおいて、所定の駐車エリア内の車両の両側面に向けてパルスレーザ光を3次元的に照射し、前記両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測し、
コンピュータを用いたデータ処理ステップにおいて、前記3次元座標値をデータ処理して、車両の車長及び車幅を含む車両データを決定するので、車幅だけではなく、車長を含め車両の全体形状を把握することができる。
According to the method and apparatus of the present invention described above, in the three-dimensional coordinate value measurement step using a plurality of three-dimensional laser radars, the pulse laser beam is three-dimensionally directed toward both sides of the vehicle in a predetermined parking area. Irradiate and measure the three-dimensional coordinate values of both sides from the pulsed laser light reflected on both sides,
In the data processing step using a computer, the three-dimensional coordinate value is data-processed to determine vehicle data including the vehicle length and vehicle width, so that not only the vehicle width but also the vehicle overall shape including the vehicle length is determined. Can be grasped.
さらに、本発明によれば、以下の効果が得られる。
(1)車両の同一箇所を数回計測することができ、統計処理によって精度向上が図れる。
(2)視点の異なる複数のセンサの計測結果を統合することが可能となり、精度向上が図れる。
(3)センサの誤差モデルを考慮することによって、計測誤差の向上や、計測誤差の推定が可能となり、車両のサイズに応じた駐車スペースの割り当てや、車両の自動/手動誘導時に、安全性を考慮することが可能となる。
(4)ノイズとそれ以外との区別が可能となり、精度向上が期待できる。
(5)ドアミラーなどの突起部分と車両の側面部分との区別が精度向上によって可能となるので、ドアミラーまで含めた車幅とドアミラーを含めない車幅とをアプリケーションによって使い分けることが可能となる。
(6)2次元平面情報にし、その包含図形を求めることで、車長や車幅、姿勢を安定して求めることができる。
Furthermore, according to the present invention, the following effects can be obtained.
(1) The same part of the vehicle can be measured several times, and the accuracy can be improved by statistical processing.
(2) The measurement results of a plurality of sensors with different viewpoints can be integrated, and the accuracy can be improved.
(3) By taking into account the error model of the sensor, it is possible to improve the measurement error and estimate the measurement error, and to ensure safety when allocating parking spaces according to the size of the vehicle and for automatic / manual guidance of the vehicle. It becomes possible to consider.
(4) It becomes possible to distinguish between noise and the other, and an improvement in accuracy can be expected.
(5) Since it is possible to distinguish the protruding portion such as the door mirror and the side surface portion of the vehicle by improving the accuracy, the vehicle width including the door mirror and the vehicle width not including the door mirror can be properly used depending on the application.
(6) By obtaining the two-dimensional plane information and obtaining the inclusion graphic, the vehicle length, the vehicle width, and the posture can be obtained stably.
以下本発明の好ましい実施形態について、図面を参照して説明する。なお、各図において、共通する部分には同一の符号を付し、重複した説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In each figure, common portions are denoted by the same reference numerals, and redundant description is omitted.
図1は、3次元レーザレーダの構成図である。
この図に示すように、3次元レーザレーダ10は、レーダヘッド12と制御器20から構成される。レーザダイオード13から発振されたパルスレーザ光1は、投光レンズ14で平行光2に整形され、ミラー18a,18bと回転・揺動するポリゴンミラー15で二次元方向に走査され、測定対象物に照射される。測定対象物から反射されたパルスレーザ光3は、ポリゴンミラー15を介して受光レンズ16で集光され、光検出器17で電気信号に変換される。
FIG. 1 is a configuration diagram of a three-dimensional laser radar.
As shown in this figure, the three-
制御器20内の時間間隔カウンタ21は、レーザダイオード13のパルス発振タイミングと同期したスタートパルス4と、光検出器17から出力されたストップパルス5の時間間隔を計測する。信号処理ボード22は、反射光が検出された時点の時間間隔t、ポリゴンミラーの回転角度θ、揺動角度φを極座標データ(r,θ,φ)として出力する。
rは計測位置(レーダヘッド設置位置)を原点とする距離であり、r=c×t/2 の式で求められる。ここでcは光速である。
判定処理ユニット23は、信号処理ボードからの極座標データを、レーダヘッド設置位置を原点とした3次元空間データ(x,y,z)へ変換して、検出処理を行うようになっている。なおこの図で24はドライブユニットである。
The
r is a distance with the measurement position (radar head installation position) as the origin, and is obtained by the equation r = c × t / 2. Here, c is the speed of light.
The
上述した3次元レーザレーダ10の計測範囲は、例えば、水平画角60°、垂直画角30°、最大測定距離50mである。また、位置検出精度は、例えば約20cmである。
また、計測データを各画素に対して奥行き方向の距離値を持った距離画像で表示する場合、1フレームの計測点数を、横方向166点、スキャン方向50点とすると、1フレームに166×50=8300点が表示される。この場合にフレームレートは、例えば約2フレーム/秒である。
The measurement range of the three-
Further, when displaying the measurement data as a distance image having a distance value in the depth direction for each pixel, if the number of measurement points in one frame is 166 points in the horizontal direction and 50 points in the scan direction, 166 × 50 per frame. = 8300 points are displayed. In this case, the frame rate is, for example, about 2 frames / second.
この3次元レーザレーダ10で計測される3次元形状上の被計測点は、横方向にΔθ×r、垂直方向にΔφ×r、互いに離散した点群となる。例えば、Δθ=60/166×π/180=6.3×10−3ラジアン、Δφ=30/50×π/180=10.5×10−3ラジアン、r=5.0mの場合、最も近接する場合に、被計測点の間隔は、横方向で約31.5mm、垂直方向で約52.5mmとなる。
The points to be measured on the three-dimensional shape measured by the three-
図2は、距離センサで計測された極座標データと誤差の関係を示す図である。
図2(A)に示すように、任意の計測位置を原点とする極座標値(r,θ,φ)を計測結果として計測する。距離センサによる計測結果には、図に示すような誤差分布が通常存在する。
この誤差分布は、誤差分布のrs,θs,φsでの存在確率をP(rs,θs,φs)とした場合、誤差分布は計測の軸r,θ,φ方向に正規分布しているとし、例えば式(1)で表すことができる。ここで、r,θ,φはセンサからの計測値、σr,σθ,σφは は標準偏差、Aは規格化定数である。
図2(B)に示すように、誤差分布は、通常r方向に長い切頭円錐形(左図)に内包される分布であるが、遠方においてaとbの差は小さい。従って、この誤差分布を直方体に包含される楕円体として安全サイドに近似することができる。
FIG. 2 is a diagram illustrating a relationship between polar coordinate data measured by the distance sensor and an error.
As shown in FIG. 2A, polar coordinate values (r, θ, φ) having an arbitrary measurement position as the origin are measured as measurement results. An error distribution as shown in the figure normally exists in the measurement result by the distance sensor.
This error distribution is normalized in the directions of measurement axes r, θ, and φ when the existence probability of the error distribution at r s , θ s , and φ s is P (r s , θ s , φ s ). For example, it can be expressed by the formula (1). Here, r, θ, φ are measured values from the sensor, σ r , σ θ , σ φ are standard deviations, and A is a normalization constant.
As shown in FIG. 2B, the error distribution is a distribution that is normally included in a truncated cone shape (left figure) that is long in the r direction, but the difference between a and b is small in the distance. Therefore, this error distribution can be approximated to the safe side as an ellipsoid included in a rectangular parallelepiped.
図3は、本発明の車両形状計測装置の全体構成図である。
この図に示すように、本発明の車両形状計測装置は、複数の3次元レーザレーダ10、データ処理装置30、及び車両データ出力装置40を備える。
複数(この例では2台)の3次元レーザレーダ10は、所定の駐車エリア11内の車両9の両側面に向けてパルスレーザ光を3次元的に照射し、車両9の両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測する。
データ処理装置30は、3次元レーザレーダ10で得られた3次元座標値をデータ処理して、車両9の車長及び車幅を含む車両データを決定する。
車両データ出力装置40は、データ処理装置30で決定された車両データを別の装置50に出力する。
FIG. 3 is an overall configuration diagram of the vehicle shape measuring apparatus of the present invention.
As shown in this figure, the vehicle shape measuring device of the present invention includes a plurality of three-
A plurality (two in this example) of three-
The
The vehicle
図4は、データ処理装置30の構成図である。この図に示すように、データ処理装置30は、コンピュータであり、データ入力装置32、外部記憶装置33、内部記憶装置34、中央処理装置35および出力装置36を備える。
FIG. 4 is a configuration diagram of the
データ入力装置32は、3次元レーザレーダ10で得られた車両9の3次元座標値を記憶装置に入力する。なお、データ入力装置32は、キーボード等の通常の入力手段も有するのがよい。
外部記憶装置33は、ハードディスク、フロッピ(登録商標)ーディスク、磁気テープ、コンパクトディスク等である。外部記憶装置33は、入力された車両9の3次元座標値、ボクセル位置、及び代表点とその誤差分布及び本発明の方法を実行するためのプログラムを記憶する。
内部記憶装置34は、例えばRAM,ROM等であり、演算情報を保管する。
中央処理装置35(CPU)は、モデル構築装置およびマッチング装置として機能し、演算や入出力等を集中的に処理し、内部記憶装置34と共に、プログラムを実行する。
出力装置36は、例えば表示装置とプリンタであり、外部記憶装置33に記憶したデータ及びプログラムの実行結果を出力するようになっている。
The
The external storage device 33 is a hard disk, a floppy (registered trademark) disk, a magnetic tape, a compact disk, or the like. The external storage device 33 stores the inputted three-dimensional coordinate value of the vehicle 9, the voxel position, the representative point, its error distribution, and a program for executing the method of the present invention.
The
The central processing unit 35 (CPU) functions as a model construction device and a matching device, centrally processes operations and input / output, and executes a program together with the
The output device 36 is, for example, a display device and a printer, and outputs data stored in the external storage device 33 and the execution result of the program.
図5は、本発明の方法を示すフローチャートである。
本発明の方法は、所定の駐車エリア11内に静止している車両9の車長及び車幅を車両9から離れた位置から計測する車両形状計測方法であり、3次元座標値計測ステップS1、データ処理ステップS2、および車両データ出力ステップS3を有する。
FIG. 5 is a flow chart illustrating the method of the present invention.
The method of the present invention is a vehicle shape measuring method for measuring the vehicle length and the vehicle width of a vehicle 9 stationary in a
3次元座標値計測ステップS1では、複数の3次元レーザレーダにより、駐車エリア11内の車両9の両側面に向けてパルスレーザ光を3次元的に照射し、車両9の両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測する。
データ処理ステップS2では、コンピュータ(上述したデータ処理装置30)により、車両9の3次元座標値をデータ処理して、車両9の車長及び車幅を含む車両データを決定する。
In the three-dimensional coordinate value measurement step S <b> 1, a plurality of three-dimensional laser radars irradiate pulse laser light three-dimensionally toward both side surfaces of the vehicle 9 in the
In the data processing step S2, the three-dimensional coordinate value of the vehicle 9 is data-processed by a computer (the
データ処理ステップS2は、データ入力ステップS21、データ補正ステップS22、モデル構築ステップS23、マッチングステップS24、表面再構成ステップS25及び車両データ決定ステップS26を有する。 The data processing step S2 includes a data input step S21, a data correction step S22, a model construction step S23, a matching step S24, a surface reconstruction step S25, and a vehicle data determination step S26.
データ入力ステップS21では、3次元座標値計測ステップS1で計測した3次元座標値をコンピュータ(上述したデータ処理装置30)の記憶装置に入力する。
3次元レーザレーダ10による3次元座標値は、所定の計測位置を原点とする距離データであり、極座標値(r,θ,φ)で表される。また、各座標値の誤差分布は、極座標値(r,θ,φ)から演算で求めるか、予め別の入力手段(例えばキーボード)で入力する。
In the data input step S21, the three-dimensional coordinate value measured in the three-dimensional coordinate value measuring step S1 is input to the storage device of the computer (the
The three-dimensional coordinate value obtained by the three-
データ補正ステップS22では、距離データの補正処理を行い、距離データの精度を向上させる。また、極座標データと3次元レーザレーダ10の位置データから、任意の固定位置を原点とした3次元空間データ(x,y,z)へ変換してもよい。
距離データの補正処理では、孤立点の除去、統計的処理、等を行う。孤立点は、周囲の点から孤立して存在する点であり、計測データは複数の近接する点で構成されることから、孤立点は誤計測と仮定して除去することができる。統計的処理は、計測データが含む誤差分布を考慮して、複数回の計測を統計処理(例えば平均値等)することで、距離の補正を行う。
さらに、対象とする3次元形状が、直線近似又は平面近似できる場合にはこれらを行うのがよい。
In the data correction step S22, distance data correction processing is performed to improve the accuracy of the distance data. Further, the polar coordinate data and the position data of the three-
In the distance data correction processing, isolated point removal, statistical processing, and the like are performed. An isolated point is a point that is isolated from surrounding points, and the measurement data is composed of a plurality of adjacent points. Therefore, the isolated point can be removed on the assumption of an erroneous measurement. The statistical process corrects the distance by statistically processing a plurality of measurements (for example, an average value) in consideration of the error distribution included in the measurement data.
Further, when the target three-dimensional shape can be linearly approximated or planarly approximated, these are preferably performed.
図6は、ボクセルの分割に八分木を用いた場合のモデル構築ステップの模式図である。 FIG. 6 is a schematic diagram of model building steps when an octree is used for voxel division.
モデル構築ステップS23では、この図に示すように、所定の駐車エリア11の存在する空間領域を、境界表面が互いに直交する直方体からなる複数のボクセル6に分割し、各ボクセル位置を記憶する環境モデルを構築する。
ボクセル6の形状は、各辺の長さが等しい立方体でも、各辺の長さが異なる直方体でもよい。
また、ボクセル6の各辺の長さは、最大のボクセル6を必要最小限の分解能に相当する大きさに設定するのがよい。以下、最大のボクセル6をレベル1のボクセルと呼ぶ。
また、単一のボクセル内に複数の被計測点が存在する場合には、単一のボクセル内に単一の被計測点のみが存在するように、ボクセルを更に八分割して階層的に複数のボクセルに分割する。以下、最大のボクセル6の八分割を1回実施した空間領域をレベル2のボクセル、k回実施した空間領域をレベルk+1のボクセルと呼ぶ。
In the model construction step S23, as shown in this figure, an environment model in which a space area where a
The shape of the
The length of each side of the
In addition, when there are a plurality of measured points in a single voxel, the voxel is further divided into eight and divided hierarchically so that only a single measured point exists in a single voxel. Divide into voxels. Hereinafter, a spatial region in which the
図7は、構築された環境モデルの模式図である。
マッチングステップS24では、この図に示すように、3次元形状上の座標値に対応するボクセル6の内部に代表点7とその誤差分布8を設定し記憶する。末端のボクセルは計測値の代表点を1つだけ持つことができる。各ボクセルが計測値の代表点とその誤差分布を持つことで、物体の形状を表す。
FIG. 7 is a schematic diagram of the constructed environmental model.
In the matching step S24, the
マッチングステップS24において、代表点の絶対位置は式(2)で与えられる。ここで、(x,y,z)は代表点のボクセルでの相対座標、Sx,Sy,Szはレベル1でのボクセルの一辺の大きさ、nx(k),ny(k),nz(k)はレベルkでのボクセルの番地、Lは求める代表点が存在するレベルである。 In the matching step S24, the absolute position of the representative point is given by equation (2). Here, (x, y, z) is the relative coordinates of the voxels of the representative points, Sx, Sy, Sz is the side of the voxel at level 1 size, n x (k), n y (k), n z (k) is the address of the voxel at level k, and L is the level at which the representative point to be found exists.
図8は、本発明におけるボクセルデータのデータ構造を示す図である。
この図において、図8(A)は、各ボクセルデータのメモリレイアウト例である。この図において、矢印はデータへのリンクを表し、値としてはデータへのポインタを保持する。
図8(B)は、レベル2(1,1,0)のボクセルが代表点を持つ場合の例を示している。なおこの図において、nullは空集合を表す。
FIG. 8 is a diagram showing a data structure of voxel data in the present invention.
In this figure, FIG. 8A is an example of a memory layout of each voxel data. In this figure, an arrow represents a link to data, and a pointer to the data is held as a value.
FIG. 8B shows an example in which a voxel at level 2 (1, 1, 0) has a representative point. In this figure, null represents an empty set.
上述したデータ構造の環境モデルは、以下の特徴を有する。
(1)内容:空間を小直方体で分割して各ボクセルに計測点の代表点と誤差分布を保持する。
(2)精度:ボクセル毎に持つ計測点の代表値相当である。
(3)存在:物体の存在の有無を表現できる。
(4)データ量:ボクセルの個数に比例してメモリを必要とするが、サイズ固定である。
(5)点群からの変換:適しており、計算量は少ない。
(6)アクセス速度:シンプルな構造をしているため、要素へのアクセスが高速である。
The environmental model of the data structure described above has the following characteristics.
(1) Contents: A space is divided into small rectangular parallelepipeds, and representative points of measurement points and error distribution are held in each voxel.
(2) Accuracy: Equivalent to the representative value of the measurement points for each voxel.
(3) Presence: The presence or absence of an object can be expressed.
(4) Data amount: A memory is required in proportion to the number of voxels, but the size is fixed.
(5) Conversion from a point cloud: Suitable and less computational complexity.
(6) Access speed: Since the structure is simple, access to elements is fast.
またこの特徴から、上述した環境モデルは、以下の効果A〜Cをすべて満たしている。
効果A:誤差を考慮した表現が可能である。
効果B:必要なメモリ量と計算量が一定量以下である。
効果C:物体の存在だけでなく、物体が存在しないことを表せる。
Moreover, from this characteristic, the environmental model mentioned above satisfy | fills all the following effects AC.
Effect A: It is possible to express in consideration of errors.
Effect B: Necessary memory amount and calculation amount are below a certain amount.
Effect C: Not only the presence of an object but also the absence of an object can be expressed.
さらに図5において、表面再構成ステップS25は、マッチングステップS24の後に実施し、モデル構築ステップS23で構築した環境モデルを更新する。 Further, in FIG. 5, the surface reconstruction step S25 is performed after the matching step S24, and the environment model constructed in the model construction step S23 is updated.
図9は、表面再構成ステップS25におけるデータ処理フロー図である。この図に示すように、ステップST1で新たに入力された被計測点の座標値に対応するボクセルを探索し、ステップST2で該当するボクセル内に代表点がない(ボクセルが空である)場合には、ステップST3で新たに入力された被計測点の座標値と誤差分布を代表点の座標値と誤差分布として設定(新規に登録)する。
また、このステップST3において、新しい計測位置(原点)と被計測点の間には、原理的に物体が存在しないはずである。従って新しい計測位置(原点)と被計測点の間に位置するボクセル内の代表点と誤差分布を再設定もしくは消去する。
FIG. 9 is a data processing flowchart in the surface reconstruction step S25. As shown in this figure, a search is made for a voxel corresponding to the coordinate value of the measured point newly input in step ST1, and if there is no representative point in the corresponding voxel in step ST2 (the voxel is empty). Sets (newly registers) the coordinate value and error distribution of the measurement point newly input in step ST3 as the coordinate value and error distribution of the representative point.
In step ST3, no object should exist in principle between the new measurement position (origin) and the measured point. Accordingly, the representative point in the voxel located between the new measurement position (origin) and the measurement point and the error distribution are reset or deleted.
図10は、該当するボクセル内に既に設定した代表点がある場合の模式図である。
図9のステップST2で該当するボクセル内に既に設定した代表点がある場合には、ステップST4で新たに取得した誤差分布と既に設定したボクセル内の誤差分布とを比較する(すなわち異なる点か同一点かを判断する)。
この比較で、誤差分布が互いに重複する場合(図10A)には、ステップST5で両誤差分布から新たな誤差分布と新たな誤差分布の中心を再設定する(すなわち誤差分布を合成する)。
またこの比較で、誤差分布が互いに重複しない場合(図10B)には、ステップST6、ST7で単一のボクセル内に単一の代表点のみが存在するように、該ボクセルを更に八分割して階層的に複数のボクセルに分割し新規に登録する。
分割と合成の基準は、例えば誤差分布の一致度から判断する。誤差分布の一致度には例えば、マハラノビス距離のような距離尺度を利用できる。また、2つの誤差分布に基づき、両者が同一点を表しているかを統計的検定によって判定してもよい。
FIG. 10 is a schematic diagram when there is a representative point already set in the corresponding voxel.
If there is a representative point already set in the corresponding voxel in step ST2 in FIG. 9, the error distribution newly acquired in step ST4 is compared with the error distribution in the already set voxel (that is, the difference points are the same). Judge whether it is one point).
If the error distributions overlap each other in this comparison (FIG. 10A), a new error distribution and a new error distribution center are reset from both error distributions in step ST5 (that is, the error distribution is synthesized).
In this comparison, if the error distributions do not overlap with each other (FIG. 10B), the voxel is further divided into eight so that only a single representative point exists in a single voxel in steps ST6 and ST7. Newly register by dividing into multiple voxels hierarchically.
The criteria for division and synthesis are determined from, for example, the degree of coincidence of error distributions. For example, a distance scale such as Mahalanobis distance can be used for the degree of coincidence of error distributions. Further, based on the two error distributions, it may be determined by a statistical test whether both represent the same point.
図11は、誤差分布が互いに重複する場合(図10A)の別の模式図である。図9のステップST5において、2つの代表点と誤差分布を合成して新たな代表点と誤差分布を設定する手段として、カルマンフィルタを用いることができる。例えば、二次元の場合に、この図に示すように、2つの代表点をそれぞれx(1),x’(2)、2つの誤差分布をΣ(1)、Σ’(2)とし、これを合成した代表点をx(2)、誤差分布をΣ(2)とすると、代表点x(2)と誤差分布Σ(2)を算出する模式図は図11のようになる。 FIG. 11 is another schematic diagram when error distributions overlap each other (FIG. 10A). In step ST5 of FIG. 9, a Kalman filter can be used as means for setting a new representative point and error distribution by combining the error distribution with two representative points. For example, in the case of two dimensions, as shown in this figure, the two representative points are x (1) and x ′ (2), the two error distributions are Σ (1) and Σ ′ (2), respectively. 11 is a schematic diagram for calculating the representative point x (2) and the error distribution Σ (2), where x (2) and the error distribution are Σ (2).
さらに図5において、車両データ決定ステップS26は、表面再構成ステップS25の後に実施し、得られたボクセルの3次元データを床面に投影して2次元平面情報にして、その2次元形状の包含図形を求めることによって、車長や車幅を決定する。 Further, in FIG. 5, the vehicle data determination step S26 is performed after the surface reconstruction step S25, and the obtained three-dimensional data of the voxel is projected onto the floor surface to obtain two-dimensional plane information, and the inclusion of the two-dimensional shape is performed. The vehicle length and vehicle width are determined by determining the figure.
車両データ決定ステップS26において、ボクセル位置、及び代表点とその誤差分布を出力装置36に出力してもよい。出力装置36が表示装置(例えばCRT)の場合、3次元画像上に立体表示するのが好ましい。また、これらのデータを別の装置(例えば制御装置、コンピュータ)に転送してもよく、プリンタで出力してもよい。 In the vehicle data determination step S <b> 26, the voxel position, the representative point, and its error distribution may be output to the output device 36. When the output device 36 is a display device (for example, a CRT), it is preferable to perform stereoscopic display on a three-dimensional image. These data may be transferred to another device (for example, a control device or a computer) or may be output by a printer.
図5に示した処理の手順は、新たな計測位置において、新しい計測データが得られる度に、処理を繰り返し行い、外部記憶装置33に結果を格納する。 The processing procedure shown in FIG. 5 repeats the processing each time new measurement data is obtained at a new measurement position, and stores the result in the external storage device 33.
図5において、車両データ出力ステップS3では、データ処理ステップS2で決定された車両データを別の装置50に出力する。
別の装置50は、例えば、(1)車両の形状ないしは寸法に応じて駐車エリアを選択する手段、(2)車両の形状ないしは寸法に応じて料金計算手段、(3)車両の形状ないしは寸法に応じて該当する駐車スペースまでの車両の移動方法を案内する案内手段、(4)自動搬送装置により自動で車両を駐車スペースまで誘導/運搬する誘導・運搬手段である。
これらの手段(別の装置50)を併用することにより、(1)の手段により車両の形状ないしは寸法に応じて駐車エリアを選択することができ、(2)の料金計算手段により車両の形状ないしは寸法に応じて料金を計算することができ、(3)の案内手段により車両の形状ないしは寸法に応じて該当する駐車スペースまでの車両の移動方法を案内することができ、(4)の誘導・運搬手段により自動搬送装置により自動で車両を駐車スペースまで誘導/運搬することができる。
In FIG. 5, in the vehicle data output step S <b> 3, the vehicle data determined in the data processing step S <b> 2 is output to another
Another
By using these means (another device 50) in combination, a parking area can be selected according to the shape or dimensions of the vehicle by means of (1), and the shape or shape of the vehicle by means of charge calculation means of (2). Charges can be calculated according to the dimensions, and the guide means of (3) can guide the vehicle movement method to the corresponding parking space according to the shape or dimensions of the vehicle. The vehicle can be guided / transported automatically to the parking space by the automatic transport device by the transport means.
図12は、本発明の実施例を示す図である。この図において、(A)は1回目の計測データ、(B)は複数回の計測データの統合結果、(C)は複数回の計測データの統合結果の拡大図である。
この図から、複数回の計測データを統合することにより、精度向上が図れることがわかる。
FIG. 12 is a diagram showing an embodiment of the present invention. In this figure, (A) is the first measurement data, (B) is an integration result of a plurality of measurement data, and (C) is an enlarged view of the integration result of a plurality of measurement data.
From this figure, it can be seen that the accuracy can be improved by integrating the measurement data of a plurality of times.
上述した本発明の方法及び装置によれば、複数の3次元レーザレーダを用いた3次元座標値計測ステップにおいて、所定の駐車エリア内の車両の両側面に向けてパルスレーザ光を3次元的に照射し、前記両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測し、
コンピュータを用いたデータ処理ステップにおいて、前記3次元座標値をデータ処理して、車両の車長及び車幅を含む車両データを決定するので、車幅だけではなく、車長を含め車両の全体形状を把握することができる。
According to the method and apparatus of the present invention described above, in the three-dimensional coordinate value measurement step using a plurality of three-dimensional laser radars, the pulse laser beam is three-dimensionally directed toward both sides of the vehicle in a predetermined parking area. Irradiate and measure the three-dimensional coordinate values of both sides from the pulsed laser light reflected on both sides,
In the data processing step using a computer, the three-dimensional coordinate value is data-processed to determine vehicle data including the vehicle length and vehicle width, so that not only the vehicle width but also the vehicle overall shape including the vehicle length is determined. Can be grasped.
さらに、本発明によれば、以下の効果が得られる。
(1)車両の同一箇所を数回計測することができ、統計処理によって精度向上が図れる。
(2)視点の異なる複数のセンサの計測結果を統合することが可能となり、精度向上が図れる。
(3)センサの誤差モデルを考慮することによって、計測誤差の向上や、計測誤差の推定が可能となり、車両のサイズに応じた駐車スペースの割り当てや、車両の自動/手動誘導時に、安全性を考慮することが可能となる。
(4)ノイズとそれ以外との区別が可能となり、精度向上が期待できる。
(5)ドアミラーなどの突起部分と車両の側面部分との区別が精度向上によって可能となるので、ドアミラーまで含めた車幅とドアミラーを含めない車幅とをアプリケーションによって使い分けることが可能となる。
(6)2次元平面情報にし、その包含図形を求めることで、車長や車幅、姿勢を安定して求めることができる。
Furthermore, according to the present invention, the following effects can be obtained.
(1) The same part of the vehicle can be measured several times, and the accuracy can be improved by statistical processing.
(2) The measurement results of a plurality of sensors with different viewpoints can be integrated, and the accuracy can be improved.
(3) By taking into account the error model of the sensor, it is possible to improve the measurement error and estimate the measurement error, and to ensure safety when allocating parking spaces according to the size of the vehicle and for automatic / manual guidance of the vehicle. It becomes possible to consider.
(4) It becomes possible to distinguish between noise and the other, and an improvement in accuracy can be expected.
(5) Since it is possible to distinguish the protruding portion such as the door mirror and the side surface portion of the vehicle by improving the accuracy, the vehicle width including the door mirror and the vehicle width not including the door mirror can be properly used depending on the application.
(6) By obtaining the two-dimensional plane information and obtaining the inclusion graphic, the vehicle length, the vehicle width, and the posture can be obtained stably.
なお、本発明は、上述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で種々に変更することができることは勿論である。 In addition, this invention is not limited to embodiment mentioned above, Of course, it can change variously in the range which does not deviate from the summary of this invention.
1 パルスレーザ光、2 平行光、3 パルスレーザ光、
4 スタートパルス、5 ストップパルス、
6 ボクセル、7 代表点、8 誤差分布、
10 三次元レーザレーダ、12 レーダヘッド、13 レーザダイオード、
14 投光レンズ、15 ポリゴンミラー、16 受光レンズ、
17 光検出器、18a,18b ミラー、
20 制御器、21 時間間隔カウンタ、22 信号処理ボード、
23 判定処理ユニット、24 ドライブユニット、
32 データ入力装置、33 外部記憶装置、34 内部記憶装置、
35 中央処理装置、36 出力装置
1 pulse laser light, 2 parallel light, 3 pulse laser light,
4 start pulse, 5 stop pulse,
6 voxels, 7 representative points, 8 error distribution,
10 3D laser radar, 12 radar head, 13 laser diode,
14 projection lens, 15 polygon mirror, 16 light receiving lens,
17 photo detector, 18a, 18b mirror,
20 controller, 21 time interval counter, 22 signal processing board,
23 judgment processing unit, 24 drive unit,
32 data input device, 33 external storage device, 34 internal storage device,
35 Central processing unit, 36 Output unit
Claims (11)
複数の3次元レーザレーダにより、前記駐車エリア内の車両の両側面に向けてパルスレーザ光を3次元的に照射し、前記両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測する3次元座標値計測ステップと、
コンピュータにより、前記3次元座標値をデータ処理して、車両の車長及び車幅を含む車両データを決定するデータ処理ステップと、
前記決定された車両データを出力する車両データ出力ステップとを有する、ことを特徴とする車両形状計測方法。 A vehicle shape measuring method for measuring a vehicle length and a vehicle width of a vehicle stationary in a predetermined parking area from a position away from the vehicle,
A plurality of three-dimensional laser radars irradiate three-dimensionally with a pulse laser beam toward both sides of the vehicle in the parking area, and the three-dimensional coordinate values of both sides are obtained from the pulse laser beam reflected on the both sides. A three-dimensional coordinate value measuring step for measuring;
A data processing step of performing data processing on the three-dimensional coordinate value by a computer and determining vehicle data including a vehicle length and a vehicle width of the vehicle;
And a vehicle data output step of outputting the determined vehicle data.
前記駐車エリアの存在する空間領域を、境界表面が互いに直交する直方体からなる複数のボクセルに分割し、各ボクセル位置を記憶する環境モデルを構築するモデル構築ステップと、
前記座標値に対応するボクセルの内部に代表点とその誤差分布を設定し記憶するマッチングステップと、
各ボクセルの代表点の位置に基づいて車体の表面を再構成する表面再構成ステップと、
得られたボクセルの3次元データから車長や車幅を決定する車両データ決定ステップとを有する、ことを特徴とする請求項1に記載の車両形状計測方法。 The data processing step includes a data input step of inputting the three-dimensional coordinate value measured in the three-dimensional coordinate value measuring step to a computer;
A model construction step of constructing an environment model that divides the space area where the parking area exists into a plurality of voxels made of rectangular parallelepipeds whose boundary surfaces are orthogonal to each other, and stores each voxel position;
A matching step of setting and storing a representative point and its error distribution inside the voxel corresponding to the coordinate value;
A surface reconstruction step of reconstructing the surface of the vehicle body based on the position of the representative point of each voxel;
The vehicle shape measuring method according to claim 1, further comprising a vehicle data determining step for determining a vehicle length and a vehicle width from the obtained three-dimensional data of voxels.
ボクセルが保有する誤差分布が十分収束して小さいボクセル内に代表点が存在するボクセルがある一定以上連なっている部分を車両の側面部とみなして、ノイズ点やドアミラー等の付属品と側面部とを分離する、ことを特徴とする請求項2乃至4のいずれかに記載の車両形状計測方法。 After the matching step, a model update step for updating the environmental model is performed, and in the model update step, a voxel corresponding to a coordinate value of a newly input measurement point is searched,
The error distribution held by the voxel is sufficiently converged and the part where a certain voxel with a representative point exists in a small voxel is connected to a certain side is regarded as the side part of the vehicle. The vehicle shape measuring method according to claim 2, wherein the vehicle shape measuring method is separated.
該ボクセル内に代表点がない場合に、前記座標値と誤差分布を代表点の座標値と誤差分布として設定する、ことを特徴とする請求項2乃至5のいずれかに記載の車両形状計測方法。 After the matching step, a model update step for updating the environmental model is performed, and in the model update step, a voxel corresponding to a coordinate value of a newly input measurement point is searched,
6. The vehicle shape measurement method according to claim 2, wherein when there is no representative point in the voxel, the coordinate value and the error distribution are set as the coordinate value and the error distribution of the representative point. .
前記ボクセル内に既に設定した代表点がある場合に、新たに取得した誤差分布と既に設定したボクセル内の誤差分布とを比較し、
誤差分布が互いに重複する場合に、両誤差分布から新たな誤差分布と新たな代表点を再設定し、
誤差分布が互いに重複しない場合に、単一のボクセル内に単一の代表点のみが存在するように、該ボクセルを更に分割して階層的に複数のボクセルに分割する、ことを特徴とする請求項2乃至6のいずれかに記載の車両形状計測方法。 After the matching step, a model update step for updating the environmental model is performed, and in the model update step, a voxel corresponding to a coordinate value of a newly input measurement point is searched,
When there is a representative point already set in the voxel, the newly acquired error distribution is compared with the already set error distribution in the voxel,
If the error distributions overlap each other, reset a new error distribution and a new representative point from both error distributions,
The voxel is further divided into a plurality of voxels hierarchically so that only a single representative point exists in a single voxel when error distributions do not overlap each other. Item 7. A vehicle shape measuring method according to any one of Items 2 to 6.
前記駐車エリア内の車両の両側面に向けてパルスレーザ光を3次元的に照射し、前記両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測する複数の3次元レーザレーダと、
前記3次元座標値をデータ処理して、車両の車長及び車幅を含む車両データを決定するデータ処理装置と、
前記決定された車両データを出力する車両データ出力装置とを有する、ことを特徴とする車両形状計測装置。 A vehicle shape measuring device that measures the length and width of a vehicle stationary within a predetermined parking area from a position away from the vehicle,
A plurality of three-dimensional laser radars that three-dimensionally irradiate a pulse laser beam toward both sides of the vehicle in the parking area and measure a three-dimensional coordinate value on both sides from the pulse laser beam reflected on the both sides When,
A data processing device that processes the three-dimensional coordinate values to determine vehicle data including a vehicle length and a vehicle width;
A vehicle shape measuring device comprising: a vehicle data output device for outputting the determined vehicle data.
前記駐車エリアに存在する空間領域を、境界表面が互いに直交する直方体からなる複数のボクセルに分割し、各ボクセル位置を記憶する環境モデルを構築するモデル構築装置と、
前記座標値に対応するボクセルの内部に代表点とその誤差分布を設定し記憶するマッチング装置と、
各ボクセルの代表点の位置に基づいて車体の表面を再構築する表面再構築装置と、
得られたボクセルの3次元データから車長や車幅を決定する車両データ決定装置とを有する、ことを特徴とする請求項9に記載の車両形状計測装置。 The data processing device includes a data input device that inputs a three-dimensional coordinate value measured by a three-dimensional laser radar to a computer;
A model construction device that divides a spatial region existing in the parking area into a plurality of voxels made of rectangular parallelepipeds whose boundary surfaces are orthogonal to each other, and constructs an environmental model that stores each voxel position;
A matching device for setting and storing a representative point and its error distribution inside a voxel corresponding to the coordinate value;
A surface reconstruction device that reconstructs the surface of the vehicle body based on the position of the representative point of each voxel;
The vehicle shape measuring device according to claim 9, further comprising a vehicle data determining device that determines a vehicle length and a vehicle width from the obtained three-dimensional data of voxels.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007155831A JP5303873B2 (en) | 2007-06-13 | 2007-06-13 | Vehicle shape measuring method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007155831A JP5303873B2 (en) | 2007-06-13 | 2007-06-13 | Vehicle shape measuring method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008309533A true JP2008309533A (en) | 2008-12-25 |
JP5303873B2 JP5303873B2 (en) | 2013-10-02 |
Family
ID=40237278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007155831A Active JP5303873B2 (en) | 2007-06-13 | 2007-06-13 | Vehicle shape measuring method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5303873B2 (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008309671A (en) * | 2007-06-15 | 2008-12-25 | Ihi Corp | Object recognition method and device |
JP2010067119A (en) * | 2008-09-12 | 2010-03-25 | Omron Corp | Vehicle detection device |
JP2010164349A (en) * | 2009-01-13 | 2010-07-29 | Equos Research Co Ltd | Control unit |
JP2011089354A (en) * | 2009-10-26 | 2011-05-06 | Ihi Transport Machinery Co Ltd | Leaving parking apparatus for vehicle with mobile function |
KR101229232B1 (en) * | 2011-06-14 | 2013-02-04 | 한국철도기술연구원 | Detection apparatus and method of train outside fault |
CN103162639A (en) * | 2011-12-12 | 2013-06-19 | 无锡物联网产业研究院 | Method, device and system for obtaining vehicle three-dimensional outline |
JP2013530034A (en) * | 2010-05-24 | 2013-07-25 | エフ.ビー.テクノロジーズ ピーティーワイ リミテッド | System for manipulating objects |
JP2013246483A (en) * | 2012-05-23 | 2013-12-09 | Kokusai Kogyo Co Ltd | Obstacle detection method and obstacle detection system |
RU2510889C1 (en) * | 2012-12-20 | 2014-04-10 | Анатолий Сергеевич Иваницкий | Three-dimensional radar set |
JP2015203675A (en) * | 2014-04-16 | 2015-11-16 | 株式会社日立製作所 | Image processing apparatus, image processing system, three-dimensional measuring instrument, image processing method, and image processing program |
JP2016164348A (en) * | 2015-03-06 | 2016-09-08 | Ihi運搬機械株式会社 | Parking apparatus |
JP2016529475A (en) * | 2013-06-14 | 2016-09-23 | ウーバー テクノロジーズ,インコーポレイテッド | Classification of object movement based on lidar |
JP2018028535A (en) * | 2016-07-28 | 2018-02-22 | リバティ リーチ インコーポレイテッド | Method and system for measuring outermost dimension of vehicle arranged in inspection station |
US9905032B2 (en) | 2013-06-14 | 2018-02-27 | Microsoft Technology Licensing, Llc | Object removal using lidar-based classification |
CN108592797A (en) * | 2018-03-28 | 2018-09-28 | 华南理工大学 | A kind of dynamic measurement method and system of vehicle overall dimension and wheelbase |
JP2018159574A (en) * | 2017-03-22 | 2018-10-11 | 本田技研工業株式会社 | Method for specifying noise data of laser type distance measuring device |
JP2021508814A (en) * | 2018-11-09 | 2021-03-11 | ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド | Vehicle positioning system using LiDAR |
WO2021106089A1 (en) * | 2019-11-26 | 2021-06-03 | 日本電信電話株式会社 | Decryption method, encryption method, decryption device, and program |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02280078A (en) * | 1989-04-20 | 1990-11-16 | Ricoh Co Ltd | Object image pickup system |
JPH07270523A (en) * | 1994-04-01 | 1995-10-20 | Furuno Electric Co Ltd | Three-dimensional display equipment |
JPH0843056A (en) * | 1993-09-06 | 1996-02-16 | Nippon Telegr & Teleph Corp <Ntt> | Method and apparatus for obtaining characteristics of moving object |
JPH08249457A (en) * | 1994-06-17 | 1996-09-27 | Siemens Corporate Res Inc | Computer-assisted three-dimensional image discrimination and collation method |
JPH10105868A (en) * | 1996-09-30 | 1998-04-24 | Omron Corp | Vehicle measuring device/method |
JPH10124704A (en) * | 1996-08-30 | 1998-05-15 | Sanyo Electric Co Ltd | Device for preparing stereoscopic model and method therefor and medium for recording program for preparing stereoscopic model |
JPH11224397A (en) * | 1997-12-03 | 1999-08-17 | Omron Corp | Vehicle measurement device |
JP2001319290A (en) * | 2000-05-12 | 2001-11-16 | Hitachi Zosen Corp | Method and device for judging vehicle kind |
JP2003067726A (en) * | 2001-08-27 | 2003-03-07 | Sanyo Electric Co Ltd | Solid model generation system and method |
JP2003232622A (en) * | 2002-02-08 | 2003-08-22 | Olympus Optical Co Ltd | Device, method and program for obtaining three- dimensional information |
JP2003269936A (en) * | 2002-03-19 | 2003-09-25 | Sanyo Electric Co Ltd | Automatic size-measuring method |
JP2004053447A (en) * | 2002-07-22 | 2004-02-19 | Nippon Telegr & Teleph Corp <Ntt> | Vehicle measuring apparatus and method |
JP2004354170A (en) * | 2003-05-28 | 2004-12-16 | Asahi Kasei Corp | Three-dimensional information display device and array type ultrasonic sensor module |
JP2005165965A (en) * | 2003-12-05 | 2005-06-23 | Canon Inc | Image recognition system and image recognition method |
JP2005212709A (en) * | 2004-02-02 | 2005-08-11 | Yoichi Takebayashi | Vehicle driving supporting system |
-
2007
- 2007-06-13 JP JP2007155831A patent/JP5303873B2/en active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02280078A (en) * | 1989-04-20 | 1990-11-16 | Ricoh Co Ltd | Object image pickup system |
JPH0843056A (en) * | 1993-09-06 | 1996-02-16 | Nippon Telegr & Teleph Corp <Ntt> | Method and apparatus for obtaining characteristics of moving object |
JPH07270523A (en) * | 1994-04-01 | 1995-10-20 | Furuno Electric Co Ltd | Three-dimensional display equipment |
JPH08249457A (en) * | 1994-06-17 | 1996-09-27 | Siemens Corporate Res Inc | Computer-assisted three-dimensional image discrimination and collation method |
JPH10124704A (en) * | 1996-08-30 | 1998-05-15 | Sanyo Electric Co Ltd | Device for preparing stereoscopic model and method therefor and medium for recording program for preparing stereoscopic model |
JPH10105868A (en) * | 1996-09-30 | 1998-04-24 | Omron Corp | Vehicle measuring device/method |
JPH11224397A (en) * | 1997-12-03 | 1999-08-17 | Omron Corp | Vehicle measurement device |
JP2001319290A (en) * | 2000-05-12 | 2001-11-16 | Hitachi Zosen Corp | Method and device for judging vehicle kind |
JP2003067726A (en) * | 2001-08-27 | 2003-03-07 | Sanyo Electric Co Ltd | Solid model generation system and method |
JP2003232622A (en) * | 2002-02-08 | 2003-08-22 | Olympus Optical Co Ltd | Device, method and program for obtaining three- dimensional information |
JP2003269936A (en) * | 2002-03-19 | 2003-09-25 | Sanyo Electric Co Ltd | Automatic size-measuring method |
JP2004053447A (en) * | 2002-07-22 | 2004-02-19 | Nippon Telegr & Teleph Corp <Ntt> | Vehicle measuring apparatus and method |
JP2004354170A (en) * | 2003-05-28 | 2004-12-16 | Asahi Kasei Corp | Three-dimensional information display device and array type ultrasonic sensor module |
JP2005165965A (en) * | 2003-12-05 | 2005-06-23 | Canon Inc | Image recognition system and image recognition method |
JP2005212709A (en) * | 2004-02-02 | 2005-08-11 | Yoichi Takebayashi | Vehicle driving supporting system |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008309671A (en) * | 2007-06-15 | 2008-12-25 | Ihi Corp | Object recognition method and device |
JP2010067119A (en) * | 2008-09-12 | 2010-03-25 | Omron Corp | Vehicle detection device |
JP2010164349A (en) * | 2009-01-13 | 2010-07-29 | Equos Research Co Ltd | Control unit |
JP2011089354A (en) * | 2009-10-26 | 2011-05-06 | Ihi Transport Machinery Co Ltd | Leaving parking apparatus for vehicle with mobile function |
JP2013530034A (en) * | 2010-05-24 | 2013-07-25 | エフ.ビー.テクノロジーズ ピーティーワイ リミテッド | System for manipulating objects |
US20140144470A1 (en) * | 2010-05-24 | 2014-05-29 | F.B. Technologies Pty Ltd | System for manipulating objects |
KR101229232B1 (en) * | 2011-06-14 | 2013-02-04 | 한국철도기술연구원 | Detection apparatus and method of train outside fault |
CN103162639A (en) * | 2011-12-12 | 2013-06-19 | 无锡物联网产业研究院 | Method, device and system for obtaining vehicle three-dimensional outline |
CN103162639B (en) * | 2011-12-12 | 2015-06-10 | 无锡物联网产业研究院 | Method, device and system for obtaining vehicle three-dimensional outline |
JP2013246483A (en) * | 2012-05-23 | 2013-12-09 | Kokusai Kogyo Co Ltd | Obstacle detection method and obstacle detection system |
RU2510889C1 (en) * | 2012-12-20 | 2014-04-10 | Анатолий Сергеевич Иваницкий | Three-dimensional radar set |
US9870512B2 (en) | 2013-06-14 | 2018-01-16 | Uber Technologies, Inc. | Lidar-based classification of object movement |
US9905032B2 (en) | 2013-06-14 | 2018-02-27 | Microsoft Technology Licensing, Llc | Object removal using lidar-based classification |
JP2016529475A (en) * | 2013-06-14 | 2016-09-23 | ウーバー テクノロジーズ,インコーポレイテッド | Classification of object movement based on lidar |
KR101829556B1 (en) * | 2013-06-14 | 2018-02-14 | 우버 테크놀로지스, 인크. | Lidar-based classification of object movement |
JP2015203675A (en) * | 2014-04-16 | 2015-11-16 | 株式会社日立製作所 | Image processing apparatus, image processing system, three-dimensional measuring instrument, image processing method, and image processing program |
JP2016164348A (en) * | 2015-03-06 | 2016-09-08 | Ihi運搬機械株式会社 | Parking apparatus |
US10591277B2 (en) | 2016-07-28 | 2020-03-17 | Liberty Reach Inc. | Method and system for measuring outermost dimension of a vehicle positioned at an inspection station |
JP2018028535A (en) * | 2016-07-28 | 2018-02-22 | リバティ リーチ インコーポレイテッド | Method and system for measuring outermost dimension of vehicle arranged in inspection station |
JP7045816B2 (en) | 2016-07-28 | 2022-04-01 | リバティ リーチ インコーポレイテッド | Methods and systems for measuring the outermost dimensions of vehicles located at inspection stations |
JP2018159574A (en) * | 2017-03-22 | 2018-10-11 | 本田技研工業株式会社 | Method for specifying noise data of laser type distance measuring device |
CN108592797A (en) * | 2018-03-28 | 2018-09-28 | 华南理工大学 | A kind of dynamic measurement method and system of vehicle overall dimension and wheelbase |
CN108592797B (en) * | 2018-03-28 | 2020-12-22 | 华南理工大学 | Dynamic measurement method and system for vehicle overall dimension and wheel base |
JP2021508814A (en) * | 2018-11-09 | 2021-03-11 | ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド | Vehicle positioning system using LiDAR |
US11073601B2 (en) | 2018-11-09 | 2021-07-27 | Beijing Didi Infinity Technology And Development Co., Ltd. | Vehicle positioning system using LiDAR |
WO2021106089A1 (en) * | 2019-11-26 | 2021-06-03 | 日本電信電話株式会社 | Decryption method, encryption method, decryption device, and program |
JPWO2021106089A1 (en) * | 2019-11-26 | 2021-06-03 | ||
JP7322970B2 (en) | 2019-11-26 | 2023-08-08 | 日本電信電話株式会社 | Decoding method, encoding method, decoding device, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5303873B2 (en) | 2013-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5303873B2 (en) | Vehicle shape measuring method and apparatus | |
JP4650751B2 (en) | Method and apparatus for aligning 3D shape data | |
US9207069B2 (en) | Device for generating a three-dimensional model based on point cloud data | |
JP4650750B2 (en) | 3D shape data storage and display method and apparatus, and 3D shape measurement method and apparatus | |
US8154594B2 (en) | Mobile peripheral monitor | |
JP7045816B2 (en) | Methods and systems for measuring the outermost dimensions of vehicles located at inspection stations | |
US8180100B2 (en) | Plane detector and detecting method | |
US8331653B2 (en) | Object detector | |
JP4650752B2 (en) | Self-position identification method and apparatus and three-dimensional shape measurement method and apparatus | |
JP5380792B2 (en) | Object recognition method and apparatus | |
CN108363065A (en) | Object detecting system | |
CN108474653B (en) | Three-dimensional measurement device and measurement support processing method thereof | |
US20060115113A1 (en) | Method for the recognition and tracking of objects | |
US10760907B2 (en) | System and method for measuring a displacement of a mobile platform | |
CN112455502B (en) | Train positioning method and device based on laser radar | |
CN113768419B (en) | Method and device for determining sweeping direction of sweeper and sweeper | |
US20240119657A1 (en) | Image processing device, image processing method, and program | |
JP2010066595A (en) | Environment map generating device and environment map generating method | |
Gallegos et al. | Appearance-based slam relying on a hybrid laser/omnidirectional sensor | |
KR20160125803A (en) | Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest | |
CN116263320A (en) | Vehicle measurement method, device, system and storage medium | |
JP6163391B2 (en) | Underwater moving object position detection device | |
KR102546975B1 (en) | Method of measuring rebar diameter and system thereof | |
Phan et al. | Generating 3D point-cloud based on combining adjacent multi-station scanning data in 2D laser scanning: A case study of Hokuyo UTM 30lxk | |
JP6230923B2 (en) | Position detecting device and position detecting method for underwater moving body |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121226 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130610 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5303873 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |