JP2008309533A - Method and apparatus for measuring vehicle shape - Google Patents

Method and apparatus for measuring vehicle shape Download PDF

Info

Publication number
JP2008309533A
JP2008309533A JP2007155831A JP2007155831A JP2008309533A JP 2008309533 A JP2008309533 A JP 2008309533A JP 2007155831 A JP2007155831 A JP 2007155831A JP 2007155831 A JP2007155831 A JP 2007155831A JP 2008309533 A JP2008309533 A JP 2008309533A
Authority
JP
Japan
Prior art keywords
vehicle
voxel
data
dimensional
coordinate value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007155831A
Other languages
Japanese (ja)
Other versions
JP5303873B2 (en
Inventor
Yukihiro Kono
幸弘 河野
Toshihiro Hayashi
俊寛 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2007155831A priority Critical patent/JP5303873B2/en
Publication of JP2008309533A publication Critical patent/JP2008309533A/en
Application granted granted Critical
Publication of JP5303873B2 publication Critical patent/JP5303873B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and an apparatus for measuring a vehicle shape, capable of measuring a vehicle being at rest with an arbitrary attitude (orientation) in a prescribed parking area, from a remote position, and of metering dimensions (vehicle height, vehicle length and vehicle width), the position and the attitude of the vehicle based on above measured data. <P>SOLUTION: The vehicle shape measuring method for measuring the vehicle height and the vehicle width of the vehicle being at rest in the prescribed parking area, at the position remote from the vehicle comprises: a three-dimensional coordinate value measuring step S1 of using a plurality of three-dimensional laser radars for emitting pulse laser light in a three-dimensional fashion toward both sides of the vehicle in the parking area, and measuring three-dimensional coordinate values of the both sides based on pulse laser light reflected by the both sides; a data processing step S2 of using a computer for applying a data processing to the three-dimensional coordinate values and determining vehicle data including the vehicle height and the vehicle width of the vehicle; and a vehicle data outputting step S3 of outputting the determined vehicle data. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、静止している車両形状を複数の計測位置から計測し、その距離データから車両の寸法(車長や車幅)、位置、及び姿勢を計測する車両形状計測方法と装置に関する。   The present invention relates to a vehicle shape measuring method and apparatus for measuring a stationary vehicle shape from a plurality of measurement positions and measuring the dimensions (vehicle length and width), position, and posture of the vehicle from the distance data.

乗用車等の駐車設備において、駐車する車両の車幅等の車体本体を非接触で計測する手段として、特許文献1〜5が既に開示されている。   In a parking facility such as a passenger car, Patent Documents 1 to 5 have already been disclosed as means for measuring a vehicle body such as the width of a parked vehicle in a non-contact manner.

特許文献1は、通過する車両を停止させることなく、数mmオーダの高精度で車幅を自動計測でき、ガントリー等の大型設備や反射板等の付帯設備が不要であり、かつ少ない検出装置で車幅を自動計測でき、流線形の車体でも或いはドアミラーや窓から出た乗員の腕等を検知しても、正確に車体本体の最大車幅を計測でき、車両が斜めに通過する場合でも、正確に車幅を計測できることを目的とする。
そのため、この手段は、図13に示すように、車両が通過する車路の両側に水平間隔Dを隔てかつ対向して設けられた1対のレーザレーダ52a,52bと、各レーザレーダを制御し得られたデータを処理する制御処理装置54とを備え、各レーザレーダにより、通過する車両に対して上下に所定の角度範囲でレーザ光をスキャンして車体の両側面の断面データを求め、これから各レーザレーダから車体の両側面までの水平距離L1,L2を計測し、その差W(=D−L1−L2)を車両の全長にわたり記憶し、その最大値を車幅とするものである。
Patent Document 1 can automatically measure the vehicle width with high accuracy of the order of several millimeters without stopping the passing vehicle, and does not require large equipment such as a gantry or incidental equipment such as a reflector, and with a small number of detection devices. The vehicle width can be automatically measured, even if it is a streamlined vehicle body or even if it detects the arm of the passenger from the door mirror or window, the maximum vehicle width of the vehicle body can be measured accurately, even when the vehicle passes diagonally, The purpose is to accurately measure the vehicle width.
Therefore, as shown in FIG. 13, this means controls a pair of laser radars 52a and 52b provided opposite to each other on the both sides of the roadway through which the vehicle passes with a horizontal interval D, and each laser radar. A control processing unit 54 for processing the obtained data, and each laser radar scans a laser beam in a predetermined angle range up and down with respect to the passing vehicle to obtain cross-sectional data of both side surfaces of the vehicle body. The horizontal distances L1 and L2 from each laser radar to both side surfaces of the vehicle body are measured, the difference W (= D−L1−L2) is stored over the entire length of the vehicle, and the maximum value is used as the vehicle width.

特許文献2は、構成を簡略化してコストの削減を図り、設置工事を容易にすることを目的とする。
そのため、この手段は、図14に示すように、走行路Rの上方からその幅方向に走査する走査型測距手段Lを1台として、これを走行路Rの片側の上方に設置することとし、この走査型測距手段Lで得られる測距データを処理して車幅および車高を求めるデータ処理部61では、走査される側の車両側面部の形状に対応するデータで、車両Mの反対側の側面形状に対応するデータを補う演算を行って車幅を求めるものである。
Patent Document 2 aims to simplify the configuration to reduce the cost and facilitate the installation work.
Therefore, as shown in FIG. 14, this means has one scanning type distance measuring means L that scans in the width direction from above the traveling path R, and is installed above one side of the traveling path R. In the data processing unit 61 that processes the distance measurement data obtained by the scanning distance measuring means L to obtain the vehicle width and height, the data corresponding to the shape of the side surface of the vehicle to be scanned is the data. The vehicle width is obtained by performing an operation to supplement the data corresponding to the side shape on the opposite side.

特許文献3は、天井が低く、CCDカメラを十分な高さに設置できない場合でも、正確な車幅計測が可能であり、かつハイルーフ車の場合でも、車幅計測が可能であることを目的とする。
そのため、この手段は、図15に示すように、計測位置を通過する車両91を、複数のCCDカメラ72,対の非接触距離計74及び光電センサ76で同時に検出する。次いで、光電センサ76により車両を普通常用車として区分けする場合、同時に非接触距離計により車両の両側面位置La,Lbを検出し、検出された車両側面に最も近い1対のCCDカメラ72b,72cからの画像により、車幅を画像処理により計測する。また、光電センサにより車両をハイルーフ車として区分けする場合、同時に非接触距離計により車両の両側面位置La,Lbを検出し、両側面位置の間隔を車幅とするものである。
Patent Document 3 aims to enable accurate vehicle width measurement even when the ceiling is low and the CCD camera cannot be installed at a sufficient height, and to enable vehicle width measurement even in the case of a high roof vehicle. To do.
Therefore, as shown in FIG. 15, this means simultaneously detects a vehicle 91 passing through the measurement position by a plurality of CCD cameras 72, a pair of non-contact distance meters 74, and a photoelectric sensor 76. Next, when the vehicle is classified as a normal vehicle by the photoelectric sensor 76, the position La and Lb on both sides of the vehicle is simultaneously detected by the non-contact distance meter, and a pair of CCD cameras 72b and 72c closest to the detected vehicle side surface are detected. The vehicle width is measured by image processing based on the image from. In addition, when the vehicle is classified as a high roof vehicle by the photoelectric sensor, the side surface positions La and Lb of the vehicle are simultaneously detected by the non-contact distance meter, and the distance between the side surface positions is set as the vehicle width.

特許文献4は、車体色やその濃度によらず、かつ車両が計測部を斜めに通過しても正確な車幅を確実に計測することを目的とする。
そのため、この手段は、車両の幅方向に直線状に延びた縞模様を有する計測床面と、計測床面の上部に鉛直下向きに設置されたCCDカメラと、撮像画像を処理する画像処理装置とを備え、図16に示すように、(A)CCDカメラにより、計測床面を背景とする車両両側面の画像を撮像し、(C)画像上の車両濃度と縞模様の濃度との差を微分処理して濃度の急変線分を抽出し、(D)急変線分のうち、ほぼ前後方向に所定の長さ以上延び、かつ幅方向に最も間隔を隔てた線分を抽出セグメントとし、(E)ほぼ同一線上に位置する抽出セグメントを結んで1対の平行線を求め、該平行線の間隔を車幅とするものである。
Patent Document 4 aims to reliably measure an accurate vehicle width regardless of the vehicle body color or its concentration and even when the vehicle passes through the measurement unit obliquely.
Therefore, this means includes a measurement floor surface having a striped pattern extending linearly in the width direction of the vehicle, a CCD camera installed vertically downward on the measurement floor surface, and an image processing device for processing captured images. As shown in FIG. 16, (A) a CCD camera is used to capture images of both sides of the vehicle against the measurement floor, and (C) the difference between the vehicle density on the image and the stripe pattern density is calculated. (D) Among the sudden change line segments, a line segment extending substantially more than a predetermined length in the front-rear direction and spaced most apart in the width direction is used as an extraction segment. E) A pair of parallel lines is obtained by connecting extracted segments located substantially on the same line, and the interval between the parallel lines is defined as the vehicle width.

特許文献5は、被測定車両を停止させず、通常に道路を通過している状態でそのミラーを含めた車幅を計測できることを目的とする。
そのため、この手段は、図17に示すように、道路Mに対して垂直に等間隔の光線Bを照射する半導体レーザ群81A,81Bを、被測定車両82の進行方向に直角な上方位置に配設し、レーザ群81A,81Bの平行位置に光スポットを検出するCCDリニアセンサ83A,83Bを設け、道路M上にレーザ群81A,81Bに対向して、入力した光線Bをリニアセンサ83A,83Bへ反射する反射板84A,84Bを設け、リニアセンサ83A,83Bにて検出された反射光の光スポットの個数から被測定車両2の車幅を判定する車幅判定装置86を備えるものである。
Patent document 5 aims at being able to measure the vehicle width including the mirror in a state where the vehicle under measurement is normally passing through a road without stopping.
Therefore, as shown in FIG. 17, this means arranges semiconductor laser groups 81A and 81B that irradiate light beams B at equal intervals perpendicular to the road M at an upper position perpendicular to the traveling direction of the vehicle 82 to be measured. The CCD linear sensors 83A and 83B for detecting the light spot are provided at the parallel positions of the laser groups 81A and 81B, and the input light beam B is opposed to the laser groups 81A and 81B on the road M, and the linear sensors 83A and 83B. Reflecting plates 84A and 84B are provided, and a vehicle width determining device 86 for determining the vehicle width of the vehicle 2 to be measured from the number of reflected light spots detected by the linear sensors 83A and 83B is provided.

特開平2000−298007号公報、「車幅計測方法及び装置」JP 2000-298007 A, “Vehicle width measuring method and apparatus” 特開平11−288496号公報、「車両形状計測装置および車幅計測方法」Japanese Patent Application Laid-Open No. 11-28896, “Vehicle Shape Measuring Device and Vehicle Width Measuring Method” 特開平10−21490号公報、「車幅計測方法」Japanese Patent Laid-Open No. 10-21490, “Vehicle Width Measurement Method” 特開平09−54892号公報、「車幅計測方法及び装置」JP 09-54892 A, “Vehicle width measuring method and apparatus” 特開平07−167622号公報、「車両車幅計測方法、およびその装置」Japanese Patent Application Laid-Open No. 07-167622, “Vehicle width measurement method and apparatus”

上述した特許文献3,4では、CCDカメラを車両の通行路の天井に配置し、車両を上から撮影した画像を画像処理することによって、車両の左右の輪郭線を抽出して車幅を計測している。
しかし、CCDカメラを用いた場合、背景である床面と車両との濃淡のコントラスト差が高くないと安定性にかける欠点がある。
そこで、特許文献4では、床面に縞状の模様を描くなどコントラストを出すよう工夫しているが、駐車場等の床面を細工することは一般に駐車場オーナーの了解が得にくい。また、ドアミラーなどの突起物の検出は一般に難しい。
In Patent Documents 3 and 4 described above, a CCD camera is placed on the ceiling of a vehicle's traffic path, and an image obtained by photographing the vehicle from above is image-processed to extract the left and right contour lines of the vehicle and measure the vehicle width. is doing.
However, when a CCD camera is used, there is a drawback that stability is required unless the contrast difference between the background floor and the vehicle is high.
Thus, Patent Document 4 devises a contrast by drawing a striped pattern on the floor surface, but it is generally difficult to obtain the understanding of the parking lot owner to craft a floor surface such as a parking lot. Moreover, it is generally difficult to detect protrusions such as door mirrors.

また上述した特許文献1,2では、走査式の2次元レーザレーダを車両の通行路に配置して、車両の左右の輪郭線までの距離を車両が通過する間得ることによって、車幅を計測している。すなわち、レーザ光が当たった位置を点として表し、それらの点群によって車両の側面を再構成して車幅を求めている。
しかし、特許文献1,2のように、2次元レーザレーダを車両の通行路に配置して、車両が通過している間計測する手段では、車両の全体形状の情報を得ることができるが、車長(車両の進行方向)については、車両の速度によって変化するため、信頼できる値は得られない。
また、車両が移動していることから、車両の側面部分の同一箇所をレーザ光で1回しか計測することができず、レーザレーダの距離精度に大きく依存して、誤差が一般に大きく、ノイズとの区別も付きにくい。
また、誤差の影響も考慮していないため、得られた計測結果に対して、実際の車幅の範囲を推定することもできない。
さらに、計測点群で車両側面を再構成しているため、誤差の影響によってドアミラーなどの突起物と側面部との境界や、ノイズとの区別が付きにくい。
Further, in Patent Documents 1 and 2 described above, the vehicle width is measured by arranging a scanning two-dimensional laser radar on the traffic path of the vehicle and obtaining the distance to the left and right contour lines of the vehicle while the vehicle passes. is doing. That is, the position where the laser beam hits is represented as a point, and the vehicle width is obtained by reconstructing the side surface of the vehicle with these point groups.
However, as in Patent Documents 1 and 2, with a means for measuring a vehicle while passing through a two-dimensional laser radar placed on the vehicle's passage, information on the overall shape of the vehicle can be obtained. Since the vehicle length (the traveling direction of the vehicle) varies depending on the vehicle speed, a reliable value cannot be obtained.
Further, since the vehicle is moving, the same part of the side surface portion of the vehicle can be measured only once with the laser beam, and the error is generally large depending on the distance accuracy of the laser radar, and noise and noise It is also difficult to distinguish.
In addition, since the influence of errors is not taken into consideration, the actual vehicle width range cannot be estimated from the obtained measurement result.
Furthermore, since the vehicle side surface is reconstructed with the measurement point group, it is difficult to distinguish between the boundary between the projection such as the door mirror and the side surface part and noise from the influence of the error.

半導体レーザ群を用いる特許文献5では、車長(車両の進行方向)については、車両の速度によって変化するため、信頼できる値は得られない。
また、車両が移動していることから、車両の側面部分の同一箇所をレーザ光で1回しか計測することができない。
In Patent Document 5 using the semiconductor laser group, the vehicle length (the traveling direction of the vehicle) varies depending on the speed of the vehicle, and thus a reliable value cannot be obtained.
Further, since the vehicle is moving, the same part of the side surface portion of the vehicle can be measured only once with the laser beam.

また、上述した従来の手段では、車両が所定の位置を、所定の姿勢(向き)で通過することを前提としているため、ある領域内の任意に位置に任意の姿勢(向き)で車両が静止している場合には、その車両の寸法(車長や車幅)、位置、及び姿勢を計測することができなかった。   Further, since the conventional means described above is based on the premise that the vehicle passes through a predetermined position in a predetermined posture (orientation), the vehicle stops at an arbitrary position (orientation) in an arbitrary region. In such a case, the dimensions (vehicle length and width), position, and posture of the vehicle could not be measured.

本発明は上述した問題点を解決するために創案されたものである。すなわち、本発明の目的は、所定の駐車エリア内に任意の姿勢(向き)で静止している車両を、離れた位置から計測し、その計測データから車両の寸法(車高、車長、車幅)、位置、及び姿勢を計測することができる車両形状計測方法と装置を提供することにある。   The present invention has been developed to solve the above-described problems. That is, an object of the present invention is to measure a vehicle stationary in an arbitrary posture (orientation) within a predetermined parking area from a remote position, and measure the vehicle dimensions (vehicle height, vehicle length, vehicle The object is to provide a vehicle shape measuring method and apparatus capable of measuring a width), a position, and an attitude.

本発明によれば、所定の駐車エリア内に静止している車両の車長及び車幅を該車両から離れた位置から計測する車両形状計測方法であって、
複数の3次元レーザレーダにより、前記駐車エリア内の車両の両側面に向けてパルスレーザ光を3次元的に照射し、前記両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測する3次元座標値計測ステップと、
コンピュータにより、前記3次元座標値をデータ処理して、車両の車長及び車幅を含む車両データを決定するデータ処理ステップと、
前記決定された車両データを出力する車両データ出力ステップとを有する、ことを特徴とする車両形状計測方法が提供される。
According to the present invention, there is provided a vehicle shape measuring method for measuring a vehicle length and a vehicle width of a vehicle stationary in a predetermined parking area from a position away from the vehicle,
A plurality of three-dimensional laser radars irradiate three-dimensionally with a pulse laser beam toward both sides of the vehicle in the parking area, and the three-dimensional coordinate values of both sides are obtained from the pulse laser beam reflected on the both sides. A three-dimensional coordinate value measuring step for measuring;
A data processing step of performing data processing on the three-dimensional coordinate value by a computer and determining vehicle data including a vehicle length and a vehicle width of the vehicle;
And a vehicle data output step of outputting the determined vehicle data. A vehicle shape measuring method is provided.

本発明の好ましい実施形態によれば、前記データ処理ステップは、3次元座標値計測ステップで計測した3次元座標値をコンピュータに入力するデータ入力ステップと、
前記駐車エリアの存在する空間領域を、境界表面が互いに直交する直方体からなる複数のボクセルに分割し、各ボクセル位置を記憶する環境モデルを構築するモデル構築ステップと、
前記座標値に対応するボクセルの内部に代表点とその誤差分布を設定し記憶するマッチングステップと、
各ボクセルの代表点の位置に基づいて車体の表面を再構成する表面再構成ステップと、
得られたボクセルの3次元データから車長や車幅を決定する車両データ決定ステップとを有する。
According to a preferred embodiment of the present invention, the data processing step includes a data input step of inputting the three-dimensional coordinate value measured in the three-dimensional coordinate value measurement step to a computer;
A model construction step of constructing an environment model that divides the space area where the parking area exists into a plurality of voxels made of rectangular parallelepipeds whose boundary surfaces are orthogonal to each other, and stores each voxel position;
A matching step of setting and storing a representative point and its error distribution inside the voxel corresponding to the coordinate value;
A surface reconstruction step of reconstructing the surface of the vehicle body based on the position of the representative point of each voxel;
A vehicle data determining step for determining a vehicle length and a vehicle width from the obtained three-dimensional data of voxels.

前記車両データ決定ステップにおいて、表面再構成ステップで得られたボクセルの3次元データを床面に投影して2次元平面情報にして、その2次元形状の包含図形を求めることによって、車長や車幅を決定する。   In the vehicle data determination step, the three-dimensional data of the voxel obtained in the surface reconstruction step is projected onto the floor surface to obtain two-dimensional plane information, and the inclusion figure of the two-dimensional shape is obtained. Determine the width.

前記モデル構築ステップにおいて、最大のボクセルを必要最小限の分解能に相当する大きさに設定し、かつ単一のボクセル内に複数の被計測点が存在する場合に、単一のボクセル内に単一の被計測点のみが存在するように、該ボクセルを更に分割して階層的に複数のボクセルに分割する。   In the model building step, when a maximum voxel is set to a size corresponding to the minimum necessary resolution and there are a plurality of measurement points in a single voxel, a single voxel is single. The voxel is further divided into a plurality of voxels hierarchically so that only the measured point exists.

前記マッチングステップの後に、前記環境モデルを更新するモデル更新ステップを有し、該モデル更新ステップにおいて、新たに入力された被計測点の座標値に対応するボクセルを探索し、
ボクセルが保有する誤差分布が十分収束して小さいボクセル内に代表点が存在するボクセルがある一定以上連なっている部分を車両の側面部とみなして、ノイズ点やドアミラー等の付属品と側面部とを分離する。
After the matching step, a model update step for updating the environmental model is performed, and in the model update step, a voxel corresponding to a coordinate value of a newly input measurement point is searched,
The error distribution held by the voxel is sufficiently converged and the part where a certain voxel with a representative point exists in a small voxel is connected to a certain side is regarded as the side part of the vehicle. Isolate.

前記マッチングステップの後に、前記環境モデルを更新するモデル更新ステップを有し、該モデル更新ステップにおいて、新たに入力された被計測点の座標値に対応するボクセルを探索し、
該ボクセル内に代表点がない場合に、前記座標値と誤差分布を代表点の座標値と誤差分布として設定する。
After the matching step, a model update step for updating the environmental model is performed, and in the model update step, a voxel corresponding to a coordinate value of a newly input measurement point is searched,
When there is no representative point in the voxel, the coordinate value and error distribution are set as the coordinate value and error distribution of the representative point.

前記マッチングステップの後に、前記環境モデルを更新するモデル更新ステップを有し、該モデル更新ステップにおいて、新たに入力された被計測点の座標値に対応するボクセルを探索し、
前記ボクセル内に既に設定した代表点がある場合に、新たに取得した誤差分布と既に設定したボクセル内の誤差分布とを比較し、
誤差分布が互いに重複する場合に、両誤差分布から新たな誤差分布と新たな代表点を再設定し、
誤差分布が互いに重複しない場合に、単一のボクセル内に単一の代表点のみが存在するように、該ボクセルを更に分割して階層的に複数のボクセルに分割する。
After the matching step, a model update step for updating the environmental model is performed, and in the model update step, a voxel corresponding to a coordinate value of a newly input measurement point is searched,
When there is a representative point already set in the voxel, the newly acquired error distribution is compared with the already set error distribution in the voxel,
If the error distributions overlap each other, reset a new error distribution and a new representative point from both error distributions,
When the error distributions do not overlap with each other, the voxel is further divided into a plurality of voxels hierarchically so that only a single representative point exists within a single voxel.

ボクセルの内部に代表点とその誤差分布に加えて、確率値を併せ持つ、ことが好ましい。   It is preferable to have a probability value in addition to the representative point and its error distribution inside the voxel.

また、本発明によれば、所定の駐車エリア内に静止している車両の車長及び車幅を該車両から離れた位置から計測する車両形状計測装置であって、
前記駐車エリア内の車両の両側面に向けてパルスレーザ光を3次元的に照射し、前記両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測する複数の3次元レーザレーダと、
前記3次元座標値をデータ処理して、車両の車長及び車幅を含む車両データを決定するデータ処理装置と、
前記決定された車両データを出力する車両データ出力装置とを有する、ことを特徴とする車両形状計測装置が提供される。
Moreover, according to the present invention, there is provided a vehicle shape measuring device that measures the vehicle length and the vehicle width of a vehicle stationary within a predetermined parking area from a position away from the vehicle,
A plurality of three-dimensional laser radars that three-dimensionally irradiate a pulse laser beam toward both sides of the vehicle in the parking area and measure a three-dimensional coordinate value on both sides from the pulse laser beam reflected on the both sides When,
A data processing device that processes the three-dimensional coordinate values to determine vehicle data including a vehicle length and a vehicle width;
There is provided a vehicle shape measuring device comprising a vehicle data output device for outputting the determined vehicle data.

本発明の好ましい実施形態によれば、前記データ処理装置は、3次元レーザレーダで計測した3次元座標値をコンピュータに入力するデータ入力装置と、
前記駐車エリアに存在する空間領域を、境界表面が互いに直交する直方体からなる複数のボクセルに分割し、各ボクセル位置を記憶する環境モデルを構築するモデル構築装置と、
前記座標値に対応するボクセルの内部に代表点とその誤差分布を設定し記憶するマッチング装置と、
各ボクセルの代表点の位置に基づいて車体の表面を再構築する表面再構築装置と、
得られたボクセルの3次元データから車長や車幅を決定する車両データ決定装置とを有する。
According to a preferred embodiment of the present invention, the data processing device includes a data input device that inputs a three-dimensional coordinate value measured by a three-dimensional laser radar to a computer;
A model construction device that divides a spatial region existing in the parking area into a plurality of voxels made of rectangular parallelepipeds whose boundary surfaces are orthogonal to each other, and constructs an environmental model that stores each voxel position;
A matching device for setting and storing a representative point and its error distribution inside a voxel corresponding to the coordinate value;
A surface reconstruction device that reconstructs the surface of the vehicle body based on the position of the representative point of each voxel;
A vehicle data determination device that determines the vehicle length and vehicle width from the obtained three-dimensional data of voxels.

また、前記車両データ決定装置により、表面再構築装置で得られたボクセルの3次元データを床面に投影して2次元平面情報にして、その2次元形状の包含図形を求めることによって、車長や車幅を決定する。   Further, the vehicle data determination device projects the three-dimensional data of the voxels obtained by the surface reconstruction device onto the floor surface to obtain two-dimensional plane information, and obtains an inclusion figure of the two-dimensional shape, thereby And determine the vehicle width.

上述した本発明の方法及び装置によれば、複数の3次元レーザレーダを用いた3次元座標値計測ステップにおいて、所定の駐車エリア内の車両の両側面に向けてパルスレーザ光を3次元的に照射し、前記両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測し、
コンピュータを用いたデータ処理ステップにおいて、前記3次元座標値をデータ処理して、車両の車長及び車幅を含む車両データを決定するので、車幅だけではなく、車長を含め車両の全体形状を把握することができる。
According to the method and apparatus of the present invention described above, in the three-dimensional coordinate value measurement step using a plurality of three-dimensional laser radars, the pulse laser beam is three-dimensionally directed toward both sides of the vehicle in a predetermined parking area. Irradiate and measure the three-dimensional coordinate values of both sides from the pulsed laser light reflected on both sides,
In the data processing step using a computer, the three-dimensional coordinate value is data-processed to determine vehicle data including the vehicle length and vehicle width, so that not only the vehicle width but also the vehicle overall shape including the vehicle length is determined. Can be grasped.

さらに、本発明によれば、以下の効果が得られる。
(1)車両の同一箇所を数回計測することができ、統計処理によって精度向上が図れる。
(2)視点の異なる複数のセンサの計測結果を統合することが可能となり、精度向上が図れる。
(3)センサの誤差モデルを考慮することによって、計測誤差の向上や、計測誤差の推定が可能となり、車両のサイズに応じた駐車スペースの割り当てや、車両の自動/手動誘導時に、安全性を考慮することが可能となる。
(4)ノイズとそれ以外との区別が可能となり、精度向上が期待できる。
(5)ドアミラーなどの突起部分と車両の側面部分との区別が精度向上によって可能となるので、ドアミラーまで含めた車幅とドアミラーを含めない車幅とをアプリケーションによって使い分けることが可能となる。
(6)2次元平面情報にし、その包含図形を求めることで、車長や車幅、姿勢を安定して求めることができる。
Furthermore, according to the present invention, the following effects can be obtained.
(1) The same part of the vehicle can be measured several times, and the accuracy can be improved by statistical processing.
(2) The measurement results of a plurality of sensors with different viewpoints can be integrated, and the accuracy can be improved.
(3) By taking into account the error model of the sensor, it is possible to improve the measurement error and estimate the measurement error, and to ensure safety when allocating parking spaces according to the size of the vehicle and for automatic / manual guidance of the vehicle. It becomes possible to consider.
(4) It becomes possible to distinguish between noise and the other, and an improvement in accuracy can be expected.
(5) Since it is possible to distinguish the protruding portion such as the door mirror and the side surface portion of the vehicle by improving the accuracy, the vehicle width including the door mirror and the vehicle width not including the door mirror can be properly used depending on the application.
(6) By obtaining the two-dimensional plane information and obtaining the inclusion graphic, the vehicle length, the vehicle width, and the posture can be obtained stably.

以下本発明の好ましい実施形態について、図面を参照して説明する。なお、各図において、共通する部分には同一の符号を付し、重複した説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In each figure, common portions are denoted by the same reference numerals, and redundant description is omitted.

図1は、3次元レーザレーダの構成図である。
この図に示すように、3次元レーザレーダ10は、レーダヘッド12と制御器20から構成される。レーザダイオード13から発振されたパルスレーザ光1は、投光レンズ14で平行光2に整形され、ミラー18a,18bと回転・揺動するポリゴンミラー15で二次元方向に走査され、測定対象物に照射される。測定対象物から反射されたパルスレーザ光3は、ポリゴンミラー15を介して受光レンズ16で集光され、光検出器17で電気信号に変換される。
FIG. 1 is a configuration diagram of a three-dimensional laser radar.
As shown in this figure, the three-dimensional laser radar 10 includes a radar head 12 and a controller 20. The pulsed laser light 1 oscillated from the laser diode 13 is shaped into parallel light 2 by the light projecting lens 14, scanned in a two-dimensional direction by the mirrors 18a and 18b and the polygon mirror 15 that rotates and swings, and is applied to the measurement object. Irradiated. The pulsed laser light 3 reflected from the measurement object is collected by the light receiving lens 16 via the polygon mirror 15 and converted into an electric signal by the photodetector 17.

制御器20内の時間間隔カウンタ21は、レーザダイオード13のパルス発振タイミングと同期したスタートパルス4と、光検出器17から出力されたストップパルス5の時間間隔を計測する。信号処理ボード22は、反射光が検出された時点の時間間隔t、ポリゴンミラーの回転角度θ、揺動角度φを極座標データ(r,θ,φ)として出力する。
rは計測位置(レーダヘッド設置位置)を原点とする距離であり、r=c×t/2 の式で求められる。ここでcは光速である。
判定処理ユニット23は、信号処理ボードからの極座標データを、レーダヘッド設置位置を原点とした3次元空間データ(x,y,z)へ変換して、検出処理を行うようになっている。なおこの図で24はドライブユニットである。
The time interval counter 21 in the controller 20 measures the time interval between the start pulse 4 synchronized with the pulse oscillation timing of the laser diode 13 and the stop pulse 5 output from the photodetector 17. The signal processing board 22 outputs the time interval t when the reflected light is detected, the rotation angle θ of the polygon mirror, and the swing angle φ as polar coordinate data (r, θ, φ).
r is a distance with the measurement position (radar head installation position) as the origin, and is obtained by the equation r = c × t / 2. Here, c is the speed of light.
The determination processing unit 23 performs detection processing by converting polar coordinate data from the signal processing board into three-dimensional space data (x, y, z) having the radar head installation position as the origin. In this figure, reference numeral 24 denotes a drive unit.

上述した3次元レーザレーダ10の計測範囲は、例えば、水平画角60°、垂直画角30°、最大測定距離50mである。また、位置検出精度は、例えば約20cmである。
また、計測データを各画素に対して奥行き方向の距離値を持った距離画像で表示する場合、1フレームの計測点数を、横方向166点、スキャン方向50点とすると、1フレームに166×50=8300点が表示される。この場合にフレームレートは、例えば約2フレーム/秒である。
The measurement range of the three-dimensional laser radar 10 described above is, for example, a horizontal field angle of 60 °, a vertical field angle of 30 °, and a maximum measurement distance of 50 m. The position detection accuracy is about 20 cm, for example.
Further, when displaying the measurement data as a distance image having a distance value in the depth direction for each pixel, if the number of measurement points in one frame is 166 points in the horizontal direction and 50 points in the scan direction, 166 × 50 per frame. = 8300 points are displayed. In this case, the frame rate is, for example, about 2 frames / second.

この3次元レーザレーダ10で計測される3次元形状上の被計測点は、横方向にΔθ×r、垂直方向にΔφ×r、互いに離散した点群となる。例えば、Δθ=60/166×π/180=6.3×10−3ラジアン、Δφ=30/50×π/180=10.5×10−3ラジアン、r=5.0mの場合、最も近接する場合に、被計測点の間隔は、横方向で約31.5mm、垂直方向で約52.5mmとなる。 The points to be measured on the three-dimensional shape measured by the three-dimensional laser radar 10 are a group of discrete points, Δθ × r in the horizontal direction and Δφ × r in the vertical direction. For example, when Δθ = 60/166 × π / 180 = 6.3 × 10 −3 radians, Δφ = 30/50 × π / 180 = 10.5 × 10 −3 radians, r = 5.0 m, the closest proximity In this case, the distance between the measurement points is about 31.5 mm in the horizontal direction and about 52.5 mm in the vertical direction.

図2は、距離センサで計測された極座標データと誤差の関係を示す図である。
図2(A)に示すように、任意の計測位置を原点とする極座標値(r,θ,φ)を計測結果として計測する。距離センサによる計測結果には、図に示すような誤差分布が通常存在する。
この誤差分布は、誤差分布のr,θ,φでの存在確率をP(r,θ,φ)とした場合、誤差分布は計測の軸r,θ,φ方向に正規分布しているとし、例えば式(1)で表すことができる。ここで、r,θ,φはセンサからの計測値、σ,σθ,σφは は標準偏差、Aは規格化定数である。
図2(B)に示すように、誤差分布は、通常r方向に長い切頭円錐形(左図)に内包される分布であるが、遠方においてaとbの差は小さい。従って、この誤差分布を直方体に包含される楕円体として安全サイドに近似することができる。
FIG. 2 is a diagram illustrating a relationship between polar coordinate data measured by the distance sensor and an error.
As shown in FIG. 2A, polar coordinate values (r, θ, φ) having an arbitrary measurement position as the origin are measured as measurement results. An error distribution as shown in the figure normally exists in the measurement result by the distance sensor.
This error distribution is normalized in the directions of measurement axes r, θ, and φ when the existence probability of the error distribution at r s , θ s , and φ s is P (r s , θ s , φ s ). For example, it can be expressed by the formula (1). Here, r, θ, φ are measured values from the sensor, σ r , σ θ , σ φ are standard deviations, and A is a normalization constant.
As shown in FIG. 2B, the error distribution is a distribution that is normally included in a truncated cone shape (left figure) that is long in the r direction, but the difference between a and b is small in the distance. Therefore, this error distribution can be approximated to the safe side as an ellipsoid included in a rectangular parallelepiped.

Figure 2008309533
Figure 2008309533

図3は、本発明の車両形状計測装置の全体構成図である。
この図に示すように、本発明の車両形状計測装置は、複数の3次元レーザレーダ10、データ処理装置30、及び車両データ出力装置40を備える。
複数(この例では2台)の3次元レーザレーダ10は、所定の駐車エリア11内の車両9の両側面に向けてパルスレーザ光を3次元的に照射し、車両9の両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測する。
データ処理装置30は、3次元レーザレーダ10で得られた3次元座標値をデータ処理して、車両9の車長及び車幅を含む車両データを決定する。
車両データ出力装置40は、データ処理装置30で決定された車両データを別の装置50に出力する。
FIG. 3 is an overall configuration diagram of the vehicle shape measuring apparatus of the present invention.
As shown in this figure, the vehicle shape measuring device of the present invention includes a plurality of three-dimensional laser radars 10, a data processing device 30, and a vehicle data output device 40.
A plurality (two in this example) of three-dimensional laser radars 10 three-dimensionally irradiate pulse laser light toward both side surfaces of the vehicle 9 in a predetermined parking area 11 and are reflected on both side surfaces of the vehicle 9. The three-dimensional coordinate values on both sides are measured from the pulsed laser beam.
The data processing device 30 performs data processing on the three-dimensional coordinate values obtained by the three-dimensional laser radar 10 and determines vehicle data including the vehicle length and the vehicle width of the vehicle 9.
The vehicle data output device 40 outputs the vehicle data determined by the data processing device 30 to another device 50.

図4は、データ処理装置30の構成図である。この図に示すように、データ処理装置30は、コンピュータであり、データ入力装置32、外部記憶装置33、内部記憶装置34、中央処理装置35および出力装置36を備える。   FIG. 4 is a configuration diagram of the data processing device 30. As shown in this figure, the data processing device 30 is a computer and includes a data input device 32, an external storage device 33, an internal storage device 34, a central processing device 35 and an output device 36.

データ入力装置32は、3次元レーザレーダ10で得られた車両9の3次元座標値を記憶装置に入力する。なお、データ入力装置32は、キーボード等の通常の入力手段も有するのがよい。
外部記憶装置33は、ハードディスク、フロッピ(登録商標)ーディスク、磁気テープ、コンパクトディスク等である。外部記憶装置33は、入力された車両9の3次元座標値、ボクセル位置、及び代表点とその誤差分布及び本発明の方法を実行するためのプログラムを記憶する。
内部記憶装置34は、例えばRAM,ROM等であり、演算情報を保管する。
中央処理装置35(CPU)は、モデル構築装置およびマッチング装置として機能し、演算や入出力等を集中的に処理し、内部記憶装置34と共に、プログラムを実行する。
出力装置36は、例えば表示装置とプリンタであり、外部記憶装置33に記憶したデータ及びプログラムの実行結果を出力するようになっている。
The data input device 32 inputs the three-dimensional coordinate value of the vehicle 9 obtained by the three-dimensional laser radar 10 to the storage device. The data input device 32 may also have normal input means such as a keyboard.
The external storage device 33 is a hard disk, a floppy (registered trademark) disk, a magnetic tape, a compact disk, or the like. The external storage device 33 stores the inputted three-dimensional coordinate value of the vehicle 9, the voxel position, the representative point, its error distribution, and a program for executing the method of the present invention.
The internal storage device 34 is, for example, a RAM, a ROM, etc., and stores calculation information.
The central processing unit 35 (CPU) functions as a model construction device and a matching device, centrally processes operations and input / output, and executes a program together with the internal storage device 34.
The output device 36 is, for example, a display device and a printer, and outputs data stored in the external storage device 33 and the execution result of the program.

図5は、本発明の方法を示すフローチャートである。
本発明の方法は、所定の駐車エリア11内に静止している車両9の車長及び車幅を車両9から離れた位置から計測する車両形状計測方法であり、3次元座標値計測ステップS1、データ処理ステップS2、および車両データ出力ステップS3を有する。
FIG. 5 is a flow chart illustrating the method of the present invention.
The method of the present invention is a vehicle shape measuring method for measuring the vehicle length and the vehicle width of a vehicle 9 stationary in a predetermined parking area 11 from a position away from the vehicle 9, and a three-dimensional coordinate value measuring step S1, It has a data processing step S2 and a vehicle data output step S3.

3次元座標値計測ステップS1では、複数の3次元レーザレーダにより、駐車エリア11内の車両9の両側面に向けてパルスレーザ光を3次元的に照射し、車両9の両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測する。
データ処理ステップS2では、コンピュータ(上述したデータ処理装置30)により、車両9の3次元座標値をデータ処理して、車両9の車長及び車幅を含む車両データを決定する。
In the three-dimensional coordinate value measurement step S <b> 1, a plurality of three-dimensional laser radars irradiate pulse laser light three-dimensionally toward both side surfaces of the vehicle 9 in the parking area 11, and are reflected on both side surfaces of the vehicle 9. The three-dimensional coordinate values on both sides are measured from the pulse laser beam.
In the data processing step S2, the three-dimensional coordinate value of the vehicle 9 is data-processed by a computer (the data processing device 30 described above), and vehicle data including the vehicle length and the vehicle width of the vehicle 9 is determined.

データ処理ステップS2は、データ入力ステップS21、データ補正ステップS22、モデル構築ステップS23、マッチングステップS24、表面再構成ステップS25及び車両データ決定ステップS26を有する。   The data processing step S2 includes a data input step S21, a data correction step S22, a model construction step S23, a matching step S24, a surface reconstruction step S25, and a vehicle data determination step S26.

データ入力ステップS21では、3次元座標値計測ステップS1で計測した3次元座標値をコンピュータ(上述したデータ処理装置30)の記憶装置に入力する。
3次元レーザレーダ10による3次元座標値は、所定の計測位置を原点とする距離データであり、極座標値(r,θ,φ)で表される。また、各座標値の誤差分布は、極座標値(r,θ,φ)から演算で求めるか、予め別の入力手段(例えばキーボード)で入力する。
In the data input step S21, the three-dimensional coordinate value measured in the three-dimensional coordinate value measuring step S1 is input to the storage device of the computer (the data processing device 30 described above).
The three-dimensional coordinate value obtained by the three-dimensional laser radar 10 is distance data having a predetermined measurement position as the origin, and is represented by polar coordinate values (r, θ, φ). Further, the error distribution of each coordinate value is obtained by calculation from polar coordinate values (r, θ, φ), or is input in advance by another input means (for example, a keyboard).

データ補正ステップS22では、距離データの補正処理を行い、距離データの精度を向上させる。また、極座標データと3次元レーザレーダ10の位置データから、任意の固定位置を原点とした3次元空間データ(x,y,z)へ変換してもよい。
距離データの補正処理では、孤立点の除去、統計的処理、等を行う。孤立点は、周囲の点から孤立して存在する点であり、計測データは複数の近接する点で構成されることから、孤立点は誤計測と仮定して除去することができる。統計的処理は、計測データが含む誤差分布を考慮して、複数回の計測を統計処理(例えば平均値等)することで、距離の補正を行う。
さらに、対象とする3次元形状が、直線近似又は平面近似できる場合にはこれらを行うのがよい。
In the data correction step S22, distance data correction processing is performed to improve the accuracy of the distance data. Further, the polar coordinate data and the position data of the three-dimensional laser radar 10 may be converted into three-dimensional space data (x, y, z) having an arbitrary fixed position as the origin.
In the distance data correction processing, isolated point removal, statistical processing, and the like are performed. An isolated point is a point that is isolated from surrounding points, and the measurement data is composed of a plurality of adjacent points. Therefore, the isolated point can be removed on the assumption of an erroneous measurement. The statistical process corrects the distance by statistically processing a plurality of measurements (for example, an average value) in consideration of the error distribution included in the measurement data.
Further, when the target three-dimensional shape can be linearly approximated or planarly approximated, these are preferably performed.

図6は、ボクセルの分割に八分木を用いた場合のモデル構築ステップの模式図である。   FIG. 6 is a schematic diagram of model building steps when an octree is used for voxel division.

モデル構築ステップS23では、この図に示すように、所定の駐車エリア11の存在する空間領域を、境界表面が互いに直交する直方体からなる複数のボクセル6に分割し、各ボクセル位置を記憶する環境モデルを構築する。
ボクセル6の形状は、各辺の長さが等しい立方体でも、各辺の長さが異なる直方体でもよい。
また、ボクセル6の各辺の長さは、最大のボクセル6を必要最小限の分解能に相当する大きさに設定するのがよい。以下、最大のボクセル6をレベル1のボクセルと呼ぶ。
また、単一のボクセル内に複数の被計測点が存在する場合には、単一のボクセル内に単一の被計測点のみが存在するように、ボクセルを更に八分割して階層的に複数のボクセルに分割する。以下、最大のボクセル6の八分割を1回実施した空間領域をレベル2のボクセル、k回実施した空間領域をレベルk+1のボクセルと呼ぶ。
In the model construction step S23, as shown in this figure, an environment model in which a space area where a predetermined parking area 11 exists is divided into a plurality of voxels 6 made of rectangular parallelepipeds whose boundary surfaces are orthogonal to each other, and each voxel position is stored. Build up.
The shape of the voxel 6 may be a cube having the same length on each side or a rectangular parallelepiped having a different length on each side.
The length of each side of the voxel 6 is preferably set to a size corresponding to the minimum necessary resolution of the maximum voxel 6. Hereinafter, the largest voxel 6 is referred to as a level 1 voxel.
In addition, when there are a plurality of measured points in a single voxel, the voxel is further divided into eight and divided hierarchically so that only a single measured point exists in a single voxel. Divide into voxels. Hereinafter, a spatial region in which the largest voxel 6 is divided into eight is referred to as a level 2 voxel, and a spatial region in which k is performed k times is referred to as a level k + 1 voxel.

図7は、構築された環境モデルの模式図である。
マッチングステップS24では、この図に示すように、3次元形状上の座標値に対応するボクセル6の内部に代表点7とその誤差分布8を設定し記憶する。末端のボクセルは計測値の代表点を1つだけ持つことができる。各ボクセルが計測値の代表点とその誤差分布を持つことで、物体の形状を表す。
FIG. 7 is a schematic diagram of the constructed environmental model.
In the matching step S24, the representative point 7 and its error distribution 8 are set and stored inside the voxel 6 corresponding to the coordinate value on the three-dimensional shape, as shown in FIG. The terminal voxel can have only one representative point of measurement. Each voxel has a representative point of the measurement value and its error distribution, thereby representing the shape of the object.

マッチングステップS24において、代表点の絶対位置は式(2)で与えられる。ここで、(x,y,z)は代表点のボクセルでの相対座標、Sx,Sy,Szはレベル1でのボクセルの一辺の大きさ、n(k),n(k),n(k)はレベルkでのボクセルの番地、Lは求める代表点が存在するレベルである。 In the matching step S24, the absolute position of the representative point is given by equation (2). Here, (x, y, z) is the relative coordinates of the voxels of the representative points, Sx, Sy, Sz is the side of the voxel at level 1 size, n x (k), n y (k), n z (k) is the address of the voxel at level k, and L is the level at which the representative point to be found exists.

Figure 2008309533
Figure 2008309533

図8は、本発明におけるボクセルデータのデータ構造を示す図である。
この図において、図8(A)は、各ボクセルデータのメモリレイアウト例である。この図において、矢印はデータへのリンクを表し、値としてはデータへのポインタを保持する。
図8(B)は、レベル2(1,1,0)のボクセルが代表点を持つ場合の例を示している。なおこの図において、nullは空集合を表す。
FIG. 8 is a diagram showing a data structure of voxel data in the present invention.
In this figure, FIG. 8A is an example of a memory layout of each voxel data. In this figure, an arrow represents a link to data, and a pointer to the data is held as a value.
FIG. 8B shows an example in which a voxel at level 2 (1, 1, 0) has a representative point. In this figure, null represents an empty set.

上述したデータ構造の環境モデルは、以下の特徴を有する。
(1)内容:空間を小直方体で分割して各ボクセルに計測点の代表点と誤差分布を保持する。
(2)精度:ボクセル毎に持つ計測点の代表値相当である。
(3)存在:物体の存在の有無を表現できる。
(4)データ量:ボクセルの個数に比例してメモリを必要とするが、サイズ固定である。
(5)点群からの変換:適しており、計算量は少ない。
(6)アクセス速度:シンプルな構造をしているため、要素へのアクセスが高速である。
The environmental model of the data structure described above has the following characteristics.
(1) Contents: A space is divided into small rectangular parallelepipeds, and representative points of measurement points and error distribution are held in each voxel.
(2) Accuracy: Equivalent to the representative value of the measurement points for each voxel.
(3) Presence: The presence or absence of an object can be expressed.
(4) Data amount: A memory is required in proportion to the number of voxels, but the size is fixed.
(5) Conversion from a point cloud: Suitable and less computational complexity.
(6) Access speed: Since the structure is simple, access to elements is fast.

またこの特徴から、上述した環境モデルは、以下の効果A〜Cをすべて満たしている。
効果A:誤差を考慮した表現が可能である。
効果B:必要なメモリ量と計算量が一定量以下である。
効果C:物体の存在だけでなく、物体が存在しないことを表せる。
Moreover, from this characteristic, the environmental model mentioned above satisfy | fills all the following effects AC.
Effect A: It is possible to express in consideration of errors.
Effect B: Necessary memory amount and calculation amount are below a certain amount.
Effect C: Not only the presence of an object but also the absence of an object can be expressed.

さらに図5において、表面再構成ステップS25は、マッチングステップS24の後に実施し、モデル構築ステップS23で構築した環境モデルを更新する。   Further, in FIG. 5, the surface reconstruction step S25 is performed after the matching step S24, and the environment model constructed in the model construction step S23 is updated.

図9は、表面再構成ステップS25におけるデータ処理フロー図である。この図に示すように、ステップST1で新たに入力された被計測点の座標値に対応するボクセルを探索し、ステップST2で該当するボクセル内に代表点がない(ボクセルが空である)場合には、ステップST3で新たに入力された被計測点の座標値と誤差分布を代表点の座標値と誤差分布として設定(新規に登録)する。
また、このステップST3において、新しい計測位置(原点)と被計測点の間には、原理的に物体が存在しないはずである。従って新しい計測位置(原点)と被計測点の間に位置するボクセル内の代表点と誤差分布を再設定もしくは消去する。
FIG. 9 is a data processing flowchart in the surface reconstruction step S25. As shown in this figure, a search is made for a voxel corresponding to the coordinate value of the measured point newly input in step ST1, and if there is no representative point in the corresponding voxel in step ST2 (the voxel is empty). Sets (newly registers) the coordinate value and error distribution of the measurement point newly input in step ST3 as the coordinate value and error distribution of the representative point.
In step ST3, no object should exist in principle between the new measurement position (origin) and the measured point. Accordingly, the representative point in the voxel located between the new measurement position (origin) and the measurement point and the error distribution are reset or deleted.

図10は、該当するボクセル内に既に設定した代表点がある場合の模式図である。
図9のステップST2で該当するボクセル内に既に設定した代表点がある場合には、ステップST4で新たに取得した誤差分布と既に設定したボクセル内の誤差分布とを比較する(すなわち異なる点か同一点かを判断する)。
この比較で、誤差分布が互いに重複する場合(図10A)には、ステップST5で両誤差分布から新たな誤差分布と新たな誤差分布の中心を再設定する(すなわち誤差分布を合成する)。
またこの比較で、誤差分布が互いに重複しない場合(図10B)には、ステップST6、ST7で単一のボクセル内に単一の代表点のみが存在するように、該ボクセルを更に八分割して階層的に複数のボクセルに分割し新規に登録する。
分割と合成の基準は、例えば誤差分布の一致度から判断する。誤差分布の一致度には例えば、マハラノビス距離のような距離尺度を利用できる。また、2つの誤差分布に基づき、両者が同一点を表しているかを統計的検定によって判定してもよい。
FIG. 10 is a schematic diagram when there is a representative point already set in the corresponding voxel.
If there is a representative point already set in the corresponding voxel in step ST2 in FIG. 9, the error distribution newly acquired in step ST4 is compared with the error distribution in the already set voxel (that is, the difference points are the same). Judge whether it is one point).
If the error distributions overlap each other in this comparison (FIG. 10A), a new error distribution and a new error distribution center are reset from both error distributions in step ST5 (that is, the error distribution is synthesized).
In this comparison, if the error distributions do not overlap with each other (FIG. 10B), the voxel is further divided into eight so that only a single representative point exists in a single voxel in steps ST6 and ST7. Newly register by dividing into multiple voxels hierarchically.
The criteria for division and synthesis are determined from, for example, the degree of coincidence of error distributions. For example, a distance scale such as Mahalanobis distance can be used for the degree of coincidence of error distributions. Further, based on the two error distributions, it may be determined by a statistical test whether both represent the same point.

図11は、誤差分布が互いに重複する場合(図10A)の別の模式図である。図9のステップST5において、2つの代表点と誤差分布を合成して新たな代表点と誤差分布を設定する手段として、カルマンフィルタを用いることができる。例えば、二次元の場合に、この図に示すように、2つの代表点をそれぞれx(1),x’(2)、2つの誤差分布をΣ(1)、Σ’(2)とし、これを合成した代表点をx(2)、誤差分布をΣ(2)とすると、代表点x(2)と誤差分布Σ(2)を算出する模式図は図11のようになる。   FIG. 11 is another schematic diagram when error distributions overlap each other (FIG. 10A). In step ST5 of FIG. 9, a Kalman filter can be used as means for setting a new representative point and error distribution by combining the error distribution with two representative points. For example, in the case of two dimensions, as shown in this figure, the two representative points are x (1) and x ′ (2), the two error distributions are Σ (1) and Σ ′ (2), respectively. 11 is a schematic diagram for calculating the representative point x (2) and the error distribution Σ (2), where x (2) and the error distribution are Σ (2).

さらに図5において、車両データ決定ステップS26は、表面再構成ステップS25の後に実施し、得られたボクセルの3次元データを床面に投影して2次元平面情報にして、その2次元形状の包含図形を求めることによって、車長や車幅を決定する。   Further, in FIG. 5, the vehicle data determination step S26 is performed after the surface reconstruction step S25, and the obtained three-dimensional data of the voxel is projected onto the floor surface to obtain two-dimensional plane information, and the inclusion of the two-dimensional shape is performed. The vehicle length and vehicle width are determined by determining the figure.

車両データ決定ステップS26において、ボクセル位置、及び代表点とその誤差分布を出力装置36に出力してもよい。出力装置36が表示装置(例えばCRT)の場合、3次元画像上に立体表示するのが好ましい。また、これらのデータを別の装置(例えば制御装置、コンピュータ)に転送してもよく、プリンタで出力してもよい。   In the vehicle data determination step S <b> 26, the voxel position, the representative point, and its error distribution may be output to the output device 36. When the output device 36 is a display device (for example, a CRT), it is preferable to perform stereoscopic display on a three-dimensional image. These data may be transferred to another device (for example, a control device or a computer) or may be output by a printer.

図5に示した処理の手順は、新たな計測位置において、新しい計測データが得られる度に、処理を繰り返し行い、外部記憶装置33に結果を格納する。   The processing procedure shown in FIG. 5 repeats the processing each time new measurement data is obtained at a new measurement position, and stores the result in the external storage device 33.

図5において、車両データ出力ステップS3では、データ処理ステップS2で決定された車両データを別の装置50に出力する。
別の装置50は、例えば、(1)車両の形状ないしは寸法に応じて駐車エリアを選択する手段、(2)車両の形状ないしは寸法に応じて料金計算手段、(3)車両の形状ないしは寸法に応じて該当する駐車スペースまでの車両の移動方法を案内する案内手段、(4)自動搬送装置により自動で車両を駐車スペースまで誘導/運搬する誘導・運搬手段である。
これらの手段(別の装置50)を併用することにより、(1)の手段により車両の形状ないしは寸法に応じて駐車エリアを選択することができ、(2)の料金計算手段により車両の形状ないしは寸法に応じて料金を計算することができ、(3)の案内手段により車両の形状ないしは寸法に応じて該当する駐車スペースまでの車両の移動方法を案内することができ、(4)の誘導・運搬手段により自動搬送装置により自動で車両を駐車スペースまで誘導/運搬することができる。
In FIG. 5, in the vehicle data output step S <b> 3, the vehicle data determined in the data processing step S <b> 2 is output to another device 50.
Another device 50 includes, for example, (1) means for selecting a parking area according to the shape or dimensions of the vehicle, (2) fee calculation means according to the shape or dimensions of the vehicle, and (3) the shape or dimensions of the vehicle. Corresponding means for guiding the moving method of the vehicle to the corresponding parking space, and (4) guiding / transporting means for automatically guiding / transporting the vehicle to the parking space by the automatic transport device.
By using these means (another device 50) in combination, a parking area can be selected according to the shape or dimensions of the vehicle by means of (1), and the shape or shape of the vehicle by means of charge calculation means of (2). Charges can be calculated according to the dimensions, and the guide means of (3) can guide the vehicle movement method to the corresponding parking space according to the shape or dimensions of the vehicle. The vehicle can be guided / transported automatically to the parking space by the automatic transport device by the transport means.

図12は、本発明の実施例を示す図である。この図において、(A)は1回目の計測データ、(B)は複数回の計測データの統合結果、(C)は複数回の計測データの統合結果の拡大図である。
この図から、複数回の計測データを統合することにより、精度向上が図れることがわかる。
FIG. 12 is a diagram showing an embodiment of the present invention. In this figure, (A) is the first measurement data, (B) is an integration result of a plurality of measurement data, and (C) is an enlarged view of the integration result of a plurality of measurement data.
From this figure, it can be seen that the accuracy can be improved by integrating the measurement data of a plurality of times.

上述した本発明の方法及び装置によれば、複数の3次元レーザレーダを用いた3次元座標値計測ステップにおいて、所定の駐車エリア内の車両の両側面に向けてパルスレーザ光を3次元的に照射し、前記両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測し、
コンピュータを用いたデータ処理ステップにおいて、前記3次元座標値をデータ処理して、車両の車長及び車幅を含む車両データを決定するので、車幅だけではなく、車長を含め車両の全体形状を把握することができる。
According to the method and apparatus of the present invention described above, in the three-dimensional coordinate value measurement step using a plurality of three-dimensional laser radars, the pulse laser beam is three-dimensionally directed toward both sides of the vehicle in a predetermined parking area. Irradiate and measure the three-dimensional coordinate values of both sides from the pulsed laser light reflected on both sides,
In the data processing step using a computer, the three-dimensional coordinate value is data-processed to determine vehicle data including the vehicle length and vehicle width, so that not only the vehicle width but also the vehicle overall shape including the vehicle length is determined. Can be grasped.

さらに、本発明によれば、以下の効果が得られる。
(1)車両の同一箇所を数回計測することができ、統計処理によって精度向上が図れる。
(2)視点の異なる複数のセンサの計測結果を統合することが可能となり、精度向上が図れる。
(3)センサの誤差モデルを考慮することによって、計測誤差の向上や、計測誤差の推定が可能となり、車両のサイズに応じた駐車スペースの割り当てや、車両の自動/手動誘導時に、安全性を考慮することが可能となる。
(4)ノイズとそれ以外との区別が可能となり、精度向上が期待できる。
(5)ドアミラーなどの突起部分と車両の側面部分との区別が精度向上によって可能となるので、ドアミラーまで含めた車幅とドアミラーを含めない車幅とをアプリケーションによって使い分けることが可能となる。
(6)2次元平面情報にし、その包含図形を求めることで、車長や車幅、姿勢を安定して求めることができる。
Furthermore, according to the present invention, the following effects can be obtained.
(1) The same part of the vehicle can be measured several times, and the accuracy can be improved by statistical processing.
(2) The measurement results of a plurality of sensors with different viewpoints can be integrated, and the accuracy can be improved.
(3) By taking into account the error model of the sensor, it is possible to improve the measurement error and estimate the measurement error, and to ensure safety when allocating parking spaces according to the size of the vehicle and for automatic / manual guidance of the vehicle. It becomes possible to consider.
(4) It becomes possible to distinguish between noise and the other, and an improvement in accuracy can be expected.
(5) Since it is possible to distinguish the protruding portion such as the door mirror and the side surface portion of the vehicle by improving the accuracy, the vehicle width including the door mirror and the vehicle width not including the door mirror can be properly used depending on the application.
(6) By obtaining the two-dimensional plane information and obtaining the inclusion graphic, the vehicle length, the vehicle width, and the posture can be obtained stably.

なお、本発明は、上述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で種々に変更することができることは勿論である。   In addition, this invention is not limited to embodiment mentioned above, Of course, it can change variously in the range which does not deviate from the summary of this invention.

3次元レーザレーダの構成図である。It is a block diagram of a three-dimensional laser radar. 距離センサで計測された極座標データと誤差の関係を示す図である。It is a figure which shows the relationship between polar coordinate data measured with the distance sensor, and an error. 本発明の車両形状計測装置の全体構成図である。1 is an overall configuration diagram of a vehicle shape measuring device of the present invention. データ処理装置30の構成図である。2 is a configuration diagram of a data processing device 30. FIG. 本発明の方法を示すフローチャートである。3 is a flowchart illustrating the method of the present invention. ボクセルの分割に八分木を用いた場合のモデル構築ステップの模式図である。It is a schematic diagram of a model construction step when an octree is used for voxel division. 構築された環境モデルの模式図である。It is a schematic diagram of the constructed environmental model. 本発明におけるボクセルデータのデータ構造を示す図である。It is a figure which shows the data structure of the voxel data in this invention. 表面再構成ステップS25におけるデータ処理フロー図である。It is a data processing flow figure in surface reconstruction step S25. 本発明によるレーザ測距装置の全体構成図である。1 is an overall configuration diagram of a laser distance measuring device according to the present invention. 誤差分布が互いに重複する場合の別の模式図である。It is another schematic diagram when error distributions mutually overlap. 本発明の実施例を示す図である。It is a figure which shows the Example of this invention. 特許文献1の装置の模式図である。It is a schematic diagram of the apparatus of patent document 1. FIG. 特許文献2の装置の模式図である。It is a schematic diagram of the apparatus of patent document 2. FIG. 特許文献3の装置の模式図である。It is a schematic diagram of the apparatus of patent document 3. FIG. 特許文献4の装置の模式図である。It is a schematic diagram of the apparatus of patent document 4. 特許文献5の装置の模式図である。FIG. 11 is a schematic diagram of an apparatus disclosed in Patent Document 5.

符号の説明Explanation of symbols

1 パルスレーザ光、2 平行光、3 パルスレーザ光、
4 スタートパルス、5 ストップパルス、
6 ボクセル、7 代表点、8 誤差分布、
10 三次元レーザレーダ、12 レーダヘッド、13 レーザダイオード、
14 投光レンズ、15 ポリゴンミラー、16 受光レンズ、
17 光検出器、18a,18b ミラー、
20 制御器、21 時間間隔カウンタ、22 信号処理ボード、
23 判定処理ユニット、24 ドライブユニット、
32 データ入力装置、33 外部記憶装置、34 内部記憶装置、
35 中央処理装置、36 出力装置
1 pulse laser light, 2 parallel light, 3 pulse laser light,
4 start pulse, 5 stop pulse,
6 voxels, 7 representative points, 8 error distribution,
10 3D laser radar, 12 radar head, 13 laser diode,
14 projection lens, 15 polygon mirror, 16 light receiving lens,
17 photo detector, 18a, 18b mirror,
20 controller, 21 time interval counter, 22 signal processing board,
23 judgment processing unit, 24 drive unit,
32 data input device, 33 external storage device, 34 internal storage device,
35 Central processing unit, 36 Output unit

Claims (11)

所定の駐車エリア内に静止している車両の車長及び車幅を該車両から離れた位置から計測する車両形状計測方法であって、
複数の3次元レーザレーダにより、前記駐車エリア内の車両の両側面に向けてパルスレーザ光を3次元的に照射し、前記両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測する3次元座標値計測ステップと、
コンピュータにより、前記3次元座標値をデータ処理して、車両の車長及び車幅を含む車両データを決定するデータ処理ステップと、
前記決定された車両データを出力する車両データ出力ステップとを有する、ことを特徴とする車両形状計測方法。
A vehicle shape measuring method for measuring a vehicle length and a vehicle width of a vehicle stationary in a predetermined parking area from a position away from the vehicle,
A plurality of three-dimensional laser radars irradiate three-dimensionally with a pulse laser beam toward both sides of the vehicle in the parking area, and the three-dimensional coordinate values of both sides are obtained from the pulse laser beam reflected on the both sides. A three-dimensional coordinate value measuring step for measuring;
A data processing step of performing data processing on the three-dimensional coordinate value by a computer and determining vehicle data including a vehicle length and a vehicle width of the vehicle;
And a vehicle data output step of outputting the determined vehicle data.
前記データ処理ステップは、3次元座標値計測ステップで計測した3次元座標値をコンピュータに入力するデータ入力ステップと、
前記駐車エリアの存在する空間領域を、境界表面が互いに直交する直方体からなる複数のボクセルに分割し、各ボクセル位置を記憶する環境モデルを構築するモデル構築ステップと、
前記座標値に対応するボクセルの内部に代表点とその誤差分布を設定し記憶するマッチングステップと、
各ボクセルの代表点の位置に基づいて車体の表面を再構成する表面再構成ステップと、
得られたボクセルの3次元データから車長や車幅を決定する車両データ決定ステップとを有する、ことを特徴とする請求項1に記載の車両形状計測方法。
The data processing step includes a data input step of inputting the three-dimensional coordinate value measured in the three-dimensional coordinate value measuring step to a computer;
A model construction step of constructing an environment model that divides the space area where the parking area exists into a plurality of voxels made of rectangular parallelepipeds whose boundary surfaces are orthogonal to each other, and stores each voxel position;
A matching step of setting and storing a representative point and its error distribution inside the voxel corresponding to the coordinate value;
A surface reconstruction step of reconstructing the surface of the vehicle body based on the position of the representative point of each voxel;
The vehicle shape measuring method according to claim 1, further comprising a vehicle data determining step for determining a vehicle length and a vehicle width from the obtained three-dimensional data of voxels.
前記車両データ決定ステップにおいて、表面再構成ステップで得られたボクセルの3次元データを床面に投影して2次元平面情報にして、その2次元形状の包含図形を求めることによって、車長や車幅を決定する、ことを特徴とする請求項1又は2に記載の車両形状計測方法。   In the vehicle data determination step, the three-dimensional data of the voxel obtained in the surface reconstruction step is projected onto the floor surface to obtain two-dimensional plane information, and the inclusion figure of the two-dimensional shape is obtained. The vehicle shape measuring method according to claim 1, wherein a width is determined. 前記モデル構築ステップにおいて、最大のボクセルを必要最小限の分解能に相当する大きさに設定し、かつ単一のボクセル内に複数の被計測点が存在する場合に、単一のボクセル内に単一の被計測点のみが存在するように、該ボクセルを更に分割して階層的に複数のボクセルに分割する、ことを特徴とする請求項2又は3に記載の車両形状計測方法。   In the model building step, when a maximum voxel is set to a size corresponding to the minimum necessary resolution and there are a plurality of measurement points in a single voxel, a single voxel is single. 4. The vehicle shape measuring method according to claim 2, wherein the voxel is further divided and divided into a plurality of voxels hierarchically so that only the measured point is present. 5. 前記マッチングステップの後に、前記環境モデルを更新するモデル更新ステップを有し、該モデル更新ステップにおいて、新たに入力された被計測点の座標値に対応するボクセルを探索し、
ボクセルが保有する誤差分布が十分収束して小さいボクセル内に代表点が存在するボクセルがある一定以上連なっている部分を車両の側面部とみなして、ノイズ点やドアミラー等の付属品と側面部とを分離する、ことを特徴とする請求項2乃至4のいずれかに記載の車両形状計測方法。
After the matching step, a model update step for updating the environmental model is performed, and in the model update step, a voxel corresponding to a coordinate value of a newly input measurement point is searched,
The error distribution held by the voxel is sufficiently converged and the part where a certain voxel with a representative point exists in a small voxel is connected to a certain side is regarded as the side part of the vehicle. The vehicle shape measuring method according to claim 2, wherein the vehicle shape measuring method is separated.
前記マッチングステップの後に、前記環境モデルを更新するモデル更新ステップを有し、該モデル更新ステップにおいて、新たに入力された被計測点の座標値に対応するボクセルを探索し、
該ボクセル内に代表点がない場合に、前記座標値と誤差分布を代表点の座標値と誤差分布として設定する、ことを特徴とする請求項2乃至5のいずれかに記載の車両形状計測方法。
After the matching step, a model update step for updating the environmental model is performed, and in the model update step, a voxel corresponding to a coordinate value of a newly input measurement point is searched,
6. The vehicle shape measurement method according to claim 2, wherein when there is no representative point in the voxel, the coordinate value and the error distribution are set as the coordinate value and the error distribution of the representative point. .
前記マッチングステップの後に、前記環境モデルを更新するモデル更新ステップを有し、該モデル更新ステップにおいて、新たに入力された被計測点の座標値に対応するボクセルを探索し、
前記ボクセル内に既に設定した代表点がある場合に、新たに取得した誤差分布と既に設定したボクセル内の誤差分布とを比較し、
誤差分布が互いに重複する場合に、両誤差分布から新たな誤差分布と新たな代表点を再設定し、
誤差分布が互いに重複しない場合に、単一のボクセル内に単一の代表点のみが存在するように、該ボクセルを更に分割して階層的に複数のボクセルに分割する、ことを特徴とする請求項2乃至6のいずれかに記載の車両形状計測方法。
After the matching step, a model update step for updating the environmental model is performed, and in the model update step, a voxel corresponding to a coordinate value of a newly input measurement point is searched,
When there is a representative point already set in the voxel, the newly acquired error distribution is compared with the already set error distribution in the voxel,
If the error distributions overlap each other, reset a new error distribution and a new representative point from both error distributions,
The voxel is further divided into a plurality of voxels hierarchically so that only a single representative point exists in a single voxel when error distributions do not overlap each other. Item 7. A vehicle shape measuring method according to any one of Items 2 to 6.
ボクセルの内部に代表点とその誤差分布に加えて、確率値を併せ持つ、ことを特徴とする請求項2乃至6のいずれかに記載の車両形状計測方法。   7. The vehicle shape measuring method according to claim 2, further comprising a probability value in addition to the representative point and its error distribution inside the voxel. 所定の駐車エリア内に静止している車両の車長及び車幅を該車両から離れた位置から計測する車両形状計測装置であって、
前記駐車エリア内の車両の両側面に向けてパルスレーザ光を3次元的に照射し、前記両側面で反射されたパルスレーザ光から両側面の3次元座標値を計測する複数の3次元レーザレーダと、
前記3次元座標値をデータ処理して、車両の車長及び車幅を含む車両データを決定するデータ処理装置と、
前記決定された車両データを出力する車両データ出力装置とを有する、ことを特徴とする車両形状計測装置。
A vehicle shape measuring device that measures the length and width of a vehicle stationary within a predetermined parking area from a position away from the vehicle,
A plurality of three-dimensional laser radars that three-dimensionally irradiate a pulse laser beam toward both sides of the vehicle in the parking area and measure a three-dimensional coordinate value on both sides from the pulse laser beam reflected on the both sides When,
A data processing device that processes the three-dimensional coordinate values to determine vehicle data including a vehicle length and a vehicle width;
A vehicle shape measuring device comprising: a vehicle data output device for outputting the determined vehicle data.
前記データ処理装置は、3次元レーザレーダで計測した3次元座標値をコンピュータに入力するデータ入力装置と、
前記駐車エリアに存在する空間領域を、境界表面が互いに直交する直方体からなる複数のボクセルに分割し、各ボクセル位置を記憶する環境モデルを構築するモデル構築装置と、
前記座標値に対応するボクセルの内部に代表点とその誤差分布を設定し記憶するマッチング装置と、
各ボクセルの代表点の位置に基づいて車体の表面を再構築する表面再構築装置と、
得られたボクセルの3次元データから車長や車幅を決定する車両データ決定装置とを有する、ことを特徴とする請求項9に記載の車両形状計測装置。
The data processing device includes a data input device that inputs a three-dimensional coordinate value measured by a three-dimensional laser radar to a computer;
A model construction device that divides a spatial region existing in the parking area into a plurality of voxels made of rectangular parallelepipeds whose boundary surfaces are orthogonal to each other, and constructs an environmental model that stores each voxel position;
A matching device for setting and storing a representative point and its error distribution inside a voxel corresponding to the coordinate value;
A surface reconstruction device that reconstructs the surface of the vehicle body based on the position of the representative point of each voxel;
The vehicle shape measuring device according to claim 9, further comprising a vehicle data determining device that determines a vehicle length and a vehicle width from the obtained three-dimensional data of voxels.
前記車両データ決定装置により、表面再構築装置で得られたボクセルの3次元データを床面に投影して2次元平面情報にして、その2次元形状の包含図形を求めることによって、車長や車幅を決定する、ことを特徴とする請求項9又は10に記載の車両形状計測装置。   By the vehicle data determination device, the three-dimensional data of the voxel obtained by the surface reconstruction device is projected onto the floor surface to obtain two-dimensional plane information, and the inclusion figure of the two-dimensional shape is obtained, so that the vehicle length and the vehicle The vehicle shape measuring device according to claim 9 or 10, wherein a width is determined.
JP2007155831A 2007-06-13 2007-06-13 Vehicle shape measuring method and apparatus Active JP5303873B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007155831A JP5303873B2 (en) 2007-06-13 2007-06-13 Vehicle shape measuring method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007155831A JP5303873B2 (en) 2007-06-13 2007-06-13 Vehicle shape measuring method and apparatus

Publications (2)

Publication Number Publication Date
JP2008309533A true JP2008309533A (en) 2008-12-25
JP5303873B2 JP5303873B2 (en) 2013-10-02

Family

ID=40237278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007155831A Active JP5303873B2 (en) 2007-06-13 2007-06-13 Vehicle shape measuring method and apparatus

Country Status (1)

Country Link
JP (1) JP5303873B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008309671A (en) * 2007-06-15 2008-12-25 Ihi Corp Object recognition method and device
JP2010067119A (en) * 2008-09-12 2010-03-25 Omron Corp Vehicle detection device
JP2010164349A (en) * 2009-01-13 2010-07-29 Equos Research Co Ltd Control unit
JP2011089354A (en) * 2009-10-26 2011-05-06 Ihi Transport Machinery Co Ltd Leaving parking apparatus for vehicle with mobile function
KR101229232B1 (en) * 2011-06-14 2013-02-04 한국철도기술연구원 Detection apparatus and method of train outside fault
CN103162639A (en) * 2011-12-12 2013-06-19 无锡物联网产业研究院 Method, device and system for obtaining vehicle three-dimensional outline
JP2013530034A (en) * 2010-05-24 2013-07-25 エフ.ビー.テクノロジーズ ピーティーワイ リミテッド System for manipulating objects
JP2013246483A (en) * 2012-05-23 2013-12-09 Kokusai Kogyo Co Ltd Obstacle detection method and obstacle detection system
RU2510889C1 (en) * 2012-12-20 2014-04-10 Анатолий Сергеевич Иваницкий Three-dimensional radar set
JP2015203675A (en) * 2014-04-16 2015-11-16 株式会社日立製作所 Image processing apparatus, image processing system, three-dimensional measuring instrument, image processing method, and image processing program
JP2016164348A (en) * 2015-03-06 2016-09-08 Ihi運搬機械株式会社 Parking apparatus
JP2016529475A (en) * 2013-06-14 2016-09-23 ウーバー テクノロジーズ,インコーポレイテッド Classification of object movement based on lidar
JP2018028535A (en) * 2016-07-28 2018-02-22 リバティ リーチ インコーポレイテッド Method and system for measuring outermost dimension of vehicle arranged in inspection station
US9905032B2 (en) 2013-06-14 2018-02-27 Microsoft Technology Licensing, Llc Object removal using lidar-based classification
CN108592797A (en) * 2018-03-28 2018-09-28 华南理工大学 A kind of dynamic measurement method and system of vehicle overall dimension and wheelbase
JP2018159574A (en) * 2017-03-22 2018-10-11 本田技研工業株式会社 Method for specifying noise data of laser type distance measuring device
JP2021508814A (en) * 2018-11-09 2021-03-11 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド Vehicle positioning system using LiDAR
WO2021106089A1 (en) * 2019-11-26 2021-06-03 日本電信電話株式会社 Decryption method, encryption method, decryption device, and program

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02280078A (en) * 1989-04-20 1990-11-16 Ricoh Co Ltd Object image pickup system
JPH07270523A (en) * 1994-04-01 1995-10-20 Furuno Electric Co Ltd Three-dimensional display equipment
JPH0843056A (en) * 1993-09-06 1996-02-16 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for obtaining characteristics of moving object
JPH08249457A (en) * 1994-06-17 1996-09-27 Siemens Corporate Res Inc Computer-assisted three-dimensional image discrimination and collation method
JPH10105868A (en) * 1996-09-30 1998-04-24 Omron Corp Vehicle measuring device/method
JPH10124704A (en) * 1996-08-30 1998-05-15 Sanyo Electric Co Ltd Device for preparing stereoscopic model and method therefor and medium for recording program for preparing stereoscopic model
JPH11224397A (en) * 1997-12-03 1999-08-17 Omron Corp Vehicle measurement device
JP2001319290A (en) * 2000-05-12 2001-11-16 Hitachi Zosen Corp Method and device for judging vehicle kind
JP2003067726A (en) * 2001-08-27 2003-03-07 Sanyo Electric Co Ltd Solid model generation system and method
JP2003232622A (en) * 2002-02-08 2003-08-22 Olympus Optical Co Ltd Device, method and program for obtaining three- dimensional information
JP2003269936A (en) * 2002-03-19 2003-09-25 Sanyo Electric Co Ltd Automatic size-measuring method
JP2004053447A (en) * 2002-07-22 2004-02-19 Nippon Telegr & Teleph Corp <Ntt> Vehicle measuring apparatus and method
JP2004354170A (en) * 2003-05-28 2004-12-16 Asahi Kasei Corp Three-dimensional information display device and array type ultrasonic sensor module
JP2005165965A (en) * 2003-12-05 2005-06-23 Canon Inc Image recognition system and image recognition method
JP2005212709A (en) * 2004-02-02 2005-08-11 Yoichi Takebayashi Vehicle driving supporting system

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02280078A (en) * 1989-04-20 1990-11-16 Ricoh Co Ltd Object image pickup system
JPH0843056A (en) * 1993-09-06 1996-02-16 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for obtaining characteristics of moving object
JPH07270523A (en) * 1994-04-01 1995-10-20 Furuno Electric Co Ltd Three-dimensional display equipment
JPH08249457A (en) * 1994-06-17 1996-09-27 Siemens Corporate Res Inc Computer-assisted three-dimensional image discrimination and collation method
JPH10124704A (en) * 1996-08-30 1998-05-15 Sanyo Electric Co Ltd Device for preparing stereoscopic model and method therefor and medium for recording program for preparing stereoscopic model
JPH10105868A (en) * 1996-09-30 1998-04-24 Omron Corp Vehicle measuring device/method
JPH11224397A (en) * 1997-12-03 1999-08-17 Omron Corp Vehicle measurement device
JP2001319290A (en) * 2000-05-12 2001-11-16 Hitachi Zosen Corp Method and device for judging vehicle kind
JP2003067726A (en) * 2001-08-27 2003-03-07 Sanyo Electric Co Ltd Solid model generation system and method
JP2003232622A (en) * 2002-02-08 2003-08-22 Olympus Optical Co Ltd Device, method and program for obtaining three- dimensional information
JP2003269936A (en) * 2002-03-19 2003-09-25 Sanyo Electric Co Ltd Automatic size-measuring method
JP2004053447A (en) * 2002-07-22 2004-02-19 Nippon Telegr & Teleph Corp <Ntt> Vehicle measuring apparatus and method
JP2004354170A (en) * 2003-05-28 2004-12-16 Asahi Kasei Corp Three-dimensional information display device and array type ultrasonic sensor module
JP2005165965A (en) * 2003-12-05 2005-06-23 Canon Inc Image recognition system and image recognition method
JP2005212709A (en) * 2004-02-02 2005-08-11 Yoichi Takebayashi Vehicle driving supporting system

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008309671A (en) * 2007-06-15 2008-12-25 Ihi Corp Object recognition method and device
JP2010067119A (en) * 2008-09-12 2010-03-25 Omron Corp Vehicle detection device
JP2010164349A (en) * 2009-01-13 2010-07-29 Equos Research Co Ltd Control unit
JP2011089354A (en) * 2009-10-26 2011-05-06 Ihi Transport Machinery Co Ltd Leaving parking apparatus for vehicle with mobile function
JP2013530034A (en) * 2010-05-24 2013-07-25 エフ.ビー.テクノロジーズ ピーティーワイ リミテッド System for manipulating objects
US20140144470A1 (en) * 2010-05-24 2014-05-29 F.B. Technologies Pty Ltd System for manipulating objects
KR101229232B1 (en) * 2011-06-14 2013-02-04 한국철도기술연구원 Detection apparatus and method of train outside fault
CN103162639A (en) * 2011-12-12 2013-06-19 无锡物联网产业研究院 Method, device and system for obtaining vehicle three-dimensional outline
CN103162639B (en) * 2011-12-12 2015-06-10 无锡物联网产业研究院 Method, device and system for obtaining vehicle three-dimensional outline
JP2013246483A (en) * 2012-05-23 2013-12-09 Kokusai Kogyo Co Ltd Obstacle detection method and obstacle detection system
RU2510889C1 (en) * 2012-12-20 2014-04-10 Анатолий Сергеевич Иваницкий Three-dimensional radar set
US9870512B2 (en) 2013-06-14 2018-01-16 Uber Technologies, Inc. Lidar-based classification of object movement
US9905032B2 (en) 2013-06-14 2018-02-27 Microsoft Technology Licensing, Llc Object removal using lidar-based classification
JP2016529475A (en) * 2013-06-14 2016-09-23 ウーバー テクノロジーズ,インコーポレイテッド Classification of object movement based on lidar
KR101829556B1 (en) * 2013-06-14 2018-02-14 우버 테크놀로지스, 인크. Lidar-based classification of object movement
JP2015203675A (en) * 2014-04-16 2015-11-16 株式会社日立製作所 Image processing apparatus, image processing system, three-dimensional measuring instrument, image processing method, and image processing program
JP2016164348A (en) * 2015-03-06 2016-09-08 Ihi運搬機械株式会社 Parking apparatus
US10591277B2 (en) 2016-07-28 2020-03-17 Liberty Reach Inc. Method and system for measuring outermost dimension of a vehicle positioned at an inspection station
JP2018028535A (en) * 2016-07-28 2018-02-22 リバティ リーチ インコーポレイテッド Method and system for measuring outermost dimension of vehicle arranged in inspection station
JP7045816B2 (en) 2016-07-28 2022-04-01 リバティ リーチ インコーポレイテッド Methods and systems for measuring the outermost dimensions of vehicles located at inspection stations
JP2018159574A (en) * 2017-03-22 2018-10-11 本田技研工業株式会社 Method for specifying noise data of laser type distance measuring device
CN108592797A (en) * 2018-03-28 2018-09-28 华南理工大学 A kind of dynamic measurement method and system of vehicle overall dimension and wheelbase
CN108592797B (en) * 2018-03-28 2020-12-22 华南理工大学 Dynamic measurement method and system for vehicle overall dimension and wheel base
JP2021508814A (en) * 2018-11-09 2021-03-11 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド Vehicle positioning system using LiDAR
US11073601B2 (en) 2018-11-09 2021-07-27 Beijing Didi Infinity Technology And Development Co., Ltd. Vehicle positioning system using LiDAR
WO2021106089A1 (en) * 2019-11-26 2021-06-03 日本電信電話株式会社 Decryption method, encryption method, decryption device, and program
JPWO2021106089A1 (en) * 2019-11-26 2021-06-03
JP7322970B2 (en) 2019-11-26 2023-08-08 日本電信電話株式会社 Decoding method, encoding method, decoding device, and program

Also Published As

Publication number Publication date
JP5303873B2 (en) 2013-10-02

Similar Documents

Publication Publication Date Title
JP5303873B2 (en) Vehicle shape measuring method and apparatus
JP4650751B2 (en) Method and apparatus for aligning 3D shape data
US9207069B2 (en) Device for generating a three-dimensional model based on point cloud data
JP4650750B2 (en) 3D shape data storage and display method and apparatus, and 3D shape measurement method and apparatus
US8154594B2 (en) Mobile peripheral monitor
JP7045816B2 (en) Methods and systems for measuring the outermost dimensions of vehicles located at inspection stations
US8180100B2 (en) Plane detector and detecting method
US8331653B2 (en) Object detector
JP4650752B2 (en) Self-position identification method and apparatus and three-dimensional shape measurement method and apparatus
JP5380792B2 (en) Object recognition method and apparatus
CN108363065A (en) Object detecting system
CN108474653B (en) Three-dimensional measurement device and measurement support processing method thereof
US20060115113A1 (en) Method for the recognition and tracking of objects
US10760907B2 (en) System and method for measuring a displacement of a mobile platform
CN112455502B (en) Train positioning method and device based on laser radar
CN113768419B (en) Method and device for determining sweeping direction of sweeper and sweeper
US20240119657A1 (en) Image processing device, image processing method, and program
JP2010066595A (en) Environment map generating device and environment map generating method
Gallegos et al. Appearance-based slam relying on a hybrid laser/omnidirectional sensor
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
CN116263320A (en) Vehicle measurement method, device, system and storage medium
JP6163391B2 (en) Underwater moving object position detection device
KR102546975B1 (en) Method of measuring rebar diameter and system thereof
Phan et al. Generating 3D point-cloud based on combining adjacent multi-station scanning data in 2D laser scanning: A case study of Hokuyo UTM 30lxk
JP6230923B2 (en) Position detecting device and position detecting method for underwater moving body

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130610

R151 Written notification of patent or utility model registration

Ref document number: 5303873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250