JP2009288055A - Method of calculating position information of object - Google Patents
Method of calculating position information of object Download PDFInfo
- Publication number
- JP2009288055A JP2009288055A JP2008140596A JP2008140596A JP2009288055A JP 2009288055 A JP2009288055 A JP 2009288055A JP 2008140596 A JP2008140596 A JP 2008140596A JP 2008140596 A JP2008140596 A JP 2008140596A JP 2009288055 A JP2009288055 A JP 2009288055A
- Authority
- JP
- Japan
- Prior art keywords
- information
- grid
- detection
- area
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
この発明は、物体の位置情報算出方法に関し、3次元レーザレーダで得た情報から物体の位置や長さ、幅、高さなどの物体プロファイルを算出して出力できるようにしたもので、特に乗り捨て式の駐車設備における車両の検出に用いて好適なものである。 The present invention relates to an object position information calculation method, which can calculate and output an object profile such as the position, length, width, and height of an object from information obtained by a three-dimensional laser radar. It is suitable for use in detecting a vehicle in a parking facility of the type.
ある領域内に物体が存在するか否かに加え、存在する物体の位置や大きさなどの物体プロファイルを知る必要がある場合のひとつに、乗り捨て式駐車施設における車両受け渡し領域における車両の検出があり、乗り捨てられた車両の停止位置やその車両の車長、車幅、車高などの車両プロファイルを知ることで、自動入出庫などに利用することができる。 In addition to whether or not an object exists in a certain area, one of the cases where it is necessary to know the object profile such as the position and size of the existing object is to detect the vehicle in the vehicle delivery area in a drop-off parking facility. Knowing the vehicle profile such as the stop position of the abandoned vehicle and the length, width, and height of the vehicle, it can be used for automatic loading and unloading.
このような物体の検知方法には、例えばテレビカメラを用いて物体を検知すべき領域を撮影し、得られた画像情報を処理することで、物体の存在を検知するものがあるが、カメラ画像は、一般に天候や気象の影響を受け易く、また夜間における検知がやり難い。 In such an object detection method, for example, a region where an object should be detected is photographed using a television camera, and the presence of the object is detected by processing the obtained image information. Are generally susceptible to weather and weather, and are difficult to detect at night.
これに対し、最近のレーザレーダを用いることで、天候や気象の影響、さらに夜間の問題を解消することが提案されており、特許文献1では、踏み切り領域内に存在する移動物体や落下物などを監視する場合に、遮断機が降りているか否かをレーザレーダの情報の一部を利用して判定することで、簡易な構成で的確に監視できるようにしている。
ところが、上記のレーザレーダを用いて監視する方法では、監視が必要となる遮断機が降りた状態でのみ監視するようにして不要な監視を行わないようできるものの、監視領域内に移動物体や落下物などが存在するか否か検出しており、物体の寸法などの物体プロファイルまでを検出できるものではない。 However, in the method of monitoring using the laser radar described above, it is possible to prevent unnecessary monitoring by monitoring only when the circuit breaker requiring monitoring is lowered. It detects whether or not an object exists, and cannot detect even an object profile such as the size of an object.
このため乗り捨て式駐車設備などのような車両の存在だけでなく、車両の移動や駐車スペースなどの判定に必要なその位置および車両の車長、車幅、車高などの車両フロファイルまでを知る必要がある場合には、そのまま適用することができないという問題がある。 Therefore, know not only the presence of vehicles such as drop-off type parking facilities, but also the position required for judging the movement and parking space of the vehicle and the vehicle flow file such as the vehicle length, vehicle width, vehicle height, etc. When necessary, there is a problem that it cannot be applied as it is.
この発明は、上記従来技術の有する事情に鑑みてなされたもので、物体の存在だけでなく、物体の位置および物体の寸法などの物体プロファイルまでを算出して出力することができる物体の位置情報算出方法を提供しようとするものである。 The present invention has been made in view of the circumstances of the prior art described above, and not only the presence of an object but also object position information that can be calculated and output up to an object profile such as the position of the object and the dimensions of the object. It is intended to provide a calculation method.
上記従来技術が有する課題を解決するため、この発明の請求項1記載の物体の位置情報算出方法は、3次元レーザレーダによる取得データから物体の位置およびプロファイル情報を算出するに際し、3次元レーザレーダにより検出される物体の距離情報および走査情報を記録するレーダ情報記録ステップと、このレーダ情報記録ステップで記録された距離情報および走査情報を物体の位置情報を用いる座標系の情報に座標変換する座標変換ステップと、この座標変換ステップで座標変換された座標変換物体検出情報から、物体を検出すべき領域の座標情報を設定する検出領域設定ステップと、この検出領域設定ステップにより設定された領域外を背景情報として前記座標変換物体検出情報から分離消去する背景情報分離ステップと、この背景情報分離ステップで背景情報が分離された背景分離物体検出情報を、物体の前記検出すべき領域を複数のグリッドに分割し各グリッドに存在する背景分離物体検出情報の個数をカウントするグリッド情報カウントステップと、このグリッド情報カウントステップでカウントした各グリッドのカウント数に対し、予め設定したカウント数より少ないカウント数のグリッドをノイズ情報グリッドと判定し消去するノイズ情報消去ステップと、ノイズ情報消去ステップで消去されたグリッド以外のグリッドを最小の長方形で囲む領域を求め、この長方形領域の4つの頂点の座標を物体の位置情報とするとともに、この領域内に存在する物体検出情報から物体の長さ、幅、高さの物体プロファイル情報を算出して出力する物体プロファイル出力ステップとからなることを特徴とするものである。
In order to solve the above-described problems of the prior art, the object position information calculation method according to
また、この発明の請求項2記載の物体の位置情報算出方法は、請求項1記載の構成に加え、前記検出物体が車両であり、前記物体を検出すべき領域が駐車設備の車両受け渡し領域であることを特徴とするものである。 According to a second aspect of the present invention, in addition to the configuration of the first aspect, the detection object is a vehicle, and the area where the object is to be detected is a vehicle delivery area of a parking facility. It is characterized by being.
この発明の請求項1記載の物体の位置情報算出方法によれば、3次元レーザレーダによる取得データから物体の位置およびプロファイル情報を算出するに際し、3次元レーザレーダにより検出される物体の距離情報および走査情報を記録するレーダ情報記録ステップと、このレーダ情報記録ステップで記録された距離情報および走査情報を物体の位置情報を用いる座標系の情報に座標変換する座標変換ステップと、この座標変換ステップで座標変換された座標変換物体検出情報から、物体を検出すべき領域の座標情報を設定する検出領域設定ステップと、この検出領域設定ステップにより設定された領域外を背景情報として前記座標変換物体検出情報から分離消去する背景情報分離ステップと、この背景情報分離ステップで背景情報が分離された背景分離物体検出情報を、物体の前記検出すべき領域を複数のグリッドに分割し各グリッドに存在する背景分離物体検出情報の個数をカウントするグリッド情報カウントステップと、このグリッド情報カウントステップでカウントした各グリッドのカウント数に対し、予め設定したカウント数より少ないカウント数のグリッドをノイズ情報グリッドと判定し消去するノイズ情報消去ステップと、ノイズ情報消去ステップで消去されたグリッド以外のグリッドを最小の長方形で囲む領域を求め、この長方形領域の4つの頂点の座標を物体の位置情報とするとともに、この領域内に存在する物体検出情報から物体の長さ、幅、高さの物体プロファイル情報を算出して出力する物体プロファイル出力ステップとからなるので、3次元レーザレーダに取り込まれた物体の距離情報および走査情報を座標変換することで、物体位置情報を使用する座標の情報に変換でき、変換された情報から検出すべき領域以外の情報を背景情報として分離消去するとともに、領域内の情報をグリッドに分割して各グリッド内のカウント数を用いる判定でノイズを除去して真の情報だけにすることができ、この真の情報からグリッドを囲む最小長方形の領域を物体とすることで、物体の位置情報や物体の長さ、幅、高さなどの物体プロファイルを算出して出力することができる。 According to the object position information calculation method of the first aspect of the present invention, when calculating the object position and profile information from the data acquired by the three-dimensional laser radar, the object distance information detected by the three-dimensional laser radar and A radar information recording step for recording scanning information, a coordinate conversion step for converting the distance information and the scanning information recorded in the radar information recording step into information of a coordinate system using the position information of the object, and a coordinate conversion step A detection area setting step for setting coordinate information of an area where an object is to be detected from the coordinate conversion object detection information that has been subjected to coordinate conversion, and the coordinate conversion object detection information with the outside of the area set by the detection area setting step as background information The background information is separated from the background information and the background information is separated in this background information separation step. In this grid information counting step, the detected background separated object detection information is divided into a plurality of grids by dividing the region to be detected of the object into a plurality of grids, and the number of background separated object detection information existing in each grid is counted. The number of counts of each grid that is smaller than the preset number of counts is determined as a noise information grid, and the noise information erasure step for erasing and the grid other than the grid erased in the noise information erasure step are minimized. Obtain a rectangular area, use the coordinates of the four vertices of this rectangular area as object position information, and calculate object length, width, and height object profile information from the object detection information in this area. 3D laser array. By converting the distance information and scanning information of the object captured in the image, it is possible to convert the information of the object position information into the coordinate information using the information, and separating and deleting information other than the area to be detected from the converted information as background information At the same time, it is possible to divide the information in the area into grids and remove the noise by judging using the count number in each grid so that only the true information is obtained. From this true information, the smallest rectangular area surrounding the grid can be obtained. By using an object, it is possible to calculate and output an object profile such as the position information of the object and the length, width, and height of the object.
これにより、3次元レーザレーダによる耐環境性能に優れた、信頼性の高い物体の位置情報および物体のプロファイルを得ることができるとともに、他のセンシングシステムへの適用も可能となる。 This makes it possible to obtain highly reliable object position information and object profiles that are excellent in environmental resistance performance by the three-dimensional laser radar, and can be applied to other sensing systems.
また、この発明の請求項2記載の物体の位置情報算出方法によれば、前記検出物体が車両であり、前記物体を検出すべき領域が駐車設備の車両受け渡し領域であるので、車両受け渡し領域での車両の位置情報および車両の車長、車幅、車高の車両プロファイルを算出して出力することができ、乗り捨て式駐車施設で信頼性の高い車両の情報を得て運転制御や運転管理などに利用することができる。
According to the object position information calculation method according to
以下、この発明の物体の位置情報算出方法を実施するための最良の形態について駐車設備の車両受け渡し領域での車両の検出に適用した場合を例に図面を参照して詳細に説明する。 Hereinafter, the best mode for carrying out the object position information calculation method of the present invention will be described in detail with reference to the drawings, taking as an example a case where the present invention is applied to vehicle detection in a vehicle delivery area of a parking facility.
図1〜図3はこの発明の物体の位置情報算出方法の一実施の形態にかかり、図1は概略構成図、図2は車両の検出処理手順を説明するフロー図、図3は各処理過程における画像情報を説明した概略説明図である。 1 to 3 relate to an embodiment of an object position information calculation method according to the present invention, FIG. 1 is a schematic configuration diagram, FIG. 2 is a flow chart for explaining a vehicle detection processing procedure, and FIG. It is the schematic explanatory drawing explaining the image information in.
この物体の位置情報算出方法では、3次元レーザレーダにより取得されるデータを用いて物体の位置情報および物体の寸法などの物体プロファイルを算出して出力するものであり、例えば駐車設備の車両受け渡し領域に乗り捨てられた車両の位置情報とその車両の車長、車幅、車高の車両プロファイルを算出して出力することで、乗り捨て駐車設備における車両の移動や運転管理に用いられる。 This object position information calculation method calculates and outputs an object profile such as object position information and object dimensions using data acquired by a three-dimensional laser radar. For example, a vehicle delivery area of a parking facility By calculating and outputting the position information of the vehicle abandoned in the vehicle and the vehicle profile of the vehicle length, vehicle width, and vehicle height of the vehicle, it is used for vehicle movement and driving management in the abandoned parking facility.
この物体の位置情報算出方法では、3次元レーザレーダ10と3次元レーザレーダで取得される取得データを処理して物体(例えば車両)の位置情報および物体プロファイルを演算処理する処理装置として処理用パソコン20を備えて構成される。
In this object position information calculation method, a processing personal computer is used as a processing device that processes acquired data acquired by the three-
3次元レーザレーダ10は、ケースに収容されてセンサユニットが構成され、駐車施設の建屋の壁面等の所定高さで設置され、車両の検出領域である車両の受け渡し領域を3次元で走査するように設置される。
The three-
この3次元レーザレーダ10は、例えば多面体ミラーで構成された回転体11を主走査モータで一定速度で回転駆動するとともに、この多面体ミラーで構成した回転体11に対してその回転軸を直交させて設けられて副走査モータで所定の角度範囲内で揺動駆動されるハーフミラー12を備えており、送信部13のレーザ光源から発せられたレーザパルス光を多面体ミラーで構成した回転体11に照射してハーフミラー12を介して検出領域に照射することで、レーザパルス光を多面体ミラー11の回転とハーフミラーの揺動とによって3次元で走査することができ、レーザパルス光の検出領域からの反射光をハーフミラーおよび多面体ミラー11を介して受信部14で受光検知するように構成されている。
For example, the three-
このような3次元レーザレーダ10によれば、多面体ミラーで構成される回転体11の回転とハーフミラー12の揺動とによってレーザパルス光の照射方向を主走査方向(x方向)に高速に偏向走査しながら、その走査面を副走査方向(y方向)に偏向走査し、これによって所定の検出領域の全域を3次元で走査するようにしている。そして、検出領域に存在する車両(物体)からの反射光をレーザパルス光の照射に同期して受光し、その受光タイミング(レーザパルス光の照射タイミングからその反射光の受光タイミングまでの経過時間)から車両(物体である反射点)までの距離情報、主走査方向および副走査方向の走査角度、受信光量(反射光量)を取得するように構成されている。
According to such a three-
なお、3次元レーザレーダ10による走査範囲は、例えば主走査(水平)方向に60度、副走査(垂直)方向に30度として設定され、その走査方向が0.1度変化する都度、レーザパルス光を照射し、その反射光を受光することで、合計[600×300]方位からの反射光の情報を順次検出するように構成される。
The scanning range by the three-
このような3次元レーザレーダ10により取得されたデータは処理用パソコン20に入力され、図1に示すように、レーザレーダ情報記録21、座標変換22、検出領域設定23、背景情報分離24、グリッド分割・情報カウント25、ノイズ情報グリッド消去26、グリッドの最小長方形領域判定27、物体の位置・プロファイル情報算出28の各処理が、次ぎのように行われて物体の位置情報である車両の位置情報と車長、車幅、車高の物体プロファイルである車両プロファイルが算出されて表示モニタ30に出力される。
Data acquired by such a three-
1) 3次元レーザレーダ10では、例えば図3(a)にレーダ画像を示すように、3次元レーザレーダ10の設置位置を原点とする極座標に基づくデータが取得されて処理用パソコン20に出力され、計測距離(length)、スキャン軸角度(横方向角度:scan)、スイング軸角度(縦方向角度:swing)および受信光量が取得されてレーダ情報として記録される(レーダ情報記録ステップ)。
1) In the three-
2) 座標変換ステップ
このレーダ情報記録ステップで記録された距離情報および走査情報などは、物体の位置情報を用いる座標系、すなわちこの実施形態では、駐車設備の車両受け渡し領域の座標の情報に座標変換する座標変換ステップが実行されて極座標から直交座標(X,Y,Z)に変換する。
2) Coordinate conversion step The distance information and the scanning information recorded in this radar information recording step are coordinate-converted into a coordinate system using the position information of the object, that is, in this embodiment, coordinate information of the vehicle delivery area of the parking facility. The coordinate conversion step is performed to convert the polar coordinates to the orthogonal coordinates (X, Y, Z).
この座標変換ステップでは、まず、原点をそのままに極座標(length、scan、swing)から直交座標(Xs、Ys、Zs)に数式1により変換する。
In this coordinate conversion step, first, the original coordinate is converted from the polar coordinates (length, scan, swing) to the orthogonal coordinates (Xs, Ys, Zs) by
3) 次に、原点を所定の位置に移動する変換を、数式2の関係式に基づいて行う。
直交座標(Xs、Ys、Zs)から原点を移動した直交座標(Xp、Yp、Zp)に変換する。
この場合の同時変換行列式の「t」は、数式3で表すことができるとともに、法線ベクトル(a,b,c)は数式4で表すことができ、これらの関係式を用いることで、座標変換することができる。
3) Next, conversion for moving the origin to a predetermined position is performed based on the relational expression of Formula 2.
Conversion from orthogonal coordinates (Xs, Ys, Zs) to orthogonal coordinates (Xp, Yp, Zp) with the origin moved.
In this case, “t” of the simultaneous conversion determinant can be expressed by
このような座標変換により、例えば図3(b)に示す画像データが座標変換物体検出情報として求められる。この座標変換物体検出情報には、検出すべき車両の情報だけでなく、周囲の物体や床面などの背景情報が含まれている。 By such coordinate conversion, for example, image data shown in FIG. 3B is obtained as coordinate conversion object detection information. The coordinate conversion object detection information includes not only information on the vehicle to be detected but also background information such as surrounding objects and the floor surface.
4) そこで、背景情報を分離消去する背景情報分離ステップが実行される。 4) Therefore, a background information separation step for separating and erasing the background information is executed.
この背景情報分離ステップでは、座標変換ステップで座標変換された座標変換物体検出情報から、物体を検出すべき領域の座標情報を設定する検出領域設定ステップが実行され、車両情報として必要とされるX,Y座標の矩形領域および高さ領域を設定する。例えば駐車施設の車両受け渡し領域としては、矩形領域のX軸上の範囲を1.0mから10m、Y軸上の範囲を−3.9mから3.0m、高さ領域をZ軸上の範囲を0.05mから2.5mと設定する。 In this background information separation step, a detection area setting step for setting coordinate information of an area where an object is to be detected is executed from the coordinate conversion object detection information that has been coordinate-converted in the coordinate conversion step, and X required as vehicle information , Set rectangular area and height area of Y coordinate. For example, as a vehicle delivery area of a parking facility, a rectangular area on the X axis ranges from 1.0 m to 10 m, a range on the Y axis ranges from -3.9 m to 3.0 m, and a height area ranges on the Z axis. Set from 0.05 m to 2.5 m.
そして、この検出領域設定ステップにより設定された領域外を背景情報として座標変換物体検出情報から分離消去する(背景情報分離ステップ)。 Then, the outside of the region set in this detection region setting step is separated and deleted from the coordinate conversion object detection information as background information (background information separation step).
こうして背景情報分離ステップにより背景情報を分離除去した画像データは、例えば図3(c)に示すように、車両の周囲のデータが消去された状態となる。 Thus, the image data from which the background information is separated and removed by the background information separation step is in a state where the data around the vehicle is erased as shown in FIG. 3C, for example.
4´) 次に、必要に応じて3次元レーザレーダ10からの取得データが少ない場合には、これまでの各ステップが繰り返され、取得データから座標変換を経て背景情報を分離消去する背景情報分離ステップまでを繰り返して背景分離物体検出情報としてのデータを蓄積する。
4 ′) Next, when the amount of data acquired from the three-
5) 次ぎに背景情報分離ステップで背景情報が分離された背景分離物体検出情報を、物体の検出すべき領域を複数のグリッドに分割し、各グリッドに存在する背景分離物体検出情報の個数をカウントするグリッド情報カウントステップを実行し、このグリッド情報カウントステップでカウントした各グリッドのカウント数に対し、予め設定したカウント数より少ないカウント数のグリッドをノイズ情報グリッドと判定して消去するノイズ情報消去ステップが実行される。 5) Next, for the background separated object detection information from which the background information was separated in the background information separation step, the area to be detected of the object is divided into a plurality of grids, and the number of the background separated object detection information existing in each grid is counted. A noise information erasing step for executing a grid information counting step to determine and deleting a grid having a count number smaller than a preset count number as a noise information grid with respect to the count number of each grid counted in the grid information counting step. Is executed.
背景分離物体検出情報をX軸方向およびY軸方向それぞれX、Y等分して格子状に分割し、分割されたグリッドのデータ数をカウントすると、本来の車両の情報データが蓄積されたグリッドと、車両の情報が蓄積されていないグリッドとでデータ数が大きく異なり、これによってノイズ成分であるか否かを判定できる。 The background separated object detection information is divided into a grid by equally dividing the X-axis direction and the Y-axis direction, respectively, and the number of divided grid data is counted. The number of data differs greatly from that of a grid in which vehicle information is not accumulated, so that it can be determined whether or not it is a noise component.
そこで、予めノイズ成分であるグリッドを判定するデータのカウント数を設定しておくことで、ノイズの判定を行い、ノズル成分を除去することで、例えば図3(d)に示す画像データを得ることができる。 Therefore, by setting the count number of data for determining the grid that is the noise component in advance, noise is determined, and the nozzle component is removed, for example, to obtain the image data shown in FIG. Can do.
6) こうしてノイズ情報消去ステップでノイズ成分のグリッドを除去した後、消去されたグリッド以外のデータ成分のグリッドを囲む最小の長方形の領域を求める。そして、この長方形領域の4つの頂点の座標を物体の位置情報とするとともに、この領域内に存在する物体検出情報から物体の長さ、幅、高さの物体プロファイル情報として算出する。 6) After removing the noise component grid in the noise information erasing step in this way, the smallest rectangular area surrounding the data component grid other than the erased grid is obtained. The coordinates of the four vertices of the rectangular area are used as object position information, and the object profile information of the length, width, and height of the object is calculated from the object detection information existing in the area.
7) こうして得られた物体の位置情報および物体プロファイル情報を表示モニタ30などの表示装置に出力する(物体プロファイル出力ステップ)。 7) The object position information and object profile information obtained in this way are output to a display device such as the display monitor 30 (object profile output step).
したがって、例えば車両の位置情報として、A1(X1,Y1)、A2(X1,Y2)、A3(X2,Y1)、A4(X2,Y2)の4点の座標および、車長L、車幅B、車高Hの各値が算出されて表示モニタ30などに出力されて表示される。 Therefore, for example, as vehicle position information, the coordinates of four points of A1 (X1, Y1), A2 (X1, Y2), A3 (X2, Y1), A4 (X2, Y2), the vehicle length L, the vehicle width B Each value of the vehicle height H is calculated and output to the display monitor 30 and displayed.
このような物体の位置情報算出方法によれば、3次元レーザレーダ10による取得データから物体である車両の位置情報と物体のプロファイルである車長、車幅、車高の車両プロファイルを算出して出力することができる。
According to such an object position information calculation method, the position information of the vehicle as the object and the vehicle profile of the vehicle length, vehicle width, and vehicle height as the object profile are calculated from the data acquired by the three-
これにより、検出物体を車両とし、物体を検出すべき領域を駐車設備の車両受け渡し領域とすることで、耐環境性能に優れた、信頼性の高い車両の検出を行なうことができる。 Thereby, the detection object is a vehicle, and the region where the object is to be detected is the vehicle delivery region of the parking facility, so that it is possible to detect a highly reliable vehicle with excellent environmental resistance.
なお、この物体の位置情報算出方法は、上記実施の形態で説明した車両を検出対象とする場合に限らず、他の物体に適用してその検出および物体プロファイルの検出に広く利用することができる。 Note that this object position information calculation method is not limited to the case where the vehicle described in the above embodiment is a detection target, and can be widely used for detection and object profile detection by applying to other objects. .
10 3次元レーダレーダ
11 回転体(多面体ミラー)
12 ハーフミラー
13 送信部(レーザ光源)
14 受信部
20 処理用パソコン(処理装置)
21 レーザレーダ情報記録処理
22 座標変換処理
23 検出領域設定処理
24 背景情報分離処理
25 グリッド分割・情報カウント処理
26 ノイズ情報グリッド消去処理
27 グリッドの最小長方形領域判定処理
28 物体の位置・プロファイル情報算出処理
30 表示モニタ
10 3D radar radar 11 Rotating body (polyhedral mirror)
12 Half mirror 13 Transmitter (laser light source)
14 Receiver 20 Personal computer for processing (processing device)
DESCRIPTION OF SYMBOLS 21 Laser radar information recording process 22 Coordinate conversion process 23 Detection area setting process 24 Background information separation process 25 Grid division | segmentation and information count process 26 Noise information grid deletion process 27 Grid minimum rectangular area determination process 28 Object position / profile information calculation process 30 Display monitor
Claims (2)
3次元レーザレーダにより検出される物体の距離情報および走査情報を記録するレーダ情報記録ステップと、
このレーダ情報記録ステップで記録された距離情報および走査情報を物体の位置情報を用いる座標系の情報に座標変換する座標変換ステップと、
この座標変換ステップで座標変換された座標変換物体検出情報から、物体を検出すべき領域の座標情報を設定する検出領域設定ステップと、
この検出領域設定ステップにより設定された領域外を背景情報として前記座標変換物体検出情報から分離消去する背景情報分離ステップと、
この背景情報分離ステップで背景情報が分離された背景分離物体検出情報を、物体の前記検出すべき領域を複数のグリッドに分割し各グリッドに存在する背景分離物体検出情報の個数をカウントするグリッド情報カウントステップと、
このグリッド情報カウントステップでカウントした各グリッドのカウント数に対し、予め設定したカウント数より少ないカウント数のグリッドをノイズ情報グリッドと判定し消去するノイズ情報消去ステップと、
ノイズ情報消去ステップで消去されたグリッド以外のグリッドを最小の長方形で囲む領域を求め、この長方形領域の4つの頂点の座標を物体の位置情報とするとともに、この領域内に存在する物体検出情報から物体の長さ、幅、高さの物体プロファイル情報を算出して出力する物体プロファイル出力ステップとからなることを特徴とする物体の位置情報算出方法。 When calculating the position and profile information of an object from data acquired by a three-dimensional laser radar,
A radar information recording step for recording distance information and scanning information of an object detected by a three-dimensional laser radar;
A coordinate conversion step for converting the distance information and the scanning information recorded in the radar information recording step into information of a coordinate system using the position information of the object;
A detection area setting step for setting coordinate information of an area where an object is to be detected from the coordinate conversion object detection information coordinate-converted in this coordinate conversion step;
A background information separation step for separating and erasing from the coordinate conversion object detection information as background information outside the region set by this detection region setting step;
Grid information for dividing background detection object detection information from which background information has been separated in this background information separation step, and dividing the region to be detected into a plurality of grids and counting the number of background separation object detection information existing in each grid Counting step,
A noise information erasing step for determining and erasing a grid having a count number smaller than a preset count number as a noise information grid with respect to the count number of each grid counted in the grid information counting step,
An area surrounding the grid other than the grid erased in the noise information elimination step is obtained by a minimum rectangle, and the coordinates of the four vertices of this rectangular area are used as the position information of the object, and from the object detection information existing in this area. An object profile information calculation method comprising: an object profile output step of calculating and outputting object profile information of an object length, width, and height.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008140596A JP5142826B2 (en) | 2008-05-29 | 2008-05-29 | Object position information calculation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008140596A JP5142826B2 (en) | 2008-05-29 | 2008-05-29 | Object position information calculation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009288055A true JP2009288055A (en) | 2009-12-10 |
JP5142826B2 JP5142826B2 (en) | 2013-02-13 |
Family
ID=41457409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008140596A Active JP5142826B2 (en) | 2008-05-29 | 2008-05-29 | Object position information calculation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5142826B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101138292B1 (en) | 2010-05-18 | 2012-04-24 | 국방과학연구소 | Foward-looking 3D imaging radar and method for acquiring 3D images using the same |
WO2017037834A1 (en) * | 2015-08-31 | 2017-03-09 | パイオニア株式会社 | Information processing device, control method, program, and storage medium |
WO2017138155A1 (en) * | 2016-02-12 | 2017-08-17 | パイオニア株式会社 | Information processing device, control method, program, and storage medium |
JP2019049514A (en) * | 2017-09-12 | 2019-03-28 | 株式会社Ihi | Object detection device and object detection method |
JP2019082411A (en) * | 2017-10-31 | 2019-05-30 | 株式会社Ihi | Object detection device and object detection method |
CN109871659A (en) * | 2019-03-26 | 2019-06-11 | 北京经纬恒润科技有限公司 | A kind of emulation mode and system of ultrasonic radar |
CN113514847A (en) * | 2020-04-10 | 2021-10-19 | 深圳市镭神智能系统有限公司 | Vehicle outer contour dimension detection method and system and storage medium |
KR102702183B1 (en) * | 2018-06-30 | 2024-09-04 | 로베르트 보쉬 게엠베하 | Method for detecting static radar targets using automotive radar sensor |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07140247A (en) * | 1993-11-18 | 1995-06-02 | Omron Corp | On-vehicle distance measuring system using laser beam |
JPH11185195A (en) * | 1997-12-19 | 1999-07-09 | Hitachi Zosen Corp | Vehicle type discrimination method and device |
JP2001215274A (en) * | 2000-02-03 | 2001-08-10 | Mitsubishi Electric Corp | Vehicle periphery monitoring device |
JP2002352399A (en) * | 2001-05-23 | 2002-12-06 | Mitsubishi Electric Corp | Vehicle surroundings monitor |
JP2004185363A (en) * | 2002-12-04 | 2004-07-02 | Ishikawajima Harima Heavy Ind Co Ltd | Object distinction method by area sensor |
JP2004224621A (en) * | 2003-01-22 | 2004-08-12 | Toyota Motor Corp | Reformer |
JP2004280372A (en) * | 2003-03-14 | 2004-10-07 | Natl Inst For Land & Infrastructure Management Mlit | Detection method of moving body |
JP2006208076A (en) * | 2005-01-26 | 2006-08-10 | Ishikawajima Harima Heavy Ind Co Ltd | Person number detector and detecting method |
-
2008
- 2008-05-29 JP JP2008140596A patent/JP5142826B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07140247A (en) * | 1993-11-18 | 1995-06-02 | Omron Corp | On-vehicle distance measuring system using laser beam |
JPH11185195A (en) * | 1997-12-19 | 1999-07-09 | Hitachi Zosen Corp | Vehicle type discrimination method and device |
JP2001215274A (en) * | 2000-02-03 | 2001-08-10 | Mitsubishi Electric Corp | Vehicle periphery monitoring device |
JP2002352399A (en) * | 2001-05-23 | 2002-12-06 | Mitsubishi Electric Corp | Vehicle surroundings monitor |
JP2004185363A (en) * | 2002-12-04 | 2004-07-02 | Ishikawajima Harima Heavy Ind Co Ltd | Object distinction method by area sensor |
JP2004224621A (en) * | 2003-01-22 | 2004-08-12 | Toyota Motor Corp | Reformer |
JP2004280372A (en) * | 2003-03-14 | 2004-10-07 | Natl Inst For Land & Infrastructure Management Mlit | Detection method of moving body |
JP2006208076A (en) * | 2005-01-26 | 2006-08-10 | Ishikawajima Harima Heavy Ind Co Ltd | Person number detector and detecting method |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101138292B1 (en) | 2010-05-18 | 2012-04-24 | 국방과학연구소 | Foward-looking 3D imaging radar and method for acquiring 3D images using the same |
WO2017037834A1 (en) * | 2015-08-31 | 2017-03-09 | パイオニア株式会社 | Information processing device, control method, program, and storage medium |
JPWO2017037834A1 (en) * | 2015-08-31 | 2018-07-26 | パイオニア株式会社 | Information processing apparatus, control method, program, and storage medium |
WO2017138155A1 (en) * | 2016-02-12 | 2017-08-17 | パイオニア株式会社 | Information processing device, control method, program, and storage medium |
JPWO2017138155A1 (en) * | 2016-02-12 | 2018-12-06 | パイオニア株式会社 | Information processing apparatus, control method, program, and storage medium |
JP6996179B2 (en) | 2017-09-12 | 2022-02-04 | 株式会社Ihi | Object detection device and object detection method |
JP2019049514A (en) * | 2017-09-12 | 2019-03-28 | 株式会社Ihi | Object detection device and object detection method |
JP2019082411A (en) * | 2017-10-31 | 2019-05-30 | 株式会社Ihi | Object detection device and object detection method |
JP7073673B2 (en) | 2017-10-31 | 2022-05-24 | 株式会社Ihi | Object detection device |
KR102702183B1 (en) * | 2018-06-30 | 2024-09-04 | 로베르트 보쉬 게엠베하 | Method for detecting static radar targets using automotive radar sensor |
CN109871659A (en) * | 2019-03-26 | 2019-06-11 | 北京经纬恒润科技有限公司 | A kind of emulation mode and system of ultrasonic radar |
CN109871659B (en) * | 2019-03-26 | 2023-04-18 | 北京经纬恒润科技股份有限公司 | Simulation method and system of ultrasonic radar |
CN113514847A (en) * | 2020-04-10 | 2021-10-19 | 深圳市镭神智能系统有限公司 | Vehicle outer contour dimension detection method and system and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP5142826B2 (en) | 2013-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5142826B2 (en) | Object position information calculation method | |
CN106997049B (en) | Method and device for detecting barrier based on laser point cloud data | |
US20060115113A1 (en) | Method for the recognition and tracking of objects | |
JP5145986B2 (en) | Object detection apparatus and distance measuring method | |
CN110286389B (en) | Grid management method for obstacle identification | |
JP5303873B2 (en) | Vehicle shape measuring method and apparatus | |
CN112020688B (en) | Apparatus, system and method for autonomous robot navigation using depth assessment | |
EP3825980B1 (en) | Method for calculating collision time of object and vehicle, calculation device and vehicle | |
CN107272021A (en) | The object detection of the image detection region defined using radar and vision | |
JP4691701B2 (en) | Number detection device and method | |
US9827994B2 (en) | System and method for writing occupancy grid map of sensor centered coordinate system using laser scanner | |
JP2008203992A (en) | Detection device, method, and program thereof | |
US12077161B2 (en) | Method and processing unit for determining information with respect to an object in an environment of a vehicle | |
JP2005310140A (en) | Method of recognizing and/or tracking objects | |
JP6736931B2 (en) | Three-dimensional object detection method and three-dimensional object detection device | |
CN113432533B (en) | Robot positioning method and device, robot and storage medium | |
CN113768419B (en) | Method and device for determining sweeping direction of sweeper and sweeper | |
JP2016200557A (en) | Calibration device, distance measurement apparatus and calibration method | |
CN114966714A (en) | Window occlusion detection method and device | |
CN112193208A (en) | Vehicle sensor enhancement | |
CN113777622A (en) | Method and device for identifying rail obstacle | |
KR20160125803A (en) | Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest | |
JP2007233440A (en) | On-vehicle image processor | |
JP2020193814A (en) | Monitoring device and three-dimensional laser scanner | |
JP2007263725A (en) | Object determination device, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110510 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121113 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121120 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151130 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5142826 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |