JP2023104435A - Obstacle detection system - Google Patents

Obstacle detection system Download PDF

Info

Publication number
JP2023104435A
JP2023104435A JP2022005416A JP2022005416A JP2023104435A JP 2023104435 A JP2023104435 A JP 2023104435A JP 2022005416 A JP2022005416 A JP 2022005416A JP 2022005416 A JP2022005416 A JP 2022005416A JP 2023104435 A JP2023104435 A JP 2023104435A
Authority
JP
Japan
Prior art keywords
data
pixel
distance image
distance
ground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022005416A
Other languages
Japanese (ja)
Inventor
創大 田中
Sodai Tanaka
栄嗣 川崎
Eiji Kawasaki
智之 石川
Tomoyuki Ishikawa
孟真 岡田
Tomonao Okada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Signal Co Ltd
Original Assignee
Nippon Signal Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Signal Co Ltd filed Critical Nippon Signal Co Ltd
Priority to JP2022005416A priority Critical patent/JP2023104435A/en
Publication of JP2023104435A publication Critical patent/JP2023104435A/en
Pending legal-status Critical Current

Links

Abstract

To provide an obstacle detection system which materializes reduction of the burden of arithmetic processing, and furthermore enables misdetection to be suppressed.SOLUTION: The obstacle detection system performs angle calculation for each pixel on the basis of distance image data acquired by a distance image sensor 1 to thereby detect the presence of an obstacle. The distance information of each pixel obtained when a flat ground surface is photographed, is obtained as reference data from the installed position of the distance image sensor, reference data is excluded from distance measurement data acquired by the distance image sensor, and orthogonal coordinate conversion is performed on the distance measurement data of the distance image sensor.SELECTED DRAWING: Figure 1

Description

本発明は、距離画像センサで取得した距離画像データ(極座標データ)に基づいて、画素毎に角度計算を行って、障害物の有無を検知する障害物検知システムに関する。 The present invention relates to an obstacle detection system that detects the presence or absence of an obstacle by calculating an angle for each pixel based on distance image data (polar coordinate data) acquired by a distance image sensor.

特許文献1には、ポイントクラウドデータから地面を判別する地面検出方法と地面検出装置が記載されている。
また、特許文献2には、障害物を検出するための測距センサを備え、自身の映り込みによる誤検知を抑制する建設機械が記載されている。
Patent Literature 1 describes a ground detection method and a ground detection device for determining the ground from point cloud data.
Further, Patent Literature 2 describes a construction machine equipped with a distance measuring sensor for detecting obstacles and suppressing erroneous detection due to reflection of the machine itself.

特開2020-42822号公報JP 2020-42822 A 特開2018-159194号公報JP 2018-159194 A

ところで、上記特許文献1のようなポイントクラウドデータを用いた判定の場合、画素毎に直交座標変換等の角度計算を行う必要があるため演算量が多くなる。また、ポイントクラウドデータをメッシュに投影する場合、ポイントクラウドが投影されない部分(空の空間)にもメモリを割り当てる必要があるため、メモリの使用量も多くなる。このため、演算処理の負担が大きい、という課題がある。 By the way, in the case of determination using point cloud data as in Patent Document 1, it is necessary to perform angle calculation such as orthogonal coordinate transformation for each pixel, so the amount of calculation increases. In addition, when projecting point cloud data onto a mesh, it is also necessary to allocate memory for areas where the point cloud is not projected (empty space), so the amount of memory used increases. Therefore, there is a problem that the load of arithmetic processing is large.

一方、特許文献2では、建設機械の下部走行体を誤って障害物と判断するのを抑制しつつ、下部走行体近傍の障害物を検出できるようにしている。しかしながら、建設機械を使用する現場においては、砂山や地面の傾斜を障害物と誤検知してしまう可能性がある。 On the other hand, Patent Document 2 makes it possible to detect an obstacle in the vicinity of the undercarriage while preventing the undercarriage of a construction machine from being erroneously determined to be an obstacle. However, at a site where construction machinery is used, there is a possibility that a sand dune or a slope of the ground may be erroneously detected as an obstacle.

本発明は上記のような事情に鑑みてなされたもので、その目的とするところは、演算処理の負担を軽減しつつ、誤検知を抑制できる障害物検知システムを提供することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of the circumstances as described above, and an object of the present invention is to provide an obstacle detection system capable of suppressing erroneous detection while reducing the burden of arithmetic processing.

本発明の一態様に係る障害物検知システムは、距離画像センサで取得した距離画像データに基づいて、画素毎に角度計算を行って、障害物の有無を検知する障害物検知システムであって、前記距離画像センサの設置位置から、平坦な地面を撮影した場合の各画素の距離情報を基準データとして求め、前記距離画像センサで取得した測距データから前記基準データを除外し、前記距離画像センサの測距データに対して直交座標変換を行う、ことを特徴とする。 An obstacle detection system according to an aspect of the present invention is an obstacle detection system that detects the presence or absence of an obstacle by performing angle calculation for each pixel based on distance image data acquired by a distance image sensor, Distance information of each pixel when a flat ground is photographed from the installation position of the distance image sensor is obtained as reference data, the reference data is excluded from the distance measurement data obtained by the distance image sensor, and the distance image sensor is used. is characterized in that orthogonal coordinate transformation is performed on the distance measurement data.

本発明によれば、距離画像センサで取得した測距データから基準データを除くことにより、演算量やメモリの使用量を抑制できる。また、測距データから基準データを除くことで、地面と検知対象を差別化して誤検知を抑制できる。従って、演算処理の負担を軽減しつつ、誤検知を抑制できる障害物検知システムを提供できる。 According to the present invention, by removing the reference data from the distance measurement data acquired by the distance image sensor, it is possible to reduce the amount of calculation and the amount of memory used. Also, by excluding the reference data from the ranging data, it is possible to discriminate between the ground and the detection target, thereby suppressing erroneous detection. Therefore, it is possible to provide an obstacle detection system capable of suppressing erroneous detection while reducing the burden of arithmetic processing.

本発明の実施形態に係る障害物検知システムの概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an obstacle detection system according to an embodiment of the invention; FIG. 基準データ作成部で実行される基準データの作成手順を示すフローチャートである。4 is a flowchart showing a reference data creation procedure executed by a reference data creation unit; 基準データ作成部で実行される基準データの作成について説明するための模式図である。FIG. 4 is a schematic diagram for explaining creation of reference data executed by a reference data creation unit; 除外画素選定部で実行される、除外する画素の選定手順を示すフローチャートである。5 is a flowchart showing a procedure for selecting pixels to be excluded, which is executed by an excluded pixel selection unit; 第1の比較方法について説明するためのもので、検知対象と非検知対象を示す図である。It is for explaining the first comparison method, and is a diagram showing a detection target and a non-detection target. 第1の比較方法について説明するためのもので、検知対象と非検知対象による相違を示す図である。It is for explaining the first comparison method, and is a diagram showing a difference between a detection target and a non-detection target. 第2の比較方法について説明するためのもので、検知対象と非検知対象による相違を示す図である。It is for explaining the second comparison method, and is a diagram showing a difference between a detection target and a non-detection target. 実際の測距データから2D画像を作成する場合について説明するための模式図である。FIG. 4 is a schematic diagram for explaining a case where a 2D image is created from actual ranging data; 仮想地面のデータと実測距データの差分を取った2D画像を簡略化して示す図である。FIG. 4 is a diagram showing a simplified 2D image obtained by taking a difference between virtual ground data and actual distance measurement data; 差分値として残った地面以外の障害物の2D画像を簡略化して示す図である。FIG. 10 is a diagram showing a simplified 2D image of an obstacle other than the ground remaining as a difference value; 周辺画素とのギャップの大きい部分をについて説明するための2D画像を簡略化して示す図である。FIG. 10 is a diagram showing a simplified 2D image for explaining a portion with a large gap with surrounding pixels; 地面画素の基準を決定するためのもので、各画素における深度値の差分について説明するための図である。FIG. 10 is a diagram for determining a ground pixel reference, and for explaining a difference in depth value between pixels. 仮想地面のデータと実測距データの差分を取った2D画像を簡略化して示す図である。FIG. 4 is a diagram showing a simplified 2D image obtained by taking a difference between virtual ground data and actual distance measurement data; 地面画素近傍のギャップの小さい画素を結合し、地面画素とした2D画像を簡略化して示す図である。FIG. 10 is a diagram showing a simplified 2D image obtained by combining pixels with small gaps in the vicinity of ground pixels to form ground pixels; 地面データと結合しなかった検知対象データを示す2D画像を簡略化して示す図である。FIG. 4 is a simplified 2D image showing sensing target data that has not been combined with ground data; 地面画素の除外について説明するためのもので、地面画素と判断された画素を、検知対象のデータから除外した2D画像を簡略化して示す図である。FIG. 10 is a diagram for explaining the exclusion of ground pixels, and is a diagram showing a simplified 2D image in which pixels determined to be ground pixels are excluded from data to be detected. 距離画像センサで検出した測距データを示す図である。FIG. 4 is a diagram showing distance measurement data detected by a distance image sensor; 図17から抽出された地面の測距データを示す図である。FIG. 18 is a diagram showing ranging data of the ground extracted from FIG. 17; 図17から抽出された検知対象の測距データを示す図である。FIG. 18 is a diagram showing ranging data of a detection target extracted from FIG. 17;

以下、本発明の実施形態について図面を参照して説明する。
図1は、本発明の実施形態に係る障害物検知システムの概略構成を示している。このシステムは、測距データを取得するToF(Time of Flight)センサ等の距離画像センサ1と、この距離画像センサ1の設置位置から平坦な地面(仮想地面)を撮影した場合の各画素の距離情報を基準データとして求める基準データ作成部2と、除外画素を選定する除外画素選定部3と、地面の凹凸や人などの障害物を検知する検知処理部4とを備えている。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 shows a schematic configuration of an obstacle detection system according to an embodiment of the invention. This system includes a distance image sensor 1 such as a ToF (Time of Flight) sensor that acquires distance measurement data, and the distance of each pixel when the flat ground (virtual ground) is photographed from the installation position of this distance image sensor 1. It is provided with a reference data creation unit 2 that obtains information as reference data, an exclusion pixel selection unit 3 that selects exclusion pixels, and a detection processing unit 4 that detects obstacles such as irregularities on the ground and people.

除外画素選定部3は、距離画像センサ1で取得した測距データと、基準データ作成部2で求めた各画素の距離情報を比較する比較データを作成し、この作成した比較データに基づき測距データから地面データを除外して、検知処理部4に出力する。このように、距離画像センサ1が距離情報を取得するたびに、測距データを基準データと比較する。 The exclusion pixel selection unit 3 creates comparison data for comparing the distance measurement data acquired by the distance image sensor 1 and the distance information of each pixel obtained by the reference data creation unit 2, and measures the distance based on the created comparison data. The ground data is excluded from the data and output to the detection processing unit 4 . In this manner, each time the distance image sensor 1 acquires distance information, the distance measurement data is compared with the reference data.

図2は、基準データ作成部2で実行される基準データの作成手順を示している。この基準データの作成は、初回に実施するもので、毎フレームの処理は行わない。
まず、距離画像センサ1の取付位置と角度の情報を取得する(ステップS1)。続いて、距離画像センサ1の取付位置と角度から仮想地面までの各画素からの距離を算出し、基準データを作成する(ステップS2)。すなわち、距離画像センサの起動時に、距離画像センサの設置位置、角度から傾斜、起伏のない理想的(平坦)な仮想の地面を撮影した場合の距離画像センサの出力結果(各画素における距離値)を計算し、各画素の距離情報を基準データとする。
FIG. 2 shows a reference data creation procedure executed by the reference data creation unit 2 . The creation of this reference data is performed for the first time, and processing for each frame is not performed.
First, information on the mounting position and angle of the distance image sensor 1 is obtained (step S1). Subsequently, the distance from each pixel to the virtual ground is calculated from the mounting position and angle of the distance image sensor 1, and reference data is created (step S2). That is, when the distance image sensor is activated, the output result of the distance image sensor (distance value at each pixel) when an image of an ideal (flat) virtual ground with no inclination or undulations from the installation position and angle of the distance image sensor is captured. is calculated, and the distance information of each pixel is used as reference data.

図3は、基準データ作成部2で実行される基準データの作成について説明するための模式図である。ポイントクラウドデータをメッシュに投影して投影されていない部分が空間になる。傾斜や起伏のない仮想地面の2D画像を作成する場合、図3(a)に示すように、平面への投影はピンクッション歪みを持った形状となる。この結果、2D画像は図3(b)に示すようになる。 FIG. 3 is a schematic diagram for explaining how reference data is created by the reference data creation unit 2. As shown in FIG. Project the point cloud data onto the mesh and the unprojected part becomes the space. When creating a 2D image of a virtual ground without inclination or undulation, projection onto a plane will result in a shape with pincushion distortion, as shown in FIG. 3(a). As a result, the 2D image becomes as shown in FIG. 3(b).

図4は、除外画素選定部3で実行される、除外する画素の選定手順を示している。この処理は、測距データの取得毎に実施する。
まず、距離画像センサ1で測距データを取得し(ステップS11)、無効画素判定を行って測距データの異常値を除外する(ステップS12)。
FIG. 4 shows a procedure for selecting pixels to be excluded, which is executed by the pixel-to-exclude selecting section 3 . This process is performed each time the distance measurement data is acquired.
First, the distance image sensor 1 acquires distance measurement data (step S11), performs invalid pixel determination, and excludes abnormal values in the distance measurement data (step S12).

次に、図2の手順で作成した基準データと、ステップS12で作成した測距データとを比較して比較データを作成する(ステップS13)。続いて、近傍画素で比較データの変化量が小さいもの同士を結合する(ステップS14)。次に、地面画素判定を行う(ステップS15)。地面画素判定は、基準データと測距データの差分が小さいもの(比較データ≒0)を地面画素とし、その画素と結合する画素も地面画素と見なす。 Next, comparison data is created by comparing the reference data created in the procedure of FIG. 2 with the distance measurement data created in step S12 (step S13). Subsequently, neighboring pixels with small change amounts of comparison data are combined (step S14). Next, ground pixel determination is performed (step S15). In the ground pixel determination, a ground pixel having a small difference between the reference data and the distance measurement data (comparison data ≈ 0) is regarded as a ground pixel, and a pixel connected to the ground pixel is also regarded as a ground pixel.

すなわち、近接画素との変化量が所定の閾値内の画素同士を地面画素と見なして測距データから除外する。また、近接画素との変化量が前記所定の閾値より小さい画素は地面の傾斜面として認識し、大きい画素は障害物として検出する。その後、除外画素判定を行い、地面画素及び異常画素を障害物検知対象から除外する(ステップS16)。 That is, pixels whose amount of change with respect to adjacent pixels is within a predetermined threshold value are regarded as ground pixels and excluded from the distance measurement data. In addition, pixels with a smaller amount of change from neighboring pixels than the predetermined threshold value are recognized as inclined surfaces of the ground, and larger pixels are detected as an obstacle. After that, exclusion pixel determination is performed to exclude ground pixels and abnormal pixels from obstacle detection targets (step S16).

図5及び図6はそれぞれ、第1の比較方法について説明するためのもので、図5(a)に示すように検知対象が屈んだ人間で、図5(b)に示すように非検知対象が砂山等の傾斜面であると仮定すると、基準面との深度差分はそれぞれ図6(a),(b)に示すようになる。図6(a)は屈んだ人間と基準面である地面との深度差分であり、矢印で示すように測距データの遷移が滑らかでない。これに対し、図6(b)に示すように、傾斜面と地面との深度差分は、矢印で示すように測距データの遷移が滑らかになる。 5 and 6 are respectively for explaining the first comparison method. As shown in FIG. is an inclined surface such as a sand dune, the depth difference from the reference surface is as shown in FIGS. 6(a) and 6(b). FIG. 6A shows the depth difference between a crouched person and the ground, which is the reference plane, and the transition of the ranging data is not smooth as indicated by the arrows. On the other hand, as shown in FIG. 6(b), the depth difference between the inclined surface and the ground has a smooth transition of the ranging data as indicated by the arrow.

このように、第1の比較方法は、測距データと基準データとの差分「基準データ-測距データ」を取るものである。本第1の比較方法は、高い処理速度が求められる場合に好適である。但し、距離画像センサ1の解像度が低い場合や、レーザ照射角が水平に近くなる場合は、効果が低下する(画素ごとの結果の誤差が大きくなる)。 Thus, the first comparison method is to take the difference between the distance measurement data and the reference data, ie, "reference data - distance measurement data". This first comparison method is suitable when a high processing speed is required. However, when the resolution of the distance image sensor 1 is low or when the laser irradiation angle is close to horizontal, the effect is reduced (the error in the result for each pixel increases).

図7は、第2の比較方法について説明するためのもので、検知対象と非検知対象による相違を示している。本第2の比較方法は、測距データと基準データの差分を取り、その差分を基準データで除算するものである「([基準データ]-[測距データ])/[基準データ]」。図7(a)は屈んだ人間と基準面である地面との高さ差分であり、矢印で示すように測距データの遷移が滑らかでない。 FIG. 7 is for explaining the second comparison method, and shows the difference between the detection target and the non-detection target. The second comparison method is to take the difference between the distance measurement data and the reference data, and divide the difference by the reference data "([reference data]-[range measurement data])/[reference data]". FIG. 7(a) shows the difference in height between a crouched person and the ground, which is the reference plane, and the transition of the distance measurement data is not smooth as indicated by the arrow.

これに対し、図7(b)に示すように、傾斜面と地面との高さ差分は、矢印で示すように測距データの遷移が滑らかになる。
このように、基準面との高さ差分を取ると、処理速度は第1の比較方法1より割り算分遅くなるが、どの画素においても同じ尺度で計算できる。
On the other hand, as shown in FIG. 7(b), the height difference between the inclined surface and the ground makes the transition of the ranging data smoother as indicated by the arrows.
In this way, when the height difference from the reference plane is taken, the processing speed becomes slower than that of the first comparison method 1 by the division amount, but the same scale can be used for any pixel.

図8は、実際の測距データから2D画像を作成する場合について説明するための模式図である。図8(a)に示すように、検知対象が屈んだ人間の場合は、測距データを取得すると図8(b)に示すような2D画像が得られる。この2D画像は、図3(b)に示した2D画像を背景にして、屈んだ人間による反射光が手前に重なった画像である。 FIG. 8 is a schematic diagram for explaining a case where a 2D image is created from actual ranging data. As shown in FIG. 8(a), when the object to be detected is a crouched person, a 2D image as shown in FIG. 8(b) is obtained by acquiring distance measurement data. This 2D image is an image in which reflected light from a crouched person is superimposed on the front against the background of the 2D image shown in FIG. 3(b).

次に、図8(b)に示した実測距データと、図3(b)に示した仮想地面のデータとの差分を取ると、図9に示すような2D画像が得られる。地面が平ら(傾斜や起伏のない状態)の場合には、差分値は「0」となる。一方、地面以外の障害物は、図10に示すように差分値として残るので、周辺画素とのギャップの大きい部分をチェックする。図11は、周辺画素とのギャップの大きい部分を×印で示している。 Next, when the difference between the actual distance measurement data shown in FIG. 8B and the virtual ground data shown in FIG. 3B is taken, a 2D image as shown in FIG. 9 is obtained. If the ground is flat (no slope or undulation), the difference value is "0". On the other hand, obstacles other than the ground remain as difference values as shown in FIG. In FIG. 11, portions with large gaps to peripheral pixels are indicated by x marks.

そして、周辺画素とのギャップの大きい部分は、近接画素との変化量が所定の閾値内の画素同士を地面画素と見なして測距データから除外する。すなわち、近接画素との変化量が所定の閾値より小さい画素は地面の傾斜面として認識し、大きい画素は障害物として検出する。換言すれば、乗り越えられる程度の障害は除外し、乗り越えられない障害の場合には障害物として検出する。 In a portion with a large gap from surrounding pixels, pixels whose amount of change from adjacent pixels is within a predetermined threshold are regarded as ground pixels and excluded from the distance measurement data. That is, pixels with a smaller amount of change from adjacent pixels than a predetermined threshold value are recognized as inclined surfaces of the ground, and larger pixels are detected as an obstacle. In other words, obstacles that can be overcome are excluded, and obstacles that cannot be overcome are detected as obstacles.

詳しくは、特定の地面画素を基準としたときに、この地面画素に対して上下の画素、左右の画素共に変更可能な条件のときのみ、近傍画素の地面画素への変更を可能とする。近傍画素の変更可能な条件とは、上下(または左右)の画素の差分値の一方が同値で、他方が同値、増加(急増を含む)あるいは減少の場合である。また、上下(または左右)の画素の差分値の一方が増加(急増を含む)で、他方が減少の場合である。
ここで、画素の差分値が同値とは、近接画素との変化量が所定の閾値以内という意味である。
More specifically, when a specific ground pixel is used as a reference, it is possible to change neighboring pixels to ground pixels only when both the pixels above and below the ground pixel and the pixels on the left and right of the ground pixel are changeable. Neighboring pixels can be changed when one of the difference values of upper and lower (or left and right) pixels is the same and the other is the same, increases (including rapid increases), or decreases. Also, it is a case where one of the difference values between the upper and lower (or left and right) pixels increases (including a rapid increase) and the other decreases.
Here, the fact that the pixel difference value is the same value means that the amount of change from the adjacent pixel is within a predetermined threshold value.

これに対し、基準となる地面画素が変曲点(上下画素の差分値が増と増(あるいは減と減)、または左右画素の差分値が増と増(あるいは減と減)の場合には、近傍画素を変更不可とする。また、上下(または左右)画素に激減を含む場合には、近傍画素を変更不可とする。 On the other hand, if the reference ground pixel is an inflection point (the difference value between the upper and lower pixels is increasing and increasing (or decreasing and decreasing), or the difference value between the left and right pixels is increasing and increasing (or decreasing and decreasing), , the neighboring pixels cannot be changed, and if the upper and lower (or left and right) pixels include a drastic decrease, the neighboring pixels cannot be changed.

図12は、地面画素の基準を決定するためのもので、各画素における深度値の差分を示している。また、図13は、仮想地面のデータと実測距データの差分を取った2D画像である。差分値が所定の閾値の範囲内の場合、地面の基準画素とする。図13では、画素11が地面の基準画素と判定される。 FIG. 12 is for determining the ground pixel reference, and shows the difference in depth value at each pixel. FIG. 13 is a 2D image obtained by taking the difference between the virtual ground data and the actual distance data. If the difference value is within the range of the predetermined threshold, it is taken as the reference pixel of the ground. In FIG. 13, pixel 11 is determined to be the ground reference pixel.

図14は、地面画素近傍のギャップの小さい画素12-1~12-4を地面の基準画素11に結合し、地面画素としたものである。画素の結合は、地面画素と見なせるデータのみとし、図15に示すように地面データと結合しなかったデータを検知対象データ(左下がりのハッチングを付した画素13)とする。 In FIG. 14, pixels 12-1 to 12-4 with small gaps near the ground pixels are combined with the reference pixel 11 of the ground to form the ground pixels. Pixels are combined only with data that can be regarded as ground pixels, and as shown in FIG. 15, the data not combined with the ground data are used as detection target data (pixels 13 hatched downward to the left).

図16は、地面画素の除外について説明するためのもので、「地面画素」と判断された画素13を、検知対象のデータから除外したものである。
なお、図16において、飛び点等が発生した際は、この処理では除去を行わず、後段の検知処理に任せる。
FIG. 16 is for explaining the exclusion of ground pixels, in which the pixels 13 determined to be "ground pixels" are excluded from the data to be detected.
Note that in FIG. 16, when a jump point or the like occurs, it is not removed in this process, but is left to the subsequent detection process.

上述した距離画像センサ1で検出した測距データを図17に示す。図18は図17から抽出された地面(傾斜面)の測距データであり、図19は図17から抽出された検知対象(人)である。
図19に示すように、距離画像センサ1で検出した測距データから地面(傾斜面)の測距データを除外することで、障害物の検知対象のデータ量を大幅に削減できる。
FIG. 17 shows distance measurement data detected by the distance image sensor 1 described above. FIG. 18 shows ranging data of the ground (inclined surface) extracted from FIG. 17, and FIG. 19 shows the detection target (person) extracted from FIG.
As shown in FIG. 19, by excluding the ground (sloping surface) ranging data from the ranging data detected by the range image sensor 1, the amount of data for objects to be detected for obstacles can be greatly reduced.

上述したように、本発明では、複雑な計算を行うことなく処理ができるため、スループットが高くなる。また、メモリの使用をセンサの利用画素数分のみに抑えることができる。しかも、後段の検知処理でポイントクラウド作成等を行う場合でも、事前にデータを間引くことができるため、計算量を最小限にできる。更に、砂山や地面の傾斜等を障害物と誤検知してしまうことを抑制できる。 As described above, according to the present invention, processing can be performed without performing complicated calculations, resulting in high throughput. Also, the memory usage can be reduced to the number of pixels used in the sensor. Moreover, even when creating a point cloud or the like in subsequent detection processing, data can be thinned out in advance, so the amount of calculation can be minimized. Furthermore, it is possible to prevent erroneous detection of a sand dune, slope of the ground, or the like as an obstacle.

従って、本発明の障害物検知システムによれば、地面部分のデータを除外することにより、1フレーム毎の計算量とメモリの使用量を抑えて演算処理の負担を軽減しつつ、地面と検知対象を差別化することにより、誤検知を抑制できる。 Therefore, according to the obstacle detection system of the present invention, by excluding the data of the ground portion, the amount of calculation and the amount of memory used for each frame can be suppressed, and the burden of arithmetic processing can be reduced. False positives can be suppressed by differentiating

以上の実施形態で説明された構成や制御手順等については、本発明が理解・実施できる程度に概略的に示したものに過ぎない。従って本発明は、説明された実施形態に限定されるものではなく、特許請求の範囲に示される技術的思想の範囲を逸脱しない限り様々な形態に変更することができる。 The configurations, control procedures, and the like described in the above embodiments are merely schematic representations to the extent that the present invention can be understood and implemented. Therefore, the present invention is not limited to the described embodiments, but can be modified in various forms without departing from the scope of the technical idea indicated in the claims.

例えば、障害物検知システムを建設機械に搭載し、距離画像センサで取得した距離画像データから、距離画像に映り込んだ建設機械自身の距離画像データを更に除外するようにしても良い。 For example, the obstacle detection system may be mounted on the construction machine, and the distance image data of the construction machine itself reflected in the distance image may be further excluded from the distance image data acquired by the distance image sensor.

また、エッジ部分のデータは光量が少なくなりやすいので、エッジ部の光量値の減衰を利用し、エッジ抽出による検知対象と地面データの差別化をすることで、検出精度を向上できる。距離画像センサ(MEMS:Micro Electro Mechanical Systems)は、距離データと光量データを同軸で取得することができ、距離値はレーザ発射から反射光の受光までの時間で計測し、光量値は受光したレーザの光量で計測する。 In addition, since the amount of light in the data of the edge portion tends to be small, detection accuracy can be improved by using the attenuation of the light amount value of the edge portion and differentiating the detection target and the ground data by edge extraction. A distance image sensor (MEMS: Micro Electro Mechanical Systems) can acquire distance data and light intensity data on the same axis. measured by the amount of light.

更に、距離画像データと光量データとの合成データをAI学習させることによる検知対象と地面データの差別化を図っても良い。距離画像と光量画像は、共に有意な特徴が検出されるため、AI学習によっても距離画像のみのデータを使うより精度向上が図れる。 Furthermore, it is also possible to differentiate the object to be detected and the ground data by AI learning of combined data of the distance image data and the light amount data. Since significant features are detected in both the distance image and the light intensity image, AI learning can improve the accuracy compared to using only the data of the distance image.

1…距離画像センサ、2…基準データ作成部、3…除外画素選定部、4…検知処理部、11…画素(地面の基準画素)、12-1~12-4…画素(ギャップの小さい画素)、13…画素(検知対象データ) 1... distance image sensor, 2... reference data creation unit, 3... exclusion pixel selection unit, 4... detection processing unit, 11... pixel (ground reference pixel), 12-1 to 12-4... pixel (pixel with small gap ), 13... pixel (data to be detected)

Claims (5)

距離画像センサで取得した距離画像データに基づいて、画素毎に角度計算を行って、障害物の有無を検知する障害物検知システムであって、
前記距離画像センサの設置位置から、平坦な地面を撮影した場合の各画素の距離情報を基準データとして求め、前記距離画像センサで取得した測距データから前記基準データを除外し、前記距離画像センサの測距データに対して直交座標変換を行う、ことを特徴とする障害物検知システム。
An obstacle detection system that detects the presence or absence of an obstacle by calculating an angle for each pixel based on distance image data acquired by a distance image sensor,
Distance information of each pixel when a flat ground is photographed from the installation position of the distance image sensor is obtained as reference data, the reference data is excluded from the distance measurement data obtained by the distance image sensor, and the distance image sensor is used. An obstacle detection system characterized by performing orthogonal coordinate transformation on distance measurement data.
前記距離画像センサが測距データを取得するたびに、前記基準データと前記測距データを画素毎に比較し、前記測距データと前記基準データとの差分を取り、近接画素との変化量が所定の閾値内の画素同士を地面画素と見なして測距データから除外する、ことを特徴とする請求項1に記載の障害物検知システム。 Each time the distance image sensor acquires the distance measurement data, the reference data and the distance measurement data are compared pixel by pixel, the difference between the distance measurement data and the reference data is obtained, and the amount of change from the adjacent pixels is calculated. 2. The obstacle detection system according to claim 1, wherein pixels within a predetermined threshold are regarded as ground pixels and are excluded from range finding data. 前記近接画素との変化量が前記所定の閾値より小さい画素は地面の傾斜面として認識し、大きい画素は障害物として検出する、ことを特徴とする請求項2に記載の障害物検知システム。 3. The obstacle detection system according to claim 2, wherein a pixel whose amount of change from said adjacent pixel is smaller than said predetermined threshold value is recognized as an inclined surface of the ground, and a pixel whose amount of change is larger than said predetermined threshold value is detected as an obstacle. 前記基準データと前記測距データとの差分を取った後、前記差分を前記基準データで除算する、ことを特徴とする請求項2に記載の障害物検知システム。 3. The obstacle detection system according to claim 2, wherein after obtaining a difference between said reference data and said ranging data, said difference is divided by said reference data. 前記請求項1乃至4いずれか1つの項に記載の障害物検知システムは、建設機械に搭載され、
前記距離画像センサで取得した距離画像データから、距離画像に映り込んだ建設機械自身の距離画像データを更に除外する、ことを特徴とする障害物検知システム。
The obstacle detection system according to any one of claims 1 to 4 is mounted on a construction machine,
An obstacle detection system, wherein distance image data of the construction machine itself reflected in the distance image is further excluded from the distance image data acquired by the distance image sensor.
JP2022005416A 2022-01-18 2022-01-18 Obstacle detection system Pending JP2023104435A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022005416A JP2023104435A (en) 2022-01-18 2022-01-18 Obstacle detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022005416A JP2023104435A (en) 2022-01-18 2022-01-18 Obstacle detection system

Publications (1)

Publication Number Publication Date
JP2023104435A true JP2023104435A (en) 2023-07-28

Family

ID=87379197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022005416A Pending JP2023104435A (en) 2022-01-18 2022-01-18 Obstacle detection system

Country Status (1)

Country Link
JP (1) JP2023104435A (en)

Similar Documents

Publication Publication Date Title
KR101784611B1 (en) A human detecting apparatus and method using a lidar sensor and a radar sensor
JP5251800B2 (en) Object tracking device and program
CN110852312B (en) Cliff detection method, mobile robot control method, and mobile robot
JP6151150B2 (en) Object detection device and vehicle using the same
JP6440411B2 (en) Object detection device
US9626776B2 (en) Apparatus, systems, and methods for processing a height map
JP5145986B2 (en) Object detection apparatus and distance measuring method
JP6707022B2 (en) Stereo camera
JP6667065B2 (en) Position estimation device and position estimation method
JP3596339B2 (en) Inter-vehicle distance measurement device
JP2007114831A (en) Object detection device
JPH08329393A (en) Preceding vehicle detector
JP2011134234A (en) Movable area extracting device, movable area extracting system, movable area extracting method, and program
JP2006012178A (en) Method and system for detecting parking vehicle
JP6069938B2 (en) Pop-up detection device
JP2011093514A (en) Safety device for platform door
JP2014130086A (en) Range image sensor, processor and program
JP2023104435A (en) Obstacle detection system
JP2016162130A (en) Device and method for detecting pedestrian crossing and computer for pedestrian crossing detection
JP6406076B2 (en) Object detection device, object detection method, and object detection program
JP6742157B2 (en) Object detection device, object detection system, object detection method, and program
US11113833B2 (en) Object detection system
JP6895074B2 (en) Object detection system and object detection program
JP2012242247A (en) Object detector
JP2011149856A (en) Object discrimination method and object discrimination device