JP4333611B2 - Obstacle detection device for moving objects - Google Patents

Obstacle detection device for moving objects Download PDF

Info

Publication number
JP4333611B2
JP4333611B2 JP2005076000A JP2005076000A JP4333611B2 JP 4333611 B2 JP4333611 B2 JP 4333611B2 JP 2005076000 A JP2005076000 A JP 2005076000A JP 2005076000 A JP2005076000 A JP 2005076000A JP 4333611 B2 JP4333611 B2 JP 4333611B2
Authority
JP
Japan
Prior art keywords
image
distance image
area
candidate
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005076000A
Other languages
Japanese (ja)
Other versions
JP2006262009A (en
Inventor
秀和 荒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Corp
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Works Ltd filed Critical Panasonic Corp
Priority to JP2005076000A priority Critical patent/JP4333611B2/en
Publication of JP2006262009A publication Critical patent/JP2006262009A/en
Application granted granted Critical
Publication of JP4333611B2 publication Critical patent/JP4333611B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、移動体本体の走行中において距離画像を用いて障害物の有無を判断する移動体用の障害物検出装置に関するものである。   The present invention relates to an obstacle detection apparatus for a moving body that determines the presence or absence of an obstacle using a distance image while the mobile body is traveling.

一般に、対象となる距離画像と背景となる距離画像(標準パターン)との差分画像を用いて侵入者などの対象物の存在領域を距離画像から抽出する技術が知られている。(たとえば、特許文献1参照)。   In general, a technique is known in which a presence image of an object such as an intruder is extracted from a distance image using a difference image between a target distance image and a background distance image (standard pattern). (For example, refer to Patent Document 1).

また、ロボットが歩行する床面上の障害物を検出するために、三次元情報を持つ画像に対してハフ変換の技術を適用することにより、三次元情報を持つ画像から床面となる平面を抽出する技術が提案されている(たとえば、非特許文献1参照)。
特公平8−21149号公報 佐部浩太郎他,「二足歩行ロボットによるステレオ画像を用いた障害物回避と歩行計画」,第8回画像センシングシンポジウム講演論文集,p.237−242,2002
In addition, in order to detect obstacles on the floor where the robot walks, the Hough transform technology is applied to images with 3D information. Techniques for extraction have been proposed (see, for example, Non-Patent Document 1).
Japanese Patent Publication No. 8-21149 Kotaro Sabe et al., “Obstacle Avoidance and Walking Planning Using Stereo Images by Biped Robot”, Proceedings of 8th Image Sensing Symposium, p. 237-242, 2002

特許文献1に記載の技術は、距離画像センサが定位置に固定されている場合には利用可能であるが、この技術を移動体に適用しようとすると、走行時の振動によって背景となる距離画像と対象となる距離画像との位置関係にずれが生じる。したがって、距離画像センサが移動体の走行時の振動の影響を受けないように姿勢安定装置のような機構が必要になる。   The technique described in Patent Document 1 can be used when the distance image sensor is fixed at a fixed position. However, when this technique is applied to a moving body, a distance image that becomes a background due to vibration during traveling is used. And a positional relationship between the target distance image and the target distance image. Therefore, a mechanism such as a posture stabilization device is required so that the distance image sensor is not affected by vibrations during traveling of the moving body.

一方、非特許文献1に記載の技術では、視差画像に含まれる情報によって床面を検出するから、姿勢安定装置のような機構は不要であるが、ハフ変換などを行う必要があるから、処理負荷が大きく、移動体の走行中において障害物の有無を判断するためには、処理能力の高い高価なプロセッサが必要になるという問題がある。   On the other hand, since the technique described in Non-Patent Document 1 detects the floor surface based on information included in the parallax image, a mechanism such as a posture stabilization device is unnecessary, but it is necessary to perform Hough transform or the like. There is a problem that an expensive processor having a high processing capability is required to determine the presence or absence of an obstacle during traveling of the moving body due to a large load.

本発明は上記事由に鑑みて為されたものであり、その目的は、距離画像から得られる情報を用いて距離画像内において移動体が走行する面を容易に抽出できるようにし、もって姿勢安定装置のような機構を不要とし、かつハフ変換に比較して処理負荷を軽減することができる移動体用の障害物検出装置を提供することにある。   The present invention has been made in view of the above-mentioned reasons, and an object of the present invention is to make it possible to easily extract a surface on which a moving body travels in a distance image using information obtained from the distance image, and thereby to stabilize the posture. It is an object of the present invention to provide an obstacle detection device for a moving body that eliminates the need for such a mechanism and can reduce the processing load as compared with the Hough transform.

請求項1の発明は、移動体本体に搭載され移動体本体が走行しようとする面を含む空間領域を斜め下向きに撮像し画素値が距離値である距離画像を生成する距離画像センサと、移動体本体が平面上を走行する際に距離画像センサで生成されることが予測される角度範囲内の平面の距離画像を所定の刻み幅で候補基準画像として格納した基準画像記憶部と、基準画像記憶部に格納された複数の候補基準画像のうち距離画像センサで生成された距離画像との差分画像において差分値が規定の閾値以下である一致領域の面積が最大になる候補基準画像を基準距離画像として選択する基準距離画像選択部と、基準距離画像選択部で選択された基準距離画像に対する差分画像における一致領域以外を障害物が存在する領域と判断する判断部とを備えることを特徴とする。   The invention according to claim 1 is a distance image sensor that is mounted on a movable body main body and captures a spatial region including a surface on which the movable body main body is going to run obliquely downward, and generates a distance image whose pixel value is a distance value; A reference image storage unit that stores a distance image of a plane within an angle range that is predicted to be generated by the distance image sensor when the body body travels on a plane as a candidate reference image at a predetermined step size, and a reference image A candidate reference image having a maximum area of a matching region whose difference value is equal to or less than a predetermined threshold in a difference image from a distance image generated by a distance image sensor among a plurality of candidate reference images stored in a storage unit is a reference distance. A reference distance image selection unit that selects as an image, and a determination unit that determines an area other than the matching area in the difference image with respect to the reference distance image selected by the reference distance image selection unit as an area where an obstacle exists. The features.

この構成によれば、距離画像センサで生成されることが予測される角度範囲内の平面の距離画像を所定の刻み幅で候補基準画像として用意しておき、距離画像センサにより生成された距離画像との差分画像を生成したときに一致領域の面積が最大である候補基準画像を基準距離画像として採用するから、距離画像を生成したときの距離画像センサの姿勢に対応した基準距離画像を障害物の評価に用いることができる。したがって、距離画像センサの姿勢を考慮する必要がなく、距離画像センサの姿勢を安定させる機構や、距離画像センサの姿勢に応じて距離画像と比較するための基準距離画像を演算により求める処理負荷の高い演算処理が不要になる。   According to this configuration, a distance image of a plane within an angle range predicted to be generated by the distance image sensor is prepared as a candidate reference image with a predetermined step size, and the distance image generated by the distance image sensor is prepared. Since the candidate reference image having the largest matching area when the difference image is generated is adopted as the reference distance image, the reference distance image corresponding to the posture of the distance image sensor when the distance image is generated is obstruction. It can be used for evaluation. Therefore, there is no need to consider the attitude of the distance image sensor, and there is a mechanism for stabilizing the attitude of the distance image sensor and the processing load for calculating a reference distance image for comparison with the distance image according to the attitude of the distance image sensor. High calculation processing becomes unnecessary.

請求項2の発明では、請求項1の発明において、前記基準画像記憶部に格納されたデフォルトの候補基準画像と前記距離画像センサにより生成された距離画像との差分画像において差分値が規定の閾値以下である一致領域を求める機能を有した差分画像生成部と、一致領域の主軸に直交する方向を用いて前記移動体本体の走行面の傾斜方向を推定しこの傾斜方向に対して所定範囲内である候補基準画像を前記基準画像記憶部から取り出す候補画像絞り込み部とを備え、前記基準距離画像選択部は候補画像絞り込み部で絞り込まれた候補基準画像から基準距離画像を選択することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, in the difference image between the default candidate reference image stored in the reference image storage unit and the distance image generated by the distance image sensor, a difference value is a prescribed threshold value. A difference image generation unit having a function for obtaining a matching area as described below and a direction orthogonal to the main axis of the matching area are used to estimate the inclination direction of the traveling surface of the moving body, and within a predetermined range with respect to the inclination direction. A candidate image narrowing unit that extracts the candidate reference image from the reference image storage unit, and the reference distance image selecting unit selects a reference distance image from the candidate reference images narrowed down by the candidate image narrowing unit. To do.

この構成によれば、デフォルトの候補基準画像と実際の距離画像との差分画像を用いて距離画像に対応する候補基準画像の範囲を絞り込むことができるから、基準画像記憶部に格納された多数の候補基準画像から絞り込んだ少数の候補基準画像について一致領域の面積を評価すればよく、結果的に処理負荷が軽減されて高速な処理が期待できる。   According to this configuration, since the range of the candidate reference image corresponding to the distance image can be narrowed down using the difference image between the default candidate reference image and the actual distance image, a large number of images stored in the reference image storage unit are stored. The area of the coincidence area may be evaluated for a small number of candidate reference images narrowed down from the candidate reference images. As a result, the processing load is reduced and high-speed processing can be expected.

請求項3の発明では、請求項1の発明において、前記基準画像記憶部に格納されたデフォルトの候補基準画像と前記距離画像センサにより生成された距離画像との差分画像において差分値が規定の閾値以下である一致領域を求める機能を有した差分画像生成部と、一致領域の主軸に直交する方向における一致領域の幅を用いて前記移動体本体の走行面の傾斜角度を推定しこの傾斜角度に対して所定範囲内である候補基準画像を前記基準画像記憶部から取り出す候補画像絞り込み部とを備え、前記基準距離画像選択部は候補画像絞り込み部で絞り込まれた候補基準画像から基準距離画像を選択することを特徴とする。   According to a third aspect of the present invention, in the first aspect of the present invention, in the difference image between the default candidate reference image stored in the reference image storage unit and the distance image generated by the distance image sensor, a difference value is a prescribed threshold value. A difference image generation unit having a function for obtaining a matching area as described below and a width of the matching area in a direction orthogonal to the main axis of the matching area are used to estimate the inclination angle of the traveling surface of the moving body, and to the inclination angle And a candidate image narrowing-down unit that extracts a candidate reference image within a predetermined range from the reference image storage unit, and the reference distance image selecting unit selects a reference distance image from the candidate reference images narrowed down by the candidate image narrowing-down unit It is characterized by doing.

この構成によれば、デフォルトの候補基準画像と実際の距離画像との差分画像を用いて距離画像に対応する候補基準画像の範囲を絞り込むことができるから、基準画像記憶部に格納された多数の候補基準画像から絞り込んだ少数の候補基準画像について一致領域の面積を評価すればよく、結果的に処理負荷が軽減されて高速な処理が期待できる。   According to this configuration, since the range of the candidate reference image corresponding to the distance image can be narrowed down using the difference image between the default candidate reference image and the actual distance image, a large number of images stored in the reference image storage unit are stored. The area of the coincidence area may be evaluated for a small number of candidate reference images narrowed down from the candidate reference images. As a result, the processing load is reduced and high-speed processing can be expected.

請求項4の発明では、請求項1の発明において、前記基準画像記憶部に格納されたデフォルトの候補基準画像と前記距離画像センサにより生成された距離画像との差分画像において差分値が規定の閾値以下である一致領域を求める機能を有した差分画像生成部と、一致領域の主軸に直交する方向を用いて前記移動体本体の走行面の傾斜方向を推定するとともに一致領域の主軸に直交する方向における一致領域の幅を用いて前記移動体本体の走行面の傾斜角度を推定し傾斜方向および傾斜角度の組合せに対して所定範囲内である候補基準画像を前記基準画像記憶部から取り出す候補画像絞り込み部とを備え、前記基準距離画像選択部は候補画像絞り込み部で絞り込まれた候補基準画像から基準距離画像を選択することを特徴とする。   According to a fourth aspect of the present invention, in the first aspect of the present invention, in the difference image between the default candidate reference image stored in the reference image storage unit and the distance image generated by the distance image sensor, a difference value is a prescribed threshold value. A difference image generation unit having a function for obtaining a matching area, and a direction orthogonal to the main axis of the matching area, and a direction orthogonal to the main axis of the matching area while estimating the inclination direction of the traveling surface of the moving body. The candidate image is narrowed down by estimating the inclination angle of the traveling surface of the moving body using the width of the coincidence area and extracting candidate reference images within a predetermined range with respect to the combination of the inclination direction and the inclination angle from the reference image storage unit And the reference distance image selection unit selects a reference distance image from the candidate reference images narrowed down by the candidate image narrowing unit.

この構成によれば、デフォルトの候補基準画像と実際の距離画像との差分画像を用いて距離画像に対応する候補基準画像の範囲を絞り込み、しかも走行面の傾斜方向と傾斜角度との両方を用いて候補基準画像の範囲を狭めるから、基準画像記憶部に格納された多数の候補基準画像から絞り込んだ少数の候補基準画像について一致領域の面積を評価すればよく、結果的に処理負荷が軽減されて請求項2、3の構成よりも一層高速な処理が期待できる。   According to this configuration, the range of the candidate reference image corresponding to the distance image is narrowed down using the difference image between the default candidate reference image and the actual distance image, and both the inclination direction and the inclination angle of the traveling surface are used. Since the range of candidate reference images is narrowed, it is only necessary to evaluate the area of the matching region for a small number of candidate reference images narrowed down from a large number of candidate reference images stored in the reference image storage unit, resulting in a reduction in processing load. Thus, processing at a higher speed than that of the second and third aspects can be expected.

請求項5の発明では、請求項1の発明において、前記基準距離画像選択部は、時系列として得られる距離画像に対して前回用いた基準距離画像に対して規定した範囲内の候補基準画像から基準距離画像を選択することを特徴とする。   According to a fifth aspect of the invention, in the first aspect of the invention, the reference distance image selecting unit selects a candidate reference image within a range defined for a reference distance image used last time with respect to a distance image obtained as a time series. A reference distance image is selected.

この構成によれば、前回用いた基準距離画像から大きく逸脱しない範囲で次の基準距離画像を選択するから、少数の候補基準画像に絞り込んで一致領域の面積を評価すればよく、処理負荷が軽減されて高速な処理が期待できる。   According to this configuration, since the next reference distance image is selected within a range that does not deviate significantly from the previously used reference distance image, it is sufficient to narrow down to a small number of candidate reference images and evaluate the area of the matching region, thereby reducing the processing load. High-speed processing can be expected.

請求項6の発明は、移動体本体に搭載され移動体本体が走行しようとする面を含む空間領域を斜め下向きに撮像し画素値が距離値である距離画像を生成する距離画像センサと、移動体本体が平面上を走行する際に距離画像センサで生成されることが予測される角度範囲内の平面の距離画像を所定の刻み幅で候補基準画像として格納した基準画像記憶部と、基準画像記憶部に格納された複数の候補基準画像のうち距離画像センサで生成された距離画像との差分画像において差分値が規定の閾値以下である一致領域の面積が最大になる候補基準画像を基準距離画像として選択する基準距離画像選択部と、一致領域を移動体本体に近い近接領域と移動体本体から遠い遠方領域とに分割し、近接領域において一致領域の占める面積が第1の閾値以下でありかつ遠方領域において一致領域の占める面積が第2の閾値以上であるという条件が満たされるときには、一致領域を障害物の存在する領域と判断し、前記条件が満たされないときには、基準距離画像選択部で選択された基準距離画像に対する差分画像における一致領域以外を障害物が存在する領域と判断する判断部とを備えることを特徴とする。   The invention according to claim 6 is a distance image sensor that captures a spatial region including a surface that is mounted on a mobile body and that the mobile body is about to travel, and generates a distance image having a pixel value as a distance value. A reference image storage unit that stores a distance image of a plane within an angle range that is predicted to be generated by the distance image sensor when the body body travels on a plane as a candidate reference image at a predetermined step size, and a reference image A candidate reference image having a maximum area of a matching region whose difference value is equal to or less than a predetermined threshold in a difference image from a distance image generated by a distance image sensor among a plurality of candidate reference images stored in a storage unit is a reference distance. A reference distance image selection unit that is selected as an image, and a matching area is divided into a proximity area close to the mobile body and a remote area far from the mobile body, and the area occupied by the matching area in the proximity area is less than or equal to a first threshold value If the condition that the area occupied by the coincidence area in the far region is equal to or greater than the second threshold is satisfied, the coincidence area is determined as an area where an obstacle exists, and if the condition is not met, the reference distance image selection unit And a determination unit that determines that an area other than the matching area in the difference image with respect to the reference distance image selected in step 1 is an area where an obstacle exists.

この構成によれば、距離画像センサで生成されることが予測される角度範囲内の平面の距離画像を所定の刻み幅で候補基準画像として用意しておき、距離画像センサにより生成された距離画像との差分画像を生成したときに一致領域の面積が最大である候補基準画像を基準距離画像として採用するから、距離画像を生成したときの距離画像センサの姿勢に対応した基準距離画像を障害物の評価に用いることができる。したがって、距離画像センサの姿勢を考慮する必要がなく、距離画像センサの姿勢を安定させる機構や、距離画像センサの姿勢に応じて距離画像と比較するための基準距離画像を演算により求める処理負荷の高い演算処理が不要になる。しかも、選択した基準距離画像が障害物に一致しているときでも、距離画像内において障害物を分離することができる。   According to this configuration, a distance image of a plane within an angle range predicted to be generated by the distance image sensor is prepared as a candidate reference image with a predetermined step size, and the distance image generated by the distance image sensor is prepared. Since the candidate reference image having the largest matching area when the difference image is generated is adopted as the reference distance image, the reference distance image corresponding to the posture of the distance image sensor when the distance image is generated is obstruction. It can be used for evaluation. Therefore, there is no need to consider the attitude of the distance image sensor, and there is a mechanism for stabilizing the attitude of the distance image sensor and the processing load for calculating a reference distance image for comparison with the distance image according to the attitude of the distance image sensor. High calculation processing becomes unnecessary. Moreover, even when the selected reference distance image matches the obstacle, the obstacle can be separated in the distance image.

本発明の構成によれば、距離画像センサで生成されることが予測される角度範囲内の平面の距離画像を所定の刻み幅で候補基準画像として用意しておき、複数の候補基準画像から距離画像の基準面に一致する可能性の高い基準距離画像を選択するから、距離画像を生成したときの距離画像センサの姿勢に対応した基準距離画像を基準面の距離画像に用いることになり、距離画像センサの姿勢を安定させる機構が不要になり、また距離画像センサの姿勢に応じて距離画像と比較するための基準距離画像を演算により求める処理負荷の高い演算処理が不要になるという利点がある。   According to the configuration of the present invention, a distance image of a plane within an angle range predicted to be generated by the distance image sensor is prepared as a candidate reference image with a predetermined step size, and a distance from a plurality of candidate reference images is prepared. Since the reference distance image that is highly likely to match the reference plane of the image is selected, the reference distance image corresponding to the attitude of the distance image sensor when the distance image is generated is used for the distance image of the reference plane. There is an advantage that a mechanism for stabilizing the posture of the image sensor is not necessary, and a high processing load calculation process for obtaining a reference distance image for comparison with a distance image according to the posture of the distance image sensor is not required. .

以下に説明する実施形態では、移動範囲の地図情報を用いて自律的に移動する自律移動装置を例示する。自律移動装置は、図1に示すように、電動モータあるいはエンジンのような駆動源を持つ移動体本体2と、移動体本体2に搭載した障害物検出装置1とからなる。移動体本体2としては電動モータのような駆動源でタイヤを回転駆動させて推進力を得る構成を採用している。たとえば、駆動源を電動モータとすれば、移動体本体2は外部から推進力および進行方向に関する指示を受けると電動モータへの通電電流を制御し、通電電流の増減により推進力を調節し、左右のタイヤの回転数を異ならせるように通電電流を制御することにより進行方向を変化させる。進行方向の変化にはタイヤの向きを変化させるように操舵する構成を採用してもよい。   In embodiment described below, the autonomous mobile apparatus which moves autonomously using the map information of a movement range is illustrated. As shown in FIG. 1, the autonomous mobile device includes a mobile body 2 having a drive source such as an electric motor or an engine, and an obstacle detection device 1 mounted on the mobile body 2. As the movable body 2, a configuration is adopted in which a tire is rotated by a drive source such as an electric motor to obtain a propulsive force. For example, if the drive source is an electric motor, the mobile body 2 controls the energization current to the electric motor upon receiving an instruction regarding the propulsion force and the traveling direction from the outside, and adjusts the propulsion force by increasing or decreasing the energization current. The traveling direction is changed by controlling the energization current so as to vary the rotation speed of the tire. You may employ | adopt the structure steered so that the direction of a tire may be changed to the change of advancing direction.

移動体本体2の構成については詳述しないが、一般に移動体本体2は、現在位置を認識する機能を有し、保有する地図情報において指示された経路を通るように自律的に走行する。ただし、本実施形態の要部は、障害物を回避して走行するために障害物を検出する機能にあるので、以下では、障害物検出装置1について説明する。   Although the configuration of the mobile body 2 is not described in detail, the mobile body 2 generally has a function of recognizing the current position, and autonomously travels so as to pass the route indicated in the map information that it holds. However, since the main part of this embodiment is in the function of detecting an obstacle to travel while avoiding the obstacle, the obstacle detection apparatus 1 will be described below.

障害物検出装置1は、移動体本体2の前方を含む所定範囲を視野に持つ距離画像センサ11と、距離画像センサ11により生成された距離画像から障害物の存在する領域を抽出するための画像処理を行う画像処理装置10とで構成される。画像処理装置10は、以下に説明する機能を実現するプログラムを実行するコンピュータにより構成される。また、移動体本体2とは適宜のインターフェイスを介して接続される。移動体本体2は一般に外部と通信するためのネットワーク用のインターフェイスを備えるから、障害物検出装置1はネットワーク用のインターフェイスを介して移動体本体2に接続することができる。   The obstacle detection apparatus 1 includes a distance image sensor 11 having a predetermined range including the front of the mobile body 2 as a field of view, and an image for extracting an area where an obstacle exists from the distance image generated by the distance image sensor 11. It is comprised with the image processing apparatus 10 which processes. The image processing apparatus 10 is configured by a computer that executes a program that implements the functions described below. The mobile body 2 is connected via an appropriate interface. Since the mobile body 2 generally includes a network interface for communicating with the outside, the obstacle detection device 1 can be connected to the mobile body 2 via the network interface.

距離画像センサ11は、視野内に存在する物体までの距離を求め、画素値が距離値である距離画像を生成する。この種の距離画像センサの原理としては、複数台の撮像装置の視差を利用してステレオ画像法により物体までの距離を求めるもの、強度を変調した信号光を投光するとともに信号光の物体による反射光を受光し、信号光の投光時と受光時との時間差を変調波形の位相差により求めるものなどが知られている。ここでは、強度を変調した信号光を投光して投受光の位相差を求める構成を採用しているものとする。信号光の投光には赤外線発光ダイオードを用い、信号光の受光にはCCDイメージセンサあるいは類似構成のイメージセンサを用いるものとする。また、CCDイメージセンサの前方にはレンズ群からなる受光光学系が配置される。   The distance image sensor 11 obtains a distance to an object existing in the field of view, and generates a distance image whose pixel value is a distance value. The principle of this type of distance image sensor is to obtain the distance to an object by stereo imaging using the parallax of multiple imaging devices, project signal light with modulated intensity, and depend on the object of the signal light. It is known that the reflected light is received and the time difference between when the signal light is projected and when it is received is obtained from the phase difference of the modulation waveform. Here, it is assumed that a configuration is employed in which signal light whose intensity is modulated is projected to obtain a phase difference between light projection and reception. An infrared light emitting diode is used for projecting signal light, and a CCD image sensor or an image sensor having a similar configuration is used for receiving signal light. In addition, a light receiving optical system including a lens group is disposed in front of the CCD image sensor.

ステレオ画像法あるいは投受光の位相差を用いる距離画像センサ11では、数分の1秒より短い時間内で得られる情報を用いて視野内の全領域の距離を計測することができるから、光切断法を用いる場合よりも短時間で距離の測定が可能である。したがって、とくに高速に移動するものでなければ、移動体本体2が移動している間においても視野内の全領域の距離を実質的に時間差なく計測することができる。また、距離画像センサ11では受光量を距離に換算する処理をイメージセンサの1フレーム内の時間で行う。また、以下に説明する画像処理装置10の動作もイメージセンサの1フレーム内の時間で行うものとする。1秒毎のフレーム数は移動体本体2の速度に応じて設定され、本実施形態では移動体本体2の速度を0.5〜1m/sと想定し、1秒間に5〜6フレームの処理を行うものとする。   The distance image sensor 11 using the stereo imaging method or the phase difference between light projection and reception can measure the distance of the entire region in the field of view using information obtained within a time shorter than a fraction of a second. The distance can be measured in a shorter time than when the method is used. Therefore, if the mobile body 2 is not moving at a particularly high speed, the distance of the entire region in the field of view can be measured without a time difference even while the mobile body 2 is moving. Further, the distance image sensor 11 performs a process of converting the amount of received light into a distance in a time within one frame of the image sensor. The operation of the image processing apparatus 10 described below is also performed in the time within one frame of the image sensor. The number of frames per second is set according to the speed of the mobile body 2. In this embodiment, the speed of the mobile body 2 is assumed to be 0.5 to 1 m / s, and processing of 5 to 6 frames per second is performed. Shall be performed.

距離画像センサ11は移動体本体2の上部に取り付けられ、距離画像センサ11の視野Vfは、図2のように、移動体本体2が走行しようとする面(通常は、路面、地面、床面のいずれか)を含む移動体本体2の前方の空間領域であって斜め下向きに設定される。距離画像センサ11は移動体本体2が走行する範囲における障害物の有無を検出するのが目的であるから、距離画像センサ11の視野角は、移動体本体2の走行性能に応じて適宜に設定される。移動体本体2の速度が速く、旋回性能が高いほど視野は広く設定することになる。   The distance image sensor 11 is attached to the upper part of the mobile body 2 and the field of view Vf of the distance image sensor 11 is a surface (usually road surface, ground, floor surface) on which the mobile body 2 is to travel as shown in FIG. Any one of the above) is a space area in front of the mobile body 2 and is set obliquely downward. Since the distance image sensor 11 is intended to detect the presence or absence of an obstacle in the range in which the mobile body 2 travels, the viewing angle of the distance image sensor 11 is appropriately set according to the travel performance of the mobile body 2. Is done. The visual field is set wider as the speed of the mobile body 2 is higher and the turning performance is higher.

距離画像センサ11の各画素は受光系の所定位置を原点とした球座標における角度(伏角と方位角)に対応する。つまり、画素位置が持つ球座標の角度の情報と、画素値が持つ球座標の距離の情報とにより、距離画像センサ11に設定した球座標での物体の三次元の座標位置を特定することができる。   Each pixel of the distance image sensor 11 corresponds to an angle (a dip angle and an azimuth angle) in spherical coordinates with a predetermined position of the light receiving system as an origin. That is, it is possible to specify the three-dimensional coordinate position of the object at the spherical coordinates set in the distance image sensor 11 based on the information on the angle of the spherical coordinates that the pixel position has and the information on the distance of the spherical coordinates that the pixel value has. it can.

距離画像から障害物の存在領域を抽出するには、移動体本体2が走行する面に関して、障害物の存在しない状態での距離画像と、距離画像センサ11により実空間から生成した距離画像との差分を用いる。移動体本体2が走行する面に障害物が存在しない状態を想定するとき、この面を基準面とする。言い換えると、移動体本体2が走行している面を延長した平面が基準面になる。したがって、距離画像センサ11により生成した距離画像と基準面の距離画像との差分が規定した判別閾値より大きくなる領域に障害物が存在する可能性があると判断する。   In order to extract the obstacle existence area from the distance image, the distance image in the state where no obstacle exists on the surface on which the mobile body 2 travels and the distance image generated from the real space by the distance image sensor 11 are used. Use the difference. When it is assumed that no obstacle exists on the surface on which the mobile body 2 travels, this surface is used as a reference surface. In other words, a plane obtained by extending the surface on which the mobile body 2 is traveling becomes the reference surface. Therefore, it is determined that there is a possibility that there is an obstacle in a region where the difference between the distance image generated by the distance image sensor 11 and the distance image of the reference plane is larger than the specified determination threshold.

ところで、移動体本体2に搭載された距離画像センサ1は移動体本体2の振動などにより姿勢が変化するから、距離画像センサ11で得られた距離画像の中では差分画像を生成すべき基準面も変化する。本実施形態では、移動体本体2が静止している状態での基準面をxy平面とし移動体本体2の前方をx軸の正の向きとするとき、基準面の変化がx軸回りの回転(ロール)、y軸回りの回転(ピッチ)として生じるものとする。以下では、説明を簡単にするために、z軸回りの回転(ヨー)、x軸方向、y軸方向、z軸方向の直進変位はとくに考慮せずに説明するが、実際には基準面の変化には、これらの要素の変化も併せて生じる。この点は後述する。   By the way, since the attitude of the distance image sensor 1 mounted on the mobile body 2 changes due to vibrations of the mobile body 2 and the like, a reference plane in which a difference image is to be generated among the distance images obtained by the distance image sensor 11. Also changes. In this embodiment, when the reference surface in a state where the mobile body 2 is stationary is the xy plane and the front of the mobile body 2 is the positive direction of the x axis, the change of the reference surface is rotated about the x axis. (Roll), and rotation (pitch) around the y-axis. In the following, in order to simplify the description, the rotation around the z-axis (yaw), the linear movement in the x-axis direction, the y-axis direction, and the z-axis direction will be described without particular consideration. Changes also include changes in these factors. This point will be described later.

本発明の特徴は、移動体本体2の走行時の基準面として予測される所定の刻み幅のすべての基準面に関する距離画像を候補基準画像として用意しておき、多数の候補基準画像の中から基準面の画像として最適なものを基準面の距離画像である基準距離画像として選択し、選択した基準距離画像と距離画像センサ11で生成した距離画像との差分画像を用いて障害物を検出する点にある。   A feature of the present invention is that distance images relating to all reference planes having a predetermined step size predicted as a reference plane at the time of traveling of the mobile body 2 are prepared as candidate reference images, from among a large number of candidate reference images. An optimum reference plane image is selected as a reference distance image that is a distance image of the reference plane, and an obstacle is detected using a difference image between the selected reference distance image and the distance image generated by the distance image sensor 11. In the point.

そこで、本実施形態では、ロール、ピッチの角度変化について、変化が想定される角度範囲内で刻み幅(角度分解能)を1度としたすべての候補基準画像を格納する基準画像記憶部15と、距離画像センサ11で撮像した距離画像と基準画像記憶部15に格納した各候補基準画像との差分画像を生成する差分画像生成部12とを設けてある。変化が想定される角度範囲は、たとえばロール、ピッチについてそれぞれ±10度、±20度とすれば、20×40=800であって、この場合には800枚の候補基準画像を基準画像記憶部15に格納しておけばよい。   Therefore, in the present embodiment, for the angle change of the roll and pitch, the reference image storage unit 15 that stores all candidate reference images with a step size (angle resolution) of 1 degree within an angle range in which the change is assumed; A difference image generation unit 12 that generates a difference image between the distance image captured by the distance image sensor 11 and each candidate reference image stored in the reference image storage unit 15 is provided. For example, if the range of angles assumed to be changed is ± 10 degrees and ± 20 degrees for the roll and pitch, respectively, 20 × 40 = 800. In this case, 800 candidate reference images are stored in the reference image storage unit. 15 may be stored.

ここで、差分画像生成部12において、距離画像センサ11で生成された距離画像と800枚のすべての候補基準画像との差分画像を生成するとすれば、処理負荷が比較的大きくなる。そこで、基準画像記憶部15に格納された候補基準画像のうち実際に差分画像を生成する候補基準画像を絞り込むことが必要である。この目的のために、候補画像絞り込み部16を設けている。候補画像絞り込み部16の動作については後述する。   Here, if the difference image generation unit 12 generates difference images between the distance image generated by the distance image sensor 11 and all 800 candidate reference images, the processing load becomes relatively large. Therefore, it is necessary to narrow down candidate reference images for actually generating difference images among candidate reference images stored in the reference image storage unit 15. For this purpose, a candidate image narrowing unit 16 is provided. The operation of the candidate image narrowing unit 16 will be described later.

候補画像絞り込み部16では差分画像を生成する候補基準画像を10枚程度に絞り込み、各候補基準画像を差分画像生成部12に与えて、各候補基準画像と距離画像との差分画像を生成させる。距離画像と各候補基準画像とのそれぞれの差分画像が得られると、差分画像の中で画素値(つまり、差分値)が0に近い領域は候補基準画像との一致度が高い領域であると言える。距離画像が障害物を含まない基準面であって候補基準画像が距離画像の基準面に一致しているときには、差分画像のすべての画素値は理想的には0になるから、距離画像に障害物が含まれているときであっても複数の候補基準画像のうち距離画像に含まれる基準面との一致度がもっとも高い候補基準画像では、差分画像の画素値が0に近い領域の面積が最大になると考えられる。そこで、画像処理装置10に、各候補基準画像と距離画像とのそれぞれの差分画像について、画素値が規定の閾値以下になる一致領域の面積を求め、当該面積が最大になる候補基準画像を基準距離画像として選択する基準距離画像選択部13を設けている。   The candidate image narrowing unit 16 narrows down to about ten candidate reference images for generating a difference image, and gives each candidate reference image to the difference image generation unit 12 to generate a difference image between each candidate reference image and a distance image. When the difference images between the distance image and each candidate reference image are obtained, the region in which the pixel value (that is, the difference value) is close to 0 in the difference image is a region having a high degree of coincidence with the candidate reference image. I can say that. When the distance image is a reference plane that does not include an obstacle and the candidate reference image matches the reference plane of the distance image, all pixel values of the difference image are ideally 0, so the distance image has an obstacle. Even when an object is included, in the candidate reference image having the highest degree of coincidence with the reference plane included in the distance image among the plurality of candidate reference images, the area of the area where the pixel value of the difference image is close to 0 It is considered to be the maximum. Therefore, the image processing apparatus 10 obtains the area of the coincidence region where the pixel value is equal to or less than a predetermined threshold for each difference image between each candidate reference image and the distance image, and uses the candidate reference image with the maximum area as a reference. A reference distance image selection unit 13 for selecting as a distance image is provided.

基準画像選択部13で基準距離画像を選択した後は、障害物を検出するための通常の方法を用いることができる。ここでは、距離画像センサ11で生成した距離画像と基準距離画像との差分画像は、差分画像生成部13においてすでに生成されているから、この差分画像を判断部14に与える。判断部14では差分画像の中で画素値が規定した判別閾値を越える領域を障害物が存在する可能性のある領域として抽出する。ここに、判別閾値は一致領域を抽出するための閾値とは、必ずしも一致している必要はないが両者を一致させておけば、基準距離画像選択部13で候補基準画像から基準距離画像を選択する際に行う2値化で得られた情報をそのまま用いて障害物の評価に用いることが可能になり、処理負荷の軽減につながる。   After selecting the reference distance image by the reference image selection unit 13, a normal method for detecting an obstacle can be used. Here, since the difference image between the distance image generated by the distance image sensor 11 and the reference distance image has already been generated by the difference image generation unit 13, this difference image is given to the determination unit 14. The determination unit 14 extracts a region where the pixel value exceeds the specified threshold value in the difference image as a region where an obstacle may exist. Here, the discrimination threshold is not necessarily the same as the threshold for extracting the coincidence region, but if the two match, the reference distance image selection unit 13 selects the reference distance image from the candidate reference images. It is possible to use the information obtained by binarization performed at the time as it is for evaluation of obstacles, leading to a reduction in processing load.

ところで、候補画像絞り込み部16においては、基準画像記憶部15に格納された候補基準画像から差分画像生成部12に与える候補基準画像を以下の手順で絞り込む。移動体本体2の走行中には、時間経過に伴って次々に距離画像が生成されており、時系列において隣接する一対の距離画像が得られる程度の時間間隔では、移動体本体2が走行する面の傾斜や距離画像センサ11の姿勢が大きく変動することはないと考えられる。つまり、この時間間隔では、基準距離画像選択部13で選択される基準距離画像についてもロールおよびピッチの変化は少ないと考えられる。そこで、時間経過に伴って次々に距離画像が生成されており、前回の基準距離画像を採用することができる場合であって、前回の基準距離画像として選択された候補基準画像のロールおよびピッチの角度が(θ,φ)であるときには、今回の基準距離画像は規定した角度範囲(±Δα,±Δβ)内で選択できると推定し、候補画像絞り込み部16では、(θ±Δα,φ±Δβ)の範囲である候補基準画像を基準画像記憶部15から取り出して差分画像生成部13に与える。ここで、たとえば、α=β=3度と設定すれば、差分画像生成部13に与える候補基準画像の枚数を36枚に絞り込むことができ、差分画像を生成する際の処理負荷を小さくすることができる。なお、この手順は、移動体本体2の速度と距離画像センサ11の毎秒のフレーム数との関係に依存しており、フレーム数と速度との関係が、時系列において隣接する基準距離画像の相関性が低くなるような関係(毎秒のフレーム数に比較して速度が大きい関係)であるときには採用することができない。   By the way, the candidate image narrowing unit 16 narrows down the candidate reference images to be given to the difference image generating unit 12 from the candidate reference images stored in the reference image storage unit 15 in the following procedure. While the mobile body 2 is traveling, distance images are generated one after another as time elapses, and the mobile body 2 travels at a time interval such that a pair of distance images adjacent in time series can be obtained. It is considered that the inclination of the surface and the attitude of the distance image sensor 11 do not vary greatly. That is, in this time interval, it is considered that the change in roll and pitch is small for the reference distance image selected by the reference distance image selection unit 13. Therefore, the distance images are generated one after another with the passage of time, and the previous reference distance image can be adopted, and the roll and pitch of the candidate reference image selected as the previous reference distance image are selected. When the angle is (θ, φ), it is estimated that the current reference distance image can be selected within a specified angle range (± Δα, ± Δβ), and the candidate image narrowing unit 16 (θ ± Δα, φ ± Candidate reference images in the range of Δβ) are extracted from the reference image storage unit 15 and given to the difference image generation unit 13. Here, for example, if α = β = 3 degrees is set, the number of candidate reference images provided to the difference image generation unit 13 can be reduced to 36, and the processing load when generating the difference image can be reduced. Can do. Note that this procedure depends on the relationship between the speed of the mobile body 2 and the number of frames per second of the distance image sensor 11, and the relationship between the number of frames and the speed is the correlation between adjacent reference distance images in time series. Cannot be adopted when the relationship is such that the speed is low (a relationship in which the speed is higher than the number of frames per second).

移動体本体2が走行中であって、速度や方向にほとんど変化がないときには、上述の手順で候補基準画像を絞り込むことができるが、移動体本体2の移動開始時や移動体本体2の速度や方向に大きな変化が生じたときには、前回の基準距離画像を採用することができるとは限らない。要するに、時系列において隣接する基準距離画像の相関性が低いときには、基準距離画像の関係を利用して候補基準画像を絞り込むことができない。そこで、このような場合には以下の手順を採用する。まず、デフォルトとしてロールおよびピッチの角度が所定値(δ,ε)である候補基準画像を用いる。δ=ε=0とすれば、移動体本体2が静止している状態で水平面を基準面としたときの距離画像に相当する。   When the mobile body 2 is running and there is almost no change in speed or direction, the candidate reference image can be narrowed down by the above-described procedure. However, when the mobile body 2 starts to move or the speed of the mobile body 2 is When a large change occurs in the direction, the previous reference distance image cannot always be used. In short, when the correlation between adjacent reference distance images in the time series is low, the candidate reference images cannot be narrowed down using the relationship between the reference distance images. Therefore, in such a case, the following procedure is adopted. First, a candidate reference image whose roll and pitch angles are predetermined values (δ, ε) is used as a default. If δ = ε = 0, it corresponds to a distance image when the horizontal plane is used as a reference plane while the moving body 2 is stationary.

時系列において隣接する基準距離画像の相関性の高さは、移動体本体2の動作に応じて評価することができるから、相関性が規定値以下になる動作の場合(たとえば、停止状態から発信した場合)には、次の手順で候補基準画像を絞り込む。まず、候補画像絞り込み部16では、基準画像記憶部15に格納されているデフォルトの候補基準画像と、距離画像センサ11で生成した距離画像とを差分画像生成部13に与え、両者の差分画像を生成する。距離画像センサ11で生成した距離画像P1とデフォルトの候補基準画像P0とは、基準面が一致している場合を除けば、図3(a)に示すように、距離画像P1が候補基準画像P0に対して前後に傾斜している(ローリング)か、図3(b)に示すように、距離画像P1が候補基準画像P0に対して左右に傾斜している(ピッチング)か、あるいは前後の傾斜と左右の傾斜を合成した関係になると考えられる。   Since the correlation between adjacent reference distance images in the time series can be evaluated according to the operation of the mobile body 2, in the case of an operation in which the correlation is equal to or less than a specified value (for example, transmission from a stopped state) ), The candidate reference images are narrowed down by the following procedure. First, the candidate image narrowing unit 16 gives the default candidate reference image stored in the reference image storage unit 15 and the distance image generated by the distance image sensor 11 to the difference image generation unit 13, and obtains the difference image between them. Generate. Except for the case where the distance plane P1 generated by the distance image sensor 11 and the default candidate reference image P0 match the reference plane, as shown in FIG. 3A, the distance image P1 is the candidate reference image P0. Is tilted back and forth (rolling), as shown in FIG. 3B, the distance image P1 is tilted left and right with respect to the candidate reference image P0 (pitching), or tilted back and forth. And the left and right slopes.

前後に傾斜している場合には、図4(a)のように差分画像において画素値の絶対値が規定の閾値以下になる一致領域D1が横長(長手方向がy軸方向)になり、左右に傾斜している場合には、図4(b)のように差分画像における一致領域D1が縦長(長手方向がx軸方向)になる。そこで、一致領域D1について、主軸の方向を抽出するとともに主軸の方向に直交する方向での最大幅を抽出する。この処理は候補画像絞り込み部16において行われる。   When tilted back and forth, as shown in FIG. 4A, the matching area D1 in which the absolute value of the pixel value is equal to or less than a predetermined threshold in the difference image is horizontally long (the longitudinal direction is the y-axis direction), and left and right 4B, the matching region D1 in the difference image is vertically long (the longitudinal direction is the x-axis direction) as shown in FIG. Therefore, for the coincidence region D1, the direction of the main axis is extracted and the maximum width in the direction orthogonal to the direction of the main axis is extracted. This process is performed in the candidate image narrowing unit 16.

なお、デフォルトの候補基準画像P0は、一致領域D1が距離画像の中心付近に生じるように設定しておく。また、上述の例では説明を簡単にするためにロールをy軸回りの回転としピッチをx軸回りの回転として説明したが、本実施形態におけるロールは純粋のロールではなくx軸方向およびz軸方向の変位を含み、またピッチも純粋のピッチではなくy軸方向およびz軸方向の変位を含んでいる。したがって、基準画像記憶部15に格納される候補基準画像は、実際には回転のみではなく、x軸方向、y軸方向、z軸方向の変位を適宜に含んで補正される。   Note that the default candidate reference image P0 is set so that the matching region D1 occurs near the center of the distance image. In the above example, the roll is rotated about the y-axis and the pitch is rotated about the x-axis for the sake of simplicity. However, the roll in this embodiment is not a pure roll but the x-axis direction and the z-axis. In addition, the pitch includes not only a pure pitch but also a displacement in the y-axis direction and the z-axis direction. Accordingly, the candidate reference image stored in the reference image storage unit 15 is actually corrected by appropriately including not only rotation but also displacement in the x-axis direction, the y-axis direction, and the z-axis direction.

図3と図4とを比較すれば明らかなように、主軸の方向に直交する方向は傾斜方向を表しており、主軸の方向に直交する方向の最大幅は傾斜角度に対応する。傾斜方向と傾斜角度との一方がわかれば、その傾斜方向または傾斜角度に対応するロールの角度θとピッチの角度φとの組合せの範囲がわかる。また、傾斜方向と傾斜角度との両方がわかれば、ロールの角度θとピッチの角度φとの組合せを一つの値に決めることが可能になる。本実施形態では、傾斜方向および傾斜角度の組合せに角度(θ,φ)を対応付けたテーブルを用意することにより、角度(θ,φ)を特定している。   As apparent from a comparison between FIG. 3 and FIG. 4, the direction orthogonal to the direction of the main axis represents the inclination direction, and the maximum width in the direction orthogonal to the direction of the main axis corresponds to the inclination angle. If one of the tilt direction and the tilt angle is known, the range of combinations of the roll angle θ and the pitch angle φ corresponding to the tilt direction or tilt angle can be known. If both the tilt direction and the tilt angle are known, the combination of the roll angle θ and the pitch angle φ can be determined as one value. In the present embodiment, the angle (θ, φ) is specified by preparing a table in which the angle (θ, φ) is associated with the combination of the tilt direction and the tilt angle.

上述のようにして角度(θ,φ)が求められると、候補画像絞り込み部16では、この角度(θ,φ)に対して適宜の角度範囲(±Δα,±Δβ)の基準画像記憶部15から候補基準画像を取り出し、取り出した各候補基準画像と距離画像センサ11で生成した距離画像との差分画像を差分画像生成部12において求める。差分画像を生成した後の処理は、上述した処理と同様であって、基準距離画像選択部13では候補基準画像のうち差分画像に含まれる一致領域の面積が最大になるものを基準距離画像として選択し、判断部14ではこの基準距離画像を用いて障害物の有無を判断する。   When the angle (θ, φ) is obtained as described above, the candidate image narrowing unit 16 stores the reference image storage unit 15 in an appropriate angle range (± Δα, ± Δβ) with respect to the angle (θ, φ). The candidate reference image is extracted from the image, and a difference image between the extracted candidate reference image and the distance image generated by the distance image sensor 11 is obtained by the difference image generation unit 12. The processing after generating the difference image is the same as the processing described above, and the reference distance image selection unit 13 uses the candidate reference image that has the largest area of the matching region included in the difference image as the reference distance image. The determination unit 14 determines the presence or absence of an obstacle using the reference distance image.

候補絞り込み部16の動作をまとめると図5のようになる。すなわち、前回に用いた基準距離画像を採用することができるときには(S1)、前回の基準距離画像の角度(θ,φ)を求める(S2)。この角度(θ,φ)に対して、(θ±Δα,φ±Δβ)の範囲である候補基準画像を基準画像記憶部15から取り出して差分画像生成部13に与える(S3)。   The operations of the candidate narrowing unit 16 are summarized as shown in FIG. That is, when the reference distance image used last time can be adopted (S1), the angle (θ, φ) of the previous reference distance image is obtained (S2). For this angle (θ, φ), candidate reference images in the range of (θ ± Δα, φ ± Δβ) are extracted from the reference image storage unit 15 and given to the difference image generation unit 13 (S3).

一方、前回の基準距離画像を採用することができない場合には(S1)、デフォルトの角度(δ,ε)である候補基準画像を基準画像記憶部15から選択し(S4)、距離画像センサ11で生成した距離画像と、この候補基準画像との差分画像を生成する(S5)。差分画像のうち画素値の絶対値が規定の閾値以下である画素領域を一致領域として抽出し(S6)、一致領域の主軸に直交する方向と当該方向における一致領域の最大幅を求める(S7)。次に、主軸に直交する方向を傾斜方向(勾配方向)とし、最大幅から傾斜角度(θ,φ)を推定する(S8)。こうして角度(θ,φ)が求まれば、(θ±Δα,φ±Δβ)の範囲である候補基準画像を基準画像記憶部15から取り出して差分画像生成部13に与える(S9)。なお、主軸に直交する方向の最大幅を用いる代わりに幅の平均値を用いたり、主軸の中点に対して所定の範囲内の幅の平均値を用いたりすることも可能である。また、上述の例では傾斜方向および傾斜角度の組合せに角度(θ,φ)を対応付けたデータテーブルを用いる例を示したが、傾斜方向と傾斜角度との一方に、角度(θ,φ)の範囲を対応付けたデータテーブルを用いて候補基準画像を絞り込むことも可能である。この場合は、傾斜方向と傾斜角度との両方を用いる場合に比較すると候補基準画像の数が多くなるが、基準画像記憶部15に格納されているすべての候補基準画像から基準距離画像を選択する場合よりは処理負荷を大幅に軽減することができる。   On the other hand, when the previous reference distance image cannot be adopted (S1), a candidate reference image having a default angle (δ, ε) is selected from the reference image storage unit 15 (S4), and the distance image sensor 11 is selected. A difference image between the distance image generated in step 1 and the candidate reference image is generated (S5). A pixel area in which the absolute value of the pixel value is equal to or less than a predetermined threshold is extracted as a matching area from the difference image (S6), and a direction orthogonal to the main axis of the matching area and the maximum width of the matching area in the direction are obtained (S7) . Next, the direction orthogonal to the main axis is set as the inclination direction (gradient direction), and the inclination angle (θ, φ) is estimated from the maximum width (S8). When the angles (θ, φ) are obtained in this way, candidate reference images in the range of (θ ± Δα, φ ± Δβ) are extracted from the reference image storage unit 15 and given to the difference image generation unit 13 (S9). Instead of using the maximum width in the direction orthogonal to the main axis, it is also possible to use an average value of widths or use an average value of widths within a predetermined range with respect to the midpoint of the main axis. Moreover, although the example which uses the data table which matched angle ((theta), (phi)) with the combination of inclination direction and inclination angle was shown in the above-mentioned example, angle ((theta), (phi)) is used for one of an inclination direction and an inclination angle. It is also possible to narrow down the candidate reference images using a data table in which these ranges are associated. In this case, the number of candidate reference images is larger than when both the tilt direction and the tilt angle are used, but a reference distance image is selected from all candidate reference images stored in the reference image storage unit 15. The processing load can be greatly reduced than the case.

ところで、図6のように障害物Obの上面の面積が大きく距離画像センサ11の視野内の大部分を占めるときには、差分画像において一致領域が最大になる基準距離画像を選択すると、障害物Obの上面との一致度が高い基準距離画像P2を選択することがある。この場合、距離画像センサ11で得た距離画像と基準距離画像選択部13で選択した基準距離画像との差分画像からでは障害物Obを発見できない可能性がある。   By the way, when the area of the upper surface of the obstacle Ob is large and occupies most of the visual field of the distance image sensor 11 as shown in FIG. The reference distance image P2 having a high degree of coincidence with the upper surface may be selected. In this case, there is a possibility that the obstacle Ob cannot be found from the difference image between the distance image obtained by the distance image sensor 11 and the reference distance image selected by the reference distance image selection unit 13.

そこで、判断部14では、基準距離画像選択部13で選択した基準距離画像と距離画像センサ11で得た距離画像との差分画像Ddを生成した後、図7に示すように、この差分画像Ddを移動体本体2に近い近接領域D2と、移動体本体2から遠い遠方領域D3とに分割するとともに(分割線を一点鎖線で示している)、近接領域D2と遠方領域D3とに含まれる各一致領域D1の面積を求める。ここに、基準距離画像との一致度が高い障害物Obであれば、近接領域D2では一致領域(斜線部)D1の面積が小さくなり、遠方領域D3では一致領域D1の面積が大きくなる。これは、移動体本体2が障害物Obに徐々に近付くことにより、遠方領域D3のほうが距離画像内で障害物Obの占める面積が先に大きくなるからである。   Therefore, the determination unit 14 generates a difference image Dd between the reference distance image selected by the reference distance image selection unit 13 and the distance image obtained by the distance image sensor 11, and then the difference image Dd as shown in FIG. Is divided into a proximity region D2 close to the mobile body 2 and a remote region D3 far from the mobile body 2 (the dividing line is indicated by a one-dot chain line), and each included in the proximity region D2 and the remote region D3 The area of the coincidence region D1 is obtained. Here, if the obstacle Ob has a high degree of coincidence with the reference distance image, the area of the coincidence region (shaded portion) D1 is small in the proximity region D2, and the area of the coincidence region D1 is large in the far region D3. This is because the area occupied by the obstacle Ob in the distance image first increases in the distance region D3 as the moving body 2 gradually approaches the obstacle Ob.

上述の特性を踏まえて、判断部14では、近接領域D2と遠方領域D3とについて、それぞれ一致領域D1の面積に対する閾値th2,th3を個別に用意している。近接領域D2について一致領域D1の面積S2が閾値th2以下(S2≦th2)であり、かつ遠方領域D3について一致領域D1の面積S3が閾値th3以上(S3≧th3)であるときには、図6のような関係であると判断し、差分画像における一致領域D1が障害物Obに対応すると判断する。一方、近接領域D2について一致領域D1の面積S2が閾値th2より大きく(S2>th2)、かつ遠方領域D3について一致領域D1の面積S3が閾値th3未満(S3<th3)であるときには、一致領域D1ではない領域を障害物Obに対応すると判断する。   Based on the above characteristics, the determination unit 14 individually prepares thresholds th2 and th3 for the area of the coincidence region D1 for the near region D2 and the far region D3, respectively. When the area S2 of the matching region D1 is equal to or smaller than the threshold th2 (S2 ≦ th2) with respect to the proximity region D2, and the area S3 of the matching region D1 is equal to or larger than the threshold th3 (S3 ≧ th3) with respect to the far region D3, as shown in FIG. Therefore, it is determined that the matching area D1 in the difference image corresponds to the obstacle Ob. On the other hand, when the area S2 of the coincidence region D1 is larger than the threshold th2 (S2> th2) for the near region D2, and the area S3 of the coincidence region D1 is less than the threshold th3 (S3 <th3) for the far region D3, the coincidence region D1. It is determined that the area that is not corresponds to the obstacle Ob.

判断部14では、距離画像センサ11から得られた距離画像のうち障害物Obと判断した領域について、移動体本体2について設定した直交座標系の三次元空間にマッピングするように座標変換を行い、このデータを移動体本体2に引き渡す。移動体本体2では判断部14から引き渡された三次元データを用いて障害物Obに対応する行動を行う。障害物Obに対する移動体本体2の行動は、移動体本体2にルールとして規定され、たとえば障害物との回避するように移動方向を変化させるようにルールが設定される。   The determination unit 14 performs coordinate conversion so that the region determined to be the obstacle Ob in the distance image obtained from the distance image sensor 11 is mapped to the three-dimensional space of the orthogonal coordinate system set for the mobile body 2. This data is delivered to the mobile body 2. The mobile body 2 performs an action corresponding to the obstacle Ob using the three-dimensional data delivered from the determination unit 14. The behavior of the mobile body 2 with respect to the obstacle Ob is defined as a rule in the mobile body 2. For example, the rule is set so that the movement direction is changed so as to avoid the obstacle.

ところで、上述した移動体本体2は、走行範囲の地図情報を保有しており、適宜手段で自己位置を取得するとともに地図情報を用いて自己位置に合致する行動をとるように自律的に構造するように構成されている。自己位置を取得する手段は、種々提案されており、たとえば位置が既知である複数の基地局からの電波を受信し、電波の到来方向あるいは電波の到来時間などの情報を用いて自己位置を取得する電波航法による技術、あるいは既知の基準位置からの走行距離と走行方向との履歴を用いて現在の自己位置を取得する技術などが提案されている。   By the way, the mobile body 2 described above possesses map information of the travel range, and autonomously constructs itself so as to acquire its own position by appropriate means and to take action that matches the self position using the map information. It is configured as follows. Various means for acquiring the self-position have been proposed, for example, receiving radio waves from a plurality of base stations whose positions are known, and acquiring the self-position using information such as the arrival direction or the arrival time of the radio waves. A technique using radio navigation, a technique for acquiring the current self-position using a history of a travel distance and a travel direction from a known reference position, and the like have been proposed.

一方、移動体本体2が自律的に走行するには、取得した自己位置を照合する地図情報が必要であり、地図情報には位置が固定されている(つまり移動しない)障害物に関する情報をあらかじめ登録しておくのが望ましい。上述したように、本実施形態では障害物を検出するとともに、障害物の位置を獲得する機能を有するから、この機能と自己位置を取得する機能とを用いることで、障害物の位置を特定した地図情報を生成することが可能である。   On the other hand, in order for the mobile body 2 to travel autonomously, map information for collating the acquired self-location is required, and the map information includes information on an obstacle whose position is fixed (that is, does not move) in advance. It is desirable to register. As described above, the present embodiment has a function of detecting an obstacle and acquiring the position of the obstacle. Therefore, the position of the obstacle is specified by using this function and the function of acquiring the self-position. Map information can be generated.

以下では、地図情報を生成する手順について簡単に説明する。なお、図8に示すように、移動体本体2には自己位置を取得するための位置検出装置21と、画像処理装置10の出力と位置検出装置21の出力とに基づいて地図情報を生成する地図作成部22と、地図作成部22で作成した地図を格納する地図格納部23とが設けられているものとする。また、地図情報は、移動体本体2とは関係なく設定される絶対座標系での物体の位置やサイズに関する情報とする。ここで、建物のように絶対座標系での位置およびサイズが既知である情報については、あらかじめ地図格納部23に地図情報として格納しておく。   Below, the procedure which produces | generates map information is demonstrated easily. As shown in FIG. 8, the mobile body 2 generates map information based on the position detection device 21 for acquiring its own position, the output of the image processing device 10, and the output of the position detection device 21. It is assumed that a map creation unit 22 and a map storage unit 23 that stores the map created by the map creation unit 22 are provided. The map information is information related to the position and size of the object in the absolute coordinate system set regardless of the mobile body 2. Here, information such as a building whose position and size in the absolute coordinate system are known is previously stored in the map storage unit 23 as map information.

上述のように移動体本体2の移動中に判断部14が障害物Obを検出すると、距離画像センサ11について設定した座標系での障害物Obの位置が地図作成部22に引き渡される。判断部14では距離画像と基準距離画像との差分画像により障害物Obの有無を判断するから、障害物Obが存在する基準面を認識している。つまり、この基準面を路面(または地面、床面)とみなすことができる。   As described above, when the determination unit 14 detects the obstacle Ob while the mobile body 2 is moving, the position of the obstacle Ob in the coordinate system set for the distance image sensor 11 is delivered to the map creation unit 22. Since the determination unit 14 determines the presence or absence of the obstacle Ob based on the difference image between the distance image and the reference distance image, the reference plane on which the obstacle Ob exists is recognized. That is, this reference plane can be regarded as a road surface (or a ground surface or a floor surface).

地図作成部22では、距離画像から得られる移動体本体2と障害物Obとの距離情報に基づいて、障害物Obの存在する領域について基準面を絶対座標系におけるxy平面とみなした座標変換を行う。このとき、基準面からの障害物Obの高さ情報およびxy平面内でのサイズも得られる。このような座標変換により障害物Obに関して基準面上での移動体本体2との相対位置を求めることができる。   The map creation unit 22 performs coordinate conversion in which the reference plane is regarded as the xy plane in the absolute coordinate system for the area where the obstacle Ob exists based on the distance information between the moving body 2 and the obstacle Ob obtained from the distance image. Do. At this time, the height information of the obstacle Ob from the reference plane and the size in the xy plane are also obtained. By such coordinate transformation, the relative position of the obstacle Ob with respect to the moving body 2 on the reference plane can be obtained.

一方、移動体本体2の自己位置は位置検出装置21により認識されているから、地図作成部22では、上述のようにして得られた移動体本体2と障害物Obとの相対位置と、位置検出装置21により得られている自己位置とを用いて絶対座標系における障害物Obの位置を求める。このようにして求めた障害物Obの位置およびサイズに関する地図情報は地図格納部23に格納される。   On the other hand, since the position of the mobile body 2 is recognized by the position detection device 21, the map creation unit 22 determines the relative position between the mobile body 2 and the obstacle Ob obtained as described above, and the position. The position of the obstacle Ob in the absolute coordinate system is obtained using the self position obtained by the detection device 21. The map information regarding the position and size of the obstacle Ob thus obtained is stored in the map storage unit 23.

ここに、判断部14で採用している基準面は、路面(または地面、床面)に対応するものの、路面(または地面、床面)が絶対座標系におけるxy平面に対して傾斜していることがあるから、上述のようにして得られた障害物Obの位置座標には誤差が含まれる可能性がある。ただし、地図格納部23に格納される地図情報は、移動体本体2が走行する際に用いる地図情報であるから、必ずしも絶対座標系における正確な位置を反映していなくてもよい。つまり、移動体本体2が実際に走行する際に障害物Obの位置を認識することができればよいから、地図格納部23における障害物Obの位置誤差は実使用上では何ら問題を生じない。   Here, the reference plane adopted by the determination unit 14 corresponds to the road surface (or the ground or floor surface), but the road surface (or the ground or floor surface) is inclined with respect to the xy plane in the absolute coordinate system. Therefore, there is a possibility that an error is included in the position coordinates of the obstacle Ob obtained as described above. However, since the map information stored in the map storage unit 23 is map information used when the mobile body 2 travels, it does not necessarily reflect the exact position in the absolute coordinate system. That is, it is only necessary to be able to recognize the position of the obstacle Ob when the mobile body 2 actually travels. Therefore, the position error of the obstacle Ob in the map storage unit 23 causes no problem in actual use.

本発明の実施形態を示すブロック図である。It is a block diagram which shows embodiment of this invention. 同上の外観斜視図である。It is an external appearance perspective view same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上における候補基準画像を選択する手順を示す動作説明図である。It is operation | movement explanatory drawing which shows the procedure which selects the candidate reference | standard image in the same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 本発明の他の実施形態を示すブロック図である。It is a block diagram which shows other embodiment of this invention.

符号の説明Explanation of symbols

1 障害物検出装置
2 移動体本体
10 画像処理装置
11 距離画像センサ
12 差分画像生成部
13 基準距離画像選択部
14 判断部
15 基準画像記憶部
16 候補画像絞り込み部
DESCRIPTION OF SYMBOLS 1 Obstacle detection apparatus 2 Mobile body main body 10 Image processing apparatus 11 Distance image sensor 12 Difference image generation part 13 Reference distance image selection part 14 Judgment part 15 Reference image memory | storage part 16 Candidate image narrowing down part

Claims (6)

移動体本体に搭載され移動体本体が走行しようとする面を含む空間領域を斜め下向きに撮像し画素値が距離値である距離画像を生成する距離画像センサと、移動体本体が平面上を走行する際に距離画像センサで生成されることが予測される角度範囲内の平面の距離画像を所定の刻み幅で候補基準画像として格納した基準画像記憶部と、基準画像記憶部に格納された複数の候補基準画像のうち距離画像センサで生成された距離画像との差分画像において差分値が規定の閾値以下である一致領域の面積が最大になる候補基準画像を基準距離画像として選択する基準距離画像選択部と、基準距離画像選択部で選択された基準距離画像に対する差分画像における一致領域以外を障害物が存在する領域と判断する判断部とを備えることを特徴とする移動体用の障害物検出装置。   A distance image sensor that is mounted on the mobile body and includes a spatial image including a surface on which the mobile body is about to run diagonally downward and generates a distance image with pixel values as distance values, and the mobile body travels on a plane. A reference image storage unit storing a distance image of a plane within an angle range predicted to be generated by the distance image sensor as a candidate reference image at a predetermined step size, and a plurality of images stored in the reference image storage unit A reference distance image that selects, as a reference distance image, a candidate reference image in which the area of a matching area whose difference value is equal to or less than a predetermined threshold in the difference image from the distance image generated by the distance image sensor among the candidate reference images of A movement comprising: a selection unit; and a determination unit that determines that an area other than the matching area in the difference image with respect to the reference distance image selected by the reference distance image selection unit is an area where an obstacle exists. Obstacle detection device use. 前記基準画像記憶部に格納されたデフォルトの候補基準画像と前記距離画像センサにより生成された距離画像との差分画像において差分値が規定の閾値以下である一致領域を求める機能を有した差分画像生成部と、一致領域の主軸に直交する方向を用いて前記移動体本体の走行面の傾斜方向を推定しこの傾斜方向に対して所定範囲内である候補基準画像を前記基準画像記憶部から取り出す候補画像絞り込み部とを備え、前記基準距離画像選択部は候補画像絞り込み部で絞り込まれた候補基準画像から基準距離画像を選択することを特徴とする請求項1記載の移動体用の障害物検出装置。   Difference image generation having a function of obtaining a matching area in which a difference value is equal to or less than a predetermined threshold in a difference image between a default candidate reference image stored in the reference image storage unit and a distance image generated by the distance image sensor And a direction orthogonal to the principal axis of the coincidence area is used to estimate the inclination direction of the traveling surface of the moving body, and to extract candidate reference images that are within a predetermined range with respect to the inclination direction from the reference image storage unit The obstacle detection device for a moving body according to claim 1, further comprising an image narrowing-down unit, wherein the reference distance image selecting unit selects a reference distance image from the candidate reference images narrowed down by the candidate image narrowing-down unit. . 前記基準画像記憶部に格納されたデフォルトの候補基準画像と前記距離画像センサにより生成された距離画像との差分画像において差分値が規定の閾値以下である一致領域を求める機能を有した差分画像生成部と、一致領域の主軸に直交する方向における一致領域の幅を用いて前記移動体本体の走行面の傾斜角度を推定しこの傾斜角度に対して所定範囲内である候補基準画像を前記基準画像記憶部から取り出す候補画像絞り込み部とを備え、前記基準距離画像選択部は候補画像絞り込み部で絞り込まれた候補基準画像から基準距離画像を選択することを特徴とする請求項1記載の移動体用の障害物検出装置。   Difference image generation having a function of obtaining a matching area in which a difference value is equal to or less than a predetermined threshold in a difference image between a default candidate reference image stored in the reference image storage unit and a distance image generated by the distance image sensor And a width of the coincidence area in a direction orthogonal to the principal axis of the coincidence area, the inclination angle of the traveling surface of the moving body is estimated, and a candidate reference image that is within a predetermined range with respect to the inclination angle is determined as the reference image. 2. The mobile object according to claim 1, further comprising a candidate image narrowing-down unit that is extracted from the storage unit, wherein the reference distance image selecting unit selects a reference distance image from the candidate reference images narrowed down by the candidate image narrowing-down unit. Obstacle detection device. 前記基準画像記憶部に格納されたデフォルトの候補基準画像と前記距離画像センサにより生成された距離画像との差分画像において差分値が規定の閾値以下である一致領域を求める機能を有した差分画像生成部と、一致領域の主軸に直交する方向を用いて前記移動体本体の走行面の傾斜方向を推定するとともに一致領域の主軸に直交する方向における一致領域の幅を用いて前記移動体本体の走行面の傾斜角度を推定し傾斜方向および傾斜角度の組合せに対して所定範囲内である候補基準画像を前記基準画像記憶部から取り出す候補画像絞り込み部とを備え、前記基準距離画像選択部は候補画像絞り込み部で絞り込まれた候補基準画像から基準距離画像を選択することを特徴とする請求項1記載の移動体用の障害物検出装置。   Difference image generation having a function of obtaining a matching area in which a difference value is equal to or less than a predetermined threshold in a difference image between a default candidate reference image stored in the reference image storage unit and a distance image generated by the distance image sensor And the direction perpendicular to the principal axis of the coincidence area is used to estimate the inclination direction of the running surface of the mobile body and the width of the coincidence area in the direction perpendicular to the principal axis of the coincidence area is used to travel the mobile body. A candidate image narrowing unit that estimates a tilt angle of a surface and extracts a candidate reference image that is within a predetermined range with respect to a combination of a tilt direction and a tilt angle from the reference image storage unit, and the reference distance image selection unit is a candidate image The obstacle detection device for a moving body according to claim 1, wherein a reference distance image is selected from candidate reference images narrowed down by a narrowing-down unit. 前記基準距離画像選択部は、時系列として得られる距離画像に対して前回用いた基準距離画像に対して規定した範囲内の候補基準画像から基準距離画像を選択することを特徴とする請求項1記載の移動体用の障害物検出装置。   2. The reference distance image selecting unit selects a reference distance image from candidate reference images within a range defined for a previously used reference distance image with respect to a distance image obtained as a time series. The obstacle detection apparatus for moving bodies described. 移動体本体に搭載され移動体本体が走行しようとする面を含む空間領域を斜め下向きに撮像し画素値が距離値である距離画像を生成する距離画像センサと、移動体本体が平面上を走行する際に距離画像センサで生成されることが予測される角度範囲内の平面の距離画像を所定の刻み幅で候補基準画像として格納した基準画像記憶部と、基準画像記憶部に格納された複数の候補基準画像のうち距離画像センサで生成された距離画像との差分画像において差分値が規定の閾値以下である一致領域の面積が最大になる候補基準画像を基準距離画像として選択する基準距離画像選択部と、一致領域を移動体本体に近い近接領域と移動体本体から遠い遠方領域とに分割し、近接領域において一致領域の占める面積が第1の閾値以下でありかつ遠方領域において一致領域の占める面積が第2の閾値以上であるという条件が満たされるときには、一致領域を障害物の存在する領域と判断し、前記条件が満たされないときには、基準距離画像選択部で選択された基準距離画像に対する差分画像における一致領域以外を障害物が存在する領域と判断する判断部とを備えることを特徴とする移動体用の障害物検出装置。   A distance image sensor that is mounted on the mobile body and includes a spatial image including a surface on which the mobile body is about to run diagonally downward and generates a distance image with pixel values as distance values, and the mobile body travels on a plane. A reference image storage unit storing a distance image of a plane within an angle range predicted to be generated by the distance image sensor as a candidate reference image at a predetermined step size, and a plurality of images stored in the reference image storage unit A reference distance image that selects, as a reference distance image, a candidate reference image in which the area of a matching area whose difference value is equal to or less than a predetermined threshold in the difference image from the distance image generated by the distance image sensor among the candidate reference images of The selection unit and the matching area are divided into a proximity area close to the mobile body and a remote area far from the mobile body, and the area occupied by the matching area in the proximity area is equal to or less than the first threshold and When the condition that the area occupied by the coincidence area is equal to or greater than the second threshold is satisfied, the coincidence area is determined as an area where an obstacle exists, and when the condition is not satisfied, the area selected by the reference distance image selection unit is selected. An obstacle detection apparatus for a moving body, comprising: a determination unit that determines an area other than a matching area in a difference image with respect to a reference distance image as an area where an obstacle exists.
JP2005076000A 2005-03-16 2005-03-16 Obstacle detection device for moving objects Expired - Fee Related JP4333611B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005076000A JP4333611B2 (en) 2005-03-16 2005-03-16 Obstacle detection device for moving objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005076000A JP4333611B2 (en) 2005-03-16 2005-03-16 Obstacle detection device for moving objects

Publications (2)

Publication Number Publication Date
JP2006262009A JP2006262009A (en) 2006-09-28
JP4333611B2 true JP4333611B2 (en) 2009-09-16

Family

ID=37100758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005076000A Expired - Fee Related JP4333611B2 (en) 2005-03-16 2005-03-16 Obstacle detection device for moving objects

Country Status (1)

Country Link
JP (1) JP4333611B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008298741A (en) * 2007-06-04 2008-12-11 Toyota Central R&D Labs Inc Distance measuring apparatus and distance measuring method
JP2008298742A (en) * 2007-06-04 2008-12-11 Toyota Central R&D Labs Inc Posture angle detection device, posture angle detecting method, and surface of floor detection device
JP4985420B2 (en) * 2008-01-18 2012-07-25 トヨタ自動車株式会社 Floor surface detection system, mobile robot, and floor surface detection method
JP2009168751A (en) * 2008-01-18 2009-07-30 Toyota Motor Corp Obstacle detection system and obstacle detection method
JP2010170288A (en) * 2009-01-22 2010-08-05 Hitachi Ltd Three-dimensional modeling device
JP5156731B2 (en) * 2009-12-24 2013-03-06 本田技研工業株式会社 Image processing apparatus, image processing method, and image processing program
CN105556338B (en) * 2013-09-20 2022-01-07 卡特彼勒公司 Positioning system using radio frequency signals
JP6386293B2 (en) * 2014-08-21 2018-09-05 株式会社日立製作所 Vehicle and vehicle control system
CN111427357A (en) * 2020-04-14 2020-07-17 北京石头世纪科技股份有限公司 Robot obstacle avoidance method and device and storage medium
WO2023058322A1 (en) * 2021-10-04 2023-04-13 ソニーグループ株式会社 Moving device, information processing program, and information processing method

Also Published As

Publication number Publication date
JP2006262009A (en) 2006-09-28

Similar Documents

Publication Publication Date Title
JP4333611B2 (en) Obstacle detection device for moving objects
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
EP3283843B1 (en) Generating 3-dimensional maps of a scene using passive and active measurements
CN108647646B (en) Low-beam radar-based short obstacle optimized detection method and device
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
KR101708659B1 (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
Stiller et al. Multisensor obstacle detection and tracking
KR101784183B1 (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
EP2948927B1 (en) A method of detecting structural parts of a scene
KR101776621B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
US8467902B2 (en) Method and apparatus for estimating pose of mobile robot using particle filter
US10803600B2 (en) Information processing device, information processing method, and program
KR101188588B1 (en) Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
WO2018159168A1 (en) System and method for virtually-augmented visual simultaneous localization and mapping
Kim et al. Moving obstacle avoidance of a mobile robot using a single camera
KR100901311B1 (en) Autonomous mobile platform
KR102056147B1 (en) Registration method of distance data and 3D scan data for autonomous vehicle and method thereof
CN112740274A (en) System and method for VSLAM scale estimation on robotic devices using optical flow sensors
JP2005528707A5 (en)
CN108844538B (en) Unmanned aerial vehicle obstacle avoidance waypoint generation method based on vision/inertial navigation
CN108544494B (en) Positioning device, method and robot based on inertia and visual characteristics
US11256917B2 (en) Moving body for tracking and locating a target
Dodge et al. Convex vision-based negative obstacle detection framework for autonomous vehicles
CN212044739U (en) Positioning device and robot based on inertial data and visual characteristics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090602

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090615

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130703

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees