JP6218209B2 - Obstacle detection device - Google Patents

Obstacle detection device Download PDF

Info

Publication number
JP6218209B2
JP6218209B2 JP2012265840A JP2012265840A JP6218209B2 JP 6218209 B2 JP6218209 B2 JP 6218209B2 JP 2012265840 A JP2012265840 A JP 2012265840A JP 2012265840 A JP2012265840 A JP 2012265840A JP 6218209 B2 JP6218209 B2 JP 6218209B2
Authority
JP
Japan
Prior art keywords
depth sensor
road surface
angle
obstacle
depression angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012265840A
Other languages
Japanese (ja)
Other versions
JP2013254474A (en
Inventor
田中 雅博
雅博 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KONAN GAKUEN
Original Assignee
KONAN GAKUEN
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KONAN GAKUEN filed Critical KONAN GAKUEN
Priority to JP2012265840A priority Critical patent/JP6218209B2/en
Publication of JP2013254474A publication Critical patent/JP2013254474A/en
Application granted granted Critical
Publication of JP6218209B2 publication Critical patent/JP6218209B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、車両、歩行者を含む移動体に取り付けられて路面の距離画像を取得するデプスセンサを備えた障害物検出装置に関する。   The present invention relates to an obstacle detection apparatus including a depth sensor that is attached to a moving body including a vehicle and a pedestrian and acquires a distance image of a road surface.

本明細書において、「移動体」とは、「車両」と「歩行者」とを含むものとする。   In this specification, “moving body” includes “vehicle” and “pedestrian”.

従来の障害物検出装置として以下の構成が知られている。即ち、レーザを利用した障害物検知センサにより障害物を検知して走行停止させる電動車椅子の走行制御方法が知られている(特許文献1)。そして、車両近傍の路面あるいは床面を観測するセンサ装置の出力する画像を解析してその特徴を出力し、当該特徴を、過去に車両が走行した路面の履歴と比較することで、車両周辺の路面の安全性を推定する構成が開示されている(特許文献2)。   The following configuration is known as a conventional obstacle detection device. That is, there is known a traveling control method for an electric wheelchair in which an obstacle detection sensor using a laser detects an obstacle and stops traveling (Patent Document 1). Then, an image output from a sensor device that observes a road surface or a floor surface in the vicinity of the vehicle is analyzed and its characteristics are output, and the characteristics are compared with the history of the road surface on which the vehicle has traveled in the past. A configuration for estimating road safety is disclosed (Patent Document 2).

また、車両に取り付けられたレーザを利用した距離センサから得られた障害物までの距離の継時的変化と速度検出手段から得られた速度とに基づいて障害物が存在する方向を算出してこの方向に応じた回避動作を行う構成が教示されている(特許文献3)。さらに、車両の走行中に、2次元レーザレーダによる車前方スキャンが行われ、段差や溝等の危険個所の認識と記憶をなし、駆動輪の回転速度検出、車両の移動量の算出、記憶をなし、記憶危険個所と時々刻々の車両移動量情報、及び車両移動方向に基づき、衝突予測手段による衝突予測が行われると、衝突回避用補正命令が出され、操作者のハンドル角の設定と、アクセル操作に対して車両が衝突しないように補正が行われる構成が知られている(特許文献4)。   In addition, the direction in which the obstacle exists is calculated based on the temporal change in the distance to the obstacle obtained from the distance sensor using a laser attached to the vehicle and the speed obtained from the speed detecting means. A configuration for performing an avoidance operation according to this direction is taught (Patent Document 3). In addition, while the vehicle is running, a vehicle front scan is performed by a two-dimensional laser radar to recognize and store dangerous parts such as steps and grooves, to detect the rotational speed of the drive wheels, to calculate and store the amount of movement of the vehicle. None, when the collision prediction by the collision prediction means is performed based on the memory danger location and the momentary vehicle movement amount information and the vehicle movement direction, a collision avoidance correction command is issued, and the setting of the operator's handle angle, A configuration is known in which correction is performed so that the vehicle does not collide with the accelerator operation (Patent Document 4).

そして、距離センサを用いて自己の位置を推定し地図を作製する自己位置同定方法及び装置(SLAM(Simultaneous Localization And Mapping))の構成も開示されている(特許文献5)。   And the structure of the self-position identification method and apparatus (SLAM (Simultaneous Localization And Mapping)) which estimates a self position using a distance sensor and produces a map is also disclosed (patent document 5).

暗い時間帯にシニアカー(老人用電動車)を安全に走らせるには、自転車、ライトを用いて人が前方を注視する方法しか実現していないが、そもそもシニアカーを使う人は視力や集中力が落ちている場合が多く、非常に危険な状態で走行するしかなかった。本発明者らは、機械を用いて自動的に路面上の障害物を検知する方法として、画像カメラを1つ用いて路面上の凸凹を検知するシステムを開示した(非特許文献1)。   The only way to safely drive a senior car (electric car for the elderly) in dark hours is to use a bicycle or a light to watch the person in front, but in the first place, people who use a senior car have low vision and concentration. In many cases, it was falling, and I had to run in a very dangerous state. The present inventors disclosed a system for detecting unevenness on a road surface using one image camera as a method for automatically detecting an obstacle on the road surface using a machine (Non-Patent Document 1).

特開2011−177205号公報(2011年09月15日公開)JP 2011-177205 A (released on September 15, 2011) 特開2009−277063号公報(2009年11月26日公開)JP 2009-277063 A (released on November 26, 2009) 特開2005−335533号公報(2005年12月08日公開)JP 2005-335533 A (released on December 08, 2005) 特開2005−128722号公報(2005年05月19日公開)JP 2005-128722 A (published May 19, 2005) WO2007/069726号公報(2007年06月21日公開)WO 2007/069726 (released on June 21, 2007)

Detection of Flat Ground Area by Single Camera on Mobile Vehicles, 2011 International Conference on Advanced Mechatronic Systems, Zhongyuan University of Technology, Zhengzhou, China, August 11-13, 2011 pp. 403-408, M. Tanaka and S. OnishiDetection of Flat Ground Area by Single Camera on Mobile Vehicles, 2011 International Conference on Advanced Mechatronic Systems, Zhongyuan University of Technology, Zhengzhou, China, August 11-13, 2011 pp. 403-408, M. Tanaka and S. Onishi

しかしながら、特許文献1〜4に開示された構成は、レーザビームを走査することによって一画面分の距離画像データを取得する方式であるから、1回の走査で一画面分の距離画像データを取得するために例えば約数百ミリ秒程度の長い時間が必要である。従って、屋外で動いている移動体に取り付けて路面の距離画像を取得して処理することは困難であるという問題がある。   However, since the configurations disclosed in Patent Documents 1 to 4 are a method of acquiring distance image data for one screen by scanning a laser beam, distance image data for one screen is acquired by one scan. For example, a long time of about several hundred milliseconds is required. Accordingly, there is a problem that it is difficult to obtain and process a road surface distance image by attaching to a moving body moving outdoors.

特許文献5に開示されたSLAMの構成は、計算負荷が大きく、構成も複雑であるという問題がある。   The configuration of the SLAM disclosed in Patent Document 5 has a problem that the calculation load is large and the configuration is complicated.

非特許文献1に開示された構成では、カメラを搭載した移動体が路面を走行していることが必須であり、また、障害物の検知能力も低いという問題がある。この構成では、特徴点をコンピュータビジョンの手法(SURF、 SIFTなど)の力を借りて抽出し、フレーム間で対応付けを行うことにより、路面より高い点、低い点の判別を行ったが、なかなか特徴点が取れないこと、対応付けが必ずしも成功しないことなどの問題が多く、実用化は困難であった。   In the configuration disclosed in Non-Patent Document 1, it is essential that the moving body on which the camera is mounted is traveling on the road surface, and the obstacle detection capability is low. In this configuration, feature points are extracted with the help of computer vision techniques (SURF, SIFT, etc.), and the points between the points above and below the road surface are discriminated by matching them between frames. There are many problems such as feature points not being able to be taken and correspondence not necessarily succeeding, and practical application has been difficult.

赤外線等を用いたセンサにより同じ瞬間の1画面分の距離画像データを取得する構成も考えられるが、走行中の移動体はガタガタと振動するため、センサの俯角が特定できず、路面における障害物を検出することが困難であるという問題がある。   A configuration is also possible in which distance image data for one screen at the same moment is acquired by a sensor using infrared rays or the like. However, since a moving body that is traveling vibrates rattlingly, the depression angle of the sensor cannot be specified, and an obstacle on the road surface There is a problem that it is difficult to detect.

また、障害物検出装置を、視覚障害を有する歩行者の体に装着して使用したいという要望も存在する。   There is also a desire to use the obstacle detection device by attaching it to the body of a pedestrian with visual impairment.

本発明の目的は、移動体走行時にデプスセンサが揺れて俯角が変動しても、移動体が走行する路面における障害物を検出することができる障害物検出装置を提供することにある。   An object of the present invention is to provide an obstacle detection device that can detect an obstacle on a road surface on which a mobile body travels even if the depth sensor fluctuates and the depression angle fluctuates during travel of the mobile body.

また、本発明では、歩行者を含む移動体走行時にデプスセンサが揺れて俯角、ロール角、高さが変動しても、移動体が走行する路面における障害物を検出することができる障害物検出装置を提供することにある。   Further, in the present invention, an obstacle detection device capable of detecting an obstacle on the road surface on which the mobile body travels even if the depth sensor fluctuates and the depression angle, roll angle, and height fluctuate during travel of the mobile body including a pedestrian. Is to provide.

上記の課題を解決するために、本発明に係る障害物検出装置は、車両に取り付けられて路面の距離画像を取得するデプスセンサと、前記デプスセンサにより取得された距離画像に基づいて、前記車両に取り付けられたデプスセンサの俯角を推定する角度推定手段と、前記角度推定手段により推定されたデプスセンサの俯角と、前記デプスセンサの前記路面からの高さと、前記距離画像の距離データとに基づいて、前記路面に存在する障害物を検出する検出手段とを備えたことを特徴とする。   In order to solve the above problems, an obstacle detection device according to the present invention is attached to a vehicle based on a depth sensor that is attached to the vehicle and acquires a distance image of a road surface, and a distance image acquired by the depth sensor. An angle estimating means for estimating a depression angle of the depth sensor, a depression angle of the depth sensor estimated by the angle estimation means, a height of the depth sensor from the road surface, and distance data of the distance image. And detecting means for detecting an existing obstacle.

本明細書において、「デプスセンサ」とは、面情報を取得できる距離センサを意味するものとする。このようなデプスセンサのうち、市販されている例として、Kinect for Windows(登録商標)やXtion Pro(登録商標)などを挙げることができる。しかしながら、これらに限定されるものではない。   In this specification, the “depth sensor” means a distance sensor that can acquire surface information. Examples of such depth sensors that are commercially available include Kinect for Windows (registered trademark) and Xtion Pro (registered trademark). However, it is not limited to these.

この特徴により、デプスセンサにより取得された距離画像に基づいて、移動体に取り付けられたデプスセンサの俯角を推定し、この推定した俯角と、デプスセンサの路面からの高さと、距離画像の距離データとに基づいて、路面に存在する障害物を検出する。このため、デプスセンサが距離画像を取得した瞬間におけるデプスセンサの俯角を推定することができるので、移動体走行時にデプスセンサが揺れて俯角が変動しても、移動体が走行する路面における障害物を検出することができる。   With this feature, the depression angle of the depth sensor attached to the moving body is estimated based on the distance image acquired by the depth sensor, and based on the estimated depression angle, the height of the depth sensor from the road surface, and the distance image distance data. And detecting obstacles present on the road surface. For this reason, since the depression angle of the depth sensor at the moment when the depth sensor acquires the distance image can be estimated, even if the depression sensor fluctuates and the depression angle fluctuates during traveling of the moving body, an obstacle on the road surface on which the moving body travels is detected. be able to.

本発明に係る障害物検出装置では、前記角度推定手段は、非路面上の点の影響を除去する最小二乗法に基づいて誤差を最小化して前記俯角を推定することが好ましい。   In the obstacle detection device according to the present invention, it is preferable that the angle estimation means estimates the depression angle by minimizing an error based on a least square method that removes the influence of a point on the non-road surface.

上記構成によれば、簡単な構成により、移動体に取り付けられたデプスセンサの俯角を推定することができる。   According to the above configuration, the depression angle of the depth sensor attached to the moving body can be estimated with a simple configuration.

本発明に係る障害物検出装置では、前記車両はハンドルを有しており、前記角度推定手段は、前記ハンドルの回転に応じて、前記俯角、及び前記ハンドルの回転に応じて生じる前記デプスセンサのロール角を推定することが好ましい。   In the obstacle detection device according to the present invention, the vehicle has a handle, and the angle estimating means rolls the depth sensor according to the depression angle and the rotation of the handle according to the rotation of the handle. It is preferable to estimate the angle.

上記構成によれば、ハンドルが回転されて移動体が曲進するときも路面における障害物を検出することができる。   According to the above configuration, an obstacle on the road surface can be detected even when the handle is rotated and the moving body bends.

本発明に係る障害物検出装置では、前記デプスセンサは、非走査方式赤外線レーザセンサであることが好ましい。   In the obstacle detection apparatus according to the present invention, the depth sensor is preferably a non-scanning infrared laser sensor.

上記構成によれば、デプスセンサを安価に構成することができる。   According to the above configuration, the depth sensor can be configured at low cost.

本発明に係る障害物検出装置は、歩行者に取り付けられて路面の距離画像を取得するデプスセンサと、前記デプスセンサにより取得された距離画像に基づいて、前記歩行者に取り付けられたデプスセンサの俯角、ロール角、及び高さを推定する状態推定手段と、前記状態推定手段により推定されたデプスセンサの俯角、ロール角、及び高さと、前記距離画像の距離データとに基づいて、前記路面に存在する障害物を検出する検出手段とを備えたことを特徴とする。   The obstacle detection device according to the present invention includes a depth sensor that is attached to a pedestrian and acquires a distance image of a road surface, and a depression angle and a roll of the depth sensor that is attached to the pedestrian based on the distance image acquired by the depth sensor. An obstacle existing on the road surface based on state estimation means for estimating the angle and height, the depression angle, roll angle and height of the depth sensor estimated by the state estimation means, and the distance data of the distance image And detecting means for detecting.

この特徴により、デプスセンサにより取得された距離画像に基づいて、移動体に取り付けられたデプスセンサの俯角、ロール角、及び高さを推定し、この推定した俯角、ロール角、及び高さと、距離画像の距離データとに基づいて、路面に存在する障害物を検出する。このため、デプスセンサが距離画像を取得した瞬間におけるデプスセンサの俯角、ロール角、及び高さを推定することができるので、歩行者を含む移動体走行時にデプスセンサが揺れて俯角、ロール角、及び高さが変動しても、移動体が走行する路面における障害物を検出することができる。   With this feature, the depression angle, roll angle, and height of the depth sensor attached to the moving body are estimated based on the distance image acquired by the depth sensor, and the estimated depression angle, roll angle, height, Based on the distance data, an obstacle present on the road surface is detected. For this reason, since the depression angle, roll angle, and height of the depth sensor at the moment when the depth sensor acquires the distance image can be estimated, the depth sensor is shaken during traveling of a moving body including a pedestrian, and the depression angle, roll angle, and height are Even if fluctuates, it is possible to detect an obstacle on the road surface on which the mobile body travels.

本発明に係る障害物検出装置では、前記状態推定手段は、非路面上の点の影響を除去する最小二乗法に基づいて誤差を最小化して前記俯角、前記ロール角、及び前記高さを推定することが好ましい。   In the obstacle detection apparatus according to the present invention, the state estimation means estimates the depression angle, the roll angle, and the height by minimizing an error based on a least square method that eliminates the influence of a point on the non-road surface. It is preferable to do.

上記構成によれば、簡単な構成により、移動体に取り付けられた時間変化するデプスセンサの俯角、ロール角、及び高さを推定することができる。   According to the above configuration, it is possible to estimate the depression angle, the roll angle, and the height of the time-varying depth sensor attached to the moving body with a simple configuration.

本発明に係る障害物検出装置では、前記状態推定手段は、前記距離データ、前記俯角、前記ロール角、及び前記高さの関係に基づく状態空間モデルに対して、非路面上の点の影響を除去する非線形カルマンフィルタに基づいて変動を許容して前記俯角、前記ロール角、及び前記高さを推定することもできる。   In the obstacle detection device according to the present invention, the state estimation unit may affect the influence of a point on the non-road surface on the state space model based on the relationship between the distance data, the depression angle, the roll angle, and the height. It is also possible to estimate the depression angle, the roll angle, and the height while allowing variation based on the removed nonlinear Kalman filter.

上記構成によれば、移動体に取り付けられたデプスセンサの俯角、ロール角、及び高さが変動する環境においても変動幅をモデルに組み込んで俯角、ロール角、及び高さを推定することができる。   According to the above configuration, even in an environment where the depression angle, roll angle, and height of the depth sensor attached to the moving body vary, the variation angle can be incorporated in the model to estimate the depression angle, roll angle, and height.

なお、俯角、ロール角、及び高さの推定において利用されるアルゴリズムは、非線形カルマンフィルタに限定されるわけではなく、他のフィルタリングアルゴリズムに基づいて、俯角、ロール角、及び高さが推定されてもよい。   Note that the algorithm used in the estimation of the depression angle, the roll angle, and the height is not limited to the nonlinear Kalman filter, and the depression angle, the roll angle, and the height may be estimated based on other filtering algorithms. Good.

加えて、デプスセンサの姿勢を決定するパラメータの組は、センサーの状態を決定づけるものであれば、俯角、ロール角、及び高さの組に限定されない。   In addition, the set of parameters for determining the posture of the depth sensor is not limited to the set of depression angle, roll angle, and height as long as it determines the state of the sensor.

本発明に係る、障害物検出装置は、前記デプスセンサにより取得された距離画像に基づいて、前記車両に取り付けられたデプスセンサの俯角を推定する角度推定手段と、前記角度推定手段により推定されたデプスセンサの俯角と、前記デプスセンサの前記路面からの高さと、前記距離画像の距離データとに基づいて、前記路面に存在する障害物を検出する検出手段とを備えたので、デプスセンサが距離画像を取得した瞬間におけるデプスセンサの俯角を推定することができ、車両走行時にデプスセンサが揺れて俯角が変動しても、移動体が走行する路面における障害物を検出することができる。   An obstacle detection device according to the present invention includes an angle estimation unit that estimates a depression angle of a depth sensor attached to the vehicle based on a distance image acquired by the depth sensor, and a depth sensor estimated by the angle estimation unit. Since a depression angle, a height of the depth sensor from the road surface, and detection means for detecting an obstacle present on the road surface based on the distance data of the distance image are provided, the moment when the depth sensor acquires the distance image The depression angle of the depth sensor can be estimated, and an obstacle on the road surface on which the mobile body travels can be detected even if the depression sensor fluctuates and the depression angle fluctuates during vehicle travel.

また、本発明に係る、障害物検出装置は、歩行者に取り付けられて路面の距離画像を取得するデプスセンサと、前記デプスセンサにより取得された距離画像に基づいて、前記歩行者に取り付けられたデプスセンサの俯角、ロール角、及び高さを推定する状態推定手段と、前記状態推定手段により推定されたデプスセンサの俯角、ロール角、及び高さと、前記距離画像の距離データとに基づいて、前記路面に存在する障害物を検出する検出手段とを備えるので、デプスセンサが距離画像を取得した瞬間におけるデプスセンサの俯角、ロール角、及び高さを推定することができるので、歩行者の走行時にデプスセンサが揺れて俯角、ロール角、及び高さが変動しても、歩行者が歩行する路面における障害物を検出することができる。   An obstacle detection device according to the present invention includes a depth sensor that is attached to a pedestrian and acquires a distance image of a road surface, and a depth sensor that is attached to the pedestrian based on the distance image acquired by the depth sensor. Present on the road surface based on state estimation means for estimating depression angle, roll angle and height, depression angle, roll angle and height of the depth sensor estimated by the state estimation means, and distance data of the distance image And detecting means for detecting obstacles to be able to estimate the depression angle, roll angle, and height of the depth sensor at the moment when the depth sensor acquires the distance image. Even if the roll angle and the height fluctuate, an obstacle on the road surface on which the pedestrian walks can be detected.

実施の形態1に係る障害物検出装置の構成を模式的に示す図である。It is a figure which shows typically the structure of the obstruction detection apparatus which concerns on Embodiment 1. FIG. 上記障害物検出装置の外観を示す図である。It is a figure which shows the external appearance of the said obstacle detection apparatus. 上記障害物検出装置の動作のアルゴリズムを説明するための座標系を示す図である。It is a figure which shows the coordinate system for demonstrating the algorithm of operation | movement of the said obstacle detection apparatus. 上記障害物検出装置に設けられたデプスセンサがデータを取得する対象画面を説明するための模式図である。It is a schematic diagram for demonstrating the target screen from which the depth sensor provided in the said obstacle detection apparatus acquires data. (a)は路面上に障害物及び溝がない場合のデプスセンサの測定データを説明するための図であり、(b)は路面上に障害物がある場合のデプスセンサの測定データを説明するための図であり、(c)は路面上に溝がある場合のデプスセンサの測定データを説明するための図である。(A) is a figure for demonstrating the measurement data of a depth sensor when there is no obstacle and a groove | channel on a road surface, (b) is for demonstrating the measurement data of a depth sensor when an obstacle exists on a road surface. It is a figure, (c) is a figure for demonstrating the measurement data of a depth sensor in case there exists a groove | channel on a road surface. 上記障害物検出装置の運転席から前方の路面に存在する障害物を見た図である。It is the figure which looked at the obstacle which exists in the road surface ahead from the driver's seat of the said obstacle detection apparatus. 図6に示す線L1に沿って路面の高さを推定した結果を示すグラフである。It is a graph which shows the result of having estimated the height of the road surface along line L1 shown in FIG. 図6に示す線L2に沿って路面の高さを推定した結果を示すグラフである。It is a graph which shows the result of having estimated the height of the road surface along line L2 shown in FIG. 実施の形態2に係る障害物検出装置の構成を模式的に示す図である。It is a figure which shows typically the structure of the obstruction detection apparatus which concerns on Embodiment 2. FIG. 実施の形態2に係る障害物検出装置の動作を説明するための図である。FIG. 10 is a diagram for explaining the operation of the obstacle detection device according to the second embodiment. 実施の形態3に係る障害物検出装置の構成を模式的に示す図である。It is a figure which shows typically the structure of the obstruction detection apparatus which concerns on Embodiment 3. FIG. 図11に示す障害物検出装置の使用形態を説明するための図である。It is a figure for demonstrating the usage pattern of the obstruction detection apparatus shown in FIG. 図11に示す障害物検出装置の他の使用形態を説明するための図である。It is a figure for demonstrating the other usage pattern of the obstruction detection apparatus shown in FIG. 直交座標及び極座標におけるデプスセンサが所定のロール角で回転するときの座標系を示す図である。It is a figure which shows a coordinate system when the depth sensor in a rectangular coordinate and a polar coordinate rotates with a predetermined roll angle. 実施の形態4に係る障害物検出装置における障害物検出中の映像を示す図である。It is a figure which shows the image | video in the obstacle detection in the obstacle detection apparatus which concerns on Embodiment 4. FIG. (a)は上記障害物検出装置に設けられたデプスセンサの俯角の推定値の推移を示すグラフであり、(b)は上記デプスセンサのロール角の推定値の遷移を示すグラフであり、(c)は上記デプスセンサの高さの推定値の遷移を示すグラフである。(A) is a graph which shows transition of the estimated value of the depression angle of the depth sensor provided in the said obstacle detection apparatus, (b) is a graph which shows transition of the estimated value of the roll angle of the said depth sensor, (c) These are the graphs which show the transition of the estimated value of the height of the depth sensor. 上記障害物検出装置を適用したスクーターを示す図である。It is a figure which shows the scooter to which the said obstacle detection apparatus is applied.

以下、本発明の実施の形態に係る障害物検出装置について、詳細に説明する。   Hereinafter, the obstacle detection device according to the embodiment of the present invention will be described in detail.

(概要)
シニアカー(老人用電動車)を黄昏時あるいは夜間に走行しようとするとき、前方ライトだけでは特に近いところの視認が困難で、極めて危険な状態になる。そこで、以下の実施の形態では、黄昏時あるいは夜間時の薄暗い状況あるいは真っ暗な状況において、進行方向の路面の危険を検知し、運転者に教えることのできる障害物検出装置を、キネクト(Kinect(登録商標)) センサを使って実現する。
(Overview)
When trying to run a senior car (electric car for the elderly) at twilight or at night, it is difficult to visually recognize a particularly close place with the front light alone, which is extremely dangerous. Therefore, in the following embodiment, an obstacle detection device that can detect the danger of the road surface in the traveling direction and teach the driver in a dim or dark situation at twilight or at night is a Kinect (Kinect ( Registered trademark)) Realized using sensors.

(実施の形態1)
(障害物検出装置1の構成)
図1は、実施の形態1に係る障害物検出装置1の構成を模式的に示す図である。図2は、障害物検出装置1を搭載した移動体(車両)5の外観を示す図である。
(Embodiment 1)
(Configuration of the obstacle detection device 1)
FIG. 1 is a diagram schematically illustrating a configuration of an obstacle detection apparatus 1 according to the first embodiment. FIG. 2 is a diagram illustrating an appearance of a moving body (vehicle) 5 on which the obstacle detection device 1 is mounted.

移動体5は、例えばシニアカーであり、障害物検出装置1を搭載して路面6を走行する。障害物検出装置1は、デプスセンサ2を備えている。デプスセンサ2は、移動体5のハンドル7(図2)の前に設けられた駕籠10(図2)に取り付けられており、路面6の距離画像を取得する。   The moving body 5 is, for example, a senior car, and travels on the road surface 6 with the obstacle detection device 1 mounted thereon. The obstacle detection device 1 includes a depth sensor 2. The depth sensor 2 is attached to a bag 10 (FIG. 2) provided in front of the handle 7 (FIG. 2) of the moving body 5 and acquires a distance image of the road surface 6.

障害物検出装置1には、俯角推定部(角度推定手段)3が設けられている。俯角推定部3は、デプスセンサ2により取得された路面6の距離画像に基づいて、移動体5に取り付けられたデプスセンサ2の水平線9を基準とした俯角αを推定する。俯角推定部3は、非路面上の点の影響を除去する最小二乗法に基づいて誤差を最小化して俯角αを推定する。   The obstacle detection device 1 is provided with a depression angle estimation unit (angle estimation means) 3. The depression angle estimation unit 3 estimates the depression angle α based on the horizontal line 9 of the depth sensor 2 attached to the moving body 5 based on the distance image of the road surface 6 acquired by the depth sensor 2. The depression angle estimation unit 3 estimates the depression angle α by minimizing the error based on the least square method that eliminates the influence of points on the non-road surface.

障害物検出装置1は、検出部4を備えている。検出部4は、俯角推定部3により推定されたデプスセンサ2の俯角αと、デプスセンサ2の路面6からの高さhと、デプスセンサ2により取得された距離画像の距離rとに基づいて、路面6に存在する障害物8を検出する。   The obstacle detection device 1 includes a detection unit 4. Based on the depression angle α of the depth sensor 2 estimated by the depression angle estimation unit 3, the height h of the depth sensor 2 from the road surface 6, and the distance r of the distance image acquired by the depth sensor 2, the detection unit 4. Is detected.

障害物検出装置1には、ディスプレイ11及びスピーカ12が設けられている。ディスプレイ11は、検出部4により検出された障害物8を表す情報を表示する。スピーカ12は、検出部4により検出された障害物8を報知する音または音声を出力する。   The obstacle detection device 1 is provided with a display 11 and a speaker 12. The display 11 displays information representing the obstacle 8 detected by the detection unit 4. The speaker 12 outputs a sound or sound for notifying the obstacle 8 detected by the detection unit 4.

移動体5は、バッテリ13を備えている。バッテリ13は、移動体5が走行するための電力を供給するとともに、デプスセンサ2、俯角推定部3、及び検出部4が動作するための電力を供給する。   The moving body 5 includes a battery 13. The battery 13 supplies power for the moving body 5 to travel, and supplies power for operating the depth sensor 2, the depression angle estimation unit 3, and the detection unit 4.

(デプスセンサ2の特性)
デプスセンサ2は、安価であり、画像だけでなく、距離画像も取得する能力を持っている。しかも、画像と同じ解像度である、640×480 という高解像度を有している。
(Characteristics of depth sensor 2)
The depth sensor 2 is inexpensive and has the ability to acquire not only images but also distance images. Moreover, it has a high resolution of 640 × 480, which is the same resolution as the image.

デプスセンサ2によるデータ取得の間隔は30fps 程度であり、一般的な画像カメラと同等である。また、取得できる距離は5-6m程度である。ただし、デプスセンサ2は昼間の日光には弱く、直射日光が当たっているときは、屋外ではデータ取得はほとんどできない。   The interval of data acquisition by the depth sensor 2 is about 30 fps, which is equivalent to a general image camera. The distance that can be acquired is about 5-6m. However, the depth sensor 2 is weak in daylight, and data cannot be acquired outdoors when exposed to direct sunlight.

以上のようなデプスセンサ2の特性は、シニアカーによる路面障害物の検出という本実施の形態の目的に適合している。すなわち、5-6mという距離画像を取得可能な距離は、歩行者や時速6km以下でしか走行できないシニアカー等には十分であり、暗いときの方が好都合なデプスセンサ2のセンサ特性は、暗くなったときに使えればよいという路面障害物検出の目的に合っている。俯角推定部3及び検出部4はノートPCにより構成することができる。このノートPCは、移動体5から取り外し可能に構成しておけばよいから、既に所有しているPCを必要なときだけ移動体5に取り付けて使用すればよく、ノートPC、PDA(Personal Digital Assistant)、スマートホンなどの携帯型データ処理装置を新たに購入する必要もない。従って、デプスセンサ2を備えた障害物検出装置1の費用は、移動体(シニアカー)のオプションとして、十分安いものといえる。デプスセンサ2は屋内使用という認識が広く行き渡っているけれども、本発明者はデプスセンサ2の上記した特性に着目し、屋外を走行するシニアカーに搭載する障害物検出装置1にデプスセンサ2を適用した。このようなデプスセンサ2の使い方をする発明は例を見ない。   The above-described characteristics of the depth sensor 2 are suitable for the purpose of the present embodiment for detecting road surface obstacles by a senior car. In other words, the distance that can acquire a distance image of 5-6m is sufficient for pedestrians and senior cars that can only run at speeds of 6km / h or less, and the sensor characteristics of the depth sensor 2 that are more convenient in the dark are darker. It suits the purpose of detecting road obstacles that can be used occasionally. The depression angle estimation unit 3 and the detection unit 4 can be configured by a notebook PC. Since this notebook PC can be configured to be removable from the mobile unit 5, it is sufficient to attach an already owned PC to the mobile unit 5 and use it only when necessary. The notebook PC, PDA (Personal Digital Assistant) ), And there is no need to purchase a new portable data processing device such as a smart phone. Therefore, it can be said that the cost of the obstacle detection apparatus 1 provided with the depth sensor 2 is sufficiently low as an option for a mobile body (senior car). Although the depth sensor 2 is widely recognized as being used indoors, the present inventor applied the depth sensor 2 to the obstacle detection device 1 mounted on a senior car traveling outdoors, paying attention to the above-described characteristics of the depth sensor 2. The invention which uses such a depth sensor 2 does not see an example.

(デプスセンサ2の利用方法)
デプスセンサ2は、図2に示すように、移動体5(シニアカー)のハンドル7の前側に設けられた駕籠10の上側に、俯角20-40度程度で固定して取り付ける。これにより、数十cmから数mまでの移動体5の前方の様子を距離画像として取得できる。デプスセンサ2は12Vの直流電源が必要である。これは、移動体5の電源を共用することにより、容易に準備することができる。また、デプスセンサ2により取得した距離画像データを処理するためにはノートパソコンが必要であるが、これも、畳んで駕籠10に入れることで、収納可能である。検知した障害物(物体)の情報を人に伝えるために、7-9インチ程度のモニタディスプレイ11(図1)をハンドル7に取り付ける。障害物8の検知に応じてスピーカ12から音を出すことも可能である。
(How to use depth sensor 2)
As shown in FIG. 2, the depth sensor 2 is fixedly attached to the upper side of the heel 10 provided on the front side of the handle 7 of the movable body 5 (senior car) at a depression angle of about 20-40 degrees. Thereby, the state ahead of the mobile body 5 from several tens cm to several m can be acquired as a distance image. The depth sensor 2 requires a 12V DC power supply. This can be easily prepared by sharing the power source of the mobile unit 5. Moreover, in order to process the distance image data acquired by the depth sensor 2, a notebook personal computer is necessary, but this can also be stored by folding it and putting it in the bag 10. A monitor display 11 (FIG. 1) of about 7-9 inches is attached to the handle 7 in order to convey information on the detected obstacle (object) to a person. A sound can be emitted from the speaker 12 in response to the detection of the obstacle 8.

デプスセンサ2は駕籠10に取り付けた場合、移動体5の走行時に相当揺れるが、1枚の距離画像から障害物8を検知することができるため、揺れても基本的に問題ない。   When the depth sensor 2 is attached to the eaves 10, it shakes considerably when the moving body 5 travels. However, since the obstacle 8 can be detected from one distance image, there is basically no problem even if it shakes.

今、デプスセンサと、特定しているが、本発明はこれに限定されない。一般的に、距離データを面(1次元の線上を走査する1次元レーザスキャナにより取得された線の上の情報ではなく)で捉えることのできるセンサであれば他のセンサでもかまわない。   Although the depth sensor is now specified, the present invention is not limited to this. In general, other sensors may be used as long as they can capture distance data on a plane (not information on a line acquired by a one-dimensional laser scanner that scans a one-dimensional line).

また、1回の走査で一画面分の距離画像データを短時間で取得することができるのであれば、屋外で動いている車両や人といった移動体に取り付けて路面の距離画像を取得して処理することが可能になるから、レーザ走査方式の距離センサを使用してもよい。   If distance image data for one screen can be acquired in a short time by one scan, it is attached to a moving body such as a vehicle or a person moving outdoors to acquire and process a distance image of the road surface. Therefore, a laser scanning type distance sensor may be used.

さらに、障害物検出装置1を移動体5に搭載する例を挙げているが、本発明はこれに限定されない。夜出歩く歩行者の腰に装着するように小型軽量化して構成してもよい。これにより、夜の路面の障害物の有無を歩行者が検知することができるという効果を奏する。   Furthermore, although the example which mounts the obstruction detection apparatus 1 in the mobile body 5 is given, this invention is not limited to this. It may be configured to be small and light so as to be worn on the waist of a pedestrian walking out at night. Thereby, there exists an effect that a pedestrian can detect the presence or absence of the obstruction on the road surface at night.

どの程度の大きさの物体(障害物)が捉えられるかということについては、センサの誤差による。センサにより捉える物体は、移動体5の走行の大きな障害になる物体や段差などを想定している。   How large an object (obstacle) is captured depends on the sensor error. The object captured by the sensor is assumed to be an object or a step that becomes a major obstacle to the traveling of the moving body 5.

本実施の形態に係るアルゴリズムの特徴は、俯角α を、デプスセンサ2により取得される毎回の画面ごとに推定していることである。そのため、このアルゴリズムは、移動体5の走行に応じたデプスセンサ2の揺れに強い。さらに、ハンドル7を切ったときにはデプスセンサ2が傾くが、実施の形態2で後述するように、そのロール角を推定することも可能であり、ハンドル7を切ったときに、進行方向の障害物8を見つけることができる。   A feature of the algorithm according to the present embodiment is that the depression angle α is estimated for each screen acquired by the depth sensor 2. Therefore, this algorithm is strong against the shaking of the depth sensor 2 according to the traveling of the moving body 5. Further, the depth sensor 2 is tilted when the handle 7 is turned. However, as will be described later in Embodiment 2, the roll angle can also be estimated. When the handle 7 is turned, the obstacle 8 in the traveling direction can be estimated. Can be found.

デプスセンサ2は、図2に示すように、駕籠10に取り付けて使う。あるいは、ハンドル7に取り付けることもできる。デプスセンサ2の性質上、あまり低い所に取りつけてデプスセンサ2の視野方向と路面6とのなす角度を鋭角にすると、路面6がうまく検知出来ない。そのため、図2に示す構成の他、移動体5の前部にセンサ専用の取り付け具を装着して、理想の角度にデプスセンサ2を取り付けるという構成も可能である。安全性が立証されれば、シニアカーの構造の一部として車体の中に埋め込めると、さらにスマートな外観になる。俯角推定部3及び検出部4を構成する処理用のPCは、実施の形態1の例では、駕籠10の中に畳んで入れる。なお、歩行者に装着する際には、腰、顔面、頭部その他に、適切な取り付け具を用いて可能な方法で人体に取り付けてもよい。   As shown in FIG. 2, the depth sensor 2 is used by being attached to the cage 10. Alternatively, it can be attached to the handle 7. Due to the nature of the depth sensor 2, if the angle between the viewing direction of the depth sensor 2 and the road surface 6 is set to an acute angle, the road surface 6 cannot be detected well. Therefore, in addition to the configuration shown in FIG. 2, a configuration in which the depth sensor 2 is mounted at an ideal angle by attaching a mounting tool dedicated to the sensor to the front of the moving body 5 is also possible. If safety is proven, it will look smarter when embedded in the body as part of a senior car structure. In the example of the first embodiment, the processing PCs that make up the depression angle estimation unit 3 and the detection unit 4 are folded into the basket 10. In addition, when mounting | wearing a pedestrian, you may attach to a human body by the method which can be used for a waist, a face, a head, etc. using a suitable attachment tool.

(デプスセンサ2の距離画像データの処理方法)
移動体5(シニアカー)の駕籠10などに、路面6までの距離データを面状に測定することができるセンサ(ここでは、デプスセンサ2を想定している)を取り付けることにより、路面6上の障害物8や穴、溝など、移動体5の走行に障害となる凸凹をセンサ1つと処理PC(俯角推定部3及び検出部4)とで検知する。
(Depth Sensor 2 Distance Image Data Processing Method)
By attaching a sensor (here, the depth sensor 2 is assumed) that can measure the distance data to the road surface 6 in a plane, to the eaves 10 of the moving body 5 (senior car), etc. Unevenness that obstructs the traveling of the moving body 5 such as an obstacle 8, a hole, or a groove is detected by one sensor and the processing PC (the depression angle estimation unit 3 and the detection unit 4).

デプスセンサ2は屋内用の仕様であり、屋外では太陽光が直接当たる場所はセンサの特性上データが十分に取得できない可能性があるが、陰があればデータは取得できることから、よほどの悪条件でなければ日向でも使用可能である。また、夕方から夜にかけては屋外であっても屋内と同程度にセンシング能力が高い。特に、センシング能力を高めるために、比較的高い部分(駕籠10の上の方)に、ある程度の俯角(30度程度を想定)を持たせて取り付けることにより、問題なく路面までの距離データを測定することができる。   The depth sensor 2 is designed for indoor use, and there is a possibility that data cannot be acquired sufficiently due to the characteristics of the sensor when exposed to sunlight outdoors. However, if there is a shadow, the data can be acquired. Otherwise, it can be used in Hyuga. From evening to night, the sensing ability is as high as indoors, even outdoors. In particular, in order to enhance the sensing ability, the distance data to the road surface can be obtained without any problems by attaching a certain degree of depression angle (assuming about 30 degrees) to the relatively high part (the upper side of the fence 10). Can be measured.

デプスセンサ2から得られる各格子点(画素)上の位置での路面までの距離は、デプスセンサ2の俯角αが既知であれば、極座標と直交座標との関係から理論的な値は容易に得られる。従って、その理論値と実測値との比較により、その点が路面6上にあるのか、路面6よりも高い点なのか、低い点なのかを判定することができる。   The distance to the road surface at the position on each grid point (pixel) obtained from the depth sensor 2 can be easily obtained from the relationship between polar coordinates and orthogonal coordinates if the depression angle α of the depth sensor 2 is known. . Therefore, by comparing the theoretical value with the actually measured value, it can be determined whether the point is on the road surface 6, a point higher than the road surface 6, or a low point.

但し、移動体5(シニアカー)は走行時にかなり揺れるので、駕籠10に取り付けられているデプスセンサ2自身も揺れることは避けられず、俯角αを既知とすることは困難である。   However, since the moving body 5 (senior car) swings considerably during traveling, it is inevitable that the depth sensor 2 itself attached to the saddle 10 also swings, and it is difficult to make the depression angle α known.

そのため、本実施の形態では、多くの点が路面6上にあることを利用して、ロバストな最小二乗法あるいはRANSACなど、非路面上の点の影響を外す方法を採用することにより、誤差を最小化して俯角αを推定する。俯角αが正確に推定できれば、以下に述べる方法で、路面6の凸凹の状況が検出できる。また、ハンドルを切ってロール角がある場合も、モデルを作成できる。   For this reason, in the present embodiment, by utilizing the fact that many points are on the road surface 6, by adopting a method that removes the influence of points on the non-road surface, such as a robust least square method or RANSAC, the error is eliminated. Minimize and estimate the depression angle α. If the depression angle α can be accurately estimated, the unevenness of the road surface 6 can be detected by the method described below. A model can also be created when the handle is turned and there is a roll angle.

(正面方向に進む場合のアルゴリズム)
図3は、障害物検出装置1の動作のアルゴリズムを説明するための座標系を示す図である。図4は、障害物検出装置1に設けられたデプスセンサ2がデータを取得する対象画面Sを説明するための模式図である。デプスセンサ2は、縦がnV=480ドット(視野角V=43度)、横がnH=640ドット(視野角H=57度)の路面6上の対象画面S上の格子点において距離を得ることのできるセンサである。画面左下を原点ORGとしてみると、縦方向がi=0,… ,nV−1、横方向がj=0, … ,nH−1となる。3次元空間を (x,y,z)とする。また、その空間を極座標(r,θ,φ)で表現する(図3参照)と、下記の(式1)
(Algorithm for moving forward)
FIG. 3 is a diagram showing a coordinate system for explaining an algorithm of operation of the obstacle detection apparatus 1. FIG. 4 is a schematic diagram for explaining the target screen S from which the depth sensor 2 provided in the obstacle detection apparatus 1 acquires data. The depth sensor 2 obtains a distance at a grid point on the target screen S on the road surface 6 with vertical nV = 480 dots (viewing angle V = 43 degrees) and horizontal nH = 640 dots (viewing angle H = 57 degrees). It is a sensor that can. If the lower left corner of the screen is the origin ORG, the vertical direction is i = 0,..., NV-1, and the horizontal direction is j = 0,. Let the three-dimensional space be (x, y, z). When the space is expressed by polar coordinates (r, θ, φ) (see FIG. 3), the following (formula 1)

となる。 It becomes.

今、デプスセンサ2の縦方向の画素が、縦の視野角VをnV−1個に均等に分割しており、同様に、横方向の画素が、横の視野角HをnH−1個に均等に分割していると仮定する。また、デプスセンサ2の高さhはほぼ一定であり、直交座標は路面をz=0とする。   Now, the vertical pixels of the depth sensor 2 equally divide the vertical viewing angle V into nV−1, and similarly, the horizontal pixels equal the horizontal viewing angle H to nH−1. Is divided into In addition, the height h of the depth sensor 2 is substantially constant, and the orthogonal coordinates have a road surface z = 0.

また、進行方向正面をφ=0とする。真上の角度をθ=0、前方をθ=90度とする。このとき、下記の(式2)   The front in the traveling direction is φ = 0. The angle directly above is θ = 0, and the front is θ = 90 degrees. At this time, the following (Formula 2)

となる(図3参照)。俯角はα−90度である。 (See FIG. 3). The depression angle is α-90 degrees.

デプスセンサ2の発光点Lから見た対象画面S上の各画素(i、j)(i=0,… ,nV−1、j=0, … ,nH−1)に対応する点の極座標の角度θi、φiは、下記の(式3)及び(式4)により表される。   Polar coordinate angle of a point corresponding to each pixel (i, j) (i = 0,..., NV−1, j = 0,..., NH−1) on the target screen S viewed from the light emitting point L of the depth sensor 2. θi and φi are expressed by the following (formula 3) and (formula 4).

これらの角度の単位は、度(°) である。   The unit of these angles is degrees (°).

デプスセンサ2は、各画素(i,j)に対応する点と発光点Lとの間の距離rijを観測する機能を持つ。そこで、デプスセンサ2の位置の真下路面を原点とし、センサ位置から路面6までの距離は常に一定値hであることを利用して、(式2)の3列目のz及びrcosθ+hに対応して下記の(式5) The depth sensor 2 has a function of observing the distance r ij between the point corresponding to each pixel (i, j) and the light emitting point L. Therefore, using the fact that the road surface directly below the position of the depth sensor 2 is the origin and the distance from the sensor position to the road surface 6 is always a constant value h, corresponding to z and r cos θ + h in the third column of (Equation 2). The following (Formula 5)

が成り立つはずである。 Should hold.

この関係式(式5)より、俯角αを次の方法で推定する。   From this relational expression (Formula 5), the depression angle α is estimated by the following method.

図5(a)は路面6上に障害物及び溝がない場合のデプスセンサ2の測定データを説明するための図であり、(b)は路面6上に障害物8がある場合のデプスセンサ2の測定データを説明するための図であり、(c)は路面6上に溝14がある場合のデプスセンサ2の測定データを説明するための図である。   FIG. 5A is a diagram for explaining measurement data of the depth sensor 2 when there are no obstacles and grooves on the road surface 6, and FIG. 5B is a diagram of the depth sensor 2 when the obstacle 8 is on the road surface 6. It is a figure for demonstrating measurement data, (c) is a figure for demonstrating the measurement data of the depth sensor 2 in case the groove | channel 14 exists on the road surface 6. FIG.

ある1枚の距離画像において、俯角αは一定であると考えられる(走査方式のレーザセンサの場合、首を振って1枚の距離データを取得するためデータ取得に時間がかかるから、俯角αが一定であるとは言えない)。また、図5(a)に示す路面6の上から反射した点P1においては、zij=0 である。しかし、図5(b)に示すように物体(障害物8)が路面6上にある場合、または、図5(c)に示すように溝14内の点のように路面6よりも低い点から反射した場合は、zijは0に等しくない。俯角αが未知な状態では、どの位置(i,j)においてzijが0に等しくないのかわからない。しかし、路面6は移動体5が走行する道を想定しているので、多くの位置は図5(a)に示すように路面6の上から反射しているはずだから、次のような方法で俯角αは決定できる。 In a single distance image, the depression angle α is considered to be constant (in the case of a scanning laser sensor, since it takes time to acquire one distance data by shaking the head, the depression angle α is It ’s not constant.) Further, at a point P1 reflected from the road surface 6 shown in FIG. 5A, z ij = 0. However, when an object (obstacle 8) is on the road surface 6 as shown in FIG. 5B, or a point lower than the road surface 6 such as a point in the groove 14 as shown in FIG. 5C. Z ij is not equal to 0 when reflected from. When the depression angle α is unknown, it is not known at which position (i, j) z ij is not equal to zero. However, since the road surface 6 is assumed to be a road on which the moving body 5 travels, many positions should be reflected from the top of the road surface 6 as shown in FIG. The depression angle α can be determined.

1.全部の点が路面6の上にあると仮定して、そのまま最も二乗誤差を最小にするような俯角αを数値的に決定する。すなわち、   1. Assuming that all the points are on the road surface 6, the depression angle α that minimizes the square error is determined numerically. That is,

を求める。
2.得られた俯角αを用いて、
Ask for.
2. Using the obtained depression angle α,

を計算し、 Calculate

になるような位置(i,j)を除外して、除外された位置を含まない位置(i, j) の集合Sにおいて、 In a set S of positions (i, j) excluding positions (i, j) such that

を求める。これを、収束するまで繰り返す。 Ask for. This is repeated until convergence.

上記の方法でうまくいかないほど平面(路面6)上の点が少ない場合は、RANSACなど、ロバストなアルゴリズムを適用すればよい。   If the number of points on the plane (road surface 6) is so small that the above method does not work, a robust algorithm such as RANSAC may be applied.

なお、上記1.の俯角αによる最適化は制約条件を伴わないので、黄金分割法など、簡単な1次元探索法の適用が可能である。俯角αは[110度、130度]などの区間において求めればよい。   The above 1. Since the optimization by the depression angle α is not accompanied by a constraint condition, a simple one-dimensional search method such as the golden section method can be applied. The depression angle α may be obtained in a section such as [110 degrees, 130 degrees].

(高さの推定)
得られた俯角αの推定値を用いて(式2)より高さ方向のzijの推定値が得られる。また、xij,yij(障害物8、溝14の路面6上の平面位置)も同時に推定することができる。そのため、高さがあるもの(障害物8)または、溝14の正確な平面位置が分かる。
(Estimation of height)
Using the obtained estimated value of the depression angle α, an estimated value of z ij in the height direction is obtained from (Equation 2). In addition, x ij , y ij (obstruction 8, plane position of the groove 14 on the road surface 6) can be estimated at the same time. Therefore, the height (obstacle 8) or the exact planar position of the groove 14 can be known.

(路面高さ推定実験結果)
図6は、障害物検出装置1の運転席から前方の路面6に存在する障害物8を見た図である。図7は、図6に示す線L1に沿って平行に路面6の高さを複数本推定した結果を示すグラフである。横軸はデプスセンサ2により取得された距離画像の縦方向に沿った画素番号を示しており、横軸の右側が図4における手前側、即ち、距離画像の下側を表しており、左側は図4における遠方側、即ち、距離画像の上側を表している。縦軸は路面6からの高さを示している。
(Road height estimation experiment results)
FIG. 6 is a view of the obstacle 8 existing on the road surface 6 ahead from the driver's seat of the obstacle detection apparatus 1. FIG. 7 is a graph showing a result of estimating a plurality of heights of the road surface 6 in parallel along the line L1 shown in FIG. The horizontal axis indicates the pixel number along the vertical direction of the distance image acquired by the depth sensor 2, the right side of the horizontal axis indicates the near side in FIG. 4, that is, the lower side of the distance image, and the left side is the figure. 4 represents the far side, that is, the upper side of the distance image. The vertical axis indicates the height from the road surface 6.

図7における線C1において、高さ680mmの左端の部分はデータが欠損している部分であり、除外できる。これらの点を除去すると、画素番号1〜約90、及び画素番号約160〜480に対応する路面6からの高さはほぼゼロである。そして、画素番号約160から画素番号約100に向かって路面6からの高さが増大し、画素番号約100〜約90に対応する高さは約200mmとなっている。   In the line C1 in FIG. 7, the left end portion having a height of 680 mm is a portion where data is missing and can be excluded. When these points are removed, the height from the road surface 6 corresponding to the pixel numbers 1 to 90 and the pixel numbers 160 to 480 is substantially zero. The height from the road surface 6 increases from the pixel number of about 160 to the pixel number of about 100, and the height corresponding to the pixel numbers of about 100 to about 90 is about 200 mm.

画素番号約160〜約100の高さの増大は、デプスセンサ2からの赤外線が障害物8のデプスセンサ2側の側面15(図5(b))により反射されたためと考えられる。そして、画素番号約100〜約90の高さ200は、デプスセンサ2からの赤外線が高さ200mmの障害物8の上面16(図5(b))により反射されたためと考えられる。このように、画素番号に対応する路面6からの高さを検出することにより、障害物8を検知することができる。   The increase in the height of the pixel numbers of about 160 to about 100 is considered because the infrared rays from the depth sensor 2 are reflected by the side surface 15 (FIG. 5B) on the depth sensor 2 side of the obstacle 8. The height 200 of the pixel numbers of about 100 to about 90 is considered to be because the infrared rays from the depth sensor 2 are reflected by the upper surface 16 (FIG. 5B) of the obstacle 8 having a height of 200 mm. Thus, the obstacle 8 can be detected by detecting the height from the road surface 6 corresponding to the pixel number.

図8は、図6に示す線L2に沿って障害物8の近辺で複数本のラインに沿って路面6の高さを推定した結果を示すグラフである。横軸はデプスセンサ2により取得された距離画像の横方向に沿った画素番号を示しており、横軸の右側が図4における右側、即ち、距離画像の右側を表しており、左側は図4における左側、即ち、距離画像の左側を表している。縦軸は路面6からの高さを示している。   FIG. 8 is a graph showing a result of estimating the height of the road surface 6 along a plurality of lines in the vicinity of the obstacle 8 along the line L2 shown in FIG. The horizontal axis indicates the pixel number along the horizontal direction of the distance image acquired by the depth sensor 2, the right side of the horizontal axis represents the right side in FIG. 4, that is, the right side of the distance image, and the left side in FIG. The left side, that is, the left side of the distance image is shown. The vertical axis indicates the height from the road surface 6.

図8における線C2に示すように、高さ680と表示された部分は欠損データなので、これらを除去すると、画素番号1〜約350、及び画素番号約420〜640に対応する路面6からの高さは、俯角が最適化されておらず、少しドリフトが残っているが、これが水平になるような俯角を前述したように推定することができる。そして、画素番号約350から画素番号約420に対応する路面6からの高さは約200mmとなっており、路面6上の点とは明確に区別可能である。   As indicated by line C2 in FIG. 8, the portion displayed as height 680 is missing data. Therefore, if these are removed, the height from the road surface 6 corresponding to pixel numbers 1 to 350 and pixel numbers 420 to 640 is removed. The depression angle is not optimized and a little drift remains, but the depression angle at which the depression angle becomes horizontal can be estimated as described above. The height from the road surface 6 corresponding to the pixel number from about 350 to about 420 is about 200 mm, and can be clearly distinguished from the points on the road surface 6.

画素番号約350〜約420の高さ200は、デプスセンサ2からの赤外線が高さ200mmの障害物8の上面16(図5(b))により反射されたためと考えられる。このように、画素番号に対応する路面6からの高さを検出することにより、障害物8を検知することができる。   The height 200 of the pixel numbers of about 350 to about 420 is considered to be because the infrared rays from the depth sensor 2 were reflected by the upper surface 16 (FIG. 5B) of the obstacle 8 having a height of 200 mm. Thus, the obstacle 8 can be detected by detecting the height from the road surface 6 corresponding to the pixel number.

(実施の形態の効果)
本実施の形態の手法によれば、距離データを取得できるセンサを使うので、より安定的に距離を測定することができ、しかも、移動体5が静止している状態で路面6の凸凹の部分を検出することができる。
(Effect of embodiment)
According to the method of the present embodiment, since a sensor capable of acquiring distance data is used, the distance can be measured more stably, and the uneven portion of the road surface 6 while the moving body 5 is stationary. Can be detected.

また、移動体5(シニアカー)に装着できるように、デプスセンサ2の電源をシニアカー本体から取得することもできるし、電源ケーブルが不要なセンサもある。また、ディスプレイ11をハンドル7に装着することで、処理用パソコン(俯角推定部3及び検出部4)を畳んだ状態で障害物8の検知情報を移動体5の利用者に伝達することができる。あるいは、スピーカ12からの音などによる伝達方法も可能である。   Moreover, the power source of the depth sensor 2 can be acquired from the senior car body so that it can be attached to the moving body 5 (senior car), and there are sensors that do not require a power cable. In addition, by attaching the display 11 to the handle 7, the detection information of the obstacle 8 can be transmitted to the user of the moving body 5 in a state in which the processing personal computer (the depression angle estimation unit 3 and the detection unit 4) is folded. . Alternatively, a transmission method using sound from the speaker 12 is also possible.

デプスセンサ2に必要な電源(直流12V)を、移動体5(シニアカー)のバッテリ13から直接供給することができると、デプスセンサ2専用の新たなバッテリを置く必要がなくなり、デプスセンサ2の移動体5への実装がより現実的になる。   When the power (DC 12V) necessary for the depth sensor 2 can be directly supplied from the battery 13 of the mobile body 5 (senior car), it is not necessary to place a new battery dedicated to the depth sensor 2, and the mobile body 5 of the depth sensor 2 is no longer required. Implementation becomes more realistic.

さらに、上述の俯角推定部3及び検出部4などをノートPCにより構成する例のように、障害物検出装置1が、バッテリーを内蔵し電力供給インターフェース(例えば、ユニバーサル・シリアル・バス(USB;Universal Serial Bus)など)を有しているノートPCなどを備えている場合には、デプスセンサ2は、当該ノートPCなどから電力の供給を受けてもよい。なお、このような構成に限定されるわけではなく、上記インターフェースを介して、デプスセンサ2から当該ノートPCへ、測定した画像や距離などのデータを受け渡してもよい。   Further, as in the example in which the depression angle estimation unit 3 and the detection unit 4 are configured by a notebook PC, the obstacle detection device 1 includes a battery and a power supply interface (for example, a universal serial bus (USB; Universal) In the case where a notebook PC having a serial bus) is provided, the depth sensor 2 may receive power from the notebook PC. Note that the present invention is not limited to such a configuration, and data such as measured images and distances may be transferred from the depth sensor 2 to the notebook PC via the interface.

(変形例)
なお、移動体5がシニアカーである例を示したが、本発明はこれに限定されない。移動体5は、例えば、倉庫等の環境で作業する無人の移動ロボットであってもよい。全面的に直射日光があたるところばかりの環境でない限り無人の移動ロボットに本発明を適用することができ、移動ロボットが床面の障害物や溝を検出することができるという効果を奏する。ここで、「全面的に直射日光があたるところばかりの環境」とは、検出対象の障害物などの全面が日光に照らされ、当該障害物の陰が全くできない環境を意味する。例えば、全面的に直射日光があたるばかりであっても、当該日光に照らされる障害物などの陰が存在する環境は、「全面的に直射日光があたるところばかりの環境」ではない。上述のように、当該陰が存在する環境において、障害物検出装置1は距離データを測定可能である。
(Modification)
In addition, although the example which the mobile body 5 is a senior car was shown, this invention is not limited to this. The mobile body 5 may be, for example, an unmanned mobile robot that works in an environment such as a warehouse. The present invention can be applied to an unmanned mobile robot unless the environment is entirely exposed to direct sunlight, and the mobile robot can detect obstacles and grooves on the floor surface. Here, the “environment where the entire area is directly exposed to direct sunlight” means an environment where the entire surface of the obstacle to be detected is illuminated by sunlight and cannot be shaded at all. For example, even if the entire area is directly exposed to direct sunlight, the environment where there is an obstacle such as an obstacle illuminated by the sunlight is not an “environment where the entire area is directly exposed to direct sunlight”. As described above, the obstacle detection device 1 can measure the distance data in an environment where the shade exists.

本手法はシニアカーに限らず、歩行者手押しのシルバーカー、電動車いす、自転車等にも応用することが可能である。また、視覚等に障害を持つ人に対しても、聴覚など、何らかの伝達手段があれば歩行時の危険検知サポートに利用することが可能である。デプスセンサ2やデータ処理装置がさらに小型化すると、応用範囲は一層広がると考えられる。   This method can be applied not only to senior cars but also to pedestrian-controlled silver cars, electric wheelchairs, bicycles, and the like. In addition, even for people with visual disabilities, if there is some kind of transmission means such as hearing, it can be used for danger detection support during walking. As the depth sensor 2 and the data processing device are further reduced in size, the application range is expected to further expand.

(実施の形態2)
(ハンドルを傾けることがある場合のアルゴリズム)
図9は、実施の形態2に係る障害物検出装置1aの構成を模式的に示す図である。図1で説明した構成要素と同一の構成要素には同一の参照符号を付している。これらの構成要素の詳細な説明は繰り返さない。
(Embodiment 2)
(Algorithm when the handle may be tilted)
FIG. 9 is a diagram schematically illustrating the configuration of the obstacle detection apparatus 1a according to the second embodiment. The same components as those described in FIG. 1 are denoted by the same reference numerals. Detailed description of these components will not be repeated.

実施の形態2に係る障害物検出装置1aは、実施の形態1の障害物検出装置1の俯角推定部3の代わりに俯角・ロール角推定部(角度推定手段)17を備えている。障害物検出装置1aのその他の構成は、障害物検出装置1と同様である。俯角・ロール角推定部17は、ハンドル7(図2)の回転に応じて、デプスセンサ2の俯角、及びハンドル7の回転に応じて生じるデプスセンサ2のロール角を推定する。   The obstacle detection device 1a according to the second embodiment includes a depression angle / roll angle estimation unit (angle estimation means) 17 instead of the depression angle estimation unit 3 of the obstacle detection device 1 according to the first embodiment. The other configuration of the obstacle detection apparatus 1a is the same as that of the obstacle detection apparatus 1. The depression angle / roll angle estimation unit 17 estimates the depression angle of the depth sensor 2 and the roll angle of the depth sensor 2 generated according to the rotation of the handle 7 according to the rotation of the handle 7 (FIG. 2).

図10は、実施の形態2に係る障害物検出装置1aの動作を説明するための図である。次に、ハンドル7を回転した場合への対応を考える。   FIG. 10 is a diagram for explaining the operation of the obstacle detection apparatus 1a according to the second embodiment. Next, consideration will be given to the case where the handle 7 is rotated.

シニアカーをはじめとして、通常の乗り物はハンドル7の回転軸は鉛直ではなく上に上がるにつれて運転者とから見て遠くから手前の方向に傾いている。このため、図10に示すように、ハンドル7を回転したときに、駕籠に取り付けられたデプスセンサ2は斜めに傾く。即ち、ハンドル7を回転した後のデプスセンサ2は、ハンドル7の回転とともに回転して回転後の正面方向を向くx軸の周りに回転後のy−z平面内においてロール角ψほど回転した状態になっており、俯角も同時に変化していると見ることができる。
そこで、上記回転により生じるロール角をψとおいて、座標(x,y,z)は座標軸を回転したときの値に変換される。まず、回転がない場合は、
In general vehicles such as senior cars, the rotational axis of the steering wheel 7 is inclined not far from the vertical but toward the near side as viewed from the driver as it goes up. For this reason, as shown in FIG. 10, when the handle 7 is rotated, the depth sensor 2 attached to the heel is inclined obliquely. That is, the depth sensor 2 after rotating the handle 7 is rotated about the roll angle ψ in the yz plane after rotating around the x axis that rotates with the rotation of the handle 7 and faces the front direction after the rotation. It can be seen that the depression angle is changing at the same time.
Therefore, with the roll angle generated by the rotation as ψ, the coordinates (x, y, z) are converted into values when the coordinate axes are rotated. First, if there is no rotation,

さらに、センサー位置で回転する場合、 Furthermore, when rotating at the sensor position,

これより、zがhに近い値になるような最適化問題を設定すると、 From this, when setting an optimization problem such that z is close to h,

ここに、 here,

である。また、ハンドルを切ったときに傾く角度は物理的に制約されており、 It is. Also, the angle that tilts when the handle is turned is physically restricted,

程度である。
また、俯角αについても、取り付けた角度を基準としてせいぜい±15度程度の範囲で推移することから、制約条件付きの最小化問題として解くことができる。
Degree.
Also, the depression angle α can be solved as a minimization problem with a constraint condition because it changes within a range of about ± 15 degrees at most with respect to the attached angle.

注意すべきことは、この座標系はデプスセンサ2の位置の真下の路面を原点としているため、センサが傾いて高さが変化する(低くなる)ことを考慮に入れる必要がある点である。最大に回転させると、約3cmほどセンサの位置が低くなる。誤差の範囲と考えることもできるが、厳密な値を計算しようとすれば、hをψの関数h(ψ)とおき、あらかじめψに対してhがどう変化するか実験的に求めておき、表などにして値を持たせておけばよい。   It should be noted that since this coordinate system has a road surface immediately below the position of the depth sensor 2 as an origin, it is necessary to take into account that the sensor is inclined and the height changes (becomes lower). When rotated to the maximum, the sensor position is lowered by about 3 cm. Although it can be considered as an error range, if an exact value is to be calculated, h is set as a function h (ψ) of ψ, and an experiment is made in advance to determine how h changes with respect to ψ. You can give it a value such as a table.

(式12)で示される最適化問題を数値的に解くアルゴリズムは、一般に非線形最小化問題として多くの種類があり、特定のアルゴリズムに限定して使う必要はない。   Algorithms that numerically solve the optimization problem represented by (Equation 12) generally have many types as nonlinear minimization problems, and need not be limited to a specific algorithm.

(高さの推定)
得られたロール角ψの推定値を用いて(式11)よりハンドル7を回転した場合の高さ方向の推定値zijが得られる。また、xij,yij(障害物8、溝14の路面6上の平面位置)も同時に推定することができる。そのため、ハンドル7を回転した場合に、高さがあるもの(障害物8)または、溝14の正確な平面位置が分かる。
(Estimation of height)
An estimated value z ij in the height direction when the handle 7 is rotated is obtained from (Equation 11) using the obtained estimated value of the roll angle ψ. In addition, x ij , y ij (obstruction 8, plane position of the groove 14 on the road surface 6) can be estimated at the same time. Therefore, when the handle 7 is rotated, the height (obstacle 8) or the exact planar position of the groove 14 can be known.

(実施の形態3)
上述の実施の形態、図で説明した構成要素と同一の構成要素には同一の参照符号を付している。これらの構成要素の詳細な説明は繰り返さない。
(Embodiment 3)
The same reference numerals are given to the same components as those described in the above-described embodiment and drawings. Detailed description of these components will not be repeated.

上述の実施の形態1、2とは異なり、本実施の形態に係るアルゴリズムでは、俯角α、ロール角ψ、及び高さhを、デプスセンサ2により取得される毎回の画面の距離データごとに推定していることである。そのため、このアルゴリズムは、移動体5の走行または歩行に応じたデプスセンサ2の揺れ(路面が悪い場合などに生じる)、ロール角の変化(ハンドルを切ったり体が傾いたりするときに生じる)、高さの変化(歩行などの際に生じる)に強い。   Unlike the above-described first and second embodiments, the algorithm according to the present embodiment estimates the depression angle α, roll angle ψ, and height h for each screen distance data acquired by the depth sensor 2. It is that. For this reason, this algorithm is based on the movement of the moving body 5 or walking of the depth sensor 2 (occurs when the road surface is bad), changes in the roll angle (occurs when the steering wheel is turned or the body tilts), high Resistant to changes in height (occurs when walking, etc.).

(障害物検出装置1bの構成)
図11は、実施の形態3に係る障害物検出装置1bの構成を模式的に示す図である。図11に示すように、障害物検出装置1bは、俯角・ロール角・高さ推定部(状態推定手段)17aを備える点が、他の実施の形態とは異なっている。
(Configuration of the obstacle detection device 1b)
FIG. 11 is a diagram schematically illustrating the configuration of the obstacle detection apparatus 1b according to the third embodiment. As shown in FIG. 11, the obstacle detection apparatus 1b is different from the other embodiments in that it includes a depression angle / roll angle / height estimation unit (state estimation means) 17a.

図12は、図11に示す障害物検出装置1bの使用形態を説明するための図である。図12に示すように、障害物検出装置1bでは、歩行者5aの腰部50にデプスセンサ2が取り付けられている。ここで、歩行者5aは、上述の実施の形態における移動体5に対応している。移動体5を例えば車両とした場合と比較すると、移動体5を歩行者5aとして、歩行者5aにデプスセンサ2を取り付けた場合には、図11に示す高さhなどが比較的大きく変化する。しかしながら、後述する本実施の形態のアルゴリズムは高さhなどの変化に強いため、障害物検出装置1bは正確に障害物を検出できる。   FIG. 12 is a diagram for explaining a usage pattern of the obstacle detection apparatus 1b shown in FIG. As shown in FIG. 12, in the obstacle detection apparatus 1b, the depth sensor 2 is attached to the waist 50 of the pedestrian 5a. Here, the pedestrian 5a corresponds to the moving body 5 in the above-described embodiment. For example, when the moving body 5 is a pedestrian 5a and the depth sensor 2 is attached to the pedestrian 5a, the height h shown in FIG. However, since the algorithm of the present embodiment described later is resistant to changes such as the height h, the obstacle detection apparatus 1b can accurately detect the obstacle.

また、デプスセンサ2は、接続ケーブル31を介して、図12中に20で示すノートPCに接続されている。当該ノートPCは図11中に20で示す部位に対応しており、バッテリ13、ディスプレイ11、スピーカ12、検出部4、及び俯角・ロール角・高さ推定部17aに対応する構成を備えている。このような構成により、ノートPC20は、デプスセンサ2がセンシングした情報を受けて、俯角、ロール角、及び高さの推定を行い、障害物を検出し、ディスプレイ11やスピーカ12に対応する構成から検出結果を歩行者5aに提示することができる。   Further, the depth sensor 2 is connected to a notebook PC indicated by 20 in FIG. The notebook PC corresponds to the portion indicated by 20 in FIG. 11, and has a configuration corresponding to the battery 13, the display 11, the speaker 12, the detection unit 4, and the depression angle / roll angle / height estimation unit 17a. . With such a configuration, the notebook PC 20 receives the information sensed by the depth sensor 2, estimates the depression angle, roll angle, and height, detects an obstacle, and detects from the configuration corresponding to the display 11 and the speaker 12. The result can be presented to the pedestrian 5a.

なお、図12では、歩行者5aの腰部50に1つのデプスセンサ2を取り付けた例を示しているが、この構成に限定されるわけではなく、例えば歩行者5aの足部、胸部、腕部、肩部、頭部、背中などにデプスセンサ2を取り付けてもよいし、複数の障害物検出装置1bを複数の異なる箇所に取り付けてもよい。また、障害物検出装置1bは、複数のデプスセンサ2を備えていてもよい。   In addition, in FIG. 12, although the example which attached one depth sensor 2 to the waist | hip | lumbar part 50 of the pedestrian 5a is shown, it is not necessarily limited to this structure, For example, a leg part, a chest part, an arm part of the pedestrian 5a, The depth sensor 2 may be attached to the shoulder, head, back, or the like, or a plurality of obstacle detection devices 1b may be attached to a plurality of different locations. The obstacle detection device 1b may include a plurality of depth sensors 2.

また、デプスセンサ2は、図11における俯角αが20−40度程度になるように取り付けられることが好ましい。障害物検出に好適な俯角αを保ちつつ、人を含めた移動体の所望の部位にデプスセンサ2を取り付けるためには、デプスセンサ2は小型であることが好ましい。しかしながら、このような構成に限定されるわけではなく、障害物検出に好適な俯角αを確保できるのであれば、障害物検出装置1bは、デプスセンサ2の位置を安定させるための取り付け用品やジャイロなどを利用した動的な姿勢安定制御機構など備えていてもよい。   Moreover, it is preferable that the depth sensor 2 is attached so that the depression angle α in FIG. 11 is about 20-40 degrees. In order to attach the depth sensor 2 to a desired part of a moving body including a person while maintaining a depression angle α suitable for obstacle detection, the depth sensor 2 is preferably small. However, the present invention is not limited to such a configuration, and if the depression angle α suitable for obstacle detection can be ensured, the obstacle detection device 1b may be an attachment or gyroscope for stabilizing the position of the depth sensor 2. A dynamic posture stabilization control mechanism using the above may be provided.

また、図12では、デプスセンサ2及びノート側パーソナルコンピュータを利用する構成を示したが、この構成に限定されるわけではない。例えば、デプスセンサ2及び図11に示すノートPC20を1つの装置に実装してもよい。デプスセンサ2などは小型化することが可能であり、例えば1台のスマートホンに、障害物検出装置1bが必要とする構成をすべて実装してもよい。   FIG. 12 shows the configuration using the depth sensor 2 and the notebook personal computer. However, the configuration is not limited to this configuration. For example, the depth sensor 2 and the notebook PC 20 shown in FIG. 11 may be mounted on one device. The depth sensor 2 and the like can be reduced in size. For example, all the configurations required by the obstacle detection device 1b may be mounted on one smart phone.

図13は、図11に示す障害物検出装置1bの他の使用形態を説明するための図である。図13に示すように、障害物検出装置1bでは、デプスセンサ2が図12に示す例と同様に歩行者5aの腰部50に取り付けられている。そして、図12に示すノートPC20を鞄10aの中に入れて、接続ケーブル32を介して、音声により障害物検出結果を歩行者5aが受け取っている。この構成により、便利に携帯可能な障害物検出装置1bを提供することができる。また、検出結果を音声などにより利用者が受け取る構成とすることにより、例えば目が不自由な利用者に対しても、障害物検出結果を提供することができる。障害物検出装置1bの検出結果の出力方法は音声に限定されるわけではなく、障害物検出装置1bは振動などにより検出結果を出力してもよい。   FIG. 13 is a diagram for explaining another usage pattern of the obstacle detection apparatus 1b shown in FIG. As shown in FIG. 13, in the obstacle detection apparatus 1b, the depth sensor 2 is attached to the waist 50 of the pedestrian 5a as in the example shown in FIG. Then, the notebook PC 20 shown in FIG. 12 is put in the bag 10a, and the pedestrian 5a receives the obstacle detection result by voice through the connection cable 32. With this configuration, the obstacle detection device 1b that can be conveniently carried can be provided. Further, by adopting a configuration in which the user receives the detection result by voice or the like, for example, the obstacle detection result can be provided to a user who is blind. The output method of the detection result of the obstacle detection device 1b is not limited to voice, and the obstacle detection device 1b may output the detection result by vibration or the like.

(俯角α、ロール角ψ、高さhの推定)
デプスセンサ2から得られる各格子点(画素)上の位置での路面までの距離は、デプスセンサ2の俯角α、ロール角ψ、高さhが既知であれば、極座標と直交座標との関係から理論的な値は容易に得られる。従って、その理論値と実測値との比較により、その点が路面6上にあるのか、路面6よりも高い点なのか、低い点なのかを判定することができる。
(Estimation of depression angle α, roll angle ψ, height h)
The distance to the road surface at the position on each lattice point (pixel) obtained from the depth sensor 2 is theoretical from the relationship between polar coordinates and orthogonal coordinates if the depression angle α, roll angle ψ, and height h of the depth sensor 2 are known. A typical value is easily obtained. Therefore, by comparing the theoretical value with the actually measured value, it can be determined whether the point is on the road surface 6, a point higher than the road surface 6, or a low point.

但し、移動体5(シニアカ―)は移動時にかなり揺れるので、駕籠10に取り付けられているデプスセンサ2自身も揺れることは避けられず、俯角αを既知とすることは困難である。歩行者の場合は、あらゆるα、ψ、hがいずれも不安定であり、一定とは言えない。   However, since the moving body 5 (senior car) swings considerably during movement, it is inevitable that the depth sensor 2 itself attached to the heel 10 also sways, and it is difficult to make the depression angle α known. In the case of a pedestrian, all α, ψ, and h are all unstable and cannot be said to be constant.

そのため、本実施の形態では、多くの点が路面6上にあることを利用して、ロバストな最小二乗法あるいはRANSACなど、非路面上の点と思われる部分の影響を外す方法を採用することにより、実測値から得られる高さ推定値と路面高さ(0に設定することができる)との誤差を未知変数α、ψ、hにより最小化することでこれらの値を推定(更新)する。当該推定方法を、本明細書では「最適化を用いた推定方法」と称する。推定された値を適用することで、上述の方法で、路面6の凸凹の状況が検出できる。   Therefore, in the present embodiment, a method of removing the influence of a portion considered to be a point on a non-road surface, such as a robust least square method or RANSAC, is used by utilizing the fact that many points are on the road surface 6. Thus, these values are estimated (updated) by minimizing the error between the estimated height obtained from the actual measurement value and the road surface height (can be set to 0) by the unknown variables α, ψ, and h. . This estimation method is referred to as “estimation method using optimization” in this specification. By applying the estimated value, the uneven state of the road surface 6 can be detected by the method described above.

(極座標系と直交座標系の関係)
図14は、直交座標及び極座標におけるデプスセンサがロール角ψで回転するときの状況を示す図である。格子点において観測される距離データの中で、rijを縦i番目、横j番目の位置の距離の値とする。このとき、直交座標と極座標の間の関係は、次式により表現できる。ここで、kは離散時刻を表す整数である。
(Relationship between polar coordinate system and Cartesian coordinate system)
FIG. 14 is a diagram illustrating a situation when the depth sensor in the orthogonal coordinates and the polar coordinates rotates at the roll angle ψ. In the distance data observed at the lattice points, r ij is the distance value at the i-th vertical and j-th horizontal positions. At this time, the relationship between orthogonal coordinates and polar coordinates can be expressed by the following equation. Here, k is an integer representing a discrete time.

直交座標系はセンサの真下の地面の位置を原点と置いている。極座標は、センサの位置を原点としている。そのため、その間には高さ分のバイアスがある。また、R(ψ(k))はx軸周りの回転である。つまり、R(ψ(k))は次式により表現できる。 The Cartesian coordinate system uses the position of the ground directly below the sensor as the origin. Polar coordinates have the sensor position as the origin. Therefore, there is a height bias between them. R x (ψ (k)) is rotation around the x axis. That is, R x (ψ (k)) can be expressed by the following equation.

(最適化を用いた推定方法)
当該推定方法のアルゴリズムは、実施の形態2にて上述の「ハンドルを傾けることがある場合のアルゴリズム」を拡張したアルゴリズムである。
(Estimation method using optimization)
The estimation method algorithm is an extension of the above-described “algorithm when the steering wheel is tilted” in the second embodiment.

高さzijの値を上の(式13)より抜き出し、次式のように表現できる。 The value of height z ij is extracted from the above (formula 13) and can be expressed as the following formula.

もし点i、jが路面上にあれば、次式のようにzijは、概ね0になる。 If the points i and j are on the road surface, z ij is approximately 0 as shown in the following equation.

そして、路面上の点の集合をGとすると、これらの点ではほとんど0のはずなので、0との誤差の二乗和を最小にするように、(式12)においてhも推定対象の未知変数として扱い、次式に従ってα、ψ、hを推定する。   If the set of points on the road surface is G, these points should be almost 0. Therefore, in order to minimize the sum of squares of errors from 0, h is also set as an unknown variable to be estimated in (Equation 12). And α, ψ, and h are estimated according to the following equations.

路面上の集合Gとすると、これらの点ではほとんど0のはずなので、0との誤差の二乗和を最小にするように未知パラメータα、ψ、hを選ぶことにより、正しい姿勢を表す未知パラメータα、ψ、hが求まる。しかし、ここで集合Gにどの点が含まれるべきなのかはわかっていない。ここで、サンプリングの周期に比べて姿勢の変化は緩やかであるという仮定をすると、姿勢の推定値は、直前の推定値の近傍にあると考えることができ、次のステップ1〜4を含む、繰り返しのアルゴリズムが有効である。   Since the set G on the road surface should be almost zero at these points, the unknown parameter α representing the correct posture is selected by selecting the unknown parameters α, ψ, and h so as to minimize the sum of squares of the error from 0. , Ψ, h are obtained. However, it is not known which points should be included in the set G here. Here, assuming that the change in posture is gentle compared to the sampling period, the estimated value of the posture can be considered to be in the vicinity of the immediately preceding estimated value, and includes the following steps 1 to 4. An iterative algorithm is effective.

ステップ1.未知パラメータα、ψ、hを初期値にセットする。   Step 1. Unknown parameters α, ψ, and h are set to initial values.

ステップ2.仮定されたパラメータの値、あるいは前回のパラメータ推定値に基づき、(式15)を計算し、zij(k)がほぼ0であるような点(i,j)の集合をGとする。 Step 2. Based on the assumed parameter value or the previous parameter estimation value, (Equation 15) is calculated, and a set of points (i, j) at which z ij (k) is almost 0 is defined as G.

ステップ3.上記のように求められたGによって、(式16)で表す最小化問題を解き、未知パラメータの推定値を更新する。この最小化問題は、さまざまな数理的アルゴリズムが使えるが、計算時間を小さくしなければならないことから、2階微分情報であるヘッセ行列を用い、収束の速いニュートン法を1回ずつ適用する方法を採るなどの工夫をすることが望ましい。   Step 3. The G obtained as described above is used to solve the minimization problem represented by (Equation 16) and update the estimated value of the unknown parameter. For this minimization problem, various mathematical algorithms can be used. However, since the calculation time must be reduced, a method of applying the fast convergence Newton method once by using the Hessian matrix which is second order differential information is used. It is desirable to devise such as adopting.

ステップ4.ステップ2に戻る。   Step 4. Return to step 2.

(実施の形態4)
上述の実施の形態、図で説明した構成要素と同一の構成要素には同一の参照符号を付している。これらの構成要素の詳細な説明は繰り返さない。
(Embodiment 4)
The same reference numerals are given to the same components as those described in the above-described embodiment and drawings. Detailed description of these components will not be repeated.

実施の形態3では、最適化を用いた推定方法により、3つの未知パラメータである俯角α、ロール角ψ、高さhを推定した。しかしながら、実施の形態3の方法では、後述するように俯角α、ロール角ψ、高さhの遷移速度などを考慮していない。しかしながら、未知パラメータの推定方法については、これらの値を確率変数としてとらえ、動的モデルを設定することにより、拡張カルマンフィルタや粒子フィルタなどの非線形フィルタを用いて推定するなど、様々な推定理論によるアプローチが可能である。そこで、当該推定方法を、本明細書では状態空間モデルを用いた推定方法と称し、以下で説明する。   In Embodiment 3, the depression angle α, the roll angle ψ, and the height h, which are three unknown parameters, are estimated by an estimation method using optimization. However, the method of the third embodiment does not consider the depression angle α, the roll angle ψ, the transition speed of the height h, and the like as will be described later. However, as for unknown parameter estimation methods, these values are regarded as random variables, and dynamic models are set to estimate using nonlinear filters such as extended Kalman filter and particle filter. Is possible. Therefore, this estimation method is referred to as an estimation method using a state space model in this specification, and will be described below.

(状態空間モデルを用いた推定方法)
(状態ベクトルと動的モデル)
状態変数ベクトルをqを次式のように設定する。
(Estimation method using state space model)
(State vector and dynamic model)
The state variable vector is set to q as follows:

状態変数は、以下のランダムウォークモデルにより変化するものとする。このモデルは、センサを取り付けた人などの動体の姿勢が時間変化するモデルである。   The state variable is assumed to change according to the following random walk model. This model is a model in which the posture of a moving object such as a person with a sensor is changed over time.

ここで、δklはKroneckerのデルタである。つまり、これら3つの未知数は、互いに無相関で、時間的にも無相関であるとする。qα、qψ、qはそれらの分散である。サンプリング時間の長さによって、変化していく単位時間あたりの大きさが決まる。たとえば人に装着した場合、歩いて行くときの、数十ミリ秒の間に、どれだけ前傾の角度が変化するか、どれだけ体が傾くか、どれだけ高さが変化するかというものを確率変数として表現しており、物理的に考察することによっておおよそ値が設定できる。 Where δ kl is the Kronecker delta. That is, it is assumed that these three unknowns are uncorrelated with each other and uncorrelated in time. q α , q ψ , and q h are their variances. The size per unit time that changes is determined by the length of the sampling time. For example, when worn on a person, how much the forward tilt angle changes, how much the body tilts, how much the height changes in tens of milliseconds when walking. It is expressed as a random variable, and the value can be set roughly by physically considering it.

(観測モデル)
観測モデルは、路面上の点を観測している場合の式を導出し、その式から推定される値と、実際に観測した値が大きく外れる場合に、路面上になく、差の正負により穴か障害物かを区別する。もし(i、j)番目の点が路面から来ているのであれば、zij(k)はほぼ0である。そこで、(式15)においてzij(k)=0とおくと、次式の非線形観測方程式を得る。
(Observation model)
The observation model derives an equation for observing points on the road surface.If the value estimated from the equation and the actually observed value deviate significantly, the observation model is not on the road surface, and the difference is positive or negative. Or whether it is an obstacle. If the (i, j) th point comes from the road surface, z ij (k) is almost zero. Therefore, if z ij (k) = 0 in (Expression 15), the following nonlinear observation equation is obtained.

関数θ(q)は(式13)である。これを、すべての観測値(i、j)について縦ベクトルとして並べることにより、観測モデルが構成できる。 The function θ i (q 1 ) is (Equation 13). By arranging this as a vertical vector for all observed values (i, j), an observation model can be constructed.

(式17)と(式18)式により、非線形状態空間モデルが構成できる。(式18)に、誤差を加えたものを実際に観測すると仮定すると、次式のように観測方程式を表現できる。   A non-linear state space model can be constructed by (Expression 17) and (Expression 18). Assuming that an error is added to (Equation 18), the observation equation can be expressed as the following equation.

また、上式のモデルに対しては、非線形カルマンフィルタを用いることができる。その際に、拡張カルマンフィルタを用いる場合、ヤコビアン(Jacobian)を求める必要がある。   A nonlinear Kalman filter can be used for the above model. In that case, when using an extended Kalman filter, it is necessary to obtain Jacobian.

(状態推定アルゴリズム)
観測値の中には、路面以外のところから来たデータも含まれており、それは、閾値を用いて判定することができる。そうやって、路面以外の点として扱われる点は、上記観測ベクトルから除外した上で、拡張カルマンフィルタを適用する必要がある。
(State estimation algorithm)
The observation values include data coming from places other than the road surface, which can be determined using a threshold value. Thus, it is necessary to apply the extended Kalman filter after excluding the points treated as points other than the road surface from the observation vector.

(状態推定の詳細)
(路面を観測する場合)
観測値rijと、真値fijの値は、次式のように表現できる。
(Details of state estimation)
(When observing the road surface)
The observed value r ij and the true value f ij can be expressed as follows:

ここでeij (g)(k)は、測定誤差を表している。当該測定誤差には、仕様の精度限界に基づく現実のセンサノイズが含まれているとともに、観測モデルと現実のセンサのプロパティとの幾何学的な測定差異に基づく誤差が含まれている。 Here, e ij (g) (k) represents a measurement error. The measurement error includes an actual sensor noise based on the accuracy limit of the specification and an error based on a geometric measurement difference between the observation model and the actual sensor property.

ij (g)(k)の確率密度関数(PDF;Probability Density Function)p(eij (g)(k))は、平均が0、分散がσ のガウス分布として次式のように表現できる。 probability density function of e ij (g) (k) (PDF; Probability Density Function) p g (e ij (g) (k)) , the average is 0, the following equation as a Gaussian distribution of variance sigma g 2 Can be expressed.

(障害物を観測する場合)
デプスセンサから障害物までの距離は特定され得ないため、観測値rijは次式のように表現できる。
(When observing obstacles)
Since the distance from the depth sensor to the obstacle cannot be specified, the observed value r ij can be expressed as the following equation.

ここで、eij (s)(k)の確率密度関数p(eij (s))は例えば次式のように表現できる。 Here, the probability density function p s (e ij (s) ) of e ij (s) (k) can be expressed by the following equation, for example.

(溝または凹部を観測する場合)
この場合、障害物を観測する場合とは逆になる。観測値rijは次式のように表現できる。
(When observing grooves or recesses)
This is the opposite of observing obstacles. The observed value rij can be expressed as the following equation.

ここで、eij (l)(k)の確率密度関数p(eij (l))は例えば次式のように表現できる。 Here, the probability density function p l (e ij (l) ) of e ij (l) (k) can be expressed by the following equation, for example.

ここで、rは、測定限界距離を表しており、概ね10m程度である。 Here, r * represents a measurement limit distance and is about 10 m.

(確率密度関数モデル)
上述のように定義したPDFに基づいて、混合PDF(mixture PDF)を次式のように表現できる。
(Probability density function model)
Based on the PDF defined as described above, a mixed PDF (mixture PDF) can be expressed as follows.

ここで、右辺の第2項は観測した距離が「短い」場合を示し、第3項は観測した距離が「長い」場合を示している。事前確率Pは、観測視野内における障害物の量に概ね基づいて設定されるべきであるとともに、Pは、溝または凹部がない場合には0となるべきである。 Here, the second term on the right side shows the case where the observed distance is “short”, and the third term shows the case where the observed distance is “long”. The prior probability P s should be set based largely on the amount of obstacles in the observation field of view, and P l should be zero if there are no grooves or recesses.

観測モデルは非線形であるため、状態推定スキームとしてはいくつかの候補が挙げられる。ここでは、拡張カルマンフィルタを適用している。これによれば、粒子フィルタや他の状態推定スキームと比較して、より計算負荷を小さくすることができる。   Since the observation model is non-linear, there are several candidates for the state estimation scheme. Here, an extended Kalman filter is applied. According to this, compared with a particle filter or other state estimation schemes, the calculation load can be further reduced.

(混合PDFの取り扱い)
次に、混合PDFの取り扱いについて説明する。障害物または穴もしくは凹部が観測源である場合には、観測値が異常値となるため、障害物または穴もしくは凹部から生成された(と思われる)観測データを削除する方法を、簡単なアプローチの一つとして挙げることができる。以下では、この方法に従ったアプローチについて説明する。
(Handling of mixed PDF)
Next, handling of the mixed PDF will be described. When an obstacle, hole, or recess is the observation source, the observation value becomes an abnormal value, so a simple approach is to delete the observation data generated from the obstacle, hole, or recess (possibly). Can be cited as one of In the following, an approach according to this method will be described.

(観測源の推定)
観測源が路面である場合の確率をPとし、障害物である場合の確率をPとし、溝または凹部である場合の確率をPとしている。rij(k)の観測後には、これらの確率は、次式の事後確率として記載することができる。
(Observation source estimation)
The probability when the observation source is a road surface is P g , the probability when it is an obstacle is P s, and the probability when it is a groove or a recess is P l . After observing r ij (k), these probabilities can be described as posterior probabilities:

ここで、R1:k={r(1),...,r(k)}(これらのrはベクトルである。)、m∈{g,s,l}であって、rij(k)は、添え字が(i,j)以外である任意の他の値と独立しているものと仮定している。P(cij(k))を、事前確率とすると、観測源が路面である場合の確率密度関数pは次式のように表現できる。 Here, R 1: k = {r (1),. . . , R (k)} (where r is a vector), mε {g, s, l}, and rij (k) is any other subscript other than (i, j). Is assumed to be independent of the value of. P m and (c ij (k)), when the prior probability, probability density function p g when observed source is road surface can be expressed by the following equation.

また、観測源が障害物である場合の確率密度関数pは次式のように表現できる。 Further, the probability density function p s when the observation source is an obstacle can be expressed as the following equation.

ここで、Hij(k|k−1)の推定値(“^”を付している)は、次式のように表現できる。 Here, the estimated value of H ij (k | k−1) (with “^”) can be expressed as the following equation.

また、fij(k|k−1)の推定値(“^”を付している)は、次式のように表現できる。 In addition, the estimated value of f ij (k | k−1) (with “^”) can be expressed as the following equation.

ここで、g(k)は、次式のように表現できる。 Here, g (k) can be expressed as the following equation.

そして、観測源が溝または凹部である場合の確率密度関数pは次式のように表現できる。 Then, the probability density function p l where observation source is a groove or recess can be expressed by the following equation.

これらのPDFに関して、以下の関係について説明する。まず、観測源が路面である場合の確率と、障害物である場合の確率との間には、次式の関係が成り立つ。ここで、rは、上述の最大測定限界距離である。 Regarding these PDFs, the following relationship will be described. First, the following relationship holds between the probability when the observation source is the road surface and the probability when the observation source is an obstacle. Here, r * is the above-mentioned maximum measurement limit distance.

また、観測源が路面である場合の確率と、溝または凹部である場合の確率との間には、次式の関係が成り立つ。 Moreover, the relationship of following Formula is established between the probability when an observation source is a road surface, and the probability when it is a groove | channel or a recessed part.

そして、観測値rij(k)は、次式のように、所定の定値c(k)及びc(k)からなる区間の値となる。 Then, the observed value r ij (k) is a value of a section composed of predetermined constant values c 1 (k) and c 2 (k) as in the following equation.

(検知した物体の取り扱い)
以下では、観測値rij(k)の観測源が、路面より上のレベルの物体である、または路面より下のレベルの場所であると判定された場合の取り扱い方法について説明する。
(Handling detected objects)
Hereinafter, a method of handling when the observation source of the observation value r ij (k) is determined to be an object at a level above the road surface or a place at a level below the road surface will be described.

P(cij(k)=g|R1:k)<P(cij(k)=s|R1:k)またはP(cij(k)=g|R1:k)<P(cij(k)=l|R1:k)であるとき、観測値rij(k)の観測源が路面ではないと考えることができる。 P (c ij (k) = g | R 1: k ) <P (c ij (k) = s | R 1: k ) or P (c ij (k) = g | R 1: k ) <P ( When c ij (k) = l | R 1: k ), it can be considered that the observation source of the observed value r ij (k) is not a road surface.

(式18)において、観測値rij(k)の観測源が路面であることを仮定しているので、このようなときのrij(k)は、真値fijよりも非常に小さくまたは大きくなり得る。つまり、観測データから未知の状態変数を推定するために、このような異常値となる観測値の影響を抑制しなければならない。これは、ロバスト推定問題であると言える。そして、発明者らは、線形システムにおいて、状態及び未知のシステムパラメータを同時に推定する手法を開発している(文献「M. Tanaka and T. Katayama: Identification of a Linear System with Switching Parameters by the EM Algorithm, Systems, Control and Information, Vol.1, No.2, pp. 68-76, 1988.」(以下、文献Tanaka1)、「M. Tanaka and T. Katayama: A Robust Identification of a Linear System with Outliers by the EM Algorithm, Systems, Control and Information, Vol.1, No.4, pp. 117-126, 1988.」(以下、文献Tanaka2))。上述の問題でも、未知のパラメータ(共分散など)を含んでいるが、当該問題はそれ自体が複雑であるため、状態推定スキームに着目して当該問題の単純化を進める。 In (Equation 18), since it is assumed that the observed source of observations r ij (k) is road surface, r ij (k) of such a case, or much smaller than the true value f ij Can be bigger. In other words, in order to estimate an unknown state variable from the observation data, it is necessary to suppress the influence of the observation value that becomes such an abnormal value. This can be said to be a robust estimation problem. The inventors have developed a technique for simultaneously estimating states and unknown system parameters in a linear system (M. Tanaka and T. Katayama: Identification of a Linear System with Switching Parameters by the EM Algorithm. , Systems, Control and Information, Vol.1, No.2, pp. 68-76, 1988. (hereinafter, Tanaka1), “M. Tanaka and T. Katayama: A Robust Identification of a Linear System with Outliers by The EM Algorithm, Systems, Control and Information, Vol. 1, No. 4, pp. 117-126, 1988 ”(hereinafter referred to as reference Tanaka 2)). The above problem also includes unknown parameters (such as covariance). However, since the problem itself is complicated, simplification of the problem is promoted by focusing on the state estimation scheme.

文献Tanaka1において発明者らが実証しているように、非ノミナル問題に基づいて状態推定することができる。しかしながら、文献Tanaka1における手法と同様に状態推定を行うにはデータが充分ではないと考えられるため、文献Tanaka2の記載のように、非ノミナルな観測源から観測されたと判断されたデータを排除するアプローチを採用する。   As the inventors have demonstrated in the document Tanaka 1, the state can be estimated based on a non-nominal problem. However, it is considered that the data is not enough to perform state estimation in the same way as the method in the document Tanaka1, so as described in the document Tanaka2, an approach to exclude data judged to have been observed from non-nominal observation sources Is adopted.

以下では、当該アプローチをさらに詳細に説明する。まず、観測値ri*j*(k)は、いくつかの(i,j)の組において異常値であると判定されたと仮定する。そして、非線形関数fi*j*(k)だけでなく当該観測値も、(式19)で表す観測モデルから排除する。(i,j)の要素を観測ベクトルから排除し、行列Hから(i,j)の行を排除する。以下では、当該排除後の行列を、行列を表す記号の右上に“*”を付して表現する。 In the following, the approach will be described in more detail. First, it is assumed that the observed value r i * j * (k) is determined to be an abnormal value in some (i, j) pairs. Then, not only the nonlinear function f i * j * (k) but also the observed value is excluded from the observation model represented by (Equation 19). The element of (i * , j * ) is excluded from the observation vector, and the row of (i * , j * ) is excluded from the matrix H. In the following, the matrix after the exclusion is expressed by adding “*” to the upper right of the symbol representing the matrix.

(アルゴリズムの詳細)
以下では、本実施形態のアルゴリズムにおける、反復計算の詳細について説明する。
(Details of algorithm)
Hereinafter, the details of the iterative calculation in the algorithm of this embodiment will be described.

1.初期値を次式ように設定する。   1. Set the initial value as follows.

2.時間の更新を次式のように行う。   2. The time is updated as follows:

3.観測値の更新を次式のように行う。   3. Update the observed values as follows:

ここで、観測源を表すcij(k)を、次式のように推定する。 Here, c ij (k) representing the observation source is estimated as follows.

状態qの推定値(“^”を付している)と、誤差行列Pを以下のように更新する。 The estimated value of the state q (with “^”) and the error matrix P are updated as follows.

上述の数式において“*”を付した行列またはベクトルは、元のサイズの行列またはベクトルにおいて、特定の行または列を0とした次式で示すIij(k)に対応している。ここで、I(k)は、次式で示す1または0の要素からなる、対角行列である。 The matrix or vector to which “*” is attached in the above mathematical formula corresponds to I ij (k) represented by the following formula where a specific row or column is 0 in the matrix or vector of the original size. Here, I (k) is a diagonal matrix composed of 1 or 0 elements represented by the following equation.

(パラメータの値)
パラメータは、現実のシステムに基づいて定義される必要がある。本発明のデプスセンサを歩行者に装着する場合には、以下のようにパラメータを設定する。
(Parameter value)
Parameters need to be defined based on real systems. When the depth sensor of the present invention is attached to a pedestrian, parameters are set as follows.

(式20)において状態qの初期値(“−”を付している)は、[αψとおくと、本発明のデプスセンサを人体のベルトに装着する場合には、αは20[°]×π/180[rad]である。ここで、[]に囲まれた表記は、数値の単位を表している。また、ψは、0[rad]である。また、hは、人が立ち上がったときの当該デプスセンサの高さとなる(例えば、800[mm])。 In (Equation 20), when the initial value of the state q (with “−”) is [α 0 ψ 0 h 0 ] T , when the depth sensor of the present invention is mounted on a human body belt, α 0 is 20 [°] × π / 180 [rad]. Here, the notation enclosed in [] represents the unit of a numerical value. Also, ψ 0 is 0 [rad]. Further, h 0 is the height of the depth sensor when a person stands up (for example, 800 [mm]).

共分散の特定は、より難度が高い。1測定周期における移動量を考慮することにより、系のダイナミクスの不確かさを特定することができる。本発明においては、フレームレートは、10[fps]である。つまり、1測定周期は、100[ms]である。ここで、αの変動は、例えば5[°]である。この値を標準偏差として取り扱えば、その分散についてはqα=(5π/180)となる。同様に、qψ=(5π/180)となる。また、同様に、q=20[mm]となる。 Identification of covariance is more difficult. By considering the amount of movement in one measurement period, the uncertainty of the dynamics of the system can be specified. In the present invention, the frame rate is 10 [fps]. That is, one measurement cycle is 100 [ms]. Here, the variation of α is, for example, 5 [°]. If this value is treated as a standard deviation, q α = (5π / 180) 2 for the variance. Similarly, q ψ = (5π / 180) 2 . Similarly, q h = 20 2 [mm 2 ].

観測雑音は、レンズの歪みによるものである。経験則から、本発明においては、観測雑音を次式のように定めている。   Observation noise is due to lens distortion. From an empirical rule, in the present invention, the observation noise is defined as follows.

ここで、σ=10である。 Here, σ 2 = 10 2 .

このように、俯角・ロール角・高さ推定部17aは、前記距離データ、前記俯角、前記ロール角、及び前記高さの関係に基づく、(式17)と(式18)式により構成した非線形状態空間モデルに対して、上述のように最適カルマンゲインKを求める拡張カルマンフィルタに基づいて変動を許容して前記俯角、前記ロール角、及び前記高さを推定する。 As described above, the depression angle / roll angle / height estimation unit 17a is a non-linear structure configured by equations (17) and (18) based on the relationship between the distance data, the depression angle, the roll angle, and the height. For the state space model, the depression angle, the roll angle, and the height are estimated while allowing variation based on the extended Kalman filter for obtaining the optimum Kalman gain K * as described above.

(実験結果)
以下に示す実験結果においては、P=0.59、P=0.3、P=0.1、qα=2、qψ=0.5、q=1000としている。
(Experimental result)
In the experimental results shown below, P g = 0.59, P s = 0.3, P l = 0.1, q α = 2, q ψ = 0.5, and q h = 1000.

(静的な実験)
図15は、実施の形態4に係るシステムにおける障害物検出中の映像を示す図である。図15に示すように、本実施形態に係るシステムにおいては、2つの映像ウインドウが表示されている。右側の大きなウインドウは、検出結果を重ねたカメラ映像を表示している。路面より高い位置にあると判定された観測点は、所定の色により示されている。また、路面より低い位置にあると判定された観測点は、他の色により示されている。そして、距離の値を利用できない観測点は、さらに他の色により示されている。
(Static experiment)
FIG. 15 is a diagram illustrating an image during obstacle detection in the system according to the fourth embodiment. As shown in FIG. 15, in the system according to the present embodiment, two video windows are displayed. The large window on the right displays a camera image with the detection results superimposed. Observation points determined to be higher than the road surface are indicated by a predetermined color. The observation point determined to be at a position lower than the road surface is indicated by another color. The observation points where the distance value cannot be used are indicated by other colors.

図15に示す映像は、天気が良い日に窓の近くの廊下にて本発明を実施したものであるため、相当な量の直射日光に照らされている映像であり、当該日光に照らされている範囲の観測点では、距離の値を利用できなくなっている。しかしながら、このような場合であっても、障害物は充分に検出可能である。   The image shown in FIG. 15 is an image illuminated by a considerable amount of direct sunlight because the present invention is implemented in a corridor near the window on a sunny day, and is illuminated by the sunlight. Distance values are no longer available at certain observation points. However, even in such a case, the obstacle can be sufficiently detected.

次に、当該映像における数値の意味について説明する。左の0.68という数値は、サンプルデータ(垂直及び水平にそれぞれ8点毎)における路面の割合を示している。また、右の0.56という数値は、全観測点(640×480)における、路面エリアの割合を示している。2行目には、4つの数値が表示されている。左の数値(11 fps)は、現在のフレームレートである。左から2つ目の数値(37.5 deg)は、俯角αの推定値である。本実験においては、(人体に巻かれた)ベルトに装着されており、この結果は妥当である。3つ目の数値(−1.0 deg)は、ロール角である。最も右に表示されている数値(853.9 mm)は、デプスセンサの位置における高さである。   Next, the meaning of numerical values in the video will be described. The numerical value of 0.68 on the left indicates the ratio of the road surface in the sample data (vertically and horizontally every 8 points). The numerical value of 0.56 on the right indicates the ratio of the road surface area at all observation points (640 × 480). On the second line, four numerical values are displayed. The numerical value on the left (11 fps) is the current frame rate. The second numerical value (37.5 deg) from the left is an estimated value of the depression angle α. In this experiment, it is attached to a belt (wound around a human body), and this result is reasonable. The third numerical value (−1.0 deg) is the roll angle. The numerical value (853.9 mm) displayed on the right is the height at the position of the depth sensor.

左側の縦長のウインドウでは、平面マップ上に路面状態を表示している。当該状態は、8×3ブロックからなっている。中央のエリアは、左右15cmの範囲の状態を示している。左側のエリアは15cmから50cmまでの範囲の状態を、右側のエリアも同様の範囲の状態を示している。   In the vertically long window on the left, the road surface state is displayed on the plane map. This state consists of 8 × 3 blocks. The central area shows a state in the range of 15 cm on the left and right. The left area shows a state in the range from 15 cm to 50 cm, and the right area shows a state in the same range.

(動的な実験)
図16(a)〜(c)は、スクーター(図17参照)の籠へ本実施形態に係るデプスセンサを取り付けてスクーターが廊下を走行したときの俯角α、ロール角ψ、高さhの推定値の推移を示す図である。
(Dynamic experiment)
16 (a) to 16 (c) show estimated values of the depression angle α, the roll angle ψ, and the height h when the depth sensor according to this embodiment is attached to the scooter (see FIG. 17) and the scooter travels in the corridor. FIG.

図16(a)〜(c)に示すように、時間軸の中央部分を除いて推定値は安定している。これは、当該時間軸の中央部分に対応する時間において、スクーターの運転者がハンドルを回転させたためである。図16(b)に示すように、当該スクーターの構造により、ロール角ψが大きく変化している。同時に、図16(c)に示すように、当該ハンドルの中央(h)は、回転中低くなっている。さらに、俯角αは、図16(a)に示すように、大きくなっている。これらは、実際の状況に適合している。   As shown in FIGS. 16A to 16C, the estimated value is stable except for the central portion of the time axis. This is because the scooter driver rotated the steering wheel at the time corresponding to the central portion of the time axis. As shown in FIG. 16B, the roll angle ψ varies greatly depending on the structure of the scooter. At the same time, as shown in FIG. 16 (c), the center (h) of the handle is lowered during rotation. Furthermore, the depression angle α is large as shown in FIG. These are adapted to the actual situation.

高さhの推定値は実際の値よりも約10cm小さくなるが、その原因は、概ねレンズ系の構造に基づいている。   The estimated value of the height h is about 10 cm smaller than the actual value, but the cause is largely based on the structure of the lens system.

本実施形態に係る状態空間モデルを用いた推定方法におけるアルゴリズムを適用した場合には、遷移速度(パラメータ(α、ψ、h)が、データ取り込み時間ごと(例えば、数十ミリ秒)の間に変化する量)は、上述の状態などを更新するモデルにより制御可能であるため、壁や階段などの高さ方向に大きい障害物などが観測視野に含まれる場合においても、障害物などを正しく検出することができる。加えて、当該状態を更新するモデルにおいて、分散を大きく取ると、当該状態が更新毎に大きく変化することを許容するモデルとすることができる。よって、本実施形態に係る構成により、デプスセンサが距離画像を取得した瞬間におけるデプスセンサの俯角、ロール角、高さを推定することができ、移動体走行時にデプスセンサが揺れるなどにより俯角、ロール角、高さが変動しても、移動体が走行する路面における障害物を検出することができる。   When the algorithm in the estimation method using the state space model according to the present embodiment is applied, the transition speed (parameters (α, ψ, h)) is between every data acquisition time (for example, several tens of milliseconds). The amount of change) can be controlled by a model that updates the above-mentioned state, etc., so that even when obstacles that are large in the height direction such as walls and stairs are included in the observation field of view, obstacles etc. can be detected correctly can do. In addition, in the model for updating the state, if the variance is large, the model can allow the state to change greatly for each update. Therefore, with the configuration according to the present embodiment, it is possible to estimate the depression angle, roll angle, and height of the depth sensor at the moment when the depth sensor acquires the distance image, and the depression angle, roll angle, Even if the distance fluctuates, an obstacle on the road surface on which the mobile body travels can be detected.

(まとめ)
本実施形態において、デプスセンサにより測定したデータの状態空間モデルは、状態ベクトルに移動体の姿勢を表す3つの未知パラメータを含むように、構成されている。拡張カルマンフィルタを適用することにより、リアルタイムの推定スキームを実現している。これは、状態推定スキームにおいて、観測点から路面以外の観測点を除去することにより実現されている。本来、直射日光下においてデプスセンサはデータを取得することができないが、このような環境下であっても、障害物または溝といった危険な状況を比較的正しく検出できている。これは、物体の陰の部分でデータが得られているためである。
(Summary)
In this embodiment, the state space model of the data measured by the depth sensor is configured so that the state vector includes three unknown parameters representing the posture of the moving object. Real-time estimation scheme is realized by applying extended Kalman filter. This is realized by removing observation points other than the road surface from the observation points in the state estimation scheme. Originally, a depth sensor cannot acquire data under direct sunlight, but even in such an environment, a dangerous situation such as an obstacle or a groove can be detected relatively correctly. This is because data is obtained in the shadow of the object.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

本発明は、車両や人などの移動体に取り付けられて路面の距離画像を取得するデプスセンサを備えた障害物検出装置に利用することができる。また、視覚障害者や老人の夜間外出の道具として、応用可能性は広い。さらに、本発明は、視覚障害者の歩行補助に適用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for an obstacle detection apparatus including a depth sensor that is attached to a moving body such as a vehicle or a person and acquires a road surface distance image. In addition, the applicability is wide as a tool for the visually impaired and elderly people to go out at night. Furthermore, the present invention can be applied to walking assistance for visually impaired persons.

1、1a、1b 障害物検出装置
2 デプスセンサ
3 俯角推定部(角度推定手段)
4 検出部(検出手段)
5 移動体(車両、歩行者)
6 路面
7 ハンドル
8 障害物
9 水平線
10 駕籠
11 ディスプレイ
12 スピーカ
13 バッテリ
14 溝
15 側面
16 上面
17 俯角・ロール角推定部(角度推定手段)
17a 俯角・ロール角・高さ推定部(状態推定手段)
L1、L2 線
C1、C2 線
α 俯角
h 高さ
r 距離
ψ ロール角
DESCRIPTION OF SYMBOLS 1, 1a, 1b Obstacle detection apparatus 2 Depth sensor 3 Depression angle estimation part (angle estimation means)
4 Detection part (detection means)
5 Moving objects (vehicles, pedestrians)
6 Road surface 7 Handle 8 Obstacle 9 Horizontal line 10 駕 籠 11 Display 12 Speaker 13 Battery 14 Groove 15 Side surface 16 Upper surface 17 Depression angle / roll angle estimation unit (angle estimation means)
17a Inclination angle / roll angle / height estimation unit (state estimation means)
L1, L2 line C1, C2 line α 俯 angle h height r distance ψ roll angle

Claims (3)

車両に取り付けられて路面の距離画像を取得するデプスセンサと、
前記デプスセンサにより取得された距離画像に基づいて、前記車両に取り付けられたデプスセンサの俯角を推定する角度推定手段と、
前記角度推定手段により推定されたデプスセンサの俯角と、前記デプスセンサの前記路面からの高さと、前記距離画像の距離データとに基づいて、前記路面に存在する障害物を検出する検出手段とを備え、
前記車両はハンドルを有しており、
前記角度推定手段は、前記ハンドルの回転に応じて、前記俯角、及び前記ハンドルの回転に応じて生じる前記デプスセンサのロール角を推定することを特徴とする障害物検出装置。
A depth sensor attached to the vehicle to obtain a distance image of the road surface;
An angle estimating means for estimating a depression angle of the depth sensor attached to the vehicle based on the distance image acquired by the depth sensor;
Detection means for detecting an obstacle present on the road surface based on the depression angle of the depth sensor estimated by the angle estimation means, the height of the depth sensor from the road surface, and the distance data of the distance image;
The vehicle has a handle;
The obstacle estimation device, wherein the angle estimation means estimates the depression angle and the roll angle of the depth sensor generated according to the rotation of the handle according to the rotation of the handle.
前記角度推定手段は、非路面上の点の影響を除去する最小二乗法に基づいて誤差を最小化して前記俯角を推定する請求項1に記載の障害物検出装置。   The obstacle detection device according to claim 1, wherein the angle estimation unit estimates the depression angle by minimizing an error based on a least square method that eliminates the influence of a point on a non-road surface. 前記デプスセンサは、非走査方式赤外線レーザセンサである請求項1に記載の障害物検出装置。   The obstacle detection apparatus according to claim 1, wherein the depth sensor is a non-scanning infrared laser sensor.
JP2012265840A 2012-02-10 2012-12-04 Obstacle detection device Expired - Fee Related JP6218209B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012265840A JP6218209B2 (en) 2012-02-10 2012-12-04 Obstacle detection device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012027784 2012-02-10
JP2012027784 2012-02-10
JP2012265840A JP6218209B2 (en) 2012-02-10 2012-12-04 Obstacle detection device

Publications (2)

Publication Number Publication Date
JP2013254474A JP2013254474A (en) 2013-12-19
JP6218209B2 true JP6218209B2 (en) 2017-10-25

Family

ID=49951885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012265840A Expired - Fee Related JP6218209B2 (en) 2012-02-10 2012-12-04 Obstacle detection device

Country Status (1)

Country Link
JP (1) JP6218209B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6213777B2 (en) * 2014-02-26 2017-10-18 スズキ株式会社 Small electric vehicle
JP6338916B2 (en) * 2014-04-11 2018-06-06 五洋建設株式会社 Object detection system
US10093312B2 (en) 2015-07-27 2018-10-09 Sharp Kabushiki Kaisha Obstacle determining apparatus, moving body, and obstacle determining method
CN107765697B (en) * 2016-08-23 2023-11-03 苏州宝时得电动工具有限公司 Self-moving device and self-moving device control method
CN106627572A (en) * 2016-12-31 2017-05-10 青岛翰兴知识产权运营管理有限公司 Vehicle assistant early-warning method
KR102286656B1 (en) * 2017-03-16 2021-08-04 엘지전자 주식회사 Method of modifying path using around map and robot implementing thereof
KR102375094B1 (en) * 2017-04-13 2022-03-15 엘지전자 주식회사 Method of driving sensing extensible object and robot implementing thereof
US10536646B2 (en) 2017-07-28 2020-01-14 Panasonic Intellectual Property Corporation Of America Imaging control device and imaging control method
JP6993070B2 (en) * 2018-02-14 2022-02-04 アルパイン株式会社 Electronic device
CN108618910A (en) * 2018-03-16 2018-10-09 上海文圭精密机械有限公司 A kind of wheelchair using intelligence control system
JP7257257B2 (en) * 2019-05-30 2023-04-13 アルパイン株式会社 Road surface detection system, personal mobility and obstacle detection method
CN113848931B (en) * 2021-10-09 2022-09-27 上海联适导航技术股份有限公司 Agricultural machinery automatic driving obstacle recognition method, system, equipment and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3995846B2 (en) * 1999-09-24 2007-10-24 本田技研工業株式会社 Object recognition device
JP2002065721A (en) * 2000-08-29 2002-03-05 Komatsu Ltd Device and method for supporting environmental recognition for visually handicapped
JP4016180B2 (en) * 2002-03-15 2007-12-05 ソニー株式会社 Planar extraction method, apparatus thereof, program thereof, recording medium thereof, and imaging apparatus
JP2008298742A (en) * 2007-06-04 2008-12-11 Toyota Central R&D Labs Inc Posture angle detection device, posture angle detecting method, and surface of floor detection device
JP2011191221A (en) * 2010-03-16 2011-09-29 Sanyo Electric Co Ltd Object detection device and information acquisition device

Also Published As

Publication number Publication date
JP2013254474A (en) 2013-12-19

Similar Documents

Publication Publication Date Title
JP6218209B2 (en) Obstacle detection device
EP3168705B1 (en) Domestic robotic system
US10328575B2 (en) Method for building a map of probability of one of absence and presence of obstacles for an autonomous robot
KR102457222B1 (en) Mobile robot and method thereof
JP5892588B2 (en) Human guidance robot
Argyros et al. Semi-autonomous navigation of a robotic wheelchair
Doisy et al. Adaptive person-following algorithm based on depth images and mapping
US10197399B2 (en) Method for localizing a robot in a localization plane
JP2008200770A (en) Robot, and control method thereof
CN110554692B (en) Map information updating system
JP4333611B2 (en) Obstacle detection device for moving objects
JP6919882B2 (en) Person estimation system and estimation program
Kamal et al. Towards developing walking assistants for the visually impaired people
Zhang et al. Human-robot interaction for assisted wayfinding of a robotic navigation aid for the blind
Skrzypczynski Laser scan matching for self‐localization of a walking robot in man‐made environments
Bostelman et al. Applications of a 3D range camera towards healthcare mobility aids
Milotta et al. An electronic travel aid to assist blind and visually impaired people to avoid obstacles
Tanaka Robust parameter estimation of road condition by Kinect sensor
JP7295654B2 (en) self-propelled robot
Camurri et al. Real-time depth and inertial fusion for local SLAM on dynamic legged robots
WO2021177471A1 (en) Detection device, tracking device, detection program, and tracking program
JP6786922B2 (en) Information processing equipment, information processing methods and information processing programs
WO2021210492A1 (en) Information processing device, information processing method, and program
Rohmer et al. Laser based driving assistance for smart robotic wheelchairs
Huang et al. Object following based on SURF for mobile robots

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170921

R150 Certificate of patent or registration of utility model

Ref document number: 6218209

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees