JP2011013803A - Peripheral shape detection device, autonomous mobile device, operation auxiliary device for mobile body, peripheral shape detection method, control method for the autonomous mobile device and operation auxiliary method for the mobile body - Google Patents

Peripheral shape detection device, autonomous mobile device, operation auxiliary device for mobile body, peripheral shape detection method, control method for the autonomous mobile device and operation auxiliary method for the mobile body Download PDF

Info

Publication number
JP2011013803A
JP2011013803A JP2009155619A JP2009155619A JP2011013803A JP 2011013803 A JP2011013803 A JP 2011013803A JP 2009155619 A JP2009155619 A JP 2009155619A JP 2009155619 A JP2009155619 A JP 2009155619A JP 2011013803 A JP2011013803 A JP 2011013803A
Authority
JP
Japan
Prior art keywords
reflectance
image
wavelength band
plant leaf
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009155619A
Other languages
Japanese (ja)
Inventor
Hajime Sakano
肇 坂野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
IHI Aerospace Co Ltd
Original Assignee
IHI Corp
IHI Aerospace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp, IHI Aerospace Co Ltd filed Critical IHI Corp
Priority to JP2009155619A priority Critical patent/JP2011013803A/en
Publication of JP2011013803A publication Critical patent/JP2011013803A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent detecting an upper face of grass or the like as a travelable plane in a course wherein the grass or the like is present, for example, in an autonomous mobile device.SOLUTION: This peripheral shape detection device includes: an imaging means imaging a stereo image including a standard image and a reference image by a plurality of cameras 3aL, 3aR; and a control means extracting a plane area inside the stereo image based on the stereo image obtained by the imaging means, performing object detection processing to an area except the extracted plane area, and detecting a movable area. The peripheral shape detection device distinguishes that a point having a ratio between a reflectance of a first wavelength band and a reflectance of a second wavelength band higher than a prescribed value is a plant leaf, excludes an area distinguished that the area is the plant leaf of the image imaged by the imaging means, and performs the extraction of the plane area and the object detection processing about a residual area.

Description

本発明は、周囲形状検出装置、周囲の形状を検出して自律移動を行う自律移動装置、周囲形状検出方法及び自律移動装置の制御方法、並びに、人間が行う移動体の操縦を補助する移動体の操縦補助装置及び移動体の操縦補助方法に関する。   The present invention relates to a surrounding shape detection device, an autonomous moving device that detects a surrounding shape and performs autonomous movement, a surrounding shape detection method, a control method for the autonomous moving device, and a moving body that assists maneuvering of a moving body performed by a human The present invention relates to a steering assist device and a steering assist method for a moving body.

従来、周囲形状検出及び制御装置を搭載し、周囲形状検出によって周囲の形状を検出し、この検出結果に基づいて制御装置によって制御されて、自律移動を行う自律移動装置が提案されている。この自律移動装置は、周囲の障害物を避けながら所定の目標地点に到達するように、自らが決定した移動ルート上を移動する。また、このような制御装置は、人間が行う移動体の操縦の補助を行うこともできる。   2. Description of the Related Art Conventionally, there has been proposed an autonomous mobile device that is equipped with a surrounding shape detection and control device, detects the surrounding shape by surrounding shape detection, and is controlled by the control device based on the detection result to perform autonomous movement. This autonomous mobile device moves on a travel route determined by itself so as to reach a predetermined target point while avoiding surrounding obstacles. In addition, such a control device can also assist in maneuvering a moving body performed by a human.

自律移動の制御や操縦補助を行う制御装置においては、周囲の状況についての情報を得て、この情報に基づいて、安全に目的地に向かうことができる進路を決定する。そして、制御装置は、自律移動を行う場合には、決定した進路上を移動するように移動体を制御し、操縦補助を行う場合には、決定した進路を表示手段などにより操縦者に伝達する。   In a control device that performs autonomous movement control and steering assistance, information on the surrounding situation is obtained, and based on this information, a course that can safely go to the destination is determined. Then, the control device controls the moving body so as to move on the determined route when performing autonomous movement, and transmits the determined route to the operator by display means or the like when performing steering assistance. .

道路外や不整地などにおいて移動体の自律移動を実現するには、制御装置は、図9に示すように、移動体101に装備したレーザレンジファインダなどのセンサ102により、地面や地上に存在する構造物103や樹木の立体形状をスキャンして計測し、起伏の変化が小さい平坦部分を検出する。そして、制御装置は、図10に示すように、計測結果に基づいて、平坦部分を通過するように進路を決定し、この進路に沿って移動体を制御する。   In order to realize the autonomous movement of the moving body outside the road or on rough terrain, the control device exists on the ground or the ground by a sensor 102 such as a laser range finder equipped on the moving body 101 as shown in FIG. The structure 103 and the three-dimensional shape of the tree are scanned and measured, and a flat portion with a small change in undulation is detected. Then, as shown in FIG. 10, the control device determines a course so as to pass through the flat portion based on the measurement result, and controls the moving body along the course.

また、制御装置は、操縦補助を行う場合には、安全性向上のため、地面や地上に存在する周囲の形状を検出し、危険距離まで接近した場合には、回避、または、停止するように移動体を制御し、あるいは、操縦者に危険を知らせる。   In addition, the control device detects the shape of the ground and surroundings on the ground to improve safety when performing steering assistance, and avoids or stops when approaching a dangerous distance. Control the moving body or inform the operator of the danger.

周囲の形状から走行可能な平面部を検出する方法として、特許文献1には、2個以上のカメラを組み合わせたステレオカメラにより周囲の三次元位置を計測し、その位置の分布を用いて、平面パラメータ空間に投票を行い、最も投票が多いパラメータを選択し、そのパラメータに一致する部分を検出平面とする方法が記載されている。   As a method for detecting a plane portion that can travel from the surrounding shape, Patent Document 1 measures a three-dimensional position of the surroundings by using a stereo camera in which two or more cameras are combined, and uses the distribution of the positions to obtain a plane. A method is described in which voting is performed in a parameter space, a parameter having the most votes is selected, and a portion matching the parameter is set as a detection plane.

また、特許文献2には、周囲の形状から平面部を検出する方法として、移動体に固定した2つのカメラで撮影された基準画像及び参照画像のうち、参照画像を仮定した平面パラメータに基づく射影変換により、基準画像を撮影したカメラ上からどのように見えるかを推定し、その推定基準画像を実際の基準画像と比較した結果(差分の絶対値の画像)を得る画像処理の下、この比較結果が最も一致度が高くなるように平面パラメータを推定する方法が記載されている。この方法においては、求めた平面パラメータを用いて、先ほどと同様に推定基準画像を実際の基準画像と比較した結果(差分の絶対値の画像)のなかで差分が小さい部分を平面として検出する。   Further, in Patent Document 2, as a method for detecting a plane portion from a surrounding shape, a projection based on a plane parameter assuming a reference image out of a standard image and a reference image captured by two cameras fixed to a moving body. This comparison is performed under image processing that obtains the result (an image of the absolute value of the difference) of the estimated reference image by comparing it with the actual reference image. A method for estimating a plane parameter so that the result has the highest degree of coincidence is described. In this method, by using the obtained plane parameter, a portion having a small difference is detected as a plane in the result of comparing the estimated reference image with the actual reference image (an image of the absolute value of the difference) as before.

特開2003−271975号公報JP 2003-271975 A 特開2006−54681号公報JP 2006-54681 A

ところで、図11中の(a)及び(b)に示すように、道路上などに草むら104が茂っている地形(公園や河原など)においては、図12に示すように、草むら104の上面がある程度のバラつきを持ちつつなだらかな面を構成する場合があり、しかも広い面積を持つ場合がある。このような場合、特許文献1及び特許文献2に記載された従来の自律移動装置においては、草むら104の上面を走行可能な平面として検出してしまう虞がある。   By the way, as shown in FIGS. 11A and 11B, on the topography (parks, rivers, etc.) where the grass 104 is thick on the road or the like, the upper surface of the grass 104 is shown in FIG. A smooth surface may be formed with some variation, and there may be a large area. In such a case, in the conventional autonomous mobile device described in Patent Literature 1 and Patent Literature 2, there is a possibility that the upper surface of the grass 104 is detected as a travelable plane.

そこで、本発明は、前述の実情に鑑みて提案されるものであり、例えば草むらなどが存在する進路において、草むらなどの上面を走行可能な平面として検出してしまうことが防止された周囲形状検出装置及び周囲形状検出方法を提供し、また、このような周囲形状検出装置を用いることにより円滑な移動を行うことができるようになされた自律移動装置及び自律移動装置の制御方法を提供し、また、このような移動体の操縦補助装置及び移動体の操縦補助方法を提供することを目的とする。   Therefore, the present invention has been proposed in view of the above circumstances, and for example, surrounding shape detection in which the upper surface of grass or the like is detected as a travelable plane on a path where grass or the like exists. An apparatus and a surrounding shape detection method are provided, and an autonomous mobile device and a control method for the autonomous mobile device that can perform smooth movement by using such a surrounding shape detection device are provided. An object of the present invention is to provide such a steering assist device for a mobile object and a steering assist method for a mobile object.

前述の課題を解決し、前記目的を達成するため、本発明は、以下の構成のいずれか一を有するものである。   In order to solve the above-described problems and achieve the object, the present invention has any one of the following configurations.

〔構成1〕
本発明に係る周囲形状検出装置は、複数のカメラにより基準画像と参照画像とを含むステレオ画像を撮像する撮像手段と、撮像手段により得られるステレオ画像に基づいてこのステレオ画像中の平面領域を抽出するとともに抽出された平面領域以外の領域に対して物体検出処理を行い移動可能領域を検出する制御手段とを備え、基準画像を撮像するカメラは、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有し、制御手段は、撮像手段により撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、撮像手段により撮像された像のうち、植物の葉であると判別された領域を除外し、残余の領域について、平面領域の抽出及び物体検出処理を行うことを特徴とするものである。
[Configuration 1]
The surrounding shape detection apparatus according to the present invention extracts an image capturing unit that captures a stereo image including a standard image and a reference image by a plurality of cameras, and a planar area in the stereo image based on the stereo image obtained by the image capturing unit. And a control means for detecting a movable region by performing object detection processing on a region other than the extracted planar region, and the camera that captures the reference image has a high reflectance in the spectral reflectance of the plant leaf A function of capturing an image of a first wavelength band and a function of capturing an image of a second wavelength band having a locally low reflectance in the spectral reflectance of a plant leaf; For each point of the captured image, the ratio of the reflectance in the first wavelength band and the reflectance in the second wavelength band is obtained, and a point where this reflectance is higher than a predetermined value is determined to be a plant leaf. And for imaging means Of the captured image Ri, excluding the determined region as a leaf of the plant, the remaining region, is characterized in carrying out the extraction and object detection processing of the planar region.

〔構成2〕
本発明に係る周囲形状検出装置は、周囲を撮像するカメラと、周囲の形状を3次元データ群として取得する形状計測手段と、3次元データ群から3点以上の3次元データをサンプリングしサンプリングされた3次元データからハフ変換により平面を計算しその平面に近いサンプル点を移動可能領域として抽出する制御手段とを備え、カメラは、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有し、制御手段は、カメラにより撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、形状計測手段により取得された周囲の形状のうち、植物の葉であると判別された領域を除外し、残余の領域について平面を抽出して、移動可能領域を検出することを特徴とするものである。
[Configuration 2]
The surrounding shape detection device according to the present invention is a sampled and sampled three-dimensional data of three or more points from a three-dimensional data group, a camera for imaging the surroundings, shape measuring means for acquiring the surrounding shape as a three-dimensional data group, and Control means for calculating a plane from the three-dimensional data by Hough transform and extracting a sample point close to the plane as a movable region, and the camera has a first wavelength having a high reflectance in the spectral reflectance of the plant leaf A function of capturing an image of a band and a function of capturing an image of a second wavelength band in which the reflectance is locally low in the spectral reflectance of a plant leaf. For each point, the ratio between the reflectance of the first wavelength band and the reflectance of the second wavelength band is obtained, and the point where this reflectance is higher than a predetermined value is determined to be a plant leaf, and the shape measuring means Obtained by Of around the shape, in which excludes the determined region as a leaf of a plant, to extract the plane for the remaining regions, and detects the moving region.

〔構成3〕
本発明に係る自律移動装置は、移動可能となされた走行部と、走行部に搭載された複数のカメラにより基準画像と参照画像とを含むステレオ画像を撮像する撮像手段と、走行部に搭載され撮像手段により得られるステレオ画像に基づいてこのステレオ画像中の平面領域を抽出するとともに抽出された平面領域以外の領域に対して物体検出処理を行い移動可能領域を検出しこの移動可能領域内において移動予定路を決定し走行部を制御して移動予定路上を移動させる制御手段とを備え、基準画像を撮像するカメラは、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有し、制御手段は、撮像手段により撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、撮像手段により撮像された像のうち、植物の葉であると判別された領域を除外し、残余の領域について、平面領域の抽出及び物体検出処理を行うことを特徴とするものである。
[Configuration 3]
An autonomous mobile device according to the present invention is mounted on a traveling unit that is movable, an imaging unit that captures a stereo image including a reference image and a reference image by a plurality of cameras mounted on the traveling unit, and a traveling unit. A plane area in the stereo image is extracted based on the stereo image obtained by the image pickup means, and an object detection process is performed on an area other than the extracted plane area to detect a movable area and move in the movable area. A camera that captures a reference image and determines the planned path and controls the traveling unit to move on the planned travel path. The camera that captures the reference image is an image in the first wavelength band having a high reflectance in the spectral reflectance of the plant leaf. And a function of capturing an image of a second wavelength band having a locally low reflectance in the spectral reflectance of a plant leaf, and the control means is configured to control the image captured by the imaging means. For a point, the ratio between the reflectance of the first wavelength band and the reflectance of the second wavelength band is obtained, and a point having this reflectance higher than a predetermined value is determined to be a plant leaf, and imaged by the imaging means In the obtained image, a region determined to be a leaf of a plant is excluded, and a planar region is extracted and an object detection process is performed on the remaining region.

〔構成4〕
本発明に係る自律移動装置は、移動可能となされた走行部と、走行部に搭載されこの走行部の周囲を撮像するカメラと、走行部に搭載されこの走行部の周囲の形状を3次元データ群として取得する形状計測手段と、走行部に搭載され3次元データ群から3点以上の3次元データをサンプリングしサンプリングされた3次元データからハフ変換により平面を計算しその平面に近いサンプル点を移動可能領域として抽出する制御手段とを備え、カメラは、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有し、制御手段は、カメラにより撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、形状計測手段により取得された周囲の形状のうち、植物の葉であると判別された領域を除外し、残余の領域について平面を抽出して、移動可能領域を検出することを特徴とするものである。
[Configuration 4]
An autonomous mobile device according to the present invention includes a traveling unit that is movable, a camera that is mounted on the traveling unit and images the surroundings of the traveling unit, and a shape of the surroundings of the traveling unit that is mounted on the traveling unit. The shape measuring means to be acquired as a group, and three or more three-dimensional data are sampled from the three-dimensional data group mounted on the traveling unit, a plane is calculated from the sampled three-dimensional data by Hough transform, and a sample point close to the plane is calculated The camera has a control means for extracting as a movable region, and the camera has a function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of the plant leaf and a reflectance in the spectral reflectance of the plant leaf. A function of capturing an image of the second wavelength band that is locally low, and the control means includes a reflectance of the first wavelength band and a second wavelength band for each point of the image captured by the camera. Reflectivity The point where this reflectance is higher than a predetermined value is determined to be a plant leaf, and from the surrounding shapes acquired by the shape measuring means, the region determined to be a plant leaf is excluded. Then, a plane is extracted from the remaining area, and a movable area is detected.

〔構成5〕
本発明に係る移動体の操縦補助装置は、操縦可能な移動体に搭載された複数のカメラにより基準画像と参照画像とを含むステレオ画像を撮像する撮像手段と、移動体に搭載され撮像手段により得られるステレオ画像に基づいてこのステレオ画像中の平面領域を抽出するとともに抽出された平面領域以外の領域に対して物体検出処理を行い移動可能領域を検出する制御手段と、制御手段により制御される表示手段とを備え、基準画像を撮像するカメラは、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有し、制御手段は、撮像手段により撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、撮像手段により撮像された像のうち、植物の葉であると判別された領域を除外し、残余の領域について、平面領域の抽出及び物体検出処理を行うことを特徴とするものである。
[Configuration 5]
A steering assist device for a moving body according to the present invention includes an imaging unit that captures a stereo image including a reference image and a reference image by a plurality of cameras mounted on a steerable moving body, and an imaging unit that is mounted on the moving body. Control means for extracting a plane area in the stereo image based on the obtained stereo image and performing object detection processing on an area other than the extracted plane area to detect a movable area, and controlled by the control means And a camera that captures a reference image and has a function of capturing an image in a first wavelength band having a high reflectance in the spectral reflectance of the plant leaf and a local reflectance in the spectral reflectance of the plant leaf. And a function of capturing an image of the second wavelength band that is low in frequency, and the control means has a reflectance of the first wavelength band and a second wavelength band for each point of the image captured by the imaging means. Anti The point where the reflectance is higher than a predetermined value is determined to be a plant leaf, and the region determined to be a plant leaf is excluded from the image captured by the imaging means. The remaining area is subjected to extraction of a plane area and object detection processing.

〔構成6〕
本発明に係る移動体の操縦補助装置は、操縦可能な移動体に搭載されこの移動体の周囲を撮像するカメラと、移動体に搭載されこの移動体の周囲の形状を3次元データ群として取得する形状計測手段と、移動体に搭載され3次元データ群から3点以上の3次元データをサンプリングしサンプリングされた3次元データからハフ変換により平面を計算しその平面に近いサンプル点を移動可能領域として抽出する制御手段と、制御手段により制御される表示手段とを備え、カメラは、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有し、制御手段は、撮像手段により撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、形状計測手段により取得された周囲の形状のうち、植物の葉であると判別された領域を除外し、残余の領域について、平面を抽出して、移動可能領域を検出することを特徴とするものである。
[Configuration 6]
The moving body steering assist device according to the present invention is mounted on a steerable moving body and captures a surrounding image of the moving body mounted on the moving body as a three-dimensional data group. A shape measurement means that is mounted on a moving object, samples three or more three-dimensional data from a three-dimensional data group, calculates a plane from the sampled three-dimensional data by Hough transform, and moves a sample point close to the plane And a display unit controlled by the control unit. The camera has a function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of the plant leaf and the leaf of the plant. And having a function of capturing an image of the second wavelength band in which the reflectance is locally low in the spectral reflectance, and the control unit is configured to counteract the first wavelength band for each point of the image captured by the imaging unit. The ratio between the reflectance and the reflectance of the second wavelength band is determined, a point where this reflectance is higher than a predetermined value is determined to be a plant leaf, and among the surrounding shapes acquired by the shape measuring means, the plant A region determined to be a leaf is excluded, a plane is extracted from the remaining region, and a movable region is detected.

〔構成7〕
本発明に係る周囲形状検出方法は、基準画像と参照画像とを含むステレオ画像を複数のカメラにより撮像し、ステレオ画像に基づいてこのステレオ画像中の平面領域を抽出するとともに抽出された平面領域以外の領域に対して物体検出処理を行う周囲形状検出方法であって、基準画像を撮像するカメラとして、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有するものを用いて、基準画像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、基準画像のうち、植物の葉であると判別された領域を除外し、残余の領域について、平面領域の抽出及び物体検出処理を行うことを特徴とするものである。
[Configuration 7]
In the surrounding shape detection method according to the present invention, a stereo image including a base image and a reference image is captured by a plurality of cameras, and a plane area in the stereo image is extracted based on the stereo image, and other than the extracted plane area A surrounding shape detection method for performing an object detection process on a region of the above, and as a camera for capturing a reference image, a function of capturing an image in a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf; Using the one having a function of capturing an image of the second wavelength band having a locally low reflectance in the spectral reflectance of the leaf of the plant, the reflectance of the first wavelength band for each point of the reference image A ratio with the reflectance of the second wavelength band is obtained, a point where the reflectance is higher than a predetermined value is determined to be a plant leaf, and an area determined to be a plant leaf in the reference image is determined. Exclude the remaining area Te, and is characterized in carrying out the extraction and object detection processing of the planar region.

〔構成8〕
本発明に係る周囲形状検出方法は、周囲の形状を3次元データ群として取得し、3次元データ群から3点以上の3次元データをサンプリングしサンプリングされた3次元データからハフ変換により平面を計算しその平面に近いサンプル点を移動可能領域として抽出する周囲形状検出方法であって、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有するカメラを用いて、このカメラにより撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、形状計測手段により取得された周囲の形状のうち、植物の葉であると判別された領域を除外し、残余の領域について平面を抽出して、移動可能領域を検出することを特徴とするものである。
[Configuration 8]
The surrounding shape detection method according to the present invention acquires a surrounding shape as a three-dimensional data group, samples three or more three-dimensional data from the three-dimensional data group, and calculates a plane by Hough transform from the sampled three-dimensional data. A surrounding shape detection method for extracting a sample point close to the plane as a movable region, and a function for capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf and the leaf of the plant Using a camera having a function of capturing an image in the second wavelength band where the reflectance is locally low in spectral reflectance, the reflectance in the first wavelength band for each point of the image captured by this camera And the reflectance of the second wavelength band is determined, a point where the reflectance is higher than a predetermined value is determined to be a leaf of the plant, and among the surrounding shapes acquired by the shape measuring means, Leaves Excluding the determined area, the remaining area by extracting plane, is characterized in that to detect the moving region.

〔構成9〕
本発明に係る自律移動装置の制御方法は、移動可能となされた走行部と、この走行部に搭載された複数のカメラにより基準画像と参照画像とを含むステレオ画像を撮像する撮像手段とを有する自律移動装置を制御する方法であって、基準画像を撮像するカメラとして、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有するものを用いて、撮像手段により撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、撮像手段により撮像された像のうち、植物の葉であると判別された領域を除外し、残余の領域について、ステレオ画像中の平面領域を抽出するとともに抽出された平面領域以外の領域に対して物体検出処理を行い、移動可能領域を検出し、この移動可能領域内において移動予定路を決定し、走行部を制御して移動予定路上を移動させることを特徴とするものである。
[Configuration 9]
The autonomous mobile device control method according to the present invention includes a traveling unit that is movable, and an imaging unit that captures a stereo image including a reference image and a reference image using a plurality of cameras mounted on the traveling unit. A method for controlling an autonomous mobile device, which functions as a camera for capturing a reference image and captures an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf and the spectral reflectance of the plant leaf 2 having a function of capturing an image of the second wavelength band whose reflectance is locally low, and for each point of the image captured by the imaging means, the reflectance of the first wavelength band and the second The ratio of the reflectance with the reflectance of the wavelength band is determined to be a leaf of the plant at a point where the reflectance is higher than a predetermined value, and it is determined to be the leaf of the plant among the images captured by the imaging means. The remaining area and the remaining area , Extracting a planar area in the stereo image, performing object detection processing on an area other than the extracted planar area, detecting a movable area, determining a planned moving path in the movable area, Is controlled to move on the planned movement path.

〔構成10〕
本発明に係る自律移動装置の制御方法は、移動可能となされた走行部と、この走行部に搭載され走行部の周囲を撮像するカメラと、走行部に搭載され走行部の周囲の形状を3次元データ群として取得する形状計測手段とを有する自律移動装置を制御する方法であって、カメラとして、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有するものを用いて、カメラにより撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、形状計測手段により取得された周囲の形状のうち、植物の葉であると判別された領域を除外し、残余の領域について、3次元データ群から3点以上の3次元データをサンプリングし、サンプリングされた3次元データからハフ変換により平面を計算しその平面に近いサンプル点を移動可能領域として抽出するとともに、この移動可能領域内において移動予定路を決定し、走行部を制御して移動予定路上を移動させることを特徴とするものである。
[Configuration 10]
The control method of the autonomous mobile device according to the present invention includes a traveling unit that is movable, a camera that is mounted on the traveling unit and images the surroundings of the traveling unit, and a shape of the surroundings of the traveling unit that is mounted on the traveling unit. A method for controlling an autonomous mobile device having a shape measuring means for acquiring a dimensional data group, the camera having a function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf, The first wavelength band for each point of the image captured by the camera using the one having the function of capturing an image of the second wavelength band whose reflectance is locally low in the spectral reflectance of the plant leaf The ratio between the reflectance of the second wavelength band and the reflectance of the second wavelength band is determined, a point where the reflectance is higher than a predetermined value is determined to be a plant leaf, and among the surrounding shapes acquired by the shape measuring means , The area identified as the leaf of the plant For the remaining area, three or more points of three-dimensional data are sampled from the three-dimensional data group, a plane is calculated from the sampled three-dimensional data by Hough transform, and sample points close to the plane are extracted as movable areas. At the same time, it is characterized in that a planned travel path is determined within the movable region, and the travel unit is controlled to move on the planned travel path.

〔構成11〕
本発明に係る移動体の操縦補助方法は、操縦可能な移動体に搭載された複数のカメラにより基準画像と参照画像とを含むステレオ画像を撮像する撮像手段を用いて、ステレオ画像に基づいてこのステレオ画像中の平面領域を抽出するとともに、抽出された平面領域以外の領域に対して物体検出処理を行い、移動可能領域を検出して、移動体の操縦者を補助する操縦補助方法であって、基準画像を撮像するカメラとして、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有するものを用いて、撮像手段により撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、撮像手段により撮像された像のうち、植物の葉であると判別された領域を除外し、残余の領域について、平面領域の抽出及び物体検出処理を行うことを特徴とするものである。
[Configuration 11]
The mobile object steering assist method according to the present invention uses an imaging unit that captures a stereo image including a reference image and a reference image by a plurality of cameras mounted on a steerable mobile object. A steering assist method for extracting a plane area in a stereo image, performing object detection processing on an area other than the extracted plane area, detecting a movable area, and assisting a driver of a moving object. As a camera for capturing a reference image, a function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf and a second local reflectance in the spectral reflectance of the plant leaf are low. The ratio of the reflectance of the first wavelength band to the reflectance of the second wavelength band is determined for each point of the image captured by the imaging means using a device having a function of capturing an image of the wavelength band of Find this reflectance A point higher than a predetermined value is determined to be a plant leaf, and an area determined to be a plant leaf is excluded from the image captured by the imaging unit, and a planar region is extracted from the remaining region and An object detection process is performed.

〔構成12〕
本発明に係る移動体の操縦補助方法は、操縦可能な移動体に搭載されこの移動体の周囲を撮像するカメラと、移動体に搭載され移動体の周囲の形状を3次元データ群として取得する形状計測手段とを用いて、3次元データ群から3点以上の3次元データをサンプリングし、サンプリングされた3次元データからハフ変換により平面を計算しその平面に近いサンプル点を移動可能領域として抽出して、移動体の操縦者を補助する操縦補助方法であって、カメラとして、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有するものを用いて、カメラにより撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、形状計測手段により取得された周囲の形状のうち、植物の葉であると判別された領域を除外し、残余の領域について、平面を抽出して、移動可能領域を検出することを特徴とするものである。
[Configuration 12]
A method for assisting steering of a moving body according to the present invention includes a camera that is mounted on a movable body that can be steered and that images the surroundings of the moving body, and acquires the shape of the surroundings of the moving body that is mounted on the moving body as a three-dimensional data group. Using shape measurement means, sample 3D data of 3 or more points from 3D data group, calculate plane by Hough transform from sampled 3D data, and extract sample points close to that plane as movable area A steering assist method for assisting a driver of a moving body, and as a camera, a function of capturing an image of a first wavelength band having a high reflectance in a spectral reflectance of a plant leaf and a spectral distribution of the plant leaf With respect to each point of the image captured by the camera using the one having a function of capturing an image of the second wavelength band whose reflectance is locally low, the reflectance of the first wavelength band and the first 2 A ratio with the reflectance of the long band is obtained, a point where this reflectance is higher than a predetermined value is determined to be a plant leaf, and among the surrounding shapes acquired by the shape measuring means, the leaf is a plant The discriminated area is excluded, a plane is extracted from the remaining area, and a movable area is detected.

本発明においては、走行可能な平面部を検出するにあたって、草むらなど緑葉の領域を除外し、残余の領域について、平面部を検出する。そして、この平面部を走行可能領域として検出する。   In the present invention, in detecting a plane portion that can be traveled, a green leaf region such as grass is excluded, and a plane portion is detected for the remaining region. And this plane part is detected as a driving | running | working area | region.

したがって、本発明によれば、公園や河原などにおいても、草むらなどの上面を走行可能な平面として検出してしまうことが防止され、移動体を制御して目的地に正しく到達させることが可能になる。   Therefore, according to the present invention, it is possible to prevent the upper surface such as grass from being detected as a travelable plane even in parks, river fields, and the like, and it is possible to control the moving body to correctly reach the destination. Become.

すなわち、本発明は、例えば草むらなどが存在する進路において、草むらなどの上面を走行可能な平面として検出してしまうことが防止された周囲形状検出装置及び周囲形状検出方法を提供し、また、このような周囲形状検出装置を用いることにより円滑な移動を行うことができるようになされた自律移動装置及び自律移動装置の制御方法を提供し、また、このような移動体の操縦補助装置及び移動体の操縦補助方法を提供することができるものである。   That is, the present invention provides, for example, a surrounding shape detection device and a surrounding shape detection method in which it is prevented that the upper surface of the grass and the like is detected as a travelable plane in a course where grass and the like exist. Provided are an autonomous mobile device and a method for controlling the autonomous mobile device that can perform smooth movement by using such a surrounding shape detection device, and also provides a steering assist device and a mobile object for such a mobile object. It is possible to provide a steering assist method.

本発明に係る自律移動装置の外観構成を示す側面図である。It is a side view which shows the external appearance structure of the autonomous mobile device which concerns on this invention. 本発明に係る自律移動装置の構成を示すブロック図である。It is a block diagram which shows the structure of the autonomous mobile device which concerns on this invention. 本発明における平面領域の手順を示すフローチャートである。It is a flowchart which shows the procedure of the plane area | region in this invention. 本発明における平面領域の手順をの他の例を示すフローチャートである。It is a flowchart which shows the other example of the procedure of the plane area | region in this invention. 図4のステップS201の前工程を示すフローチャートである。It is a flowchart which shows the pre-process of step S201 of FIG. 本発明に係る自律移動装置において、走行部の移動を制御するための手順を示すフローチャートである。It is a flowchart which shows the procedure for controlling the movement of a driving | running | working part in the autonomous mobile device which concerns on this invention. 本発明に係る自律移動装置におけるカメラの構成を示す平面図である。It is a top view which shows the structure of the camera in the autonomous mobile device which concerns on this invention. 本発明に係る自律移動装置におけるカメラの他の構成を示す平面図である。It is a top view which shows the other structure of the camera in the autonomous mobile apparatus which concerns on this invention. 従来の自律移動装置の外観構成を示す側面図である。It is a side view which shows the external appearance structure of the conventional autonomous mobile apparatus. 従来の自律移動装置における移動経路計画を示す平面図である。It is a top view which shows the movement route plan in the conventional autonomous mobile apparatus. 従来の自律移動装置が植生を跨いで移動する様子を示す平面図(a)及び自律移動装置から見た植生の様子を示す斜視図(b)である。It is the top view (a) which shows a mode that the conventional autonomous mobile device moves across vegetation, and the perspective view (b) which shows the mode of the vegetation seen from the autonomous mobile device. 草むらの上面がある程度のバラつきを持ちつつ、なだらかな面を構成している状態を示す斜視図である。It is a perspective view which shows the state which comprises the gentle surface, while the upper surface of a grassy spot has a certain amount of variation.

以下、本発明の実施の形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

〔自律移動装置の構成〕
図1は、本発明に係る周囲形状検出装置を搭載した本発明に係る自律移動装置の外観構成を示す側面図である。
[Configuration of autonomous mobile device]
FIG. 1 is a side view showing an external configuration of an autonomous mobile device according to the present invention equipped with a surrounding shape detection device according to the present invention.

なお、本発明に係る周囲形状検出方法は、本発明に係る周囲形状検出装置において実行され、また、本発明に係る自律移動装置の制御方法は、本発明に係る自律移動装置において実行される。   The surrounding shape detection method according to the present invention is executed in the surrounding shape detection device according to the present invention, and the autonomous mobile device control method according to the present invention is executed in the autonomous mobile device according to the present invention.

本発明に係る自律移動装置は、図1に示すように、移動可能となされた走行部1を有し、この走行部1に、ステレオカメラ3aL,3aRを含む複数のカメラにより基準画像と参照画像とを撮像する撮像手段が搭載されて構成されている。   As shown in FIG. 1, the autonomous mobile device according to the present invention has a traveling unit 1 that can be moved. A plurality of cameras including stereo cameras 3aL and 3aR are used as a reference image and a reference image. The image pickup means for picking up images is mounted and configured.

なお、走行部1には、この走行部1の周囲の形状を計測するレーザレンジファインダ(LRF)2を搭載してもよい。このレーザレンジファインダ2は、ラインスキャン(2次元スキャン)型、または、面スキャン(3次元スキャン)型のレーザレンジファインダであって、走行部1から周囲の形状までの距離情報を得ることができる。   The traveling unit 1 may be equipped with a laser range finder (LRF) 2 that measures the shape around the traveling unit 1. The laser range finder 2 is a line scan (two-dimensional scan) type or surface scan (three-dimensional scan) type laser range finder, and can obtain distance information from the traveling unit 1 to the surrounding shape. .

複数のカメラ3aL,3aRのうち、少なくとも基準画像を撮像する一方のカメラ3aLは、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能を有する第1のカメラ3a及び植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能を有する第2のカメラ3bとして構成されている。すなわち、一方のカメラ3aLは、同一の像について2つの波長の像に分離して撮影する機能を有している。   Of the plurality of cameras 3aL and 3aR, at least one camera 3aL that captures a reference image has a function of capturing an image in a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf. 3a and a second camera 3b having a function of capturing an image of a second wavelength band having a locally low reflectance in the spectral reflectance of the plant leaf. That is, one camera 3aL has a function of photographing the same image separately into two wavelength images.

植物の葉の分光反射率において反射率の高い第1の波長帯域は、例えば、800nm乃至1300nmである。第1のカメラ3aは、この第1の波長帯域のうちの幅100nm以上の波長域の光を透過させる第1のフィルタを備え、この第1のフィルタを透過した光を撮像するように構成されている。なお、第1のフィルタにおける透過光の波長幅を過度に狭くすると、撮像される光量が少なくなり、相対的にノイズが増大し、S/Nが悪くなる。   The first wavelength band having a high reflectance in the spectral reflectance of a plant leaf is, for example, 800 nm to 1300 nm. The first camera 3a includes a first filter that transmits light in a wavelength region having a width of 100 nm or more in the first wavelength band, and is configured to take an image of light that has passed through the first filter. ing. Note that if the wavelength width of the transmitted light in the first filter is excessively narrowed, the amount of light to be captured decreases, the noise increases relatively, and the S / N deteriorates.

植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域は、葉の構成要素の吸収が生じている波長帯域であり、例えば、クロロフィルの吸収帯である640nm±40nmである。第2のカメラ3bは、この第2の波長帯域のうちの幅30nm乃至100nm程度の波長域の光を透過させる第2のフィルタを備え、この第2のフィルタを透過した光を撮像するように構成されている。第2のフィルタにおける透過光の波長幅を過度に狭くすると、撮像される光量が少なくなり、相対的にノイズが増大しS/Nが悪くなるので、中心波長に対する幅80nm程度を透過させるフィルタが好適である。   The second wavelength band in which the reflectance of the spectral reflectance of the plant is locally low is a wavelength band in which the absorption of the leaf component occurs, for example, the absorption band of chlorophyll is 640 nm ± 40 nm. . The second camera 3b includes a second filter that transmits light having a wavelength range of about 30 nm to 100 nm in the second wavelength band, and images the light transmitted through the second filter. It is configured. If the wavelength width of the transmitted light in the second filter is excessively narrowed, the amount of light to be imaged decreases, the noise increases relatively, and the S / N deteriorates. Therefore, a filter that transmits a width of about 80 nm with respect to the center wavelength. Is preferred.

なお、第2の波長帯域は、水の吸収帯としてもよい。例えば、1240nm±10nm(フィルタの透過幅を10nm〜50nmとする)、1450nm±50nm(フィルタの透過幅50nm〜150nmとする)、1940nm±100nm(フィルタの透過幅50nm〜250nmとする)などである。   The second wavelength band may be a water absorption band. For example, 1240 nm ± 10 nm (the transmission width of the filter is 10 nm to 50 nm), 1450 nm ± 50 nm (the transmission width of the filter is 50 nm to 150 nm), 1940 nm ± 100 nm (the transmission width of the filter is 50 nm to 250 nm), etc. .

このようにして、第1及び第2のカメラ3a,3bは、撮像対象からの光量を2次元の受光素子で計測し、この光量に比例する値を輝度値として測定することができる。   In this way, the first and second cameras 3a and 3b can measure the amount of light from the imaging target with the two-dimensional light receiving element and measure a value proportional to the amount of light as the luminance value.

図2は、本発明に係る自律移動装置の構成を示すブロック図である。   FIG. 2 is a block diagram showing the configuration of the autonomous mobile device according to the present invention.

そして、図2に示すように、走行部1内には、制御手段21が搭載されている。この制御手段21は、撮像手段により得られるステレオ画像に基づいて、このステレオ画像中の平面領域を抽出するとともに、抽出された平面領域以外の領域に対して物体検出処理を行う。また、この制御手段21は、平面領域を移動可能領域として検出し、この移動可能領域内において移動予定路を決定し、走行部1を制御して移動予定路上を移動させる。   As shown in FIG. 2, a control unit 21 is mounted in the traveling unit 1. The control unit 21 extracts a plane area in the stereo image based on the stereo image obtained by the imaging unit, and performs object detection processing on an area other than the extracted plane area. Further, the control means 21 detects the plane area as a movable area, determines a planned movement path within the movable area, and controls the traveling unit 1 to move on the planned movement path.

制御手段21には、撮像手段の他に、レーザレンジファインダ2、ジャイロ22及びGPS(受信機)23などを接続してもよい。制御手段21は、第1及び第2のカメラ3a,3bからの情報に基づいて、後述するように、植物の葉(植生)の検出を行う。また、制御手段21は、撮像手段により得られるステレオ画像に基づいて、後述するように、ステレオ画像中の平面領域を抽出する。また、制御手段21は、レーザレンジファインダ2及びジャイロ22からの情報について、撮像手段による撮影時のカメラ座標への変換を行う。そして、制御手段21は、撮像手段により得られるステレオ画像上において対応する植生情報を獲得する。   A laser range finder 2, a gyro 22 and a GPS (receiver) 23 may be connected to the control means 21 in addition to the imaging means. Based on information from the first and second cameras 3a and 3b, the control means 21 detects the leaves (vegetation) of the plant as will be described later. Further, the control unit 21 extracts a planar area in the stereo image based on the stereo image obtained by the imaging unit, as will be described later. The control unit 21 converts information from the laser range finder 2 and the gyro 22 into camera coordinates at the time of shooting by the imaging unit. And the control means 21 acquires corresponding vegetation information on the stereo image obtained by an imaging means.

さらに、制御手段21は、検出された植物の葉(植生)の位置及び抽出された平面領域に基づいて、障害物の有無、すなわち、通行可能かの判定を行い、通行可能エリアを示す地図を作成する。このとき、平面領域の抽出については、植物の葉(植生)の領域を除外した残余の部分について、平面領域を抽出する。   Furthermore, the control means 21 determines the presence or absence of an obstacle, that is, whether the vehicle is allowed to pass, based on the detected position of the plant leaf (vegetation) and the extracted plane area, and displays a map indicating the accessible region. create. At this time, regarding the extraction of the planar region, the planar region is extracted for the remaining part excluding the plant leaf (vegetation) region.

このようにして作成された通行可能エリアを示す地図に基づき、制御手段21は、移動予定計画を生成し、また、GPS(受信機)23からの情報に基づいて、軌道ずれを補正する行動計算を行う。この計算結果に基づき、制御手段21は、ステアリング指示角及びアクセル指示量を計算する。   Based on the map showing the passable area created in this way, the control means 21 generates a planned movement plan and corrects the orbital deviation based on the information from the GPS (receiver) 23. I do. Based on this calculation result, the control means 21 calculates the steering instruction angle and the accelerator instruction amount.

制御手段21には、ブレーキ駆動モータ24、アクセル駆動モータ25及びステアリング駆動モータ26が接続されている。制御手段21は、計算されたステアリング指示角及びアクセル指示量に基づいて、これらブレーキ駆動モータ24、アクセル駆動モータ25及びステアリング駆動モータ26を制御する。ブレーキ駆動モータ24は、ブレーキ27を駆動する。アクセル駆動モータ25は、アクセル28を駆動する。ステアリング駆動モータ26は、ステアリング29を駆動する。走行部1は、これらブレーキ27、アクセル28及びステアリング29が駆動されることにより、移動予定路上を移動する。   A brake drive motor 24, an accelerator drive motor 25, and a steering drive motor 26 are connected to the control means 21. The control means 21 controls the brake drive motor 24, the accelerator drive motor 25, and the steering drive motor 26 based on the calculated steering instruction angle and accelerator instruction amount. The brake drive motor 24 drives the brake 27. The accelerator drive motor 25 drives the accelerator 28. The steering drive motor 26 drives the steering 29. The traveling unit 1 moves on the planned travel path by driving the brake 27, the accelerator 28, and the steering 29.

〔植物の葉(植生)の検出〕
制御手段21は、撮像手段により撮像された像の各点について、第1の波長帯域の輝度と第2の波長帯域の輝度との比を求め、この輝度比が所定値よりも高い点を植物の葉であると判別する。すなわち、制御手段は、空間上で対応する同じ位置の点における第1の波長帯域の輝度と第2の波長帯域の輝度との比率を求めて、この比率の大小により、植物の葉の判別を行う。
[Detection of plant leaves (vegetation)]
The control means 21 obtains the ratio of the luminance in the first wavelength band and the luminance in the second wavelength band for each point of the image picked up by the image pickup means, and determines the point where the luminance ratio is higher than a predetermined value as a plant. It is determined that it is a leaf. That is, the control means obtains the ratio of the luminance of the first wavelength band and the luminance of the second wavelength band at the same corresponding point in space, and discriminates the leaves of the plant based on the ratio. Do.

この判別を行うには、空間上で対応する同じ位置の各点について、輝度値の比に基づき、反射率比RefRate(第1の波長帯域の反射率/第2の波長帯域の反射率)を求める。   In order to make this determination, the reflectance ratio RefRate (reflectance in the first wavelength band / reflectance in the second wavelength band) is calculated for each point at the same position in space based on the ratio of the luminance values. Ask.

Figure 2011013803
・・・・(式1)
反射率比RefRateは、計測された各波長帯の輝度値の比(V/V)に、係数(RefBase)を掛け、その時の露光時間の比(E/E)及びゲインの比(K/K)で除算することで求める。係数(RefBase)はカメラ3aL,3bの受光素子の効率やゲイン係数、光源の分光光量比を補正するための値であり、既知反射率を持つ校正用の撮影対象を事前に、もしくは、計測と同時に撮影することにより求めることができる。
Figure 2011013803
... (Formula 1)
The reflectance ratio RefRate is obtained by multiplying the ratio (V 1 / V 2 ) of the measured luminance values of each wavelength band by a coefficient (RefBase), and the ratio of the exposure time (E 1 / E 2 ) and the gain ratio at that time It is obtained by dividing by (K 1 / K 2 ). The coefficient (RefBase) is a value for correcting the efficiency and gain coefficient of the light receiving elements of the cameras 3aL and 3b and the spectral light amount ratio of the light source. It can be obtained by photographing at the same time.

そして、制御手段21は、この反射率比が、2.0乃至3.0の間の所定の値、例えば、2.5より大きい箇所を植物の葉(植生)と判断する。以下の〔表1〕に示すように、日照下において、NIR(近赤外光(850nm〜1000nm))の反射率とVISR(可視赤色光(600nm〜680nm))の反射率との反射率比は、植物では3.0以上となり、非植物では2.0以下となっているので、2.0乃至3.0の間の所定の値を閾値とすることにより、植物の有無を判断することができる。   Then, the control means 21 determines that the reflectance ratio is a predetermined value between 2.0 and 3.0, for example, a location where the reflectance ratio is greater than 2.5 as a plant leaf (vegetation). As shown in [Table 1] below, the reflectance ratio between the reflectance of NIR (near infrared light (850 nm to 1000 nm)) and the reflectance of VISR (visible red light (600 nm to 680 nm)) under sunlight. Since it is 3.0 or more for plants and 2.0 or less for non-plants, the presence or absence of plants is determined by setting a predetermined value between 2.0 and 3.0 as a threshold value. Can do.

Figure 2011013803
なお、制御手段21は、撮像手段により得られたステレオ画像のうち、植物の葉であると判別された箇所については、この形状を避けるか否かを判断するための高さの閾値を変更し、この形状を避けるか否かを判断するようにしてもよい。
Figure 2011013803
Note that the control means 21 changes the height threshold for determining whether or not to avoid this shape in the stereo image obtained by the imaging means for a portion determined to be a plant leaf. It may be determined whether to avoid this shape.

〔平面領域の抽出〕
図3は、本発明における平面領域の手順を示すフローチャートである。
[Plane area extraction]
FIG. 3 is a flowchart showing the procedure of the planar area in the present invention.

平面領域の抽出は、以下のようにして行う。   Extraction of a planar area is performed as follows.

すなわち、図3に示すように、まず、一方のカメラ(基準カメラ)3aL及び他方のカメラ(参照カメラ)3aRにより、走行部1が走行する道路平面領域を含む基準画像及び参照画像を所定の時間間隔で撮像し、制御手段21において所定の画像処理を行った後、各時間毎の画像情報として記憶する(ステップS101)。   That is, as shown in FIG. 3, first, a standard image and a reference image including a road plane area on which the traveling unit 1 travels are transmitted for a predetermined time by using one camera (reference camera) 3aL and the other camera (reference camera) 3aR. Images are taken at intervals, and after predetermined image processing is performed by the control means 21, they are stored as image information for each time (step S101).

次に、参照画像中の道路平面領域を、基準画像中の道路平面領域に2次元射影変換する射影変換行列を動的に算出する(ステップS102)。   Next, a projective transformation matrix for performing two-dimensional projective transformation from the road plane area in the reference image to the road plane area in the standard image is dynamically calculated (step S102).

そして、ステップS102で算出した射影変換行列を用いて、基準画像から道路平面領域を抽出する(ステップS103)。   Then, a road plane region is extracted from the reference image using the projective transformation matrix calculated in step S102 (step S103).

次に、道路平面の法線ベクトル及び一方のカメラ(基準カメラ)3aLの光学中心から道路平面までの距離を平面パラメータとして算出する(ステップS104)。   Next, the normal vector of the road plane and the distance from the optical center of one camera (reference camera) 3aL to the road plane are calculated as plane parameters (step S104).

次に、ステップS104で算出した平面パラメータを用いて、ステップS103で抽出した道路平面領域を道路面上に変換して、障害物となる可能性のある物体を検出し、もしくは、ステップS103で抽出した道路平面領域以外の領域に対してステレオ計測することにより、物体を検出する(ステップS105)。   Next, using the plane parameter calculated in step S104, the road plane area extracted in step S103 is converted to a road surface to detect an object that may become an obstacle, or extracted in step S103. An object is detected by performing stereo measurement on an area other than the road plane area (step S105).

そして、抽出された各物体の時間毎の位置変化から、走行部1に対する各物体の相対速度ベクトルを算出する(ステップS106)。   Then, a relative velocity vector of each object with respect to the traveling unit 1 is calculated from the position change of each object for each time (step S106).

さらに、ステップS104で算出した道路平面の傾きである法線ベクトルを用いて、道路面を上方から見た画像である仮想投影面(VPP)画像を生成する(ステップS107)。   Further, a virtual projection plane (VPP) image that is an image of the road surface viewed from above is generated using the normal vector that is the inclination of the road plane calculated in step S104 (step S107).

そして、ステップS107で生成されたVPP画像の各時刻での位置から走行部1の速度ベクトルを算出する(ステップS108)。   Then, the speed vector of the traveling unit 1 is calculated from the position at each time of the VPP image generated in step S107 (step S108).

さらに、ステップS106で算出した物体の相対速度ベクトルと、ステップS108で算出した走行部1の速度ベクトルとを用いて、各物体の絶対速度ベクトルを算出する(ステップS109)。   Furthermore, the absolute velocity vector of each object is calculated using the relative velocity vector of the object calculated in step S106 and the velocity vector of the traveling unit 1 calculated in step S108 (step S109).

〔平面領域の抽出の他の例〕
図4は、本発明における平面領域の手順をの他の例を示すフローチャートである。
[Other examples of planar area extraction]
FIG. 4 is a flowchart showing another example of the procedure of the planar area in the present invention.

本発明における平面領域の抽出は、以下のように、ハフ変換(Hough Transform)を使用して行ってもよい。   Extraction of a planar region in the present invention may be performed using Hough Transform as follows.

ハフ変換には、Forward Position,Backward Position,Feature Point Pairs等といわれるいくつかの方法がある。以下、これらのハフ変換について、簡単のため、2次元画像平面内の直線検出の例として説明する。元画像からは何らかの画像処理により、エッジ(直線上にのると予想される特徴点)が検出されているものとする。また、特徴点の数をMとし、元画像の大きさをL×L、投票先のパラメータ空間(投票箱)の大きさをl(エル)×l(エル)とする。   There are several methods for Hough transform called Forward Position, Backward Position, Feature Point Pairs, etc. Hereinafter, for the sake of simplicity, these Hough transforms will be described as examples of straight line detection in a two-dimensional image plane. It is assumed that an edge (feature point expected to be on a straight line) is detected from the original image by some image processing. Further, the number of feature points is M, the size of the original image is L × L, and the size of the parameter space (voting box) of the vote destination is l (el) × l (el).

Forward Positionでは、元画像の特徴点を順次たどり、各点をパラメータ空間内に写像したときの曲線が通るスロット1つ1つに投票していく。アルゴリズムの複雑度はO(Ml)である。   In the Forward Position, the feature points of the original image are sequentially traced and voted for each slot through which a curve passes when each point is mapped in the parameter space. The complexity of the algorithm is O (Ml).

Backward Positionでは、パラメータ空間内の各スロットを順次操作し、各スロットを元画像に対し逆写像した直線上にのっている特徴点の数をそのスロットの得票とする。アルゴリズムの複雑度はO(Ll2)である。   In Backward Position, each slot in the parameter space is sequentially operated, and the number of feature points on a straight line obtained by inversely mapping each slot to the original image is used as a vote for that slot. The complexity of the algorithm is O (L12).

Feature Point Pairsでは、特徴点2点のあらゆる組み合わせを順次たどり、その2点の組から計算されるパラメータが属するスロッドに得票する。アルゴリズムの複雑度はO(M2)である。   In Feature Point Pairs, every combination of two feature points is traced sequentially, and a vote is calculated for the slot to which the parameter calculated from the pair of the two points belongs. The complexity of the algorithm is O (M2).

しかしながら、これらのハフ変換により3次元データから平面を抽出する方法は、演算量及び使用メモリが極めて多くなる。これは、次元数が2次元よりも1つ多い上に、全てのデータポイントが特徴点としての意味を有するためである。従って、これらのハフ変換は、3次元データからの平面検出というタスクにおいては、演算量及び使用メモリの観点から何れも現実的ではない。   However, the method of extracting a plane from three-dimensional data by these Hough transforms requires an extremely large amount of computation and memory used. This is because the number of dimensions is one more than two dimensions and all data points have meaning as feature points. Accordingly, these Hough transforms are not practical in terms of the amount of calculation and the memory used in the task of plane detection from three-dimensional data.

また、ランダム化ハフ変換(Randomized Hough Transform:RHT)と呼ばれるハフ変換がある。このランダム化ハフ変換は、上述したFeature Point Pairsの派生であり、上述の2次元画像平面内においては、特徴点2点のあらゆる組み合わせではなく、ランダムサンプリングによるK通りの組み合わせについてのみ処理を行うものである。このアルゴリズムの複雑度はO(K)である。   There is also a Hough transform called Randomized Hough Transform (RHT). This randomized Hough transform is a derivation of the above-mentioned Feature Point Pairs, and in the above-described two-dimensional image plane, processing is performed only for K combinations by random sampling, not all combinations of two feature points. It is. The complexity of this algorithm is O (K).

本発明における平面領域の抽出は、3次元データからランダムにデータをサンプリングして平面パラメータを算出し、ハフ変換(ランダム化ハフ変換:Randomized Hough Transform)、すなわち、平面パラメータを投票空間に直接投票して平面であるか否かを決定するものである。すなわち、N個の3次元データから、法線ベクトルの向き(θ,φ)を、原点からの距離をdとしたときの平面パラメータ(θ,φ,d)、すなわち、平面方程式を求める方法である。   In the present invention, the extraction of a plane area is performed by sampling data randomly from three-dimensional data to calculate a plane parameter, and by voting the plane parameter directly to the voting space (Randomized Hough Transform). It is determined whether it is a plane. That is, from the three pieces of three-dimensional data, the plane vector (θ, φ, d) where the direction of the normal vector (θ, φ) is d and the distance from the origin is d, that is, a plane equation is obtained. is there.

この手順においては、まず、撮像手段によるステレオ画像、または、レーザレンジファインダ2によって得られた視差、または、距離情報は、適切なキャリブレーションに基づく変換により、3次元データに変換し、この3次元データの配列を用意しておく。   In this procedure, first, the stereo image obtained by the imaging means, or the parallax or distance information obtained by the laser range finder 2 is converted into three-dimensional data by conversion based on appropriate calibration, and this three-dimensional data is converted. Prepare an array of data.

まず、N個のデータ(3次元データ){p1,p2,p3,…,pN}からM組のサブセット{p11,p21,p31,…,pN1},{p12,p22,p32,…,pN2},…,{p1M,p2M,p3M,…,pNM}を取り出す(ステップS201)。このときの「投票総数」をMとする。   First, from N pieces of data (three-dimensional data) {p1, p2, p3,..., PN}, M sets of subsets {p11, p21, p31,..., PN1}, {p12, p22, p32,. ,..., {P1M, p2M, p3M,..., PNM} are extracted (step S201). The “total number of votes” at this time is M.

次に、各サブセット{p1i,p2i,p3i,…,pNi}から、パラメータ(θi,φi,di)を計算する(ステップS202)。次いで、計算されたパラメータを量子化し、投票先グリッドを決定し、これに対して各パラメータ毎に個別に投票を行う(ステップS203)。   Next, parameters (θi, φi, di) are calculated from each subset {p1i, p2i, p3i,..., PNi} (step S202). Next, the calculated parameters are quantized to determine a voting destination grid, and voting is performed for each parameter individually (step S203).

そして、最終的に投票数が多いパラメータを解とする。すなわち、このパラメータを有する平面を平面として決定する(ステップS204)。   Finally, a parameter having a large number of votes is taken as a solution. That is, a plane having this parameter is determined as a plane (step S204).

ここで、ステップS201でデータを取り出す前に行われる処理について説明する。   Here, the process performed before extracting data in step S201 will be described.

図5は、図4のステップS201の前工程を示すフローチャートである。   FIG. 5 is a flowchart showing a pre-process of step S201 in FIG.

ここでは、距離画像、または、視差画像等のような形で得られた3次元座標データ群を処理する方法について説明する。図5に示すように、撮像手段(カメラ3aL,3aR)、または、レーザレンジファインダ2からのデータが入力され、キャリブレーション、または、パラメータ変換されて、3次元のデータ配列が生成される(ステップS301)。ここで、3次元座標に変換された3次元データ群と共に、この3次元データの信頼度rを示す信頼度パラメータがカメラ3aL,3aR、または、レーザレンジファインダ2から入力される(ステップS302)。この実施の形態においては、ステレオ画像等に基づく距離画像を入力画像とし、ステレオ距離計算の過程で得られる信頼度パラメータを有効利用することができる。また、このような信頼度パラメータが利用不可能である場合には、これを定数と見なすことにより、信頼度パラメータが付随しない3次元データにも直接応用することができる。   Here, a method of processing a three-dimensional coordinate data group obtained in a form such as a distance image or a parallax image will be described. As shown in FIG. 5, data from the imaging means (cameras 3aL, 3aR) or the laser range finder 2 is input, and calibration or parameter conversion is performed to generate a three-dimensional data array (steps). S301). Here, together with the three-dimensional data group converted into three-dimensional coordinates, a reliability parameter indicating the reliability r of this three-dimensional data is input from the cameras 3aL, 3aR or the laser range finder 2 (step S302). In this embodiment, a distance image based on a stereo image or the like is used as an input image, and a reliability parameter obtained in the process of stereo distance calculation can be used effectively. Further, when such a reliability parameter cannot be used, it can be directly applied to three-dimensional data not accompanied by the reliability parameter by regarding it as a constant.

信頼度パラメータは、様々な評価値を用いて求めることができるが、この実施の形態においては、テンプレートの分散値による信頼度パラメータの求め方及びマッチングスコアによる信頼度パラメータの求め方の2つの方法について説明する。   The reliability parameter can be obtained by using various evaluation values, but in this embodiment, there are two methods of obtaining the reliability parameter based on the variance value of the template and how to obtain the reliability parameter based on the matching score. Will be described.

上述したように、この実施の形態における3次元データは、ステレオ画像による距離画像を入力としている。ステレオ距離計測では、ステレオ画像中の画素の対応関係をテンプレートマッチングによって探索する。例えば、左の画像を基準画像、右の画像を参照画像とし、マッチングテンプレート内の画素の輝度の分散値を求める。そして、探索する全てのテンプレートの分散値を算出し、分散値の大きさを信頼度パラメータとすることができる。すなわち、分散値が高いほど、信頼度が高いことを示し、分散値が低いほど、信頼度が低いことを示す。   As described above, the three-dimensional data in this embodiment has a distance image as a stereo image as an input. In stereo distance measurement, the correspondence between pixels in a stereo image is searched by template matching. For example, the left image is set as a reference image, and the right image is set as a reference image, and a luminance dispersion value of pixels in the matching template is obtained. Then, the variance values of all the templates to be searched can be calculated, and the size of the variance value can be used as the reliability parameter. That is, the higher the variance value, the higher the reliability, and the lower the variance value, the lower the reliability.

また、マッチングスコアによる信頼度画像の求め方としては、基準画像におけるテンプレートと、参照画像のエピポーララインに沿って選択された領域とを比較し、これらの領域内の画素の輝度の差からマッチングスコア値を算出することができる。そして、マッチングスコア値、最小マッチングスコア値付近におけるピークの幅及びグラフの急峻度値等から、マッチングスコアによる信頼度パラメータを求めることができる。すなわち、マッチングスコア値が低く、最小スコア値付近におけるピークの幅が小さく、グラフの急峻度値が大きいものほど、信頼度が高いことを示す。   In addition, as a method of obtaining a reliability image based on the matching score, the template in the base image and the area selected along the epipolar line of the reference image are compared, and the matching score is determined from the difference in luminance of pixels in these areas. A value can be calculated. Then, the reliability parameter based on the matching score can be obtained from the matching score value, the peak width near the minimum matching score value, the steepness value of the graph, and the like. That is, the lower the matching score value, the smaller the peak width near the minimum score value, and the larger the steepness value of the graph, the higher the reliability.

このように、各3次元パラメータは個別に信頼度パラメータが算出され、この信頼度パラメータにより、信頼度が所定の閾値より低いデータは切り捨てる等して入力データの選別が行われる(ステップS303)。この実施の形態のように、信頼度パラメータによる3次元データの選別を行うことにより、信頼性及び安定性を向上し、性能悪化を防止することができる。   In this way, a reliability parameter is calculated for each three-dimensional parameter, and input data is selected by discarding data whose reliability is lower than a predetermined threshold value by this reliability parameter (step S303). As in this embodiment, by selecting three-dimensional data based on the reliability parameter, it is possible to improve reliability and stability and prevent performance deterioration.

〔自律移動装置の動作〕
この自律移動装置は、動作を開始すると、ステレオカメラ3aL,3aRによる撮像を行う。このとき、レーザレンジファインダ2による計測(スキャン)を並行して行ってもよい。そして、第1及び第2のカメラ3a,3bにより得られた画像において、植物領域及び非植物領域の判別を行う。また、ステレオカメラ3aL,3aRにより得られたステレオ画像に、植物領域及び非植物領域の判別結果を対応させる。なお、このとき、植物領域であって走行可能な領域(植物の高さが所定の高さ以下である領域)を検出してもよい。
[Operation of autonomous mobile device]
When the autonomous mobile device starts operation, it performs imaging by the stereo cameras 3aL and 3aR. At this time, measurement (scanning) by the laser range finder 2 may be performed in parallel. Then, in the images obtained by the first and second cameras 3a and 3b, the plant area and the non-plant area are discriminated. Moreover, the discrimination result of a plant area | region and a non-plant area | region is matched with the stereo image obtained by stereo camera 3aL and 3aR. At this time, a region that is a plant region and can travel (a region where the height of the plant is a predetermined height or less) may be detected.

また、ステレオカメラ3aL,3aRにより得られたステレオ画像から走行可能な平面領域を抽出するにあたっては、予め、対象画像から植物の葉(植生)の領域を除外し、残余の部分について、平面領域の抽出を行う。このとき、非植物領域であって走行可能な平面領域が検出できる。   Further, in extracting a plane area that can be traveled from the stereo images obtained by the stereo cameras 3aL and 3aR, the area of the plant leaf (vegetation) is excluded from the target image in advance, and the remaining part of the plane area is extracted. Perform extraction. At this time, a planar area that is a non-plant area and can travel can be detected.

図6は、走行部1の移動を制御するための手順を示すフローチャートである。   FIG. 6 is a flowchart showing a procedure for controlling the movement of the traveling unit 1.

この自律移動装置において、制御手段21は、図6に示すように、ステップst11で処理を開始すると、移動体1の動作中において(ステップst12)、ステップst13に進み、ステレオカメラ3aL,3aRによる撮影を行う。   In this autonomous mobile device, as shown in FIG. 6, when the control means 21 starts the processing in step st11, the control unit 21 proceeds to step st13 during the operation of the moving body 1 (step st12), and is photographed by the stereo cameras 3aL and 3aR. I do.

次に、ステップst14において、ジャイロ22により、撮影時の走行部1の姿勢を計測し記憶しておく。次に、ステップst15において、植物の葉(植生)の有無を判別し、植生判定画像として記憶しておく。ステップst16において、次のフレームの画像の撮影時刻まで待機し、ステップst17に進み、レーザレンジファインダ2により、ラインスキャンを行う。ステップst18において、ジャイロ22により、ラインスキャン時の走行部1の姿勢を計測し記憶しておく。   Next, in step st14, the attitude of the traveling unit 1 at the time of photographing is measured and stored by the gyro 22. Next, in step st15, the presence or absence of a plant leaf (vegetation) is determined and stored as a vegetation determination image. In step st16, the process waits until the image capturing time of the next frame, and proceeds to step st17 where line scanning is performed by the laser range finder 2. In step st18, the gyro 22 measures and stores the attitude of the traveling unit 1 during the line scan.

ステップst19において、1ラインスキャン内の各点を測距点として設定し、ステップst20に進み、撮像時の走行部1の姿勢、ラインスキャン時の走行部1の姿勢及び一方のカメラ3aLとレーザレンジファインダ2との相対位置関係に基づいて、前述したように、画像上の対応位置を計算する。   In step st19, each point in one line scan is set as a distance measuring point, and the process proceeds to step st20, where the posture of the traveling unit 1 during imaging, the posture of the traveling unit 1 during line scanning, and one camera 3aL and the laser range. Based on the relative positional relationship with the finder 2, the corresponding position on the image is calculated as described above.

そして、制御手段21は、ステップst21において、記憶された植生判定画像を参照し、植物の葉(植生)の領域を除外し、ステップst22において、残余の領域について、平面部分の抽出を行う。すなわち、ステップst22における処理においては、植物の葉(植生)の領域は、計算対象外として、平面領域の抽出処理から除外されている。ここで、図3に示した平面領域の抽出処理を行う場合には、植物の葉(植生)の領域に対応する画像上の領域を対象外マスクとし、このマスク領域では画像の差分処理を行わないことにより実現できる。また、図4に示した手順により平面を検出する場合には、植物の葉(植生)の領域と判断された領域に対応する周囲の計測結果を、投票に用いないことにより実現できる。   Then, in step st21, the control means 21 refers to the stored vegetation determination image, excludes the plant leaf (vegetation) region, and in step st22, extracts the planar portion of the remaining region. That is, in the process in step st22, the leaf (vegetation) area of the plant is excluded from the calculation process of the planar area as a calculation object. Here, when performing the planar region extraction processing shown in FIG. 3, the region on the image corresponding to the plant leaf (vegetation) region is set as a non-target mask, and image difference processing is performed in this mask region. It can be realized by not. In addition, when a plane is detected by the procedure shown in FIG. 4, it can be realized by not using the measurement results of the surroundings corresponding to the area determined to be a plant leaf (vegetation) area for voting.

ステップst23においては、次のラインスキャンまでステップst19以降の処理をループし、ステップst24においては、次の画像撮影時刻までステップst16以降の処理をループして、ステップst25に進む。   In step st23, the processing after step st19 is looped until the next line scan, and in step st24, the processing after step st16 is looped until the next image capturing time, and the process proceeds to step st25.

ステップst25では、記憶された障害物地図に基づいて、移動計画を生成し、ステップst26では、ジャイロ22及びGPS(受信機)23により、現在位置を計測し、ステップst27に進む。   In step st25, a movement plan is generated based on the stored obstacle map. In step st26, the current position is measured by the gyro 22 and the GPS (receiver) 23, and the process proceeds to step st27.

ステップst27では、ステアリング及びブレーキを制御して、走行部1の軌道修正を行い、ステップst28では、動作中ループとして、ステップst2に戻る。   In step st27, the steering and the brake are controlled to correct the track of the traveling unit 1, and in step st28, the operation loop is returned to step st2.

〔他の実施の形態〕
図7は、本発明に係る自律移動装置におけるカメラの構成を示す平面図である。
[Other Embodiments]
FIG. 7 is a plan view showing the configuration of the camera in the autonomous mobile device according to the present invention.

本発明に係る自律移動装置において、2つの波長帯における撮影を行う一方のカメラ3aL(3a,3b)は、図7に示すように、撮像対象から対物レンズ4に入射した光をダイクロイックミラー5によって2つの波長帯域に分けて、それぞれを撮像素子6,7により撮像するように構成することができる。すなわち、対物レンズ4に入射した光は、ダイクロイックミラー5など、波長選択性を有する光学素子により、第1の波長帯域と第2の波長帯域とに分けられる。第1の波長帯域の光は、第1の波長帯域光を透過する第1のフィルタ8及び集光レンズ9を経て、第1の撮像素子6により撮像される。第2の波長帯域の光は、第2の波長帯域光を透過する第2のフィルタ10及び集光レンズ11を経て、第2の撮像素子7により撮像される。   In the autonomous mobile device according to the present invention, one camera 3aL (3a, 3b) that performs imaging in two wavelength bands is configured to transmit light incident on the objective lens 4 from an imaging target by a dichroic mirror 5 as shown in FIG. It can be configured to divide into two wavelength bands and to pick up images with the image pickup devices 6 and 7 respectively. That is, light incident on the objective lens 4 is divided into a first wavelength band and a second wavelength band by an optical element having wavelength selectivity such as a dichroic mirror 5. The light in the first wavelength band is imaged by the first image sensor 6 through the first filter 8 and the condenser lens 9 that transmit the first wavelength band light. The light in the second wavelength band is imaged by the second image sensor 7 through the second filter 10 and the condenser lens 11 that transmit the second wavelength band light.

図8は、本発明に係る自律移動装置におけるカメラの他の構成を示す平面図である。   FIG. 8 is a plan view showing another configuration of the camera in the autonomous mobile device according to the present invention.

また、複数のカメラは、図8に示すように、第1の波長帯域の撮像を行うステレオカメラ3aL,3aRと、これらとは別に第2の波長帯域の撮像を行う第2のカメラ3bを設けて構成してもよい。第1の波長帯域の撮像を行うカメラ3aLは、第1の波長帯域光を透過する第1のフィルタ8及び対物レンズ4を介して、第1の撮像素子6により撮像する第1のカメラ3aとして機能するように構成されている。第2の波長帯域の撮像を行う第2のカメラ3bは、第2の波長帯域光を透過する第2のフィルタ10及び対物レンズ4を介して、第2の撮像素子7により撮像するように構成されている。   Further, as shown in FIG. 8, the plurality of cameras are provided with stereo cameras 3aL and 3aR that perform imaging in the first wavelength band, and a second camera 3b that performs imaging in the second wavelength band separately from these. May be configured. The camera 3aL that captures an image in the first wavelength band is a first camera 3a that captures an image with the first image sensor 6 via the first filter 8 and the objective lens 4 that transmit the first wavelength band light. Configured to work. The second camera 3b that captures an image in the second wavelength band is configured to capture an image with the second imaging element 7 via the second filter 10 and the objective lens 4 that transmit light in the second wavelength band. Has been.

これら各カメラ3aL,3aR,3bは、同一の保持具12上に位置決めされて設置されている。   These cameras 3aL, 3aR, and 3b are positioned and installed on the same holder 12.

本発明は、周囲の形状を検出する周囲形状検出装置及び周囲形状検出方法、周囲の形状を検出して自律移動を行う自律移動装置及び自律移動装置の制御方法、並びに、人間が行う移動体の操縦を補助する移動体の操縦補助装置及び移動体の操縦補助方法に適用される。   The present invention relates to a surrounding shape detecting device and a surrounding shape detecting method for detecting a surrounding shape, an autonomous moving device for detecting a surrounding shape and performing autonomous movement, a control method for the autonomous moving device, and a moving body performed by a human. The present invention is applied to a steering assist device for a mobile object that assists in steering and a steering assist method for a mobile object.

1 走行部
2 レーザレンジファインダ
3aL,3aR ステレオカメラ
3a 第1のカメラ
3b 第2のカメラ
21 制御手段
103 障害物
DESCRIPTION OF SYMBOLS 1 Traveling part 2 Laser range finder 3aL, 3aR Stereo camera 3a 1st camera 3b 2nd camera 21 Control means 103 Obstacle

Claims (12)

複数のカメラにより、基準画像と参照画像とを含むステレオ画像を撮像する撮像手段と、
前記撮像手段により得られるステレオ画像に基づいて、このステレオ画像中の平面領域を抽出するとともに、抽出された前記平面領域以外の領域に対して物体検出処理を行い、移動可能領域を検出する制御手段と
を備え、
前記基準画像を撮像するカメラは、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と、植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有し、
前記制御手段は、前記撮像手段により撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、前記撮像手段により撮像された像のうち、植物の葉であると判別された領域を除外し、残余の領域について、前記平面領域の抽出及び物体検出処理を行う
ことを特徴とする周囲形状検出装置。
Imaging means for imaging a stereo image including a standard image and a reference image by a plurality of cameras;
Control means for extracting a plane area in the stereo image based on the stereo image obtained by the imaging means, and performing object detection processing on an area other than the extracted plane area to detect a movable area. And
The camera that captures the reference image has a function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf, and a first local reflectance in the spectral reflectance of the plant leaf. Having a function of taking an image of two wavelength bands,
The control means obtains the ratio of the reflectance in the first wavelength band and the reflectance in the second wavelength band for each point of the image captured by the imaging means, and the reflectance is higher than a predetermined value. The point is determined to be a plant leaf, the region determined to be a plant leaf is excluded from the image captured by the imaging means, and the planar region extraction and object detection processing is performed on the remaining region. A surrounding shape detection apparatus characterized by
周囲を撮像するカメラと、
周囲の形状を3次元データ群として取得する形状計測手段と、
前記3次元データ群から3点以上の3次元データをサンプリングし、サンプリングされた3次元データからハフ変換により平面を計算し、その平面に近いサンプル点を移動可能領域として抽出する制御手段と
を備え、
前記カメラは、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と、植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有し、
前記制御手段は、前記カメラにより撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、前記形状計測手段により取得された周囲の形状のうち、植物の葉であると判別された領域を除外し、残余の領域について平面を抽出して、移動可能領域を検出する
ことを特徴とする周囲形状検出装置。
A camera that captures the surroundings;
A shape measuring means for acquiring a surrounding shape as a three-dimensional data group;
Control means for sampling three or more points of three-dimensional data from the three-dimensional data group, calculating a plane from the sampled three-dimensional data by Hough transform, and extracting a sample point close to the plane as a movable region; ,
The camera has a function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf, and a second wavelength band having a locally low reflectance in the spectral reflectance of the plant leaf. A function of capturing an image,
The control means obtains a ratio between the reflectance of the first wavelength band and the reflectance of the second wavelength band for each point of the image captured by the camera, and the reflectance is higher than a predetermined value. Can be moved by extracting the plane for the remaining area, excluding the area determined to be a plant leaf from the surrounding shapes acquired by the shape measuring means A surrounding shape detection device characterized by detecting an area.
移動可能となされた走行部と、
前記走行部に搭載された複数のカメラにより、基準画像と参照画像とを含むステレオ画像を撮像する撮像手段と、
前記走行部に搭載され、前記撮像手段により得られるステレオ画像に基づいて、このステレオ画像中の平面領域を抽出するとともに、抽出された前記平面領域以外の領域に対して物体検出処理を行い、移動可能領域を検出し、この移動可能領域内において移動予定路を決定し、前記走行部を制御して前記移動予定路上を移動させる制御手段と
を備え、
前記基準画像を撮像するカメラは、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と、植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有し、
前記制御手段は、前記撮像手段により撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、前記撮像手段により撮像された像のうち、植物の葉であると判別された領域を除外し、残余の領域について、前記平面領域の抽出及び物体検出処理を行う
ことを特徴とする自律移動装置。
A traveling section made movable,
Imaging means for imaging a stereo image including a standard image and a reference image by a plurality of cameras mounted on the traveling unit;
Based on the stereo image obtained by the imaging means mounted on the traveling unit, a plane area in the stereo image is extracted, and an object detection process is performed on an area other than the extracted plane area to move it. Control means for detecting a possible area, determining a planned travel path in the movable area, and controlling the travel unit to move on the planned travel path,
The camera that captures the reference image has a function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf, and a first local reflectance in the spectral reflectance of the plant leaf. Having a function of taking an image of two wavelength bands,
The control means obtains the ratio of the reflectance in the first wavelength band and the reflectance in the second wavelength band for each point of the image captured by the imaging means, and the reflectance is higher than a predetermined value. The point is determined to be a plant leaf, the region determined to be a plant leaf is excluded from the image captured by the imaging means, and the planar region extraction and object detection processing is performed on the remaining region. An autonomous mobile device characterized by
移動可能となされた走行部と、
前記走行部に搭載され、この走行部の周囲を撮像するカメラと、
前記走行部に搭載され、この走行部の周囲の形状を3次元データ群として取得する形状計測手段と、
前記走行部に搭載され、前記3次元データ群から3点以上の3次元データをサンプリングし、サンプリングされた3次元データからハフ変換により平面を計算し、その平面に近いサンプル点を移動可能領域として抽出する制御手段と
を備え、
前記カメラは、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と、植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有し、
前記制御手段は、前記カメラにより撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、前記形状計測手段により取得された周囲の形状のうち、植物の葉であると判別された領域を除外し、残余の領域について平面を抽出して、移動可能領域を検出する
ことを特徴とする自律移動装置。
A traveling section made movable,
A camera mounted on the traveling unit and imaging the periphery of the traveling unit;
Shape measuring means mounted on the traveling unit and acquiring the shape around the traveling unit as a three-dimensional data group;
The three-dimensional data of three or more points is sampled from the three-dimensional data group, and a plane is calculated from the sampled three-dimensional data by Hough transform, and a sample point close to the plane is set as a movable region. And a control means for extracting,
The camera has a function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf, and a second wavelength band having a locally low reflectance in the spectral reflectance of the plant leaf. A function of capturing an image,
The control means obtains a ratio between the reflectance of the first wavelength band and the reflectance of the second wavelength band for each point of the image captured by the camera, and the reflectance is higher than a predetermined value. Can be moved by extracting the plane for the remaining area, excluding the area determined to be a plant leaf from the surrounding shapes acquired by the shape measuring means An autonomous mobile device characterized by detecting an area.
操縦可能な移動体に搭載された複数のカメラにより、基準画像と参照画像とを含むステレオ画像を撮像する撮像手段と、
前記移動体に搭載され、前記撮像手段により得られるステレオ画像に基づいて、このステレオ画像中の平面領域を抽出するとともに、抽出された前記平面領域以外の領域に対して物体検出処理を行い、移動可能領域を検出する制御手段と
前記制御手段により制御される表示手段と
を備え、
前記基準画像を撮像するカメラは、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と、植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有し、
前記制御手段は、前記撮像手段により撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、前記撮像手段により撮像された像のうち、植物の葉であると判別された領域を除外し、残余の領域について、前記平面領域の抽出及び物体検出処理を行う
ことを特徴とする移動体の操縦補助装置。
Imaging means for imaging a stereo image including a base image and a reference image by a plurality of cameras mounted on a steerable moving body;
Based on the stereo image obtained by the imaging means mounted on the moving body, a plane area in the stereo image is extracted, and object detection processing is performed on an area other than the extracted plane area to move the area. A control means for detecting a possible area; and a display means controlled by the control means,
The camera that captures the reference image has a function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf, and a first local reflectance in the spectral reflectance of the plant leaf. Having a function of taking an image of two wavelength bands,
The control means obtains the ratio of the reflectance in the first wavelength band and the reflectance in the second wavelength band for each point of the image captured by the imaging means, and the reflectance is higher than a predetermined value. The point is determined to be a plant leaf, the region determined to be a plant leaf is excluded from the image captured by the imaging means, and the planar region extraction and object detection processing is performed on the remaining region. A steering assist device for a moving object.
操縦可能な移動体に搭載され、この移動体の周囲を撮像するカメラと、
前記移動体に搭載され、この移動体の周囲の形状を3次元データ群として取得する形状計測手段と、
前記移動体に搭載され、前記3次元データ群から3点以上の3次元データをサンプリングし、サンプリングされた3次元データからハフ変換により平面を計算し、その平面に近いサンプル点を移動可能領域として抽出する制御手段と
前記制御手段により制御される表示手段と
を備え、
前記カメラは、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と、植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有し、
前記制御手段は、前記撮像手段により撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、前記形状計測手段により取得された周囲の形状のうち、植物の葉であると判別された領域を除外し、残余の領域について、平面を抽出して、移動可能領域を検出する
ことを特徴とする移動体の操縦補助装置。
A camera mounted on a steerable mobile body and imaging the surroundings of the mobile body,
A shape measuring means mounted on the moving body and acquiring a shape around the moving body as a three-dimensional data group;
Mounted on the moving body, samples three or more three-dimensional data from the three-dimensional data group, calculates a plane by Hough transform from the sampled three-dimensional data, and sets a sample point close to the plane as a movable region Control means for extracting; and display means controlled by the control means,
The camera has a function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf, and a second wavelength band having a locally low reflectance in the spectral reflectance of the plant leaf. A function of capturing an image,
The control means obtains the ratio of the reflectance in the first wavelength band and the reflectance in the second wavelength band for each point of the image captured by the imaging means, and the reflectance is higher than a predetermined value. It is determined that the point is a plant leaf, out of the surrounding shape obtained by the shape measuring means, the region determined to be a plant leaf is excluded, and a plane is extracted for the remaining region, A steering assist device for a moving body, characterized by detecting a movable region.
基準画像と参照画像とを含むステレオ画像を複数のカメラにより撮像し、
前記ステレオ画像に基づいて、このステレオ画像中の平面領域を抽出するとともに、抽出された前記平面領域以外の領域に対して物体検出処理を行う周囲形状検出方法であって、
前記基準画像を撮像するカメラとして、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と、植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有するものを用いて、前記基準画像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、前記基準画像のうち、植物の葉であると判別された領域を除外し、残余の領域について、前記平面領域の抽出及び物体検出処理を行う
ことを特徴とする周囲形状検出方法。
A stereo image including a reference image and a reference image is captured by a plurality of cameras,
A surrounding shape detection method for extracting a plane area in the stereo image based on the stereo image and performing object detection processing on an area other than the extracted plane area,
As a camera for capturing the reference image, a function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf and a locally low reflectance in the spectral reflectance of the plant leaf 2 having a function of capturing an image in the second wavelength band, and for each point of the reference image, a ratio between the reflectance in the first wavelength band and the reflectance in the second wavelength band is obtained. A point where the reflectance is higher than a predetermined value is determined to be a plant leaf, the region determined to be a plant leaf is excluded from the reference image, and the extraction of the planar region for the remaining region and A surrounding shape detection method characterized by performing object detection processing.
周囲の形状を3次元データ群として取得し、
前記3次元データ群から3点以上の3次元データをサンプリングし、サンプリングされた3次元データからハフ変換により平面を計算し、その平面に近いサンプル点を移動可能領域として抽出する周囲形状検出方法であって、
植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と、植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有するカメラを用いて、このカメラにより撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、前記形状計測手段により取得された周囲の形状のうち、植物の葉であると判別された領域を除外し、残余の領域について平面を抽出して、移動可能領域を検出する
ことを特徴とする周囲形状検出方法。
Acquire the surrounding shape as a 3D data group,
A surrounding shape detection method in which three or more points of three-dimensional data are sampled from the three-dimensional data group, a plane is calculated from the sampled three-dimensional data by Hough transform, and sample points close to the plane are extracted as a movable region. There,
A function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf, and an image of a second wavelength band having a locally low reflectance in the spectral reflectance of a plant leaf The ratio of the reflectance of the first wavelength band to the reflectance of the second wavelength band is obtained for each point of the image captured by the camera using a camera having a function, and this reflectance is a predetermined value. A higher point is determined to be a plant leaf, out of the surrounding shapes acquired by the shape measuring means, the region determined to be a plant leaf is excluded, and a plane is extracted for the remaining region A surrounding shape detection method characterized by detecting a movable region.
移動可能となされた走行部と、この走行部に搭載された複数のカメラにより基準画像と参照画像とを含むステレオ画像を撮像する撮像手段とを有する自律移動装置を制御する方法であって、
前記基準画像を撮像するカメラとして、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と、植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有するものを用いて、
前記撮像手段により撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、前記撮像手段により撮像された像のうち、植物の葉であると判別された領域を除外し、残余の領域について、ステレオ画像中の平面領域を抽出するとともに抽出された前記平面領域以外の領域に対して物体検出処理を行い、移動可能領域を検出し、この移動可能領域内において移動予定路を決定し、前記走行部を制御して前記移動予定路上を移動させる
ことを特徴とする自律移動装置の制御方法。
A method for controlling an autonomous mobile device having a traveling unit that is movable and an imaging unit that captures a stereo image including a reference image and a reference image by a plurality of cameras mounted on the traveling unit,
As a camera for capturing the reference image, a function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf and a locally low reflectance in the spectral reflectance of the plant leaf Using the one having a function of capturing an image in the wavelength band of 2,
For each point of the image picked up by the image pickup means, the ratio of the reflectance of the first wavelength band to the reflectance of the second wavelength band is obtained, and the point where this reflectance is higher than a predetermined value is determined as the leaf of the plant. Is extracted, and from the image captured by the imaging means, the region determined to be a plant leaf is excluded, and for the remaining region, the planar region in the stereo image is extracted and extracted. An object detection process is performed on an area other than a plane area, a movable area is detected, a planned movement path is determined in the movable area, and the traveling unit is controlled to move on the planned movement path. A method for controlling an autonomous mobile device.
移動可能となされた走行部と、この走行部に搭載され前記走行部の周囲を撮像するカメラと、前記走行部に搭載され前記走行部の周囲の形状を3次元データ群として取得する形状計測手段とを有する自律移動装置を制御する方法であって、
前記カメラとして、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と、植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有するものを用いて、
前記カメラにより撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、前記形状計測手段により取得された周囲の形状のうち、植物の葉であると判別された領域を除外し、残余の領域について、前記3次元データ群から3点以上の3次元データをサンプリングし、サンプリングされた3次元データからハフ変換により平面を計算し、その平面に近いサンプル点を移動可能領域として抽出するとともに、この移動可能領域内において移動予定路を決定し、前記走行部を制御して前記移動予定路上を移動させる
ことを特徴とする自律移動装置の制御方法。
A traveling unit that is movable, a camera that is mounted on the traveling unit and images the periphery of the traveling unit, and a shape measuring unit that is mounted on the traveling unit and acquires the shape of the periphery of the traveling unit as a three-dimensional data group A method for controlling an autonomous mobile device comprising:
The camera has a function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf, and a second wavelength band having a locally low reflectance in the spectral reflectance of the plant leaf. With what has a function to capture an image,
For each point of the image captured by the camera, the ratio of the reflectance of the first wavelength band to the reflectance of the second wavelength band is obtained, and the point at which this reflectance is higher than a predetermined value is determined by the plant leaf. It is determined that there is a region, and the region determined to be a plant leaf is excluded from the surrounding shapes acquired by the shape measuring means, and the remaining region is three-dimensional or more three-dimensional from the three-dimensional data group. The data is sampled, a plane is calculated from the sampled three-dimensional data by Hough transform, sample points close to the plane are extracted as a movable area, a planned movement path is determined in the movable area, and the traveling A control method for an autonomous mobile device, characterized in that a part is controlled to move on the planned travel path.
操縦可能な移動体に搭載された複数のカメラにより基準画像と参照画像とを含むステレオ画像を撮像する撮像手段を用いて、前記ステレオ画像に基づいてこのステレオ画像中の平面領域を抽出するとともに、抽出された前記平面領域以外の領域に対して物体検出処理を行い、移動可能領域を検出して、前記移動体の操縦者を補助する操縦補助方法であって、
前記基準画像を撮像するカメラとして、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と、植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有するものを用いて、
前記撮像手段により撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、前記撮像手段により撮像された像のうち、植物の葉であると判別された領域を除外し、残余の領域について、前記平面領域の抽出及び物体検出処理を行う
ことを特徴とする移動体の操縦補助方法。
Extracting a planar area in the stereo image based on the stereo image using an imaging unit that captures a stereo image including a standard image and a reference image by a plurality of cameras mounted on a steerable mobile body, An operation assisting method for performing object detection processing on an area other than the extracted planar area, detecting a movable area, and assisting a driver of the moving body,
As a camera for capturing the reference image, a function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf and a locally low reflectance in the spectral reflectance of the plant leaf Using the one having a function of capturing an image in the wavelength band of 2,
For each point of the image picked up by the image pickup means, the ratio of the reflectance of the first wavelength band to the reflectance of the second wavelength band is obtained, and the point where this reflectance is higher than a predetermined value is determined as the leaf of the plant. A region that is determined to be a plant leaf is excluded from the image captured by the imaging unit, and the planar region extraction and object detection processing are performed on the remaining region. A method for assisting the maneuvering of a moving object.
操縦可能な移動体に搭載されこの移動体の周囲を撮像するカメラと、前記移動体に搭載され前記移動体の周囲の形状を3次元データ群として取得する形状計測手段とを用いて、前記3次元データ群から3点以上の3次元データをサンプリングし、サンプリングされた3次元データからハフ変換により平面を計算し、その平面に近いサンプル点を移動可能領域として抽出して、前記移動体の操縦者を補助する操縦補助方法であって、
前記カメラとして、植物の葉の分光反射率において反射率の高い第1の波長帯域の像を撮像する機能と、植物の葉の分光反射率において反射率が局所的に低い第2の波長帯域の像を撮像する機能とを有するものを用いて、
前記カメラにより撮像された像の各点について、第1の波長帯域の反射率と第2の波長帯域の反射率との比を求め、この反射率が所定値よりも高い点を植物の葉であると判別し、前記形状計測手段により取得された周囲の形状のうち、植物の葉であると判別された領域を除外し、残余の領域について、平面を抽出して、移動可能領域を検出する
ことを特徴とする移動体の操縦補助方法。
Using the camera mounted on the steerable moving body and imaging the surroundings of the moving body, and the shape measuring means mounted on the moving body and acquiring the surrounding shape of the moving body as a three-dimensional data group, the 3 Three or more points of three-dimensional data are sampled from a group of three-dimensional data, a plane is calculated from the sampled three-dimensional data by Hough transform, sample points close to the plane are extracted as movable regions, and the moving object is controlled A steering assistance method for assisting a person,
The camera has a function of capturing an image of a first wavelength band having a high reflectance in the spectral reflectance of a plant leaf, and a second wavelength band having a locally low reflectance in the spectral reflectance of the plant leaf. With what has a function to capture an image,
For each point of the image captured by the camera, the ratio of the reflectance of the first wavelength band to the reflectance of the second wavelength band is obtained, and the point at which this reflectance is higher than a predetermined value is determined by the plant leaf. It is determined that there is a region, and the region determined to be a plant leaf is excluded from the surrounding shapes acquired by the shape measuring unit, and a plane is extracted from the remaining region to detect a movable region. A method for assisting in maneuvering a moving body.
JP2009155619A 2009-06-30 2009-06-30 Peripheral shape detection device, autonomous mobile device, operation auxiliary device for mobile body, peripheral shape detection method, control method for the autonomous mobile device and operation auxiliary method for the mobile body Pending JP2011013803A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009155619A JP2011013803A (en) 2009-06-30 2009-06-30 Peripheral shape detection device, autonomous mobile device, operation auxiliary device for mobile body, peripheral shape detection method, control method for the autonomous mobile device and operation auxiliary method for the mobile body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009155619A JP2011013803A (en) 2009-06-30 2009-06-30 Peripheral shape detection device, autonomous mobile device, operation auxiliary device for mobile body, peripheral shape detection method, control method for the autonomous mobile device and operation auxiliary method for the mobile body

Publications (1)

Publication Number Publication Date
JP2011013803A true JP2011013803A (en) 2011-01-20

Family

ID=43592648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009155619A Pending JP2011013803A (en) 2009-06-30 2009-06-30 Peripheral shape detection device, autonomous mobile device, operation auxiliary device for mobile body, peripheral shape detection method, control method for the autonomous mobile device and operation auxiliary method for the mobile body

Country Status (1)

Country Link
JP (1) JP2011013803A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012208046A (en) * 2011-03-30 2012-10-25 Fujitsu Ltd Plant species identification method and plant species identification device
JP2013120083A (en) * 2011-12-06 2013-06-17 Honda Motor Co Ltd Environment recognition apparatus
JP2014202601A (en) * 2013-04-04 2014-10-27 株式会社Ihiエアロスペース Plant position measurement instrument and method
JP2016053903A (en) * 2014-09-04 2016-04-14 国立研究開発法人農業・食品産業技術総合研究機構 Plant community structure analysis system
JP2016176766A (en) * 2015-03-19 2016-10-06 株式会社日立ソリューションズ Inspection object extraction device, and method for extracting inspection object
JP2017191470A (en) * 2016-04-13 2017-10-19 キヤノン株式会社 Processing device, processing method, and program
EP2642447A3 (en) * 2012-03-21 2017-11-29 Ricoh Company, Ltd. Device for the calibration of a stereo camera
JP2018124177A (en) * 2017-02-01 2018-08-09 トヨタ自動車株式会社 Floor surface determination method
CN109631821A (en) * 2019-01-14 2019-04-16 江西农业大学 A kind of method of quick nondestructive measurement bamboo leaves area
WO2019151105A1 (en) * 2018-01-31 2019-08-08 パイオニア株式会社 Peripheral information processing method
WO2019151108A1 (en) * 2018-01-31 2019-08-08 パイオニア株式会社 Peripheral information processing method
JP2019185528A (en) * 2018-04-13 2019-10-24 株式会社東芝 Information processing apparatus, program, and information processing method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08501385A (en) * 1992-07-28 1996-02-13 パッチェン・カリフォルニア・インコーポレイテッド Device and method for distinguishing one object from another
JPH11281480A (en) * 1998-03-31 1999-10-15 Omron Corp Image pickup device and method
JP3036301B2 (en) * 1993-06-14 2000-04-24 スズキ株式会社 Obstacle detection device for unmanned vehicles
JP2008158958A (en) * 2006-12-26 2008-07-10 Nissan Motor Co Ltd Road surface determination method and road surface determination device
JP2009175932A (en) * 2008-01-23 2009-08-06 Ihi Corp Traveling area detection device and method for mobile robot
JP2009201064A (en) * 2008-02-25 2009-09-03 Pioneer Electronic Corp Method and apparatus for specifying related region, and method and apparatus for recognizing image
JP2010224797A (en) * 2009-03-23 2010-10-07 Toyota Central R&D Labs Inc Object detection device and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08501385A (en) * 1992-07-28 1996-02-13 パッチェン・カリフォルニア・インコーポレイテッド Device and method for distinguishing one object from another
JP3036301B2 (en) * 1993-06-14 2000-04-24 スズキ株式会社 Obstacle detection device for unmanned vehicles
JPH11281480A (en) * 1998-03-31 1999-10-15 Omron Corp Image pickup device and method
JP2008158958A (en) * 2006-12-26 2008-07-10 Nissan Motor Co Ltd Road surface determination method and road surface determination device
JP2009175932A (en) * 2008-01-23 2009-08-06 Ihi Corp Traveling area detection device and method for mobile robot
JP2009201064A (en) * 2008-02-25 2009-09-03 Pioneer Electronic Corp Method and apparatus for specifying related region, and method and apparatus for recognizing image
JP2010224797A (en) * 2009-03-23 2010-10-07 Toyota Central R&D Labs Inc Object detection device and program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012208046A (en) * 2011-03-30 2012-10-25 Fujitsu Ltd Plant species identification method and plant species identification device
JP2013120083A (en) * 2011-12-06 2013-06-17 Honda Motor Co Ltd Environment recognition apparatus
US8896689B2 (en) 2011-12-06 2014-11-25 Honda Motor Co., Ltd. Environment recognition apparatus
EP2642447A3 (en) * 2012-03-21 2017-11-29 Ricoh Company, Ltd. Device for the calibration of a stereo camera
JP2014202601A (en) * 2013-04-04 2014-10-27 株式会社Ihiエアロスペース Plant position measurement instrument and method
JP2016053903A (en) * 2014-09-04 2016-04-14 国立研究開発法人農業・食品産業技術総合研究機構 Plant community structure analysis system
JP2016176766A (en) * 2015-03-19 2016-10-06 株式会社日立ソリューションズ Inspection object extraction device, and method for extracting inspection object
JP2017191470A (en) * 2016-04-13 2017-10-19 キヤノン株式会社 Processing device, processing method, and program
JP2018124177A (en) * 2017-02-01 2018-08-09 トヨタ自動車株式会社 Floor surface determination method
WO2019151105A1 (en) * 2018-01-31 2019-08-08 パイオニア株式会社 Peripheral information processing method
WO2019151108A1 (en) * 2018-01-31 2019-08-08 パイオニア株式会社 Peripheral information processing method
JP2019185528A (en) * 2018-04-13 2019-10-24 株式会社東芝 Information processing apparatus, program, and information processing method
JP7182895B2 (en) 2018-04-13 2022-12-05 株式会社東芝 Information processing device, program, and information processing method
CN109631821A (en) * 2019-01-14 2019-04-16 江西农业大学 A kind of method of quick nondestructive measurement bamboo leaves area

Similar Documents

Publication Publication Date Title
JP2011013803A (en) Peripheral shape detection device, autonomous mobile device, operation auxiliary device for mobile body, peripheral shape detection method, control method for the autonomous mobile device and operation auxiliary method for the mobile body
EP2769239B1 (en) Methods and systems for creating maps with radar-optical imaging fusion
JP5160370B2 (en) Autonomous mobile robot device, mobile body steering assist device, autonomous mobile robot device control method, and mobile body steering assist method
KR100773184B1 (en) Autonomously moving robot
CN105866790B (en) A kind of laser radar obstacle recognition method and system considering lasing intensity
JP5157067B2 (en) Automatic travel map creation device and automatic travel device.
US10129521B2 (en) Depth sensing method and system for autonomous vehicles
US8712144B2 (en) System and method for detecting crop rows in an agricultural field
US8737720B2 (en) System and method for detecting and analyzing features in an agricultural field
KR100955483B1 (en) Method of building 3d grid map and method of controlling auto travelling apparatus using the same
US8855405B2 (en) System and method for detecting and analyzing features in an agricultural field for vehicle guidance
JP3719095B2 (en) Behavior detection apparatus and gradient detection method
CN112189225B (en) Lane line information detection apparatus, method, and computer-readable recording medium storing computer program programmed to execute the method
KR100899820B1 (en) The discriminative apparatus and method of ground/obstacle for autonomous mobile vehicle
US7646917B2 (en) Method and apparatus for detecting corner
JP5775965B2 (en) Stereo camera system and moving body
KR20210090384A (en) Method and Apparatus for Detecting 3D Object Using Camera and Lidar Sensor
CN106569225A (en) Range-finding sensor based real-time obstacle avoidance method of driveless car
JP2017083245A (en) Clearance limit determination device
JP4005679B2 (en) Ambient environment recognition device for autonomous vehicles
JP6690904B2 (en) Self-driving vehicle
US8331625B2 (en) Distance measuring device and method, and computer program
JP2009042147A (en) Apparatus and method for recognizing object
Lins et al. A novel machine vision approach applied for autonomous robotics navigation
JP7551091B1 (en) Autonomous driving system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131203