JP4953313B2 - Environment recognition system, autonomous mobile body and environment recognition program - Google Patents

Environment recognition system, autonomous mobile body and environment recognition program Download PDF

Info

Publication number
JP4953313B2
JP4953313B2 JP2007234425A JP2007234425A JP4953313B2 JP 4953313 B2 JP4953313 B2 JP 4953313B2 JP 2007234425 A JP2007234425 A JP 2007234425A JP 2007234425 A JP2007234425 A JP 2007234425A JP 4953313 B2 JP4953313 B2 JP 4953313B2
Authority
JP
Japan
Prior art keywords
area
color information
space
imaging
ranging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007234425A
Other languages
Japanese (ja)
Other versions
JP2009068852A (en
Inventor
亨 山口
潤 中里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Metropolitan University
Original Assignee
Tokyo Metropolitan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Metropolitan University filed Critical Tokyo Metropolitan University
Priority to JP2007234425A priority Critical patent/JP4953313B2/en
Publication of JP2009068852A publication Critical patent/JP2009068852A/en
Application granted granted Critical
Publication of JP4953313B2 publication Critical patent/JP4953313B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、障害物等の物体が存在する環境下において、移動可能な経路等を認識する自律型移動体、環境認識システムおよび環境認識プログラムに関する。   The present invention relates to an autonomous mobile body, an environment recognition system, and an environment recognition program that recognize a movable route in an environment where an object such as an obstacle exists.

近年、ロボット等の知的移動体の有用性は、生産業の自動化・無人化のみならず、一般家庭の生活支援等にまで広がっており、研究・開発等が盛んに行われている。ロボットが生活支援等を行うためには、前記ロボットが自律して行動できる必要があり、前記ロボットが自律して行動するためには、前記ロボットが周囲の環境を認識する必要がある。例えば、前記ロボットが行動可能な範囲、いわゆる、オープンスペースを常に取得し続ける必要がある。   In recent years, the usefulness of intelligent mobile bodies such as robots has been extended not only to automation and unmanned production of living industries, but also to life support for general households, and research and development have been actively conducted. The robot needs to be able to act autonomously in order for the robot to support life and the like, and in order for the robot to act autonomously, the robot needs to recognize the surrounding environment. For example, it is necessary to constantly acquire a range in which the robot can act, that is, a so-called open space.

前記ロボットが周囲の環境を認識するために、2次元の測域センサとしてのレーザレンジファインダ(LRF:Laser Range Finder)は、特に有用である。前記レーザレンジファインダは、レーザ光が命中した点をカメラで計測することにより、障害物や移動体までの距離を正確且つ高速に計測できるため、例えば、前記ロボットが前記障害物を回避したり、前記移動体を追従したりする目的に利用できる。また、前記レーザレンジファインダは、レーザを計測できる範囲が比較的狭いため、遠くの障害物も対象とするために、その他のセンサと組み合わせて使用する技術が知られている。
レーザレンジファインダとその他のセンサを組み合わせることにより、周囲の環境を認識する技術として、例えば、以下の従来技術(J01)が公知である。
In order for the robot to recognize the surrounding environment, a laser range finder (LRF) as a two-dimensional range sensor is particularly useful. Since the laser range finder can measure the distance to an obstacle or a moving body accurately and at high speed by measuring the point where the laser beam hit with a camera, for example, the robot avoids the obstacle, It can be used for the purpose of following the moving body. In addition, since the laser range finder has a relatively narrow range in which laser can be measured, a technique for using in combination with other sensors is also known in order to target distant obstacles.
As a technique for recognizing the surrounding environment by combining a laser range finder and other sensors, for example, the following conventional technique (J01) is known.

(J01)特許文献1(特開2000−329852号公報)記載の技術
特許文献1には、2台の電子式のカメラ(1,2)で撮像した画像をステレオ画像処理して得られた先行車両等の障害物までの距離の計測値と、レーザレンジファインダ(7)により得られた前記障害物までの距離の計測値とを計測し、2つの距離の計測値に基づいて、前記障害物を認識する自動車の障害物認識装置についての技術が記載されている。
(J01) Technology described in Patent Document 1 (Japanese Patent Laid-Open No. 2000-329852) Patent Document 1 discloses a prior art obtained by performing stereo image processing on images captured by two electronic cameras (1, 2). A measured value of the distance to the obstacle such as a vehicle and a measured value of the distance to the obstacle obtained by the laser range finder (7) are measured, and the obstacle is based on the measured values of two distances. The technology about the obstacle recognition device of the car which recognizes is described.

特開2000−329852号公報(「0025」、「0068」〜「0079」図1〜図11)JP 2000-329852 A (“0025”, “0068” to “0079” FIGS. 1 to 11)

(従来技術の問題点)
前記従来技術(J01)は、ステレオ画像処理で障害物までの距離を測定するために、高価なカメラ1,2が精度良く配置されている必要があった。また、前記ステレオ画像解析は、前記距離を測定するための演算量が大きくなるという問題もあった。したがって、前記従来技術(J01)は、費用や演算量等のコストが増大するという問題がある。特に、自律行動型のロボット等の知的移動体には適用し難いという問題もあった。
(Problems of conventional technology)
The prior art (J01) requires expensive cameras 1 and 2 to be arranged with high precision in order to measure the distance to an obstacle by stereo image processing. In addition, the stereo image analysis has a problem that the amount of calculation for measuring the distance becomes large. Therefore, the prior art (J01) has a problem that costs such as cost and calculation amount increase. In particular, there is a problem that it is difficult to apply to an intelligent moving body such as an autonomous behavior type robot.

本発明は、前述の事情に鑑み、次の記載内容(O01)を技術的課題とする。
(O01)周囲の環境を高速且つ精度良く認識すると共に、コストを低減すること。
In view of the above circumstances, the present invention has the following description (O01) as a technical problem.
(O01) To recognize the surrounding environment at high speed and with high accuracy and reduce the cost.

前記技術的課題を解決するために、請求項1記載の発明の環境認識システムは、
予め設定された測距領域に対して距離を計測することで、前記測距領域に存在する物体を検出する測距装置と、
前記測距装置が測距する測距領域と重複し且つ前記測距領域よりも広い撮像領域に対して、色情報を含む画像を撮像する撮像装置と、
前記測距装置による計測結果に基づいて、前記測距領域において、物体が存在しない物体非存在空間領域を特定する測距領域空間特定手段と、
前記撮像装置で撮像した画像に基づいて、前記物体非存在空間領域と、重複する撮像領域の色情報である空間色情報を取得する空間色情報取得手段と、
前記撮像装置で撮像した画像に基づいて、前記撮像領域において、前記空間色情報と一致する色情報の領域を物体が存在しない物体非存在空間であると判別する空間判別手段と、
を備えたことを特徴とする。
In order to solve the technical problem, an environment recognition system according to claim 1 comprises:
A distance measuring device for detecting an object existing in the distance measuring area by measuring a distance with respect to a predetermined distance measuring area;
An imaging device that captures an image including color information with respect to an imaging region that overlaps with a ranging region to be measured by the ranging device and is wider than the ranging region;
Ranging area space specifying means for specifying an object non-existing space area in which no object exists in the ranging area based on a measurement result by the ranging device;
Based on the image captured by the imaging device, spatial color information acquisition means for acquiring spatial color information that is color information of the object non-existing spatial region and an overlapping imaging region;
Space discriminating means for discriminating an area of color information matching the spatial color information in the imaging area as an object non-existing space based on an image captured by the imaging apparatus;
It is provided with.

請求項2に記載の発明は、請求項1に記載の環境認識システムにおいて、
前記撮像装置で撮像した画像に基づいて、前記撮像領域において、前記空間色情報と、前記空間色情報の領域に隣接する領域の色情報とが一致する場合に、前記隣接する領域を前記物体非存在空間であると判別する前記空間判別手段、
を備えたことを特徴とする。
The invention according to claim 2 is the environment recognition system according to claim 1,
Based on the image captured by the imaging device, when the spatial color information matches the color information of the area adjacent to the area of the spatial color information in the imaging area, The space discriminating means for discriminating that the space exists;
It is provided with.

請求項3に記載の発明は、請求項1または2に記載の環境認識システムにおいて、
前記撮像装置で撮像した画像に基づいて、前記物体非存在空間領域と、重複する撮像領域の色情報の平均値を前記空間色情報として取得する前記空間色情報取得手段と、
前記撮像装置で撮像した画像に基づいて、前記撮像領域において、前記空間色情報との差が予め設定された閾値より小さい色情報が存在する場合に、前記色情報を前記空間色情報と一致する色情報であるとみなし、前記色情報の領域を前記物体非存在空間であると判別する前記空間判別手段と、
を備えたことを特徴とする。
The invention according to claim 3 is the environment recognition system according to claim 1 or 2,
Based on the image captured by the imaging device, the spatial color information acquisition unit that acquires, as the spatial color information, an average value of the color information of the object non-existing space region and the overlapping imaging region;
Based on the image captured by the imaging device, the color information matches the spatial color information when there is color information in the imaging region that is less than a preset threshold value with respect to the spatial color information. The space discriminating means which regards the area of the color information as the color information and discriminates the area of the color information as the object non-existing space;
It is provided with.

前記技術的課題を解決するために、請求項4記載の発明の環境認識システムは、
予め設定された測距領域に対して距離を計測することで、前記測距領域に存在する物体を検出する測距装置と、
前記測距装置が測距する測距領域と重複し且つ前記測距領域よりも広い撮像領域に対して、色情報を含む画像を撮像する撮像装置と、
前記測距装置による計測結果に基づいて、前記測距領域において、物体が存在する物体存在空間領域を特定する測距領域空間特定手段と、
前記撮像装置で撮像した画像に基づいて、前記物体存在空間領域と、重複する撮像領域の色情報である空間色情報を取得する空間色情報取得手段と、
前記撮像装置で撮像した画像に基づいて、前記撮像領域において、前記空間色情報と一致する色情報の領域を物体が存在する物体存在空間であると判別する空間判別手段と、
を備えたことを特徴とする。
In order to solve the technical problem, an environment recognition system according to claim 4 is provided.
A distance measuring device for detecting an object existing in the distance measuring area by measuring a distance with respect to a predetermined distance measuring area;
An imaging device that captures an image including color information with respect to an imaging region that overlaps with a ranging region to be measured by the ranging device and is wider than the ranging region;
Ranging area space specifying means for specifying an object existence space area where an object exists in the ranging area based on a measurement result by the ranging device;
Spatial color information acquisition means for acquiring spatial color information that is color information of the imaging region that overlaps the object presence space region based on an image captured by the imaging device;
Space discriminating means for discriminating, in the imaging area, an area of color information that matches the spatial color information as an object existence space based on an image captured by the imaging apparatus;
It is provided with.

請求項5に記載の発明は、請求項1ないし4のいずれかに記載の環境認識システムにおいて、
前記測距領域内でレーザ光を走査し、物体で反射されたレーザ光を検出することで、前記測距領域に存在する物体までの距離を計測するレーザレンジファインダにより構成された前記測距装置と、
を備えたことを特徴とする。
The invention according to claim 5 is the environment recognition system according to any one of claims 1 to 4,
The distance measuring device configured by a laser range finder that measures a distance to an object existing in the distance measuring area by scanning laser light in the distance measuring area and detecting laser light reflected by the object. When,
It is provided with.

前記技術的課題を解決するために、請求項6記載の発明の自律型移動体は、
移動体の前方に予め設定された測距領域に対して距離を計測することで、前記測距領域に存在する物体を検出する測距装置と、
前記測距装置が測距する測距領域と重複し且つ前記測距領域よりも広い前方の撮像領域に対して、色情報を含む画像を撮像する撮像装置と、
前記測距装置による計測結果に基づいて、前記測距領域において、物体が存在しない物体非存在空間領域を特定する測距領域空間特定手段と、
前記撮像装置で撮像した画像に基づいて、前記物体非存在空間領域と、重複する撮像領域の色情報である空間色情報を取得する空間色情報取得手段と、
前記撮像装置で撮像した画像に基づいて、前記撮像領域において、前記空間色情報と一致する色情報の領域を物体が存在しない物体非存在空間であると判別する空間判別手段と、
前記物体非存在空間が移動可能な領域であると判別して、前記物体を避ける移動経路を設定する経路設定手段と、
設定された前記移動経路に沿って前記移動体を移動させる移動制御手段と、
を備えたことを特徴とする。
In order to solve the technical problem, the autonomous mobile body of the invention according to claim 6 is:
A distance measuring device that detects an object existing in the distance measuring area by measuring a distance with respect to a distance measuring area set in front of the moving body;
An imaging device that captures an image including color information with respect to a front imaging region that overlaps with a ranging region to be measured by the ranging device and is wider than the ranging region;
Ranging area space specifying means for specifying an object non-existing space area in which no object exists in the ranging area based on a measurement result by the ranging device;
Based on the image captured by the imaging device, spatial color information acquisition means for acquiring spatial color information that is color information of the object non-existing spatial region and an overlapping imaging region;
Space discriminating means for discriminating an area of color information matching the spatial color information in the imaging area as an object non-existing space based on an image captured by the imaging apparatus;
It is determined that the object non-existing space is a movable area, and a route setting means for setting a moving route that avoids the object;
Movement control means for moving the moving body along the set movement path;
It is provided with.

前記技術的課題を解決するために、請求項7記載の発明の環境認識プログラムは、
コンピュータを、
予め設定された測距領域に対して距離を計測することで前記測距領域に存在する物体を検出する測距装置による計測結果に基づいて、前記測距領域において、物体が存在しない物体非存在空間領域を特定する測距領域空間特定手段、
前記測距装置が測距する測距領域と重複し且つ前記測距領域よりも広い撮像領域に対して色情報を含む画像を撮像する撮像装置で撮像した画像に基づいて、前記物体非存在空間領域と、重複する撮像領域の色情報である空間色情報を取得する空間色情報取得手段、
前記撮像装置で撮像した画像に基づいて、前記撮像領域において、前記空間色情報と一致する色情報の領域を物体が存在しない物体非存在空間であると判別する空間判別手段、
として機能させる。
In order to solve the technical problem, the environment recognition program of the invention according to claim 7
Computer
Based on the measurement result by the distance measuring device that detects the object existing in the distance measurement area by measuring the distance with respect to the predetermined distance measurement area, no object is not present in the distance measurement area. Ranging area space specifying means for specifying a spatial area,
The object non-existing space is based on an image captured by an imaging device that captures an image including color information for an imaging region that overlaps a ranging region measured by the ranging device and is wider than the ranging region. Spatial color information acquisition means for acquiring spatial color information which is color information of an area and an overlapping imaging area;
Space discriminating means for discriminating, based on an image captured by the imaging device, an area of color information that matches the spatial color information in the imaging area as an object non-existing space in which no object exists;
To function as.

請求項1に記載の発明によれば、前記測距装置による計測結果に基づいて、前記測距領域における物体非存在空間領域が特定されると共に、前記撮像装置で撮像した画像に基づいて、前記物体非存在空間領域と重複する撮像領域の空間色情報が取得され、前記空間色情報と一致する色情報の領域が前記撮像領域の物体非存在空間であると判別される。この結果、前記物体非存在空間について、前記測距領域における物体非存在空間領域から前記撮像領域内にまで拡張することができ、物体の存在しないオープンスペースを精度良く且つ広い範囲で認識することができる。また、前記撮像装置を2台以上使用してステレオ画像解析を行う前記従来技術(J01)に比べ、前記撮像装置の費用や演算量等のコストを低減できる。   According to the first aspect of the present invention, an object non-existing space area in the ranging area is specified based on a measurement result by the ranging apparatus, and based on an image captured by the imaging apparatus, Spatial color information of the imaging region that overlaps the object non-existing space region is acquired, and it is determined that the color information region that matches the spatial color information is the object non-existing space of the imaging region. As a result, the object non-existing space can be expanded from the object non-existing space area in the ranging area to the imaging area, and an open space where no object exists can be recognized accurately and over a wide range. it can. In addition, the cost of the imaging device, the amount of calculation, and the like can be reduced as compared with the prior art (J01) that performs stereo image analysis using two or more imaging devices.

請求項2の記載の発明によれば、本発明の構成を有しない場合に比べ、前記空間色情報の領域に隣接しない領域については前記物体非存在空間であるか否かが判別されないため、前記物体非存在空間を判別するための演算量を低減できると共に、例えば、物体により囲まれた物体非存在空間のような閉鎖空間について判別を行わず、オープンスペースに隣接する領域のみに対して前記物体非存在空間であるか否かが判別されるため、オープンスペースを精度良く認識することができる。
請求項3の記載の発明によれば、本発明の構成を有しない場合に比べ、前記空間色情報である前記色情報の平均値との差が予め設定された閾値より小さい色情報の領域が前記物体非存在空間であると判別されるため、例えば、同じ物体であって光の加減(物陰等)により色情報に少し差がある場合等についても、連続した物体非存在空間であると判別できる。
According to the second aspect of the present invention, since it is not determined whether or not the area that is not adjacent to the area of the spatial color information is the object non-existing space as compared with the case without the configuration of the present invention, The amount of computation for determining the object non-existing space can be reduced, and for example, the object is not determined for a closed space such as an object non-existing space surrounded by the object, and only the region adjacent to the open space is the object. Since it is determined whether or not it is a non-existing space, the open space can be recognized with high accuracy.
According to the third aspect of the present invention, there is a region of color information in which the difference from the average value of the color information, which is the spatial color information, is smaller than a preset threshold value, compared with the case where the configuration of the present invention is not provided. Since it is determined that the object is non-existing space, it is determined that the object is a continuous non-existing space even when there is a slight difference in color information due to light adjustment (such as shadows). it can.

請求項4の記載の発明によれば、前記測距装置による計測結果に基づいて、前記測距領域における物体存在空間領域が特定されると共に、前記撮像装置で撮像した画像に基づいて、前記物体存在空間領域と重複する撮像領域の空間色情報が取得され、前記空間色情報と一致する色情報の領域が前記撮像領域の物体存在空間であると判別される。この結果、前記物体存在空間について、前記測距領域における物体存在空間領域から前記撮像領域内にまで拡張することができ、前記物体を精度良く且つ広い範囲で認識することができる。また、前記撮像装置を2台以上使用してステレオ画像解析を行う前記従来技術(J01)に比べ、前記撮像装置の費用や演算量等のコストを低減できる。
請求項5の記載の発明によれば、測距装置として市販のレーザレンジファインダを使用できる。
According to a fourth aspect of the present invention, an object presence space area in the distance measuring area is specified based on a measurement result by the distance measuring apparatus, and the object is determined based on an image captured by the image capturing apparatus. Spatial color information of the imaging region that overlaps the existence space region is acquired, and it is determined that the region of color information that matches the spatial color information is the object existence space of the imaging region. As a result, the object existence space can be expanded from the object existence space area in the distance measurement area to the imaging area, and the object can be recognized with high accuracy and in a wide range. In addition, the cost of the imaging device, the amount of calculation, and the like can be reduced as compared with the prior art (J01) that performs stereo image analysis using two or more imaging devices.
According to the invention described in claim 5, a commercially available laser range finder can be used as the distance measuring device.

請求項6の記載の発明によれば、前記測距装置による計測結果に基づいて、前記測距領域における物体非存在空間領域が特定されると共に、前記撮像装置で撮像した画像に基づいて、前記物体非存在空間領域と重複する撮像領域の空間色情報が取得され、前記空間色情報と一致する色情報の領域が前記撮像領域の物体非存在空間であると判別される。この結果、前記物体非存在空間について、前記測距領域における物体非存在空間領域から前記撮像領域内にまで拡張することができ、物体の存在しないオープンスペースを精度良く且つ広い範囲で認識することができ、広い視野で認識されたオープンスペースに基づいて、前記移動体が前記物体を避ける移動経路をより適切に設定できる。また、前記撮像装置を2台以上使用してステレオ画像解析を行う前記従来技術(J01)に比べ、前記撮像装置の費用や演算量等のコストを低減できる。   According to the invention of claim 6, an object non-existing space area in the ranging area is specified based on a measurement result by the ranging apparatus, and based on an image captured by the imaging apparatus, Spatial color information of the imaging region that overlaps the object non-existing space region is acquired, and it is determined that the color information region that matches the spatial color information is the object non-existing space of the imaging region. As a result, the object non-existing space can be expanded from the object non-existing space area in the ranging area to the imaging area, and an open space where no object exists can be recognized accurately and over a wide range. In addition, based on the open space recognized with a wide field of view, the moving path for the moving body to avoid the object can be set more appropriately. In addition, the cost of the imaging device, the amount of calculation, and the like can be reduced as compared with the prior art (J01) that performs stereo image analysis using two or more imaging devices.

請求項7の記載の発明によれば、前記測距装置による計測結果に基づいて、前記測距領域における物体非存在空間領域が特定されると共に、前記撮像装置で撮像した画像に基づいて、前記物体非存在空間領域と重複する撮像領域の空間色情報が取得され、前記空間色情報と一致する色情報の領域が前記撮像領域の物体非存在空間であると判別される。この結果、前記物体非存在空間について、前記測距領域における物体非存在空間領域から前記撮像領域内にまで拡張することができ、物体の存在しないオープンスペースを精度良く且つ広い範囲で認識することができる。また、前記撮像装置を2台以上使用してステレオ画像解析を行う前記従来技術(J01)に比べ、前記撮像装置の費用や演算量等のコストを低減できる。   According to the invention of claim 7, an object non-existing space area in the ranging area is specified based on a measurement result by the ranging apparatus, and based on an image captured by the imaging apparatus, Spatial color information of the imaging region that overlaps the object non-existing space region is acquired, and it is determined that the color information region that matches the spatial color information is the object non-existing space of the imaging region. As a result, the object non-existing space can be expanded from the object non-existing space area in the ranging area to the imaging area, and an open space where no object exists can be recognized accurately and over a wide range. it can. In addition, the cost of the imaging device, the amount of calculation, and the like can be reduced as compared with the prior art (J01) that performs stereo image analysis using two or more imaging devices.

次に図面を参照しながら、本発明の実施の形態の具体例(実施例)を説明するが、本発明は以下の実施例に限定されるものではない。   Next, specific examples (examples) of the embodiments of the present invention will be described with reference to the drawings, but the present invention is not limited to the following examples.

図1は本発明の実施例1の自律型移動体の全体説明図である。
図1において、実施例1の自律型移動体AMは、移動体本体Mを有する。前記移動体本体Mには、左右の2輪がそれぞれ独立で駆動する前輪Maと、前記前輪Maの補助輪としての後輪Mbとを有する。前記前輪Maは、前記移動体本体Mに内蔵された駆動部M1により駆動される。前記駆動部M1は、前記移動体本体Mに設けられた制御部Cにより駆動が制御される。
また、前記前輪Maは、前記制御部Cにより、前記左右の2輪に回転差を与えるように前記駆動部M1の駆動が制御されることにより左右方向に操舵される。
また、前記自律型移動体AMには、前記自律型移動体AMの前方に予め設定された測距領域AR0に対して距離を計測することで前記測距領域AR0に存在する障害物等の物体を検出する測距装置の一例としてのレーザレンジファインダLRFが支持されている。前記レーザレンジファインダLRFは、前記測距領域AR0内でレーザ光を走査し、反射されたレーザ光を検出することで、前記測距領域AR0に存在する前記物体までの距離を計測する。なお、実施例1では、前記レーザレンジファインダLRFによって測距可能な前記測距領域AR0が、前記自律型移動体AM前方の半径2m程度の領域となるように予め設定されている。
FIG. 1 is an overall explanatory view of an autonomous mobile body according to a first embodiment of the present invention.
In FIG. 1, the autonomous mobile body AM of the first embodiment includes a mobile body main body M. The movable body M has a front wheel Ma in which the left and right wheels are independently driven, and a rear wheel Mb as an auxiliary wheel of the front wheel Ma. The front wheel Ma is driven by a drive unit M1 built in the movable body main body M. The drive of the drive unit M1 is controlled by a control unit C provided in the movable body main body M.
The front wheel Ma is steered in the left-right direction by controlling the drive of the drive unit M1 by the control unit C so as to give a rotation difference to the two left and right wheels.
Further, the autonomous mobile body AM includes an object such as an obstacle existing in the distance measurement area AR0 by measuring a distance with respect to the distance measurement area AR0 set in front of the autonomous mobile body AM. A laser range finder LRF is supported as an example of a distance measuring device for detecting the distance. The laser range finder LRF measures the distance to the object existing in the distance measuring area AR0 by scanning the laser light in the distance measuring area AR0 and detecting the reflected laser light. In the first embodiment, the distance measurement area AR0 that can be measured by the laser range finder LRF is set in advance so as to be an area having a radius of about 2 m ahead of the autonomous mobile body AM.

また、前記自律型移動体AMには、前記レーザレンジファインダLRFが測距する測距領域AR0と重複し且つ前記測距領域AR0よりも広い前方の撮像領域AR1に対して、色情報を含む撮像領域AR1の画像1(後述する図3A参照)を撮像する撮像装置の一例としてのカメラCAが支持されている。なお、実施例1では、前記カメラCAは、市販されている安価なWebカメラが使用されているが、これに限定されず、市販のデジタルカメラやデジタルビデオカメラ等を使用することも可能である。
前記制御部C、前記レーザレンジファインダLRF、前記カメラCAにより実施例1の環境認識システムSが構成されている。
In addition, the autonomous moving body AM captures an image including color information with respect to a front imaging area AR1 that overlaps the ranging area AR0 measured by the laser range finder LRF and is wider than the ranging area AR0. A camera CA as an example of an imaging apparatus that captures an image 1 (see FIG. 3A described later) in the area AR1 is supported. In the first embodiment, the camera CA is a commercially available inexpensive web camera. However, the present invention is not limited to this, and a commercially available digital camera, digital video camera, or the like can also be used. .
The environment recognition system S of Example 1 is configured by the control unit C, the laser range finder LRF, and the camera CA.

(実施例1の制御部Cの説明)
図2は本発明の実施例1の自律型移動体の制御部が備えている各機能をブロック図(機能ブロック図)で示した図である。
前記制御部Cは、いわゆるコンピュータ装置により構成されており、必要な処理を行うためのプログラムおよびデータ等が記憶されたROM(リードオンリーメモリ)、必要なデータを一時的に記憶するためのRAM(ランダムアクセスメモリ)、前記ROMに記憶されたプログラムに応じた処理を行うCPU(中央演算処理装置)、ならびにクロック発振器等を有するマイクロコンピュータにより構成されており、前記ROMに記憶されたプログラムを実行することにより種々の機能を実現することができる。
前記構成の制御部Cは、前記ROMに記憶されたプログラムを実行することにより種々の機能を実現することができる。実施例1の前記制御部CのROMには、環境認識プログラムAP1が記憶されている。
(Description of the control part C of Example 1)
FIG. 2 is a block diagram (functional block diagram) illustrating each function provided in the control unit of the autonomous mobile body according to the first embodiment of the present invention.
The control unit C is configured by a so-called computer device, and includes a ROM (read only memory) in which programs and data for performing necessary processing are stored, and a RAM (temporarily storing necessary data in RAM ( Random access memory), a CPU (Central Processing Unit) that performs processing according to the program stored in the ROM, and a microcomputer having a clock oscillator and the like, and executes the program stored in the ROM As a result, various functions can be realized.
The control unit C configured as described above can realize various functions by executing programs stored in the ROM. An environment recognition program AP1 is stored in the ROM of the control unit C of the first embodiment.

(環境認識プログラムAP1)
環境認識プログラムAP1は、下記の機能手段(プログラムモジュール)を有する。
C1:測距領域測距手段
測距領域測距手段C1は、レーザレンジファインダLRFにより、測距領域AR0に存在する障害物等の物体までの距離を計測する(測距する)。
(Environment recognition program AP1)
The environment recognition program AP1 has the following functional means (program modules).
C1: Distance measurement area distance measurement means The distance measurement area distance measurement means C1 measures the distance to an object such as an obstacle existing in the distance measurement area AR0 by using the laser range finder LRF.

図3は本発明の実施例1の環境認識プログラムで取得される画像の説明図であり、図3Aはカメラにより撮像された撮像領域の画像の説明図、図3Bはレーザレンジファインダの計測結果に基づいて作成されたマスク画像の説明図、図3Cは撮像領域の画像とマスク画像とを照合した状態の説明図である。
C2:撮像領域撮像手段
撮像領域撮像手段C2は、カメラCAにより、色情報を含む撮像領域AR1の撮像領域画像1(図3A参照)を撮像する。図3Aに示す、実施例1の前記撮像領域画像1の一例には、障害物1aが撮像されている。
FIG. 3 is an explanatory diagram of an image acquired by the environment recognition program according to the first embodiment of the present invention, FIG. 3A is an explanatory diagram of an image of an imaging region captured by the camera, and FIG. 3B is a measurement result of the laser range finder. FIG. 3C is an explanatory diagram of a state in which the image of the imaging region is compared with the mask image.
C2: Imaging Area Imaging Unit The imaging area imaging unit C2 images the imaging area image 1 (see FIG. 3A) of the imaging area AR1 including color information with the camera CA. The obstacle 1a is imaged in the example of the imaging area image 1 of Example 1 shown in FIG. 3A.

C3:測距領域空間特定手段
測距領域空間特定手段C3は、マスク画像生成手段C3Aを有し、前記測距領域測距手段C1による計測結果に基づいて、前記測距領域AR0において、物体が存在しない物体非存在空間領域(2a)を特定する。
C3A:マスク画像生成手段
マスク画像生成手段C3Aは、前記測距領域測距手段C1で測距された測距領域AR0の計測結果に基づいて、前記撮像領域画像1に対応する測距領域画像の一例としてのマスク画像2(図3B参照)を生成する。図3Bにおいて、実施例1の前記マスク画像生成手段C3Aは、前記レーザレンジファインダLRFによる前記測距領域AR0の計測結果から、前記撮像領域画像1の内の障害物1aが存在しないと判別された前記物体非存在空間領域2aを白色とし、それ以外の領域、すなわち、前記障害物1aが存在すると判別された物体存在空間領域2bと、測距領域AR0を超える領域である測拒不可領域2cとによって構成される非対象領域2d(2b+2c)を黒色とする2値画像である前記マスク画像2を生成する。
C3: Distance measurement area space specifying means The distance measurement area space specifying means C3 has a mask image generation means C3A, and an object is detected in the distance measurement area AR0 based on the measurement result of the distance measurement area distance measurement means C1. The non-existing object non-existing space area (2a) is specified.
C3A: Mask Image Generation Unit The mask image generation unit C3A is configured to generate a distance measurement area image corresponding to the imaging area image 1 based on the measurement result of the distance measurement area AR0 measured by the distance measurement area distance measurement unit C1. As an example, a mask image 2 (see FIG. 3B) is generated. In FIG. 3B, the mask image generation means C3A of Example 1 is determined from the measurement result of the distance measurement area AR0 by the laser range finder LRF that the obstacle 1a in the imaging area image 1 does not exist. The object non-existing space area 2a is white, and other areas, that is, the object existing space area 2b determined as the obstacle 1a is present, and the non-deniable area 2c that is an area exceeding the distance measuring area AR0, The mask image 2 which is a binary image in which the non-target region 2d (2b + 2c) configured by the above is black is generated.

C4:空間色情報取得手段
空間色情報取得手段C4は、マスク画像照合手段C4Aと、色情報平均値演算手段C4Bとを有し、撮像領域撮像手段C2で撮像された前記撮像領域画像1に基づいて、前記撮像領域AR1と、前記物体非存在空間領域2aとが重複する領域である重複領域の一例としてのマスク部1b(図3C参照)の色情報である空間色情報を取得する。
C4A:マスク画像照合手段
マスク画像照合手段C4Aは、前記撮像領域画像1と、前記マスク画像2とを照合することにより、前記撮像領域画像1内で、前記物体非存在空間領域2aに対応する前記マスク部1bを検出する。
C4B:色情報平均値演算手段
色情報平均値演算手段C4Bは、前記マスク部1bの色情報の平均値を演算する。
なお、実施例1の前記空間色情報取得手段C4では、前記マスク部1bの色情報の平均値が前記空間色情報であるとみなされる。
C4: Spatial Color Information Acquisition Unit The spatial color information acquisition unit C4 includes a mask image collation unit C4A and a color information average value calculation unit C4B, and is based on the imaging region image 1 captured by the imaging region imaging unit C2. Then, the spatial color information, which is the color information of the mask portion 1b (see FIG. 3C) as an example of the overlapping area, which is an area where the imaging area AR1 and the object non-existing space area 2a overlap, is acquired.
C4A: Mask image collating means The mask image collating means C4A collates the imaging area image 1 with the mask image 2 to thereby correspond to the object non-existing space area 2a in the imaging area image 1. The mask part 1b is detected.
C4B: Color information average value calculation means The color information average value calculation means C4B calculates the average value of the color information of the mask portion 1b.
In the spatial color information acquisition unit C4 according to the first exemplary embodiment, the average value of the color information of the mask unit 1b is regarded as the spatial color information.

C5:空間判別手段
空間判別手段C5は、撮像領域撮像手段C2で撮像された前記撮像領域画像1に基づいて、前記撮像領域AR1において、前記空間色情報と一致する色情報の領域を、物体が存在しない物体非存在空間1d(図3C参照)であると判別する。なお、実施例1の前記空間判別手段C5は、まず、前記マスク部1bの色情報の平均値(空間色情報)と、前記非対象領域2dに対応する非マスク部1c(図3C参照)内で前記マスク部1b(物体非存在空間1dの初期値)に隣接する画素(隣接する領域)の色情報との差が、予め設定された閾値より小さい場合、前記マスク部1bに隣接する非マスク部1cの画素を前記物体非存在空間1dとみなすことにより、前記非マスク部1c内に前記物体非存在空間1dを拡張する。
C5: Spatial discriminating means The spatial discriminating means C5 is based on the imaging area image 1 imaged by the imaging area imaging means C2, and in the imaging area AR1, an area of color information that matches the spatial color information is detected by an object. It is determined that the non-existing object non-existing space 1d (see FIG. 3C). The space discriminating means C5 according to the first embodiment first calculates the average value (spatial color information) of the color information of the mask portion 1b and the non-mask portion 1c (see FIG. 3C) corresponding to the non-target region 2d. When the difference between the color information of the pixels (adjacent regions) adjacent to the mask portion 1b (initial value of the object non-existing space 1d) is smaller than a preset threshold value, the non-mask adjacent to the mask portion 1b By considering the pixels of the part 1c as the object nonexisting space 1d, the object nonexisting space 1d is expanded in the non-masking part 1c.

また、拡張された前記物体非存在空間1dの色情報(空間色情報)と、前記物体非存在空間1dに隣接する非マスク部1cの画素の色情報との差が前記閾値より小さい場合に前記物体非存在空間1dを拡張する処理を繰り返す。そして、前記物体非存在空間1dに隣接する全ての画素で前記物体非存在空間1dが拡張できなくなると、前記物体非存在空間1dの拡張処理を終了し、拡張された前記物体非存在空間1dが判別される(特定される)。なお、図3Cに示す、実施例1の前記物体非存在空間1dの一例は、障害物1a以外の全ての領域、より具体的には床面となる。   When the difference between the expanded color information (space color information) of the object non-existing space 1d and the color information of the pixels of the non-mask portion 1c adjacent to the object non-existing space 1d is smaller than the threshold value, The process of expanding the object nonexisting space 1d is repeated. When the object non-existing space 1d cannot be expanded by all the pixels adjacent to the object non-existing space 1d, the expansion process of the object non-existing space 1d is terminated, and the expanded object non-existing space 1d Discriminated (identified). Note that an example of the object non-existing space 1d according to the first embodiment illustrated in FIG. 3C is the entire area other than the obstacle 1a, more specifically, the floor surface.

C6:経路設定手段
経路設定手段C6は、前記物体非存在空間1dが移動可能な領域であると判別して、前記物体非存在空間1dのみを通過して前記障害物1aを避ける移動経路を設定する経路設定処理を実行する。
C7:移動制御手段
移動制御手段C7は、設定された前記移動経路に沿って前記移動体本体Mを移動させる移動制御処理を実行する。実施例1の前記移動制御手段C7は、前記駆動部M1を制御して前記移動体本体Mの前輪Maの駆動を制御し、且つ、前記前輪Maの左右の2輪に回転差を与えることで左右方向への操舵を制御することにより、前記移動制御処理を実行する。
C6: Path setting means The path setting means C6 determines that the object non-existing space 1d is a movable area, and sets a moving path that only passes through the object non-existing space 1d and avoids the obstacle 1a. Execute the route setting process.
C7: Movement Control Unit The movement control unit C7 executes a movement control process for moving the movable body main body M along the set movement path. The movement control means C7 of the first embodiment controls the driving unit M1 to control the driving of the front wheel Ma of the movable body main body M, and gives a rotation difference to the left and right wheels of the front wheel Ma. The movement control process is executed by controlling the steering in the left-right direction.

(実施例1のフローチャートの説明)
次に、実施例1の制御部Cの環境認識プログラムAP1の処理の流れをフローチャートを使用して説明する。なお、前記移動制御手段C7に対応する前記移動制御処理については、前記移動体本体Mの前輪Maの駆動及び操舵(移動方向の調整)を制御することにより、経路設定処理(後述する図4のフローチャート参照)により設定された移動経路に沿って前記移動体本体Mを移動させるだけであるため、フローチャートによる詳細な説明を省略する。
(実施例1の経路設定処理のフローチャートの説明)
図4は本発明の実施例1の環境認識プログラムの経路設定処理のフローチャートである。
図4のフローチャートの各ST(ステップ)の処理は、前記制御部CのROM等に記憶されたプログラムに従って行われる。また、この処理は前記制御部Cの他の各種処理(例えば、移動制御処理)と並行してマルチタスクで実行される。
(Description of Flowchart of Example 1)
Next, the processing flow of the environment recognition program AP1 of the control unit C according to the first embodiment will be described with reference to a flowchart. As for the movement control process corresponding to the movement control means C7, the route setting process (FIG. 4 to be described later) is controlled by controlling the driving and steering (adjustment of the movement direction) of the front wheels Ma of the movable body M. Since only the moving body M is moved along the movement route set in (see the flowchart), a detailed description of the flowchart is omitted.
(Description of Flowchart of Route Setting Process of Example 1)
FIG. 4 is a flowchart of the path setting process of the environment recognition program according to the first embodiment of the present invention.
The processing of each ST (step) in the flowchart of FIG. 4 is performed according to a program stored in the ROM or the like of the control unit C. Further, this process is executed by multitasking in parallel with other various processes (for example, movement control process) of the control unit C.

図4に示すフローチャートは前記自律型移動体AMが電源オンした後、前記環境認識プログラムAP1が起動した場合に開始される。
図4のST1において、次の(1),(2)の処理を実行し、ST2に移る。
(1)レーザレンジファインダLRFにより測距領域AR0を測距する。
(2)カメラCAにより撮像領域AR1の撮像領域画像1(図3A参照)を撮像する。
ST2において、レーザレンジファインダLRFによる測距領域AR0の計測結果と、カメラCAによる撮像領域AR1の撮像領域画像1とに基づいてマスク画像2(図3B参照)を生成する。そして、ST3に移る。
ST3において、撮像領域画像1と、マスク画像2とを照合して、撮像領域画像1のマスク部1b(図3C参照)を検出し、前記マスク部1bの色情報の平均値を演算する。そして、ST4に移る。
The flowchart shown in FIG. 4 is started when the environment recognition program AP1 is started after the autonomous mobile body AM is powered on.
In ST1 of FIG. 4, the following processes (1) and (2) are executed, and the process proceeds to ST2.
(1) The distance measurement area AR0 is measured by the laser range finder LRF.
(2) The imaging area image 1 (see FIG. 3A) of the imaging area AR1 is captured by the camera CA.
In ST2, a mask image 2 (see FIG. 3B) is generated based on the measurement result of the ranging area AR0 by the laser range finder LRF and the imaging area image 1 of the imaging area AR1 by the camera CA. Then, the process proceeds to ST3.
In ST3, the imaging area image 1 and the mask image 2 are collated to detect the mask portion 1b (see FIG. 3C) of the imaging area image 1, and the average value of the color information of the mask portion 1b is calculated. Then, the process proceeds to ST4.

ST4において、マスク部1bの色情報の平均値(空間色情報)と隣接する非マスク部1cの画素の色情報との差が予め設定された閾値より小さいか否かを判別する。イエス(Y)の場合はST5に移り、ノー(N)の場合はST6に移る。
ST5において、隣接する非マスク部1cの画素を物体非存在空間1d(図3C参照)とすることにより、非マスク部1c内に物体非存在空間1cを拡張する。そして、ST6に移る。
ST6において、物体非存在空間1dと隣接する全ての画素で物体非存在空間1dを拡張できないことを確認済であるか否かを判別する。イエス(Y)の場合はST7に移り、ノー(N)の場合はST4に戻る。
ST7において、物体非存在空間1dが移動可能な領域であると判別して、物体非存在空間1dのみを通過して障害物1aを避ける移動経路を設定する。そして、ST1に戻る。
In ST4, it is determined whether or not the difference between the average value (spatial color information) of the color information of the mask portion 1b and the color information of the pixels of the adjacent non-mask portion 1c is smaller than a preset threshold value. If yes (Y), the process proceeds to ST5, and, if no (N), the process proceeds to ST6.
In ST5, the object non-existing space 1c is expanded in the non-masking part 1c by setting the pixels of the adjacent non-masking part 1c as the object non-existing space 1d (see FIG. 3C). Then, the process proceeds to ST6.
In ST6, it is determined whether or not it has been confirmed that the object nonexistence space 1d cannot be expanded by all the pixels adjacent to the object nonexistence space 1d. If yes (Y), the process proceeds to ST7, and, if no (N), the process returns to ST4.
In ST7, it is determined that the object non-existing space 1d is a movable region, and a moving path that passes only the object non-existing space 1d and avoids the obstacle 1a is set. Then, the process returns to ST1.

(実施例1の作用)
前記構成を備えた実施例1の自律型移動体AMでは、前記撮像領域AR1において、前記マスク部1bの色情報の平均値である前記空間色情報と一致する色情報の領域が、前記物体非存在空間1dであると判別される(図3C、図4のST4〜ST6参照)。したがって、狭い測距領域AR0のレーザレンジファインダLRFと、広い撮像領域AR1のカメラCAの情報を組み合わせることにより、精度の高いレーザレンジファインダLRFで測定された前記測距領域AR0の物体非存在空間1dを、前記撮像領域AR1内に拡張することができる。
(Operation of Example 1)
In the autonomous mobile AM according to the first embodiment having the above-described configuration, in the imaging region AR1, a region of color information that matches the spatial color information that is an average value of the color information of the mask unit 1b is the object non-display. The existence space 1d is determined (see ST4 to ST6 in FIGS. 3C and 4). Therefore, by combining the information of the laser range finder LRF of the narrow ranging area AR0 and the information of the camera CA of the wide imaging area AR1, the object non-existing space 1d of the ranging area AR0 measured by the highly accurate laser range finder LRF. Can be expanded into the imaging area AR1.

また、実施例1の自律型移動体AMでは、前記物体非存在空間1dの空間色情報(マスク部1bの色情報の平均値)と、前記物体非存在空間1dに隣接する非マスク部1cの画素の色情報との差が前記閾値より小さい場合に前記物体非存在空間1dを拡張する処理を、前記物体非存在空間1dに隣接する全ての画素で前記物体非存在空間1dが拡張できなくなるまで繰り返す(図4のST4〜ST6参照)。したがって、実施例1の自律型移動体AMでは、前記物体非存在空間1dに隣接しない領域については前記物体非存在空間1dであるか否かが判別されないため、前記物体非存在空間1dを判別するための演算量を低減できると共に、例えば、物体により囲まれた物体非存在空間のような閉鎖空間について判別を行わず、オープンスペースに隣接する領域のみに対して前記物体非存在空間であるか否かが判別されるため、オープンスペース、すなわち、前記物体非存在空間1dを精度良く認識することができる。また、前記空間色情報(マスク部1bの色情報の平均値)との差が予め設定された閾値より小さい色情報の領域が前記物体非存在空間1dであると判別されるため、例えば、同じ物体であって光の加減(物陰等)により色情報に少し差がある場合等についても、連続した物体非存在空間であると判別できる。
さらに、実施例1の自律型移動体AMでは、前記物体非存在空間1dが移動可能な領域であると判別して、前記物体非存在空間1dのみを通過して前記障害物1aを避ける移動経路が設定できる(図4のST7参照)。
Further, in the autonomous mobile object AM according to the first embodiment, the spatial color information of the object non-existing space 1d (the average value of the color information of the mask unit 1b) and the non-masking unit 1c adjacent to the object non-existing space 1d. When the difference from the color information of the pixel is smaller than the threshold value, the process of expanding the object non-existing space 1d is performed until the object non-existing space 1d cannot be expanded in all pixels adjacent to the object non-existing space 1d. Repeat (see ST4 to ST6 in FIG. 4). Therefore, in the autonomous mobile AM according to the first embodiment, since it is not determined whether or not the region that is not adjacent to the object nonexisting space 1d is the object nonexisting space 1d, the object nonexisting space 1d is determined. For example, whether or not the object non-existence space is only for the area adjacent to the open space without determining the closed space such as the object non-existence space surrounded by the object. Therefore, it is possible to accurately recognize the open space, that is, the object non-existing space 1d. Further, since it is determined that the area of color information whose difference from the spatial color information (average value of the color information of the mask portion 1b) is smaller than a preset threshold is the object non-existing space 1d, for example, the same Even in the case where an object is slightly different in color information due to light adjustment (such as object shadow), it can be determined that the object is a continuous non-existing space.
Further, in the autonomous mobile body AM according to the first embodiment, it is determined that the object non-existing space 1d is a movable area, and only the object non-existing space 1d is passed to avoid the obstacle 1a. Can be set (see ST7 in FIG. 4).

(実験例)
ここで、実施例1の前記自律型移動体AMが、前記経路設定処理(図4のST1〜ST7参照)を実行することにより、周囲の環境を認識する精度がどのように変化したかを調べるために、次の実験例1および比較例1を準備した。
(実験例1)
実験例1の自律型移動体AMは、実施例1の前記自律型移動体AMと同等の構成で作製されたシミュレータであり、実施例1の前記経路設定処理および前記移動制御処理が実行される。したがって、実験例1の自律型移動体AMでは、前記撮像領域画像1における物体非存在空間1dが、前記物体非存在空間領域2aに対応するマスク部1bから前記非マスク部1cにまで拡張されて判別される(図3C参照)。すなわち、移動可能な領域が、前記レーザレンジファインダLRFにより特定された前記測距領域AR0の物体非存在空間領域2a(図3B参照)から前記撮像領域AR1内にまで拡張されて判別される。
(Experimental example)
Here, it is examined how the accuracy of recognizing the surrounding environment is changed by the autonomous mobile body AM according to the first embodiment executing the route setting process (see ST1 to ST7 in FIG. 4). Therefore, the following Experimental Example 1 and Comparative Example 1 were prepared.
(Experimental example 1)
The autonomous mobile AM of Experimental Example 1 is a simulator manufactured with the same configuration as the autonomous mobile AM of Example 1, and the route setting process and the movement control process of Example 1 are executed. . Therefore, in the autonomous mobile AM of Experimental Example 1, the object non-existing space 1d in the imaging region image 1 is expanded from the mask portion 1b corresponding to the object non-existing space region 2a to the non-mask portion 1c. It is determined (see FIG. 3C). That is, the movable area is determined by extending from the object non-existing space area 2a (see FIG. 3B) of the distance measuring area AR0 specified by the laser range finder LRF to the imaging area AR1.

(比較例1)
比較例1の自律型移動体AM′は、実験例1の自律型移動体AMに比べ、前記カメラCAを有しておらず、比較例1の経路設定処理は、実験例1の経路設定処理に比べ、前記撮像領域画像1における物体非存在空間1dが、前記物体非存在空間領域2aに対応する前記マスク部1bのみであると判別され、前記非マスク部1cにまで拡張されて判別されない。すなわち、比較例1の自律型移動体AM′では、移動可能な領域が、前記レーザレンジファインダLRFにより特定された前記測距領域AR0の物体非存在空間領域2aのみであると判別される。
(Comparative Example 1)
The autonomous mobile body AM ′ of the comparative example 1 does not have the camera CA as compared with the autonomous mobile body AM of the experimental example 1, and the route setting process of the comparative example 1 is the route setting process of the experimental example 1. In contrast, the object non-existing space 1d in the imaging region image 1 is determined to be only the mask portion 1b corresponding to the object non-existing space region 2a, and is expanded to the non-mask portion 1c and is not determined. That is, in the autonomous moving body AM ′ of the comparative example 1, it is determined that the movable area is only the object non-existing space area 2a of the distance measuring area AR0 specified by the laser range finder LRF.

(実験条件)
図5は実験例の実験条件および実験結果の説明図であり、図5Aは実験例の実験条件を示す図であり、図5Bは実験例の実験結果を示す図であり、実験例1の自律型移動体が走行した経路を実線で示し、比較例1の自律型移動体が走行した経路を破線で示した図である。
図5Aに示すように、前記実験例では、実験例1および比較例1の自律型移動体AM,AM′の周回コース3を設けて、走行した経路および1周分の走行時間を測定するシミュレーション実験を行った。
ここで、前記周回コース3は、前記自律型移動体AM,AM′が走行する床面3aと、前記床面3aとの境界であり、前記床面3aの周囲を囲む外側縁石3bおよび内側縁石3cと、前記外側縁石3b側に設けられた障害物3dとを有する。なお、前記床面3aは、前記縁石3b,3cおよび前記障害物3dに対して、色情報が異なるように予め設定されている。
(Experimental conditions)
FIG. 5 is an explanatory diagram of experimental conditions and experimental results of the experimental example, FIG. 5A is a diagram illustrating experimental conditions of the experimental example, and FIG. 5B is a diagram illustrating experimental results of the experimental example. It is the figure which showed the path | route which the type | mold mobile body traveled by the continuous line, and showed the path | route which the autonomous mobile body of the comparative example 1 drive | worked with the broken line.
As shown in FIG. 5A, in the experimental example, a simulation is performed in which the traveling course 3 of the autonomous mobile bodies AM and AM ′ of Experimental Example 1 and Comparative Example 1 is provided and the traveled route and the travel time for one lap are measured. The experiment was conducted.
Here, the round course 3 is a boundary between the floor surface 3a on which the autonomous mobile bodies AM and AM ′ travel and the floor surface 3a, and an outer curb 3b and an inner curb surrounding the floor 3a. 3c and an obstacle 3d provided on the outer curb 3b side. The floor surface 3a is set in advance so that color information is different from that of the curbs 3b and 3c and the obstacle 3d.

(実験結果)
図5Bに示すように、実験例1の自律型移動体AMが走行した経路(図5Bの実線参照)は、比較例1の自律型移動体AM′が走行した経路(図5Bの破線参照)に比べ、前記外側縁石3bおよび前記障害物3dから離れており、短くなっていることがわかる。また、実験例1の自律型移動体AMの走行時間は、26.38秒であり、比較例1の自律型移動体AM′の走行時間は、33.26秒であった。すなわち、実験例1の自律型移動体AMの走行時間は、比較例1の自律型移動体AM′の走行時間に比べ、約26%改善したことがわかる。
(Experimental result)
As shown in FIG. 5B, the route traveled by the autonomous mobile body AM in Experimental Example 1 (see the solid line in FIG. 5B) is the route traveled by the autonomous mobile body AM ′ in Comparative Example 1 (see the broken line in FIG. 5B). It can be seen that the distance from the outer curb 3b and the obstacle 3d is shorter than that of the outer curb 3b. In addition, the traveling time of the autonomous mobile body AM of Experimental Example 1 was 26.38 seconds, and the traveling time of the autonomous mobile body AM ′ of Comparative Example 1 was 33.26 seconds. That is, it can be seen that the traveling time of the autonomous mobile body AM of Experimental Example 1 is improved by about 26% compared to the traveling time of the autonomous mobile body AM ′ of Comparative Example 1.

したがって、実施例1の自律型移動体AMは、前記レーザレンジファインダLRFによる測距領域AR0の狭さを、前記カメラCAによる撮像領域AR1の広さによって補完でき、前記カメラCAの障害物等の物体を認識する精度の低さを、前記レーザレンジファインダLRFによる前記物体を認識する精度の高さによって補完できる。したがって、障害物や移動可能な空間について、正確且つ広い範囲を認識することができ、前記自律型移動体AMの視野を広くすることができる。よって、広い視野に基づいて、移動経路をより適切に設定できる。
この結果、実施例1の自律型移動体AMは、比較例1の自律型移動体AM′のように前記カメラCAによってレーザレンジファインダLRFの情報を補完しない場合に比べ、前記物体非存在空間1dを精度良く且つ広範囲において判別できるため、周囲の環境を精度良く認識でき、移動経路をより適切に設定することができる。
Therefore, the autonomous mobile body AM according to the first embodiment can complement the narrowness of the distance measurement area AR0 by the laser range finder LRF by the width of the imaging area AR1 by the camera CA. The low accuracy of recognizing an object can be complemented by the high accuracy of recognizing the object by the laser range finder LRF. Therefore, it is possible to recognize an accurate and wide range of the obstacle and the movable space, and it is possible to widen the field of view of the autonomous mobile body AM. Therefore, the movement route can be set more appropriately based on a wide field of view.
As a result, the autonomous mobile body AM according to the first embodiment has the object non-existing space 1d as compared to the case where the information of the laser range finder LRF is not supplemented by the camera CA like the autonomous mobile body AM ′ according to the first comparative example. Therefore, the surrounding environment can be recognized with high accuracy, and the movement route can be set more appropriately.

さらに、実施例1の前記カメラCAは、色情報を含む前記撮像領域画像1を撮像するだけであるため、市販されている安価なWebカメラを使用することも可能である。したがって、実施例1の自律型移動体AMは、前記従来技術(J01)を適用した場合、すなわち、高額な2台のカメラを用いてステレオ画像解析し、自律型移動体AM前方の障害物1aまでの距離を演算した演算結果に基づいて前記物体非存在空間1cを検出する場合に比べ、周囲の環境を認識するための前記カメラCAの費用や演算量等のコストを低減することができる。   Furthermore, since the camera CA of the first embodiment only captures the imaging area image 1 including color information, it is possible to use a commercially available inexpensive Web camera. Therefore, the autonomous mobile body AM according to the first embodiment is an obstacle 1a in front of the autonomous mobile body AM when the prior art (J01) is applied, that is, stereo images are analyzed using two expensive cameras. Compared to the case where the object non-existing space 1c is detected based on the calculation result obtained by calculating the distance up to, the cost of the camera CA and the calculation amount for recognizing the surrounding environment can be reduced.

(変更例)
以上、本発明の実施例を詳述したが、本発明は、前記実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内で、種々の変更を行うことが可能である。本発明の変更例(H01)〜(H04)を下記に例示する。
(H01)本発明の実施例では、前記経路設定処理(図4のST1〜ST7参照)は、前記レーザレンジファインダLRFにより前記測距領域AR0における前記物体非存在空間領域2aを特定し、前記物体非存在空間1dを前記測距領域AR0から前記撮像領域AR1内にまで拡張し、前記物体非存在空間1dが移動可能な領域であると判別するが、これに限定されず、前記レーザレンジファインダLRFにより前記測距領域AR0における前記物体存在空間領域2bを特定し、前記物体存在空間領域2bの色情報(空間色情報)と一致する色情報の領域を物体が存在する物体存在空間であると判別し、前記物体存在空間(障害物1a)を避ける移動経路を設定することも可能である。また、前記物体非存在空間1dの替わりに前記物体存在空間を判別する場合、障害物1aとしての前記物体存在空間を避ける移動経路を設定する構成に限定されず、例えば、移動体としての前記物体存在空間を追従する移動経路を設定する構成にすることも可能である。
(Example of change)
As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to the said Example, A various change is performed within the range of the summary of this invention described in the claim. It is possible. Modification examples (H01) to (H04) of the present invention are exemplified below.
(H01) In an embodiment of the present invention, the route setting process (see ST1 to ST7 in FIG. 4) specifies the object non-existing space area 2a in the ranging area AR0 by the laser range finder LRF, and the object The non-existing space 1d is expanded from the ranging area AR0 to the imaging area AR1, and it is determined that the object non-existing space 1d is a movable area, but the present invention is not limited to this, and the laser range finder LRF Is used to identify the object existence space area 2b in the ranging area AR0 and determine that the color information area that matches the color information (spatial color information) of the object existence space area 2b is the object existence space where the object exists. It is also possible to set a movement route that avoids the object existence space (obstacle 1a). Further, when determining the object existence space instead of the object non-existence space 1d, the object existence space is not limited to a configuration in which a movement path that avoids the object existence space as the obstacle 1a is set. For example, the object as a moving object It is also possible to adopt a configuration in which a movement route that follows the existence space is set.

(H02)本発明の実施例では、予め設定された測距領域に対して距離を計測することで、前記測距領域に存在する物体を検出する測距装置として、前記レーザレンジファインダLRFを使用するが、これに限定されず、例えば、スキャニングレーザレーダやミリ波レーダ等(特許文献1参照)のその他の装置を使用することも可能である。
(H03)本発明の実施例では、前記物体非存在空間1dの色情報(空間色情報)と、前記物体非存在空間1dに隣接する非マスク部1cの画素の色情報とを比較して前記物体非存在空間1dを拡張する処理を繰り返しているが(図4のST4〜ST6参照)、これに限定されず、例えば、前記物体非存在空間1dに隣接していない非マスク部1cの画素から比較して前記物体非存在空間1dを拡張することも可能である。
(H04)本発明の実施例では、前記環境認識システムSを有する前記移動体本体Mを、いわゆる、ロボット車によって構成したが、これに限定されず、例えば、二足歩行のロボット等により構成することも可能である。
(H02) In the embodiment of the present invention, the laser range finder LRF is used as a distance measuring device that detects an object existing in the distance measuring area by measuring a distance with respect to a predetermined distance measuring area. However, the present invention is not limited to this, and other devices such as a scanning laser radar and a millimeter wave radar (see Patent Document 1) can also be used.
(H03) In an embodiment of the present invention, the color information (spatial color information) of the object non-existing space 1d is compared with the color information of the pixels of the non-mask portion 1c adjacent to the object non-existing space 1d. Although the process of expanding the object non-existing space 1d is repeated (see ST4 to ST6 in FIG. 4), the present invention is not limited to this. For example, from the pixel of the non-mask part 1c that is not adjacent to the object non-existing space 1d In comparison, the object non-existing space 1d can be expanded.
(H04) In the embodiment of the present invention, the mobile body M having the environment recognition system S is configured by a so-called robot car, but is not limited thereto, and is configured by, for example, a bipedal walking robot or the like. It is also possible.

図1は本発明の実施例1の自律型移動体の全体説明図である。FIG. 1 is an overall explanatory view of an autonomous mobile body according to a first embodiment of the present invention. 図2は本発明の実施例1の自律型移動体の制御部が備えている各機能をブロック図(機能ブロック図)で示した図である。FIG. 2 is a block diagram (functional block diagram) illustrating each function provided in the control unit of the autonomous mobile body according to the first embodiment of the present invention. 図3は本発明の実施例1の環境認識プログラムで取得される画像の説明図であり、図3Aはカメラにより撮像された撮像領域の画像の説明図、図3Bはレーザレンジファインダの計測結果に基づいて作成されたマスク画像の説明図、図3Cは撮像領域の画像とマスク画像とを照合した状態の説明図である。FIG. 3 is an explanatory diagram of an image acquired by the environment recognition program according to the first embodiment of the present invention, FIG. 3A is an explanatory diagram of an image of an imaging region captured by the camera, and FIG. 3B is a measurement result of the laser range finder. FIG. 3C is an explanatory diagram of a state in which the image of the imaging region is compared with the mask image. 図4は本発明の実施例1の環境認識プログラムの経路設定処理のフローチャートである。FIG. 4 is a flowchart of the path setting process of the environment recognition program according to the first embodiment of the present invention. 図5は実験例の実験条件および実験結果の説明図であり、図5Aは実験例の実験条件を示す図であり、図5Bは実験例の実験結果を示す図であり、実験例1の自律型移動体が走行した経路を実線で示し、比較例1の自律型移動体が走行した経路を破線で示した図である。FIG. 5 is an explanatory diagram of experimental conditions and experimental results of the experimental example, FIG. 5A is a diagram illustrating experimental conditions of the experimental example, and FIG. 5B is a diagram illustrating experimental results of the experimental example. It is the figure which showed the path | route which the type | mold mobile body traveled by the continuous line, and showed the path | route which the autonomous mobile body of the comparative example 1 drive | worked with the broken line.

符号の説明Explanation of symbols

1…画像、
1a…物体、
1d…物体非存在空間、
2a…物体非存在空間領域、
2b…物体存在空間領域、
AM…自律型移動体、
AP1…環境認識プログラム、
AR0…測距領域、
AR1…撮像領域、
C…コンピュータ、
C3…測距領域空間特定手段、
C4…空間色情報取得手段、
C5…空間判別手段、
C6…経路設定手段、
C7…移動制御手段、
CA…撮像装置、
LRF…測距装置、レーザレンジファインダ、
M…移動体、
S…環境認識システム。
1 ... Image,
1a ... object,
1d: object non-existence space,
2a ... object non-existence space area,
2b ... object existence space region,
AM ... Autonomous moving body,
AP1 ... environmental recognition program,
AR0: ranging area,
AR1 ... imaging area,
C ... Computer,
C3: Ranging area space specifying means,
C4: Spatial color information acquisition means,
C5: Spatial discrimination means,
C6: route setting means,
C7: Movement control means,
CA: imaging device,
LRF: Ranging device, laser range finder,
M ... mobile,
S: Environment recognition system.

Claims (7)

予め設定された測距領域に対して距離を計測することで、前記測距領域に存在する物体を検出する測距装置と、
前記測距装置が測距する測距領域と重複し且つ前記測距領域よりも広い撮像領域に対して、色情報を含む画像を撮像する撮像装置と、
前記測距装置による計測結果に基づいて、前記測距領域において、物体が存在しない物体非存在空間領域を特定する測距領域空間特定手段と、
前記撮像装置で撮像した画像に基づいて、前記物体非存在空間領域と、重複する撮像領域の色情報である空間色情報を取得する空間色情報取得手段と、
前記撮像装置で撮像した画像に基づいて、前記撮像領域において、前記空間色情報と一致する色情報の領域を物体が存在しない物体非存在空間であると判別する空間判別手段と、
を備えたことを特徴とする環境認識システム。
A distance measuring device for detecting an object existing in the distance measuring area by measuring a distance with respect to a predetermined distance measuring area;
An imaging device that captures an image including color information with respect to an imaging region that overlaps with a ranging region to be measured by the ranging device and is wider than the ranging region;
Ranging area space specifying means for specifying an object non-existing space area in which no object exists in the ranging area based on a measurement result by the ranging device;
Based on the image captured by the imaging device, spatial color information acquisition means for acquiring spatial color information that is color information of the object non-existing spatial region and an overlapping imaging region;
Space discriminating means for discriminating an area of color information matching the spatial color information in the imaging area as an object non-existing space based on an image captured by the imaging apparatus;
An environment recognition system characterized by comprising:
前記撮像装置で撮像した画像に基づいて、前記撮像領域において、前記空間色情報と、前記空間色情報の領域に隣接する領域の色情報とが一致する場合に、前記隣接する領域を前記物体非存在空間であると判別する前記空間判別手段、
を備えたことを特徴とする請求項1に記載の環境認識システム。
Based on the image captured by the imaging device, when the spatial color information matches the color information of the area adjacent to the area of the spatial color information in the imaging area, The space discriminating means for discriminating that the space exists;
The environment recognition system according to claim 1, further comprising:
前記撮像装置で撮像した画像に基づいて、前記物体非存在空間領域と、重複する撮像領域の色情報の平均値を前記空間色情報として取得する前記空間色情報取得手段と、
前記撮像装置で撮像した画像に基づいて、前記撮像領域において、前記空間色情報との差が予め設定された閾値より小さい色情報が存在する場合に、前記色情報を前記空間色情報と一致する色情報であるとみなし、前記色情報の領域を前記物体非存在空間であると判別する前記空間判別手段と、
を備えたことを特徴とする請求項1または2に記載の環境認識システム。
Based on the image captured by the imaging device, the spatial color information acquisition unit that acquires, as the spatial color information, an average value of the color information of the object non-existing space region and the overlapping imaging region;
Based on the image captured by the imaging device, the color information matches the spatial color information when there is color information in the imaging region that is less than a preset threshold value with respect to the spatial color information. The space discriminating means which regards the area of the color information as the color information and discriminates the area of the color information as the object non-existing space;
The environment recognition system according to claim 1 or 2, further comprising:
予め設定された測距領域に対して距離を計測することで、前記測距領域に存在する物体を検出する測距装置と、
前記測距装置が測距する測距領域と重複し且つ前記測距領域よりも広い撮像領域に対して、色情報を含む画像を撮像する撮像装置と、
前記測距装置による計測結果に基づいて、前記測距領域において、物体が存在する物体存在空間領域を特定する測距領域空間特定手段と、
前記撮像装置で撮像した画像に基づいて、前記物体存在空間領域と、重複する撮像領域の色情報である空間色情報を取得する空間色情報取得手段と、
前記撮像装置で撮像した画像に基づいて、前記撮像領域において、前記空間色情報と一致する色情報の領域を物体が存在する物体存在空間であると判別する空間判別手段と、
を備えたことを特徴とする環境認識システム。
A distance measuring device for detecting an object existing in the distance measuring area by measuring a distance with respect to a predetermined distance measuring area;
An imaging device that captures an image including color information with respect to an imaging region that overlaps with a ranging region to be measured by the ranging device and is wider than the ranging region;
Ranging area space specifying means for specifying an object existence space area where an object exists in the ranging area based on a measurement result by the ranging device;
Spatial color information acquisition means for acquiring spatial color information that is color information of the imaging region that overlaps the object presence space region based on an image captured by the imaging device;
Space discriminating means for discriminating, in the imaging area, an area of color information that matches the spatial color information as an object existence space based on an image captured by the imaging apparatus;
An environment recognition system characterized by comprising:
前記測距領域内でレーザ光を走査し、物体で反射されたレーザ光を検出することで、前記測距領域に存在する物体までの距離を計測するレーザレンジファインダにより構成された前記測距装置と、
を備えたことを特徴とする請求項1ないし4のいずれかに記載の環境認識システム。
The distance measuring device configured by a laser range finder that measures a distance to an object existing in the distance measuring area by scanning laser light in the distance measuring area and detecting laser light reflected by the object. When,
The environment recognition system according to any one of claims 1 to 4, further comprising:
移動体の前方に予め設定された測距領域に対して距離を計測することで、前記測距領域に存在する物体を検出する測距装置と、
前記測距装置が測距する測距領域と重複し且つ前記測距領域よりも広い前方の撮像領域に対して、色情報を含む画像を撮像する撮像装置と、
前記測距装置による計測結果に基づいて、前記測距領域において、物体が存在しない物体非存在空間領域を特定する測距領域空間特定手段と、
前記撮像装置で撮像した画像に基づいて、前記物体非存在空間領域と、重複する撮像領域の色情報である空間色情報を取得する空間色情報取得手段と、
前記撮像装置で撮像した画像に基づいて、前記撮像領域において、前記空間色情報と一致する色情報の領域を物体が存在しない物体非存在空間であると判別する空間判別手段と、
前記物体非存在空間が移動可能な領域であると判別して、前記物体を避ける移動経路を設定する経路設定手段と、
設定された前記移動経路に沿って前記移動体を移動させる移動制御手段と、
を備えたことを特徴とする自律型移動体。
A distance measuring device that detects an object existing in the distance measuring area by measuring a distance with respect to a distance measuring area set in front of the moving body;
An imaging device that captures an image including color information with respect to a front imaging region that overlaps with a ranging region to be measured by the ranging device and is wider than the ranging region;
Ranging area space specifying means for specifying an object non-existing space area in which no object exists in the ranging area based on a measurement result by the ranging device;
Based on the image captured by the imaging device, spatial color information acquisition means for acquiring spatial color information that is color information of the object non-existing spatial region and an overlapping imaging region;
Space discriminating means for discriminating an area of color information matching the spatial color information in the imaging area as an object non-existing space based on an image captured by the imaging apparatus;
It is determined that the object non-existing space is a movable area, and a route setting means for setting a moving route that avoids the object;
Movement control means for moving the moving body along the set movement path;
An autonomous mobile body characterized by comprising:
コンピュータを
予め設定された測距領域に対して距離を計測することで前記測距領域に存在する物体を検出する測距装置による計測結果に基づいて、前記測距領域において、物体が存在しない物体非存在空間領域を特定する測距領域空間特定手段、
前記測距装置が測距する測距領域と重複し且つ前記測距領域よりも広い撮像領域に対して色情報を含む画像を撮像する撮像装置で撮像した画像に基づいて、前記物体非存在空間領域と、重複する撮像領域の色情報である空間色情報を取得する空間色情報取得手段、
前記撮像装置で撮像した画像に基づいて、前記撮像領域において、前記空間色情報と一致する色情報の領域を物体が存在しない物体非存在空間であると判別する空間判別手段、
として機能させるための環境認識プログラム。
An object in which no object exists in the distance measurement area based on a measurement result by a distance measuring device that detects an object existing in the distance measurement area by measuring a distance with respect to a predetermined distance measurement area. Ranging area space specifying means for specifying a non-existing space area,
The object non-existing space is based on an image captured by an imaging device that captures an image including color information for an imaging region that overlaps a ranging region measured by the ranging device and is wider than the ranging region. Spatial color information acquisition means for acquiring spatial color information which is color information of an area and an overlapping imaging area;
Space discriminating means for discriminating, based on an image captured by the imaging device, an area of color information that matches the spatial color information in the imaging area as an object non-existing space in which no object exists;
Environment recognition program to function as
JP2007234425A 2007-09-10 2007-09-10 Environment recognition system, autonomous mobile body and environment recognition program Expired - Fee Related JP4953313B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007234425A JP4953313B2 (en) 2007-09-10 2007-09-10 Environment recognition system, autonomous mobile body and environment recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007234425A JP4953313B2 (en) 2007-09-10 2007-09-10 Environment recognition system, autonomous mobile body and environment recognition program

Publications (2)

Publication Number Publication Date
JP2009068852A JP2009068852A (en) 2009-04-02
JP4953313B2 true JP4953313B2 (en) 2012-06-13

Family

ID=40605290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007234425A Expired - Fee Related JP4953313B2 (en) 2007-09-10 2007-09-10 Environment recognition system, autonomous mobile body and environment recognition program

Country Status (1)

Country Link
JP (1) JP4953313B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106200A (en) * 2012-11-29 2014-06-09 Toyota Motor Corp Surrounding monitoring apparatus and parking support device
JP6359986B2 (en) * 2015-02-13 2018-07-18 トヨタ自動車株式会社 Vehicle driving support system
WO2019131198A1 (en) * 2017-12-28 2019-07-04 ソニー株式会社 Control device, control method, program, and mobile body

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6371604A (en) * 1986-09-12 1988-04-01 Hideo Mori System for detecting road boarder and obstacle by using area-divided color image
JPH0546242A (en) * 1991-08-09 1993-02-26 Toshiba Corp White line detecting device
JP3064759B2 (en) * 1993-09-28 2000-07-12 株式会社日立製作所 Apparatus for monitoring surroundings of vehicle, driving support system for vehicle, and driving support apparatus
JPH09264954A (en) * 1996-03-29 1997-10-07 Fujitsu Ten Ltd Image processing system using radar
JP4308381B2 (en) * 1999-09-29 2009-08-05 富士通テン株式会社 Perimeter monitoring sensor
JP2002132343A (en) * 2000-10-26 2002-05-10 Kawasaki Heavy Ind Ltd Travel control method for autonomous travel body
JP3621065B2 (en) * 2000-12-25 2005-02-16 松下電器産業株式会社 Image detecting apparatus, program, and recording medium
JP3470268B2 (en) * 2001-07-17 2003-11-25 川崎重工業株式会社 Target extraction method
JP3945279B2 (en) * 2002-03-15 2007-07-18 ソニー株式会社 Obstacle recognition apparatus, obstacle recognition method, obstacle recognition program, and mobile robot apparatus
JP3879848B2 (en) * 2003-03-14 2007-02-14 松下電工株式会社 Autonomous mobile device
JP4241651B2 (en) * 2005-03-16 2009-03-18 パナソニック電工株式会社 Mobile device
JP4595759B2 (en) * 2005-09-09 2010-12-08 株式会社デンソー Environment recognition device

Also Published As

Publication number Publication date
JP2009068852A (en) 2009-04-02

Similar Documents

Publication Publication Date Title
CN111556833B (en) Vehicle control device, control method thereof and vehicle control system
JP6445497B2 (en) Route determination method for automatic mobile
JP6682833B2 (en) Database construction system for machine learning of object recognition algorithm
JP6418332B2 (en) Vehicle position estimation device and vehicle position estimation method
US20200079165A1 (en) Hitch assist system
JP6261832B1 (en) Traveling path recognition device and traveling path recognition method
JP6610799B2 (en) Vehicle traveling control method and traveling control apparatus
CN111231942B (en) Parking assist apparatus
WO2018097026A1 (en) Vehicle control device
JP2012118909A (en) Travel support device
US9607230B2 (en) Mobile object control apparatus and target object detecting apparatus
US11753002B2 (en) Vehicular control system
JP4937844B2 (en) Pedestrian detection device
JP5781126B2 (en) Obstacle determination device, autonomous mobile device, and obstacle determination method
CN110632916A (en) Behavior prediction device and automatic driving device
CN113361312A (en) Electronic device and method for detecting object
JP5530773B2 (en) Plane detection method using stereo camera and mobile robot using this method
JP4953313B2 (en) Environment recognition system, autonomous mobile body and environment recognition program
JP2019067115A (en) Road surface detecting device
Bersani et al. Robust vehicle pose estimation from vision and INS fusion
US10249056B2 (en) Vehicle position estimation system
CN115144849A (en) Sensor fusion for object avoidance detection
US20220237899A1 (en) Outside environment recognition device
Van Crombrugge et al. Fast Ground Detection for Range Cameras on Road Surfaces Using a Three-Step Segmentation
JP2020041933A (en) Peripheral object determination method and peripheral object determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120308

R150 Certificate of patent or registration of utility model

Ref document number: 4953313

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150323

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees