JP7064948B2 - Autonomous mobile devices and autonomous mobile systems - Google Patents
Autonomous mobile devices and autonomous mobile systems Download PDFInfo
- Publication number
- JP7064948B2 JP7064948B2 JP2018093563A JP2018093563A JP7064948B2 JP 7064948 B2 JP7064948 B2 JP 7064948B2 JP 2018093563 A JP2018093563 A JP 2018093563A JP 2018093563 A JP2018093563 A JP 2018093563A JP 7064948 B2 JP7064948 B2 JP 7064948B2
- Authority
- JP
- Japan
- Prior art keywords
- moving body
- unit
- distance
- image pickup
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 claims description 141
- 230000033001 locomotion Effects 0.000 claims description 57
- 238000003384 imaging method Methods 0.000 claims description 35
- 238000012545 processing Methods 0.000 description 39
- 238000000034 method Methods 0.000 description 35
- 238000001514 detection method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/026—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
Description
本発明は、自律移動装置及び自律移動システムの技術に関する。 The present invention relates to techniques for autonomous mobile devices and autonomous mobile systems.
従来から、ロボットや自動車等の移動体に外界センサや、内界センサを搭載し、移動体の周囲の障害物を検出、回避しながら目的地まで自律的に移動する自律移動に関する技術が開発されている。ここで、外界センサは画像センサやLiDAR等であり、内界センサは、エンコーダや慣性計測装置等である。そのなかで、搭載するセンサの低コスト化のため、比較的安価である画像センサを用いた技術開発の需要が高まっている。 Conventionally, technologies related to autonomous movement have been developed in which external sensors and internal sensors are mounted on moving objects such as robots and automobiles to detect and avoid obstacles around the moving objects while autonomously moving to the destination. ing. Here, the external sensor is an image sensor, LiDAR, or the like, and the internal sensor is an encoder, an inertial measurement unit, or the like. Under these circumstances, there is an increasing demand for technological development using relatively inexpensive image sensors in order to reduce the cost of mounted sensors.
例えば、特許文献1には、「車両に搭載され、所定の設置距離で配置された、少なくとも2台のカメラを有し、該少なくとも2台のカメラで取得された複数の画像を用いて、該車両周辺の物標の3次元座標を推定取得する装置において、少なくとも2台のカメラの内の1台のカメラが経時的に取得した2枚の画像から、車両周辺の物標の3次元座標を推定演算する単眼ステレオ処理部、少なくとも2台のカメラの内の2台のカメラが同時に取得した2枚の画像から、車両周辺の物標の3次元座標を推定演算する複眼ステレオ処理部、それら単眼ステレオ処理部及び複眼ステレオ処理部に接続され、それら処理部でそれぞれ演算推定された物標の3次元座標を、所定の基準で選択、統合して、求めるべき前記物標の3次元座標と推定し、その結果を出力する、結果統合・切替手段、を有する」3次元座標取得装置が開示されている(要約参照)。
For example,
画像センサを用いて、死角なく移動体の周囲を検出するため、画像センサに駆動装置を設置し、撮像方向を機械的に制御することで撮像領域を時系列で拡張する手法がある。しかし、このような駆動装置は使用頻度に応じて早期に劣化が生じるため、駆動装置の交換コストがかかる。 In order to detect the surroundings of a moving object without blind spots using an image sensor, there is a method of installing a drive device in the image sensor and mechanically controlling the image pickup direction to expand the image pickup area in time series. However, since such a drive device deteriorates at an early stage depending on the frequency of use, the replacement cost of the drive device is high.
一方で、複数の画像センサで複数の領域の画像を検出する手法がある。しかし、この手法で使用する画像センサはLiDAR等の外界センサと比べて取得データ量が多く、画像センサと計算処理部との通信や計算処理部での計算処理負荷が増大する。ただし、この問題は、計算機の増設や画像センサのフレームレート低減、または画像センサで検出した画像の圧縮、画素の間引き(画像データ量の低減)により回避できる。しかし、データ処理量が大きくなると、搭載する機器が多くなる。そのため、移動体の大きさやデザインが制約され、さらに、画像センサの検出性能の劣化を引き起こしてしまう。 On the other hand, there is a method of detecting an image of a plurality of regions with a plurality of image sensors. However, the image sensor used in this method has a larger amount of acquired data than the external sensor such as LiDAR, and the communication between the image sensor and the calculation processing unit and the calculation processing load in the calculation processing unit increase. However, this problem can be avoided by adding more computers, reducing the frame rate of the image sensor, compressing the image detected by the image sensor, and thinning out the pixels (reducing the amount of image data). However, as the amount of data processing increases, the number of devices to be installed increases. Therefore, the size and design of the moving body are restricted, and further, the detection performance of the image sensor is deteriorated.
また、予め用意した複数枚の画像と距離データを教師データとし、CNN(Convolutional Neural Network)によって、単眼で撮像された1枚の画像における各ピクセルの距離を推定する手法がある。ここで、ピクセルの距離とは、ピクセルに写っている対象物の、カメラからの距離である。この手法では、画像センサの搭載数を削減できるが、教師データに含まれる距離データの範囲内の距離のみを推定するため汎用性がないという欠点がある。このため、推定された距離の誤差や精度の範囲が保障されておらず、さらに処理負荷が高い。このため、人の活動環境等のリアルタイム、かつ高精度に距離検出が必要な環境では適用できないという課題がある。 Further, there is a method of estimating the distance of each pixel in one image captured by a monocular by CNN (Convolutional Neural Network) using a plurality of images and distance data prepared in advance as teacher data. Here, the pixel distance is the distance from the camera of the object reflected in the pixel. Although this method can reduce the number of image sensors mounted, it has a drawback that it is not versatile because it estimates only the distance within the range of the distance data included in the teacher data. Therefore, the estimated distance error and accuracy range are not guaranteed, and the processing load is high. Therefore, there is a problem that it cannot be applied in an environment where distance detection is required in real time and with high accuracy such as a human activity environment.
このような背景に鑑みて本発明がなされたのであり、本発明は、低処理負荷な自律移動装置及び自律移動システムを提供することを課題とする。 The present invention has been made in view of such a background, and it is an object of the present invention to provide an autonomous mobile device and an autonomous mobile system having a low processing load.
前記した課題を解決するため、本発明は、移動体の直進方向に対して正方向の向きを撮像領域に含む第1の撮像部を、少なくとも2つ有し、前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有し、前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、算出された前記距離に基づいて、自己位置を算出し、算出された前記自己位置を基に、自律移動を行う自律移動制御部と、前記移動体が停止しているか、移動しているかを判定する状態判定部とを有する、前記移動体としての自律移動装置であって、前記距離算出部は、前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出し、前記自律移動制御部は、前記移動体が停止から移動に移ったとき、所定距離の間、前記移動体を直進方向へ移動させることを特徴とする。
その他の解決手段は実施形態中において適宜記載する。
In order to solve the above-mentioned problems, the present invention has at least two first image pickup units having a direction in the positive direction with respect to the straight-ahead direction of the moving body in the image pickup region, with respect to the straight-ahead direction of the moving body. It has at least one second image pickup unit that includes the orientation in the orthogonal direction in the image pickup area, and is in the image pickup area based on the image pickup images captured by the first image pickup unit and the second image pickup unit. A distance calculation unit that calculates the distance to the object, an autonomous movement control unit that calculates the self-position based on the calculated distance, and performs autonomous movement based on the calculated self-position, and the above-mentioned It is an autonomous moving device as the moving body having a state determination unit for determining whether the moving body is stopped or moving, and the distance calculation unit is imaged by the first imaging unit. The distance is calculated based on the disparity of the images, and the distance is calculated based on a plurality of captured images with different imaging times captured by the second imaging unit , and the autonomous movement control unit uses the autonomous movement control unit to calculate the distance. When the moving body moves from a stop to a movement, the moving body is moved in a straight direction for a predetermined distance .
Other solutions will be described as appropriate in the embodiments.
本発明によれば、低処理負荷な自律移動装置及び自律移動システムを提供することができる。 According to the present invention, it is possible to provide an autonomous mobile device and an autonomous mobile system having a low processing load.
次に、本発明を実施するための形態(「実施形態」という)について、適宜図面を参照しながら詳細に説明する。 Next, an embodiment (referred to as “embodiment”) for carrying out the present invention will be described in detail with reference to the drawings as appropriate.
[第1実施形態]
まず、図1~図3を参照して、本発明の第1実施形態を説明する。
図1は、第1実施形態に係る移動体1の構成を示す図である。
本実施形態では、複数の画像センサ120を搭載した無人車両や、自動車や、ロボット等、さらには船舶等のの移動体(自律移動装置)1が自律移動する。
移動体1は、複数(図1の例では6つ)の画像センサ(撮像部)120を備えるとともに、計算処理部110と、複数の駆動部130を備えている。画像センサ120は、具体的にはカメラである。ここで、画像センサ120として、Webカメラのような低解像度かつ安価なカメラを使用することができる。
[First Embodiment]
First, the first embodiment of the present invention will be described with reference to FIGS. 1 to 3.
FIG. 1 is a diagram showing a configuration of a
In the present embodiment, an unmanned vehicle equipped with a plurality of
The
画像センサ120のうち、画像センサ120A,120Bは、移動体1の移動方向に対して正方向の向きを撮像領域に含むように設置されている。つまり、画像センサ120A,120Bは、移動体1が図1に示す矢印A1の方向へ動くときに、移動体1の前方を撮像する。
そして、画像センサ120C,120Dは、移動体1の移動方向に対して負方向の向きを撮像領域に含むように設置されている。つまり、画像センサ120C,120Dは、移動体1が図1に示す矢印A1の方向へ動くときに、移動体1の後方を撮像する。
Of the
The
また、画像センサ120E、120Fは、それぞれ移動体1の移動方向に対して直交方向の向きを撮像領域に含むように設置されている。つまり、画像センサ120E,120Fは、移動体1が図1に示す矢印A1の方向へ動くときに、移動体1の側方を撮像する。ちなみに、移動体1が図1に示す矢印A1の方向へ動くときに、画像センサ120Eは、移動体1の左方を撮像し、画像センサ120Fは、移動体1の右方を撮像する。
なお、図1に示すように、画像センサ120E,120Fは、互いに略対向するように設置されている。
ここで、それぞれの画像センサ120の画角は広角または超広角にすることで移動体1の周囲の対象物を抜け目なく撮像できる。
Further, the
As shown in FIG. 1, the
Here, by setting the angle of view of each
画像センサ120の受光帯域は走行環境に応じて決定すればよい。例えば、屋内や昼間の屋外を走行する場合は可視光帯域を受光するカメラが画像センサ120として搭載される。また、暗所や夜間の屋外を走行する場合は近赤外帯域を受光する画像センサ120が搭載される。
The light receiving band of the
画像センサ120のフレームレートは移動体1の最高移動速度や走行環境、制動距離、1フレーム間における最大移動距離等に基づいて設定されればよい。例えば、最高速度6km/hで屋内タイル上を走行する場合、周囲の撮像画像を基に急停止したときに許容できる移動距離を0.5mとすると、動摩擦係数0.3のタイル上での制動距離0.47mを考慮して、画像センサ120のフレームレートは6000/3600/(0.5-0.47)=約56fps程度に設定される。人や障害物の密度が低い環境では、1フレーム間における最大移動距離を0.05mとし、例えば、画像センサ120のフレームレートは6000/3600/0.05=約33fps程度に設定される。同様に、最高速度60km/hで屋外を走行する場合は、1フレーム間における最大移動距離を0.05mとし、画像センサ120のフレームレートが、例えば、60000/3600/0.05=約333fps程度に設定される。
The frame rate of the
移動速度に制約がない環境では、予め決定した画角と受光帯域を満たす画像センサ120の最大フレームレートや、制動距離等に基づいて移動体1の最高移動速度を決定することもできる。例えば、画像センサ120の最大フレームレートが30fpsである場合、1フレーム間における最大移動距離を0.05mとし、移動体1の最高移動速度が0.05×30=1.5m/s=5.4km/hに設定される。
In an environment where the moving speed is not restricted, the maximum moving speed of the moving
駆動部130は車輪である。そして、駆動部130のうち、前部駆動部130A,130Bは車輪軸の方向を制御する。また、後部駆動部130C,130Dは車輪の回転数を制御する。後部駆動部130C,130Dは互いに異なる回転数で制御できる。例えば、後部駆動部130Cと後部駆動部130Dとをむすぶ線分の中心を旋回中心として超信地旋回する場合、前部駆動部130A,130Bの車輪軸を回転方向に対して垂直の方向に向け、後部駆動部130C,130Dを互いに逆方向に回転させる。
The
また、前部駆動部130A,130Bはキャスタ等でもよい。この場合、前部駆動部130A,130Bは制御されない。前部駆動部130A,130Bと、後部駆動部130C,130Dの機能を入れかえてもよい。すなわち、前部駆動部130A,130Bの回転数と、後部駆動部130C,130Dの車輪軸の方向を制御することで、前部駆動部130Aと前部駆動部130Bをむすぶ線分の中心を旋回中心として超信地旋回してもよい。なお、超信地旋回ではなく、単なる旋回でもよい。
Further, the
計算処理部110は、図示しないCPU(Central Processing Unit)と、図示しないROM(Read Only Memory)、図示しないRAM(Random Access Memory)を備えている。ROM等に格納されているプログラムが、RAMにロードされ、ロードされたプログラムがCPUによって実行される。このようにすることで、データ取得部111、ステレオ距離算出部112、単眼距離算出部113、対象物検出部114、自己位置算出部115、制御部116が具現化する。
The
データ取得部111は、それぞれの画像センサ120で撮像された画像を設定したフレームレートで取得する。画像の取得は、それぞれの画像センサ120において同期的に行われる。
ステレオ距離算出部(距離算出部)112は、データ取得部111で同時刻に取得した画像センサ120A,120Bの画像の視差に基づいて、画像センサ120A,120Bの両方の撮像領域に含まれる対象物までの距離を算出する。そして、ステレオ距離算出部112は、画像センサ120A,120Bのうち少なくとも1つで撮像された、撮像時刻の異なる複数枚の画像にオプティカルフロー推定法を適用し、移動体1の前方に存在する対象物を追跡する。ここでの追跡とは、異なるフレーム(異なる撮像時刻における画像)において、同一の対象物を検出することである。
The
The stereo distance calculation unit (distance calculation unit) 112 is an object included in both the imaging regions of the
ステレオ距離算出部112は、画像センサ120C、120Dについても同様の処理を実行し、画像センサ120C,120Dの撮像領域に含まれる対象物までの距離を算出する。さらに、ステレオ距離算出部112は、オプティカルフロー推定法を適用し、移動体1の後方に存在する対象物を追跡する。
The stereo
ここで対象物は、回避対象となる人や、障害物や、後記する自己位置算出部115で移動体1の位置と姿勢を算出するために使われる特徴点や、ランドマーク等である。前記したオプティカルフロー推定法は、例えば、Lucas-Kanade法や、Horn-Schunck法等が用いられる。画像センサ120のフレームレートや移動体1の最高移動速度に基づいて、ユーザは、オプティカルフロー推定法として、どの手法を用いるかを予め決定しておく。
Here, the object is a person to be avoided, an obstacle, a feature point used for calculating the position and posture of the moving
単眼距離算出部(距離算出部)113は、データ取得部111で取得した画像センサ120E,120Fの各々で撮像された、撮像時刻がそれぞれ異なる画像と、後記する自己位置算出部115で算出した前記撮像時刻における移動体1の位置の時系列情報とに基づいて、画像センサ120E、120Fの各々の撮像領域に含まれる対象物までの距離を算出する。
The monocular distance calculation unit (distance calculation unit) 113 includes images with different imaging times captured by the
また、単眼距離算出部113は、画像センサ120A,120Bのいずれか1つについても同様の処理を行い、画像センサ120A,120Bのいずれか1つに含まれる撮像領域に含まれる対象物までの距離を算出する。さらに、単眼距離算出部113は、画像センサ120C,120Dのいずれか1つについても同様の処理を行い、画像センサ120C,120Dのいずれか1つに含まれる撮像領域に含まれる対象物までの距離を算出する。要するに、単眼距離算出部113は、異なる時刻で撮像した2枚の画像における視差を利用して、あたかも複眼視したかのようにして幾何学的に距離を算出する。
Further, the monocular
画像センサ120A,120Bや、画像センサ120C,120Dで撮像された画像がステレオ距離算出部112で処理されるか、単眼距離算出部113で処理されるかは、後記する基準で切り替えられる。
Whether the images captured by the
なお、画像センサ120Aと、画像センサ120Cとは、図1に示すように互いの設置位置がずれるよう設置されてもよいし、位置が揃うよう(対向するよう)設置されてもよい。同様に、画像センサ120Bと、画像センサ120Dとは、図1に示すように互いの設置位置がずれるよう設置されてもよいし、位置が揃うよう(対向するよう)設置されてもよい。また、画像センサ120Eと、画像センサ120Fとは、図1に示すように互いの設置位置がずれるよう設置されてもよいし、位置が揃うよう(対向するよう)設置されてもよい。
The
対象物検出部(自律移動制御部)114は、ステレオ距離算出部112あるいは単眼距離算出部113で算出した各々の対象物までの距離と、画像センサ120それぞれの搭載位置と姿勢とに基づいて、各々の対象物の位置を算出する。そして、対象物が移動物である場合、対象物検出部114は、対象物それぞれの単位時間あたりの移動量を算出する。移動量は、ステレオ距離算出部112あるいは単眼距離算出部113のそれぞれでオプティカルフロー推定法により追跡した対象物における、複数の異なる時刻での位置と時刻とに基づいて算出される。
The object detection unit (autonomous movement control unit) 114 is based on the distance to each object calculated by the stereo
自己位置算出部(自律移動制御部)115は、データ取得部111で画像を取得した時刻における移動体1の位置及び姿勢を算出する。位置及び姿勢は、予め作成されている地図と、対象物検出部114で位置を算出した対象物とを対応付けることにより算出される(マップマッチング)。また、自己位置算出部115は、算出した移動体1の位置と姿勢に基づいて、対象物検出部114で算出した対象物の位置を修正する。つまり、自己位置算出部115は、移動体1の位置・姿勢と、地図とから、ステレオ距離算出部112や、単眼距離算出部113が算出した対象物の位置(距離)を修正する。
The self-position calculation unit (autonomous movement control unit) 115 calculates the position and posture of the moving
また、対象物が移動物である場合、自己位置算出部115は、算出した移動体1の位置と姿勢に基づいて、対象物の単位時間あたりの移動量を修正する。地図は、移動体1を手動で走行させながら、走行環境を撮像することで得られる。そして、撮像時刻の異なる複数枚の画像を取得し、取得した画像にSLAM(Simultaneous Localization and Mapping)やSfM(Structure from Motion)を適用することにより地図が作成される。地図作成のための撮像は、例えば、画像センサ120を複数搭載した台車を手動で移動させながら、または画像センサ120を複数搭載したユニットを手持ちして移動しながら行われる。
When the object is a moving object, the self-
地図と対象物との対応付けの手法として以下の手法が存在する。いずれの手法が用いられてもよい。
・特徴点の配置関係に基づいて対応付けるICP(Iterative Closest Point)。
・SHOT(Signature of Histograms of OrienTations)。
・特徴量(画像上の特徴点近傍の輝度勾配ベクトルや、画像全体の輝度勾配ベクトルの分布等)が近似する特徴点同士を対応付ける手法。
これらの手法のうち、どの手法を採用するかは、地図の構成により決定される。例えば、地図が特徴点の位置情報のみで構成される場合、地図が2次元であればICP、3次元であればSHOTが採用される。なお、地図が特徴点の位置情報と特徴量で構成される場合、移動体1の自律移動時における自己位置推定では、地図作成時に用いた手法と同じ手法で特徴量が算出され、この特徴量を用いた対応付けが行われる。
The following methods exist as methods for associating a map with an object. Any method may be used.
-ICP (Iterative Closest Point) that associates based on the arrangement of feature points.
-SHOT (Signature of Histograms of OrienTations).
-A method of associating feature points with similar feature quantities (brightness gradient vector near the feature points on the image, distribution of the brightness gradient vector of the entire image, etc.).
Which of these methods is adopted is determined by the composition of the map. For example, when the map is composed only of the position information of the feature points, ICP is adopted if the map is two-dimensional, and SHOT is adopted if the map is three-dimensional. When the map is composed of the position information of the feature points and the feature amount, the feature amount is calculated by the same method as the method used at the time of creating the map in the self-position estimation at the time of autonomous movement of the moving
制御部(自律移動制御部)116は、自己位置算出部115で算出した移動体1の位置、姿勢、修正された対象物の位置、対象物が移動物である場合、対象物の単位時間あたりの移動量に基づいて移動体1の次回移動量を決定する。そして、制御部116は、次回移動量に基づいて駆動部130への制御値を算出し、駆動部130に算出した制御値を送信する。
なお、矢印A2については後記する。
The control unit (autonomous movement control unit) 116 determines the position and posture of the moving
The arrow A2 will be described later.
次に、図2A~図2Cを参照して、移動方向、側方方向、超信地旋回時における単眼距離算出で生じる誤差を説明する。
(単眼距離算出による拒理誤差)
図2A~図2Cは、単眼距離算出部113での距離算出の詳細と距離誤差を表している。
図2Aにおいて、移動体1は図1の矢印A1方向に移動しているものとする。そして、図2Aは、画像センサ120Aまたは画像センサ120Bが撮像した前方画像を基に単眼距離算出部113が対象物Jの距離を算出した場合に生じる可能性のある誤差を示している。
図2Aにおいて、符号201は時刻t1における移動体1の位置と姿勢である。このとき、画像センサ120Aは、移動体1の移動方向に対して、前方にある対象物Jを視線202で撮像する。
Next, with reference to FIGS. 2A to 2C, an error caused by the monocular distance calculation in the moving direction, the lateral direction, and the super-credit turning will be described.
(Rejection error due to monocular distance calculation)
2A to 2C show the details of the distance calculation by the monocular
In FIG. 2A, it is assumed that the moving
In FIG. 2A,
その後、移動体1は時刻t2に符号211の地点まで移動し、画像センサ120Aが対象物Jを視線212で撮像する。
単眼距離算出部113は、時刻t1における位置と姿勢(符号201)、時刻t2における位置と姿勢(符号211)、それぞれの時刻における視線202、視線212の視差に基づいて、対象物Jまでの距離(視線212の線分長)を算出する。
視線202と視線212の視差は、対象物Jに含まれる同一点を、時刻t1での画像と時刻t2での画像から検出することで算出される。同一点の検出は、オプティカルフロー推定法を用いることで行われる。時刻t2における位置と姿勢(符号211)は、後記する自己位置算出部115で算出した時刻t1における位置と姿勢(符号201)に、時刻t1に制御部116で決定した駆動部130への制御値を積算して算出した位置と姿勢の暫定値である。時刻t2における位置及び姿勢(符号211)の暫定値は、自己位置算出部115で処理修正される。つまり、自己位置算出部115は、地図を用いることによって、時刻t2における移動体1の位置・姿勢を修正する。
After that, the moving
The monocular
The parallax between the line of
ここで仮に、時刻t2における視線212が、画像センサ120Aのセンサ誤差によって視線221として対象物Jを撮像したとする。この場合、対象物Jは地点Jaに存在すると計算される。このため、対象物Jまでの距離に誤差E1が生じる。
画像センサ120C,120Dのいずれか一方で撮像された後方画像を用いた場合も同程度の誤差が生じる。
Here, it is assumed that the line-of-
When a rear image captured by either one of the
このように移動体1の移動方向に存在する対象物Jと移動体1との距離を、単眼距離算出で距離を求めると、大きな誤差が生じてしまう。
If the distance between the object J existing in the moving direction of the moving
図2Bにおいて、移動体1は図1の矢印A1方向に移動しているものとする。そして、図2Bは、画像センサ120E,画像センサ120Fのいずれか一方が撮像した側方画像を基に単眼距離算出部113が対象物Jの距離を算出した場合に生じる可能性のある誤差を示している。
距離算出の手法は図2Aの場合と同様である。すなわち、時刻t1に符号301の地点より視線302で対象物Jが撮像される。その後、時刻t2に符号311の地点より視線312で対象物Jが撮像される。そして、対象物Jまでの距離(視線312の線分長)が算出される。ここで仮に、時刻t2における視線312が、画像センサ120Eのセンサ誤差によって視線321として対象物Jを撮像したとすると、対象物Jは地点Jbに存在すると計算される。つまり、対象物Jまでの距離に誤差E2が生じる。
In FIG. 2B, it is assumed that the moving
The method of calculating the distance is the same as in the case of FIG. 2A. That is, the object J is imaged from the point of
図2Aに示す誤差角θ1と、図2Bに示す誤差角θ2は、ほとんど同じである。むしろ、図2Bに示す誤差角θ2の方が、図2Aに示す誤差角θ1より若干大きい。にもかかわらず、図2Aに示す誤差E1と、図2Bに示す誤差E2とを比較すると、図2Bに示す誤差E2のほうが小さい。これは、対象物Jまでの距離が、時刻t1の画像と時刻t2の画像との視差と反比例の関係にあるからである。要するに、時刻t1の画像と時刻t2の画像との視差が小さいと、誤差が大きくなりやすい。逆に、時刻t1の画像と時刻t2の画像との視差が大きいと、誤差が大きくなりにくい。
よって、誤差を小さくするためには、2つの画像の視差をできるだけ大きくする必要がある。
The error angle θ1 shown in FIG. 2A and the error angle θ2 shown in FIG. 2B are almost the same. Rather, the error angle θ2 shown in FIG. 2B is slightly larger than the error angle θ1 shown in FIG. 2A. Nevertheless, when the error E1 shown in FIG. 2A and the error E2 shown in FIG. 2B are compared, the error E2 shown in FIG. 2B is smaller. This is because the distance to the object J is inversely proportional to the parallax between the image at time t1 and the image at time t2. In short, if the parallax between the image at time t1 and the image at time t2 is small, the error tends to be large. On the contrary, if the parallax between the image at time t1 and the image at time t2 is large, the error is unlikely to be large.
Therefore, in order to reduce the error, it is necessary to increase the parallax between the two images as much as possible.
そのために、移動方向に対して直交方向の向きの撮像領域に対しては、ステレオ距離算出部112よりも処理負荷の低い単眼距離算出部113の処理を適用することが望ましい。
このように、移動体1の移動方向に対して直交方向に備えられている画像センサ120で撮像された画像は、単眼距離算出部113によって距離を算出されることが望ましい。例えば、駆動部130がオムニホイール等であれば、移動体1が図1の矢印A2の方向に移動することも可能である。移動体1が図1の矢印A2の方向に移動するような場合、画像センサ120A~120Dが移動方向に対して直交方向に設置されている画像センサ120となる。このような場合、画像センサ120A~120Dで撮像された画像は、単眼距離算出部113による距離算出が行われるとよい。ただし、この場合、画像センサ120A,120Bのいずれか一方、画像センサ120C,120Dのいずれか一方で撮像された画像が用いられればよい。
Therefore, it is desirable to apply the processing of the monocular
As described above, it is desirable that the distance of the image captured by the
また、移動体1の移動方向に対して正方向(つまり前方)、負方向(つまり後方)に設置されている画像センサ120で撮像された画像は、ステレオ距離算出部112で処理される。
すなわち、図2Aに示すように、誤差E1は大きい値となるため、図2Aのように移動体1の移動方向に設置されている画像センサ120A,120Bで撮像された画像は、単眼距離算出部113より、ステレオ距離算出部112で処理されるのがよい。
このように、本願の特徴は、移動体1の移動方向によって、同じ画像センサ120でも、単眼距離算出を行うか、ステレオ距離算出を行うかが切り替えられることにある。
Further, the image captured by the
That is, as shown in FIG. 2A, the error E1 is a large value, so that the images captured by the
As described above, the feature of the present application is that even with the
図2Cでは、移動体1が超信地旋回している場合について説明する。
移動体1が図2Cの旋回方向(矢印A3)の方向に超信地旋回する場合、図1の矢印A1に示す移動方向に対して直交方向に移動体1が移動しているといえる。すなわち、この場合、画像センサ120A~120Dは、移動体1の移動方向とは直交方向に存在する画像センサ120(側方に設置されている画像センサ120)となる。
In FIG. 2C, a case where the moving
When the moving
つまり、移動体1が超信地旋回している間、画像センサ120A~120Dについてステレオ距離算出部112の処理を適用しない方がよい。すなわち、移動体1が超信地旋回している場合、画像センサ120A,120Bのうち、少なくとも1つで撮像した画像に単眼距離算出部113の処理を適用する。同様に、画像センサ120C,120Dのうち、少なくとも1つで撮像した画像に単眼距離算出部113の処理を適用する。その理由を以下に記載する。
That is, it is better not to apply the processing of the stereo
図2Cにおいて、移動体1は図2Cの矢印A3の方向に旋回(超信地旋回)しているものとする。そして、図2Cは、画像センサ120Aまたは画像センサ120Bが撮像した画像を基に単眼距離算出部113が対象物Jの距離を算出した場合に生じる可能性のある誤差を示している。
In FIG. 2C, it is assumed that the moving
図2Cにおける距離算出の手法は図2A及び図2Bの場合と同様である。時刻t1で、画像センサ120Aは符号401の位置・姿勢において、視線402で対象物Jを撮像する。その後、移動体1が超信地旋回方向(矢印A3)へ超信地旋回する。そして、時刻t2で、画像センサ120Aは、符号411の位置・姿勢において視線412で対象物Jを撮像する。
The method of calculating the distance in FIG. 2C is the same as that of FIGS. 2A and 2B. At time t1, the
その後、単眼距離算出部113は、時刻t1で撮像された画像と、時刻t2で撮像された画像とを基に対象物Jまでの距離(視線412の線分長)を算出する。超信地旋回中かどうかは、時刻t1での制御部116の制御値から判断される。
After that, the monocular
ここで仮に、時刻t2における視線412が、画像センサ120Aのセンサ誤差によって視線421として、対象物Jが撮像されたものとする。この場合、対象物Jは地点Jcに存在すると計算され、対象物Jまでの距離に誤差E3が生じる。
Here, it is assumed that the line-of-
ここで、図2Aに示す誤差E1と、図2Cに示す誤差E3とを比較すると、誤差E3の方が小さい。これは、移動方向に対して直交方向の移動量、つまり、旋回方向(矢印A3)が増大し、視差が大きくなったためである。言い換えれば、図2Cでは移動体1の移動方向が旋回方向(矢印A3)であるため、画像センサ120A(あるいは、画像センサ120B)が、移動体1の側方を撮像する側方画像センサとなったためである。
Here, when the error E1 shown in FIG. 2A and the error E3 shown in FIG. 2C are compared, the error E3 is smaller. This is because the amount of movement in the direction orthogonal to the moving direction, that is, the turning direction (arrow A3) has increased, and the parallax has increased. In other words, in FIG. 2C, since the moving direction of the moving
よって、超信地旋回量を制御部116の制御値に基づいて算出し、超信地旋回量が予め設定した判定閾値よりも大きい場合、画像センサ120A,120Bのうち、少なくとも1つで撮像した画像に単眼距離算出部113の処理を適用する。この場合、ステレオ距離算出部112は何も実行しない。画像センサ120C,120Dについても同様である。
Therefore, the super-credit turning amount is calculated based on the control value of the
このように、画像センサ120が移動体1の移動方向に対して、直交方向に備えられている場合、ステレオ距離算出よりも、単眼距離算出の方が誤差を小さくすることができる。さらに、単眼距離算出は、ステレオ距離算出の方が処理データを低減できるため、処理負荷を低減することができる。
つまり、移動体1が超信地旋回している場合、画像センサ120A、120Bで撮像された画像をステレオ距離算出部112により距離を算出するよりも、単眼距離算出部113で距離を算出する手法の方が誤差を低減できる。さらに、単眼距離算出部113で距離を算出することにより、処理対象の画像データ量が削減され、処理負荷を低減することができる。
As described above, when the
That is, when the moving
なお、画像センサ120A,120Bのうち、どの画像センサ120で撮像した画像を単眼距離算出部113に適用するかは、超信地旋回による各々の画像センサ120の移動量に基づいて決定される。例えば、画像センサ120A,120Bのうち、画像センサ120Aの移動量が大きければ、画像センサ120Aで撮像された画像が使用される。画像センサ120C,120Dについても同様である。
ただし、移動体1の中心軸に対して画像センサ120A,120Bが対称の位置関係にある場合、画像センサ120A,120Bそれぞれの超信地旋回による移動量は同じである。このような場合、撮像された画像上において特徴点が多い画像センサ120の画像が使用される。画像センサ120C,120Dも同様である。
Which of the
However, when the
単眼距離算出部113で距離を算出するか、ステレオ距離算出部112で距離を算出するかの判定閾値は、画像センサ120A,120Bと、画像センサ120C,120Dのそれぞれで予め設定されている。例えば、画像センサ120Aと画像センサ120Bとの距離(ベースライン距離)が、判定閾値として設定される。画像センサ120C,120Dについても同様に設定される。ここで、ベースライン距離は、ステレオ距離算出における視差である。つまり、異なる時刻で画像が撮像された場合、それぞれの撮像時刻間において、移動体1が図1の矢印A2の方向に移動した距離が、ベースライン距離より大きい場合、画像センサ120A,120Bのいずれか一方で撮像された画像に対し、単眼距離算出が適用される。それぞれの撮像時刻間において、移動体1が図1の矢印A2の方向に移動した距離が、ベースライン距離より小さい場合、画像センサ120A及び画像センサ120Bで撮像された画像に対し、ステレオ距離算出が適用される。画像センサ120C,120Dについても同様である。
The determination thresholds for calculating the distance by the monocular
ちなみに、画像センサ120E,120Fは、超信地旋回時でも移動体1の移動方向に対して直交方向に備えられているため、単眼距離算出部113による距離算出が適用される。
Incidentally, since the
なお、CNNは学習による推定距離であるため、CNNを用いた単眼距離算出は距離の精度に保障がない。本実施形態では、幾何学的に求められる距離であるため、誤差は生じるものの、CNNより算出される距離の精度が保障される。 Since CNN is an estimated distance by learning, the accuracy of the distance is not guaranteed in the monocular distance calculation using CNN. In the present embodiment, since the distance is geometrically obtained, the accuracy of the distance calculated from the CNN is guaranteed, although an error occurs.
なお、ここでは超信地旋回について記載しているが、カーブでも適用可能である。移動体1がカーブしている場合、移動体1の移動方向のベクトルを直進方向と、直進方向と直交する方向(直交方向)のベクトルに分解したとき、直進方向成分が直交方向成分より大きい場合、画像センサ120A、120Bのいずれか一方で撮像された画像に対してステレオ距離算出が適用される。また、直交方向成分が直進方向成分より大きい場合、画像センサ120A、120Bのいずれか一方で撮像された画像に対して単眼距離算出が適用される。画像センサ120C,120Dについても同様である。
In addition, although the super-credit turning is described here, it can also be applied to a curve. When the moving
(移動制御)
図3は、移動体1における移動制御の手法を示す図である。
まず、予め作成した壁等の対象物J1と目的地点位置とに基づいて、目的地点までの目標経路Wが作成される。目標経路Wの作成手法として、例えば、ダイクストラ法やA-Star法がある。この手法では、まず、出発点と終了点が指定される。そして、対象物J1を構成する各特徴点の近傍にポテンシャル場Pが設けられる。ポテンシャル場Pは、移動体1が避ける領域である。次に、制御部116は、目的地点までの距離とポテンシャル場Pとを基に、最小のコストとなる経路探索を行う。そして、制御部116は、最小コストとなる経路が目標経路Wとして生成される。目標経路Wは、例えば、図示しないサーバ等で生成された後、移動体1に送信される。
(Movement control)
FIG. 3 is a diagram showing a method of movement control in the moving
First, a target route W to the destination point is created based on the object J1 such as a wall created in advance and the destination point position. As a method for creating the target route W, for example, there are the Dijkstra method and the A-Star method. In this method, the starting point and the ending point are first specified. Then, a potential field P is provided in the vicinity of each feature point constituting the object J1. The potential field P is a region avoided by the moving
次に、制御部116は、前回の制御値を基に算出された移動体1の移動速度と旋回角速度B1を中心として、次回の移動速度と旋回角速度の候補Bを複数設定する。そして、制御部116は、それぞれの候補Bを採用した場合における次回の移動体1の候補位置を算出する。
Next, the
それぞれの候補Bにおける各移動速度及び旋回角速度は、移動体1の最大移動速度と最大旋回角速度を超えないように設定される。例えば、候補B1での移動速度をVmとし、候補B2の移動速度を(Vm-3km/h)から(Vm+3km/h)の範囲で設定したとする。このとき、最大移動速度が(Vm+2km/h)の場合は、移動速度の候補B2を(Vm-3km/h)から(Vm+2km/h)の範囲に設定しなおす。
Each moving speed and turning angular velocity in each candidate B are set so as not to exceed the maximum moving speed and the maximum turning angular velocity of the moving
次に、制御部116は、自己位置算出部115で修正した移動対象物M1,M2の位置と単位時間あたりの移動量M11、M21を基に、移動対象物M1,M2の近傍にポテンシャル場P1、P2を設ける。そして、制御部116は、移動体1の次回移動先候補位置から目標経路Wまでのコストと、移動体1の次回移動先候補位置から目標地点(移動終了地点)までのコストとを比較する。このとき、制御部116は、各ポテンシャル場P,P1,P2を避ける経路でコストを算出する。
そして、制御部116は、最もコストが低くなる候補Bを選択する。そして、制御部116は、最小コストとなる候補Bを次回の移動速度と旋回角速度として採用する。その後、制御部116は、採用した移動速度と旋回角速度に基づいて駆動部130への制御値を算出する。
Next, the
Then, the
なお、図3の例では、移動対象物M1,M2を避けるために、移動体1が既に目標経路Wを外れているところを示している。
In the example of FIG. 3, in order to avoid the moving objects M1 and M2, the moving
第1実施形態では、移動体1の移動方向に画像センサ120が設置されている場合、ステレオ距離算出が適用される。また、画像センサ120が移動方向に対して直交方向に設置されている場合、単眼距離算出が適用される。このようにすることにより、移動体1は、移動・旋回方向に応じて、処理負荷が低くなるよう最適な距離算出手法を選択する。これにより、無死角でありながら、高精度かつ低処理負荷な自律移動を実現することができる。また、誤差が小さくなる距離算出手法が選択されることで、安価なカメラでも算出される距離の精度が低下することを防止することができる。
これにより、安価なカメラでも障害物検出精度が低下することを防止することができる。
なお、特許文献1に記載の技術は、車両の移動方向とは関係なく、カメラの視野が重複していない部分を単眼視している。これに対して、本実施形態では移動体1の移動方向に応じて、ステレオ距離算出と、単眼距離算出とを切り替えている点が異なる。
In the first embodiment, when the
As a result, it is possible to prevent the obstacle detection accuracy from being lowered even with an inexpensive camera.
The technique described in
また、これまでは画像の取得頻度を低下させて処理負荷を低減することが行われていたが、このような手法では距離算出精度の低下等といった性能低下が生じるおそれがある。本実施形態では、画像の取得頻度を低下させることなく、距離算出精度の低下等を防ぐことができる。 Further, until now, the frequency of image acquisition has been reduced to reduce the processing load, but such a method may cause a decrease in performance such as a decrease in distance calculation accuracy. In the present embodiment, it is possible to prevent the distance calculation accuracy from being lowered without reducing the image acquisition frequency.
[第2実施形態]
次に、図4を参照して、本発明の第2実施形態を説明する。
第2実施形態では、移動体1が、起動時や、目的地に到着後の停止時や、人混みでの停滞時や、エレベータ搭乗等における一時停止後に、安全に自律移動を開始・再開することを目的とする。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIG.
In the second embodiment, the
図4は、第2実施形態による移動体1の計算処理部110aの構成を示す図である。
計算処理部110aは、第1実施形態と同様の構成である各部111~116に加えて、状態判定部117と、旋回角速度変更部(自律移動制御部)118を有している。
各部111~116は、第1実施形態における各部111~116と同様の処理を実行することで、移動体1を自律移動させる。
状態判定部117は、自己位置算出部115で算出した移動体1の位置と姿勢の時系列情報と、起動情報とに基づいて、移動体1の走行状態を判定する。計算処理部110aの起動時や、現在時刻を含めた過去の一定期間(例えば30秒間)における移動体1の位置と姿勢の両方が変化していない場合において、状態判定部117は走行状態を「停止・停滞」と判定する。それ以外の場合、状態判定部117は走行状態を「走行」と判定する。
FIG. 4 is a diagram showing a configuration of a
The
Each
The
旋回角速度変更部118は、状態判定部117で判定した走行状態に基づいて、移動体1の最高旋回角速度を設定する。走行状態が「停止・停滞」の場合は、最高旋回角速度をゼロに設定する。これは、単眼距離算出が、画像を時系列で取得しなければ算出できないためである。つまり、走行状態が「停止・停滞」の場合、画像センサ120E,120Fによる対象物の距離算出ができない状態である。これにより、移動体1の側方に存在している対象物の距離が算出できていないため、移動体1の側方が死角となっている。そのため、移動体1を旋回して発進させると、思わぬ障害物に衝突するおそれがある。そのため、最高旋回角速度がゼロに設定され、直進方向にしか発進できないようになっている。
The turning angular
走行状態が「走行」の場合、走行状態が「停止・停滞」から「走行」に切り替わった時刻における移動体1の位置と、現在の移動体1の位置との距離が一定量(例えば1m)を超えたとき、最高旋回角速度を移動体1の本来の値に設定する。これは、前記したように、単眼距離算出には、画像が時系列的にある程度揃っている必要があるためである。
When the running state is "running", the distance between the position of the moving
第2実施形態の移動体1は、起動時や、停止・停滞時から走行を開始・再開するとき、一定量を直進・後退するまで旋回しないように駆動部130を制御する。このようにすることにより、移動体1の側方に存在する対象物までの距離を正確に算出できるようになるまで、移動体1の前方に存在する対象物と後方に存在する対象物までの距離をステレオ距離算出で算出しながら移動する。このようにすることにより、移動体1を安全な方向に移動することができる。
The moving
移動体1の位置と姿勢が変化しているか否かの判定は、例えば、以下の手順で行われる。まず、状態判定部117が、現在時刻を含めた過去の一定期間における位置と姿勢との分散を算出する。そして、状態判定部117が、予め設定した状態判定閾値と、算出した分散とを比較することで移動体1の位置と姿勢が変化しているか否かの判定を実行する。
For example, the determination of whether or not the position and posture of the moving
ここで、状態判定閾値が小さく設定されると、分散が0近傍で停止と判定される。また、状態判定閾値が大きく設定されると、移動体1がかなり動いている状態でも停止と判定される。
状態判定閾値が小さく設定されると、移動体1が少し動いただけでも移動していると判定されてしまう。従って、移動体1の側方に設置された画像センサ120が、単眼距離算出に必要な距離を動く前に、側方に設置された画像センサ120による単眼距離算出が行われてしまう。
逆に、状態判定閾値が大きく設定されると、前記したように、移動体1がかなり動いている状態でも停止と判定される。つまり、移動体1の側方に設置された画像センサ120が、単眼距離算出に必要な距離を動いた後に、側方に設置された画像センサ120による単眼距離算出が行われる。
Here, if the state determination threshold is set small, it is determined that the variance is stopped near 0. Further, when the state determination threshold value is set to be large, it is determined that the moving
If the state determination threshold is set small, it is determined that the moving
On the contrary, when the state determination threshold value is set to a large value, it is determined that the moving
このような特徴から、人ごみや、周囲に障害物が多い場合には、状態判定閾値を大きく設定し、周囲に何もないような場所では状態判定閾値を小さく設定するとよい。このようにすることで、効率的な移動体1の移動を実現することができる。
From such a feature, when there are many crowds or obstacles in the surroundings, it is preferable to set a large state determination threshold value, and in a place where there is nothing in the surrounding area, it is preferable to set a small state determination threshold value. By doing so, it is possible to realize efficient movement of the moving
[第3実施形態]
図5は、第3実施形態に係る自律移動システムZの構成例を示す図である。
図5に示すように、自律移動システムZは、移動体1bと、サーバ5とを有する。
移動体1bは、それぞれの画像センサ120で撮像した画像をサーバ5へ送信する。サーバ5は、送信された画像を基に、単眼距離算出またはステレオ距離算出を用いて移動体1bから対象物までの距離を算出する。そして、サーバ5は、算出した対象物までの距離を基に、対象物の位置を算出し、さらに、マップマッチングによって移動体1bの自己位置(位置・姿勢)を算出する。そして、サーバ5は、移動体1bの自己位置等を基に、移動体1bが、次回移動速度及び旋回角度を算出する。その後、サーバ5は、移動体1bの自己位置、及び、移動体1bの次回移動速度及び旋回角度を移動指示情報として移動体1bに送信する。移動体1bは、受信した移動指示情報に従って移動を行う。なお、移動体1b及びサーバ5の間の通信は無線通信が好ましい。
また、サーバ5は、上記した処理の他にも、第1実施形態におけるステレオ距離算出部112、単眼距離算出部113、対象物検出部114、自己位置算出部115及び制御部116が行う処理を適宜行う。
[Third Embodiment]
FIG. 5 is a diagram showing a configuration example of the autonomous mobile system Z according to the third embodiment.
As shown in FIG. 5, the autonomous mobile system Z has a
The
In addition to the above-mentioned processing, the
移動体1bの計算処理部110bは、データ送信部119aと、データ受信部119bと、移動制御部119cとを有する。
データ送信部119aは、それぞれの画像センサ120で撮像された画像をサーバ5へ送信する。
データ受信部119bは、サーバ5から移動指示情報を受信する。
また、移動制御部119cは、サーバ5から送られた移動指示情報に基づいて、それぞれの駆動部130を制御する。
画像センサ120(120A~120F)、駆動部130(130A~130D)は図1と同様であるので、ここでの説明を省略する。
また、サーバ5の詳細は図6で説明する。
The
The
The
Further, the
Since the image sensors 120 (120A to 120F) and the drive units 130 (130A to 130D) are the same as those in FIG. 1, the description thereof is omitted here.
The details of the
図6は、第3実施形態に係るサーバ5の構成例を示す図である。
サーバ5は、データ受信部511、ステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515、制御部516及びデータ送信部517を有する。
データ受信部511は、移動体1bから、それぞれの画像センサ120で撮像された画像を受信する。
ステレオ距離算出部512、単眼距離算出部513、対象物検出部514及び自己位置算出部515は、図1のステレオ距離算出部112、単眼距離算出部113、対象物検出部114及び自己位置算出部115と同様の動作を行うので、ここでの説明を省略する。
制御部516は、図1の制御部216が行う動作のうち、駆動部130の制御以外の動作を行う。
データ送信部517は、ステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515、制御部516による処理で算出された移動体1bの自己位置、及び、移動体1bの次回移動速度・旋回角度を移動指示情報として移動体1bへ送信する。
FIG. 6 is a diagram showing a configuration example of the
The
The
The stereo
The
The
なお、サーバ5は、図示しないCPUと、図示しないRAM、図示しないHD(Hard Disk)等を備えている。そして、HD等に格納されているプログラムが、RAMにロードされ、ロードされたプログラムがCPUによって実行される。このようにすることで、データ受信部511、ステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515及び制御部516が具現化する。
The
第3実施形態によれば、移動体1bの移動に必要な距離の計算や、移動体1bの位置計算がサーバ5で行われるため、移動体1bの処理負荷を低減することができる。ちなみに、サーバ5は、複数の移動体1bについて、距離の計算や、移動体1bの位置計算を行うことができる。
また、図6に示すサーバ5を構成するステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515、制御部516のうち、少なくとも1つが移動体1bに備わっていてもよい。
According to the third embodiment, since the calculation of the distance required for the movement of the moving
Further, at least one of the stereo
例えば、駆動部130としてオムニホイールを用いることができる。このような場合、移動体1は図1の画像センサ120Eや、画像センサ120Fの方向に移動することができる。このような構成の場合、画像センサ120Eや、画像センサ120Fの方向に、2つの画像センサ120が設けられてもよい。
For example, an omni wheel can be used as the
本実施形態の移動体1は、ロボットや、自律移動する車両や、自律移動するパーソナルモビリティ等といった自律移動装置に適用可能である。
The
本発明は前記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を有するものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the described configurations. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.
また、前記した各構成、機能、各部111~118、記憶部等は、それらの一部又はすべてを、例えば集積回路で設計すること等によりハードウェアで実現してもよい。また、前記した各構成、機能等は、CPU等のプロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、HD(Hard Disk)に格納すること以外に、メモリや、SSD(Solid State Drive)等の記録装置、又は、IC(Integrated Circuit)カードや、SD(Secure Digital)カード、DVD(Digital Versatile Disc)等の記録媒体に格納することができる。
また、各実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には、ほとんどすべての構成が相互に接続されていると考えてよい。
Further, each configuration, function, each
Further, in each embodiment, the control lines and information lines are shown as necessary for explanation, and not all the control lines and information lines are necessarily shown in the product. In practice, you can think of almost all configurations as interconnected.
1 移動体(自律移動装置)
5 サーバ
112,512 ステレオ距離算出部(距離算出部)
113,513 単眼距離算出部(距離算出部)
114,514 対象物検出部(自律移動制御部)
115,515 自己位置算出部(自律移動制御部)
116,516 制御部(自律移動制御部)
117, 状態判定部
118 旋回角速度変更部(自律移動制御部)
120,120A~120F 画像センサ(撮像部)
1 Mobile (autonomous mobile device)
5 Server 112,512 Stereo distance calculation unit (distance calculation unit)
113,513 Monocular distance calculation unit (distance calculation unit)
114,514 Object detection unit (autonomous movement control unit)
115,515 Self-position calculation unit (autonomous movement control unit)
116,516 Control unit (autonomous movement control unit)
117,
120, 120A-120F image sensor (imaging unit)
Claims (5)
前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有し、
前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、
算出された前記距離に基づいて、自己位置を算出し、算出された前記自己位置を基に、自律移動を行う自律移動制御部と、
前記移動体が停止しているか、移動しているかを判定する状態判定部と
を有する、前記移動体としての自律移動装置であって、
前記距離算出部は、
前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、
前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出し、
前記自律移動制御部は、
前記移動体が停止から移動に移ったとき、所定距離の間、前記移動体を直進方向へ移動させる
ことを特徴とする自律移動装置。 It has at least two first image pickup units that include the direction in the positive direction with respect to the straight direction of the moving body in the image pickup region.
Each has at least one second image pickup unit that includes the direction orthogonal to the straight-ahead direction of the moving body in the image pickup region.
A distance calculation unit that calculates the distance to an object in the image pickup region based on the image captured by the first image pickup unit and the second image pickup unit.
An autonomous movement control unit that calculates a self-position based on the calculated distance and performs autonomous movement based on the calculated self-position .
With a state determination unit that determines whether the moving body is stopped or moving
An autonomous mobile device as the mobile body having the above.
The distance calculation unit
The distance is calculated based on the parallax of the image captured by the first imaging unit.
The distance is calculated based on a plurality of captured images with different imaging times captured by the second imaging unit .
The autonomous movement control unit
When the moving body moves from a stop to a moving body, the moving body is moved in a straight direction for a predetermined distance.
An autonomous mobile device characterized by that.
前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有し、
前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、
算出された前記距離に基づいて、自己位置を算出し、算出された前記自己位置を基に、自律移動を行う自律移動制御部と、
前記移動体が停止しているか、移動しているかを判定する状態判定部と
を有する、前記移動体としての自律移動装置であって、
前記距離算出部は、
前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、
前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出する
前記自律移動制御部は、
前記移動体が停止から移動に移ったとき、所定距離の間、前記移動体を直進方向へ移動させ、
前記移動体が停止しているか、移動しているかの判定は、前記移動体の位置の分散と、判定閾値とが比較されることによって行われ、
前記移動体が移動する周囲の環境によって、前記判定閾値が変更される
ことを特徴とする自律移動装置。 It has at least two first image pickup units that include the direction in the positive direction with respect to the straight direction of the moving body in the image pickup region.
Each has at least one second image pickup unit that includes the direction orthogonal to the straight-ahead direction of the moving body in the image pickup region.
A distance calculation unit that calculates the distance to an object in the image pickup region based on the image captured by the first image pickup unit and the second image pickup unit.
An autonomous movement control unit that calculates a self-position based on the calculated distance and performs autonomous movement based on the calculated self-position .
With a state determination unit that determines whether the moving body is stopped or moving
An autonomous mobile device as the mobile body having the above.
The distance calculation unit
The distance is calculated based on the parallax of the image captured by the first imaging unit.
The distance is calculated based on a plurality of captured images with different imaging times captured by the second imaging unit.
The autonomous movement control unit
When the moving body moves from a stop to a moving body, the moving body is moved in a straight direction for a predetermined distance.
Judgment as to whether the moving body is stopped or moving is performed by comparing the variance of the position of the moving body with the determination threshold value.
The determination threshold is changed depending on the surrounding environment in which the moving object moves.
An autonomous mobile device characterized by that.
前記距離算出部は、
前記第3の撮像部が撮像した画像の視差に基づいて、前記距離を算出する
ことを特徴とする請求項1又は請求項2に記載の自律移動装置。 The first image pickup unit has at least two third image pickup units that include a direction in the negative direction with respect to the straight direction of the moving body in the image pickup region.
The distance calculation unit
The autonomous mobile device according to claim 1 or 2 , wherein the distance is calculated based on the parallax of the image captured by the third imaging unit.
前記移動体は、
前記移動体の直進方向に対して正方向の向きを撮像領域に含む第1の撮像部を、少なくとも2つ有し、
前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有するとともに、
前記サーバから送られた前記移動体の自己位置を基に、自律移動を行う自律移動制御部と、
前記移動体が停止しているか、移動しているかを判定する状態判定部と
有し、
前記サーバは、
前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、
算出された前記距離に基づいて、前記移動体の自己位置を算出する位置算出部と、
を有し、
前記距離算出部は、
前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、
前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出し、
前記自律移動制御部は、
前記移動体が停止から移動に移ったとき、所定距離の間、前記移動体を直進方向へ移動させる
ことを特徴とする自律移動システム。 Equipped with a mobile and a server,
The moving body is
It has at least two first imaging units including a direction in the positive direction with respect to the straight direction of the moving body in the imaging region.
It has at least one second image pickup unit that includes the direction orthogonal to the straight direction of the moving body in the image pickup region, and at the same time, it has at least one second image pickup unit.
An autonomous movement control unit that performs autonomous movement based on the self-position of the moving body sent from the server .
With a state determination unit that determines whether the moving body is stopped or moving
Have and
The server
A distance calculation unit that calculates the distance to an object in the image pickup region based on the image captured by the first image pickup unit and the second image pickup unit.
A position calculation unit that calculates the self-position of the moving body based on the calculated distance, and
Have,
The distance calculation unit
The distance is calculated based on the parallax of the image captured by the first imaging unit.
The distance is calculated based on a plurality of captured images with different imaging times captured by the second imaging unit .
The autonomous movement control unit
When the moving body moves from a stop to a moving body, the moving body is moved in a straight direction for a predetermined distance.
An autonomous mobile system characterized by that.
前記移動体は、
前記移動体の直進方向に対して正方向の向きを撮像領域に含む第1の撮像部を、少なくとも2つ有し、
前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有するとともに、
前記サーバから送られた前記移動体の自己位置を基に、自律移動を行う自律移動制御部と、
前記移動体が停止しているか、移動しているかを判定する状態判定部と
有し、
前記サーバは、
前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、
算出された前記距離に基づいて、前記移動体の自己位置を算出する位置算出部と、
を有し、
前記距離算出部は、
前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、
前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出し、
前記自律移動制御部は、
前記移動体が停止から移動に移ったとき、所定距離の間、前記移動体を直進方向へ移動させ、
前記移動体が停止しているか、移動しているかの判定は、前記移動体の位置の分散と、判定閾値とが比較されることによって行われ、
前記移動体が移動する周囲の環境によって、前記判定閾値が変更される
ことを特徴とする自律移動システム。 Equipped with a mobile and a server,
The moving body is
It has at least two first imaging units including a direction in the positive direction with respect to the straight direction of the moving body in the imaging region.
It has at least one second image pickup unit that includes the direction orthogonal to the straight direction of the moving body in the image pickup region, and at the same time, it has at least one second image pickup unit.
An autonomous movement control unit that performs autonomous movement based on the self-position of the moving body sent from the server .
With a state determination unit that determines whether the moving body is stopped or moving
Have and
The server
A distance calculation unit that calculates the distance to an object in the image pickup region based on the image captured by the first image pickup unit and the second image pickup unit.
A position calculation unit that calculates the self-position of the moving body based on the calculated distance, and
Have,
The distance calculation unit
The distance is calculated based on the parallax of the image captured by the first imaging unit.
The distance is calculated based on a plurality of captured images with different imaging times captured by the second imaging unit .
The autonomous movement control unit
When the moving body moves from a stop to a moving body, the moving body is moved in a straight direction for a predetermined distance.
Judgment as to whether the moving body is stopped or moving is performed by comparing the variance of the position of the moving body with the determination threshold value.
The determination threshold is changed depending on the surrounding environment in which the moving object moves.
An autonomous mobile system characterized by that.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018093563A JP7064948B2 (en) | 2018-05-15 | 2018-05-15 | Autonomous mobile devices and autonomous mobile systems |
DE112019001454.4T DE112019001454T5 (en) | 2018-05-15 | 2019-02-28 | AUTONOMOUS MOBILE DEVICE AND AUTONOMOUS MOBILE SYSTEM |
PCT/JP2019/007890 WO2019220740A1 (en) | 2018-05-15 | 2019-02-28 | Autonomous movement device and autonomous movement system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018093563A JP7064948B2 (en) | 2018-05-15 | 2018-05-15 | Autonomous mobile devices and autonomous mobile systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019200509A JP2019200509A (en) | 2019-11-21 |
JP7064948B2 true JP7064948B2 (en) | 2022-05-11 |
Family
ID=68540034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018093563A Active JP7064948B2 (en) | 2018-05-15 | 2018-05-15 | Autonomous mobile devices and autonomous mobile systems |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7064948B2 (en) |
DE (1) | DE112019001454T5 (en) |
WO (1) | WO2019220740A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7379802B2 (en) * | 2019-12-26 | 2023-11-15 | 株式会社竹中工務店 | Travel route determination device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003061075A (en) | 2001-08-09 | 2003-02-28 | Matsushita Electric Ind Co Ltd | Object-tracking device, object-tracking method and intruder monitor system |
JP2007263657A (en) | 2006-03-28 | 2007-10-11 | Denso It Laboratory Inc | Three-dimensional coordinates acquisition system |
JP2008123462A (en) | 2006-11-16 | 2008-05-29 | Hitachi Ltd | Object detector |
JP2013015882A (en) | 2011-06-30 | 2013-01-24 | Toyota Motor Corp | Image recognition device for vehicle |
JP2013054399A (en) | 2011-08-31 | 2013-03-21 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
JP2013186042A (en) | 2012-03-09 | 2013-09-19 | Hitachi Automotive Systems Ltd | Distance calculating device and distance calculating method |
-
2018
- 2018-05-15 JP JP2018093563A patent/JP7064948B2/en active Active
-
2019
- 2019-02-28 DE DE112019001454.4T patent/DE112019001454T5/en active Pending
- 2019-02-28 WO PCT/JP2019/007890 patent/WO2019220740A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003061075A (en) | 2001-08-09 | 2003-02-28 | Matsushita Electric Ind Co Ltd | Object-tracking device, object-tracking method and intruder monitor system |
JP2007263657A (en) | 2006-03-28 | 2007-10-11 | Denso It Laboratory Inc | Three-dimensional coordinates acquisition system |
JP2008123462A (en) | 2006-11-16 | 2008-05-29 | Hitachi Ltd | Object detector |
JP2013015882A (en) | 2011-06-30 | 2013-01-24 | Toyota Motor Corp | Image recognition device for vehicle |
JP2013054399A (en) | 2011-08-31 | 2013-03-21 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
JP2013186042A (en) | 2012-03-09 | 2013-09-19 | Hitachi Automotive Systems Ltd | Distance calculating device and distance calculating method |
Also Published As
Publication number | Publication date |
---|---|
JP2019200509A (en) | 2019-11-21 |
WO2019220740A1 (en) | 2019-11-21 |
DE112019001454T5 (en) | 2021-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11393350B2 (en) | Systems and methods for vehicle guidance using depth map generation | |
US10133278B2 (en) | Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof | |
US9946264B2 (en) | Autonomous navigation using visual odometry | |
KR102508843B1 (en) | Method and device for the estimation of car egomotion from surround view images | |
Kobilarov et al. | People tracking and following with mobile robot using an omnidirectional camera and a laser | |
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
JP2017087758A (en) | Obstacle detection device | |
KR101758736B1 (en) | Guard and surveillance robot system and method for travelling of mobile robot | |
KR20150144730A (en) | APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF | |
Tarhan et al. | A catadioptric and pan-tilt-zoom camera pair object tracking system for UAVs | |
Coombs et al. | 'Bee-bot': using peripheral optical flow to avoid obstacles | |
JP4333611B2 (en) | Obstacle detection device for moving objects | |
US10379541B2 (en) | Mobile unit control device and mobile unit | |
JP7385388B2 (en) | Self-position estimation device | |
JP7064948B2 (en) | Autonomous mobile devices and autonomous mobile systems | |
Hong et al. | Real-time mobile robot navigation based on stereo vision and low-cost GPS | |
EP3169977A2 (en) | Autonomous vehicle operation | |
Yasin et al. | Night vision obstacle detection and avoidance based on Bio-Inspired Vision Sensors | |
Park et al. | A novel line of sight control system for a robot vision tracking system, using vision feedback and motion-disturbance feedforward compensation | |
WO2021246170A1 (en) | Information processing device, information processing system and method, and program | |
Lima et al. | Indoor visual localization of a wheelchair using Shi-Tomasi and KLT | |
Fu et al. | Multi-waypoint visual homing in piecewise linear trajectory | |
JP2020030721A (en) | Moving vehicle | |
US20240208488A1 (en) | Information processing device, control method, and recording medium | |
JP7199337B2 (en) | Position estimation device, position estimation method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220425 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7064948 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |