WO2019220740A1 - Autonomous movement device and autonomous movement system - Google Patents

Autonomous movement device and autonomous movement system Download PDF

Info

Publication number
WO2019220740A1
WO2019220740A1 PCT/JP2019/007890 JP2019007890W WO2019220740A1 WO 2019220740 A1 WO2019220740 A1 WO 2019220740A1 JP 2019007890 W JP2019007890 W JP 2019007890W WO 2019220740 A1 WO2019220740 A1 WO 2019220740A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
unit
moving body
imaging
image
Prior art date
Application number
PCT/JP2019/007890
Other languages
French (fr)
Japanese (ja)
Inventor
太紀 飯村
一野瀬 亮子
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to DE112019001454.4T priority Critical patent/DE112019001454T5/en
Publication of WO2019220740A1 publication Critical patent/WO2019220740A1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

In order to provide an autonomous movement device and an autonomous movement system having low processing loads, a moving body (1) comprises: at least two image sensors (120) each having an image capturing region including a positive direction and at least two image sensors (120) each having an image capturing region including a negative direction with respect to the straight advancing direction of the moving body 1; and at least one image sensor (120) having an image capturing region including one direction orthogonal to the straight advancing direction of the moving body (1) and at least one image sensor (120) having an image capturing region including the other direction orthogonal to the straight advancing direction, wherein the distance to an object in the image capturing region is calculated on the basis of the image sensors (120) and captured images captured by the image sensors (120), the position of the moving body is calculated on the basis of the calculated distance, and autonomous movement is carried out on the basis of the calculated position of the moving body. The moving body (1) is characterized in that the distance is calculated on the basis of the parallax of the images captured by the image sensors (120), and the distance is calculated on the basis of a plurality of images captured at different image-capturing times by the image sensors (120).

Description

自律移動装置及び自律移動システムAutonomous mobile device and autonomous mobile system
 本発明は、自律移動装置及び自律移動システムの技術に関する。 The present invention relates to a technology for an autonomous mobile device and an autonomous mobile system.
 従来から、ロボットや自動車等の移動体に外界センサや、内界センサを搭載し、移動体の周囲の障害物を検出、回避しながら目的地まで自律的に移動する自律移動に関する技術が開発されている。ここで、外界センサは画像センサやLiDAR等であり、内界センサは、エンコーダや慣性計測装置等である。そのなかで、搭載するセンサの低コスト化のため、比較的安価である画像センサを用いた技術開発の需要が高まっている。 Conventionally, a technology related to autonomous movement has been developed in which an external sensor or an internal sensor is mounted on a moving body such as a robot or an automobile, and autonomously moves to a destination while detecting and avoiding obstacles around the moving body. ing. Here, the external sensor is an image sensor, LiDAR, or the like, and the internal sensor is an encoder, an inertial measurement device, or the like. Among them, in order to reduce the cost of the sensor to be mounted, there is an increasing demand for technological development using a relatively inexpensive image sensor.
 例えば、特許文献1には、「車両に搭載され、所定の設置距離で配置された、少なくとも2台のカメラを有し、該少なくとも2台のカメラで取得された複数の画像を用いて、該車両周辺の物標の3次元座標を推定取得する装置において、少なくとも2台のカメラの内の1台のカメラが経時的に取得した2枚の画像から、車両周辺の物標の3次元座標を推定演算する単眼ステレオ処理部、少なくとも2台のカメラの内の2台のカメラが同時に取得した2枚の画像から、車両周辺の物標の3次元座標を推定演算する複眼ステレオ処理部、それら単眼ステレオ処理部及び複眼ステレオ処理部に接続され、それら処理部でそれぞれ演算推定された物標の3次元座標を、所定の基準で選択、統合して、求めるべき前記物標の3次元座標と推定し、その結果を出力する、結果統合・切替手段、を有する」3次元座標取得装置が開示されている(要約参照)。 For example, Patent Document 1 states that “it has at least two cameras mounted on a vehicle and arranged at a predetermined installation distance, and using a plurality of images acquired by the at least two cameras, In an apparatus for estimating and acquiring the three-dimensional coordinates of a target around the vehicle, the three-dimensional coordinates of the target around the vehicle are obtained from two images acquired over time by at least one of the two cameras. A monocular stereo processing unit that performs estimation calculation, a compound eye stereo processing unit that estimates and calculates the three-dimensional coordinates of a target around the vehicle from two images simultaneously acquired by two of at least two cameras, and these monoculars The three-dimensional coordinates of the target connected to the stereo processing unit and the compound-eye stereo processing unit, respectively calculated and estimated by these processing units, are selected and integrated according to a predetermined criterion, and estimated as the three-dimensional coordinates of the target to be obtained. And that And outputs the result, result integration-switching means, the a "3-dimensional coordinate acquiring device is disclosed (see Abstract).
特開2007-263657号公報JP 2007-263657 A
 画像センサを用いて、死角なく移動体の周囲を検出するため、画像センサに駆動装置を設置し、撮像方向を機械的に制御することで撮像領域を時系列で拡張する手法がある。しかし、このような駆動装置は使用頻度に応じて早期に劣化が生じるため、駆動装置の交換コストがかかる。 In order to detect the surroundings of a moving body without using a blind spot using an image sensor, there is a technique of installing a driving device in the image sensor and mechanically controlling the imaging direction to expand the imaging area in time series. However, since such a drive device deteriorates at an early stage depending on the frequency of use, the drive device needs to be replaced.
 一方で、複数の画像センサで複数の領域の画像を検出する手法がある。しかし、この手法で使用する画像センサはLiDAR等の外界センサと比べて取得データ量が多く、画像センサと計算処理部との通信や計算処理部での計算処理負荷が増大する。ただし、この問題は、計算機の増設や画像センサのフレームレート低減、または画像センサで検出した画像の圧縮、画素の間引き(画像データ量の低減)により回避できる。しかし、データ処理量が大きくなると、搭載する機器が多くなる。そのため、移動体の大きさやデザインが制約され、さらに、画像センサの検出性能の劣化を引き起こしてしまう。 On the other hand, there is a technique for detecting images of a plurality of regions by a plurality of image sensors. However, the image sensor used in this method has a larger amount of acquired data than an external sensor such as LiDAR, and communication between the image sensor and the calculation processing unit and a calculation processing load in the calculation processing unit increase. However, this problem can be avoided by adding computers, reducing the frame rate of the image sensor, compressing the image detected by the image sensor, or thinning out pixels (reducing the amount of image data). However, as the amount of data processing increases, more devices are installed. Therefore, the size and design of the moving body are restricted, and further, the detection performance of the image sensor is deteriorated.
 また、予め用意した複数枚の画像と距離データを教師データとし、CNN(Convolutional Neural Network)によって、単眼で撮像された1枚の画像における各ピクセルの距離を推定する手法がある。ここで、ピクセルの距離とは、ピクセルに写っている対象物の、カメラからの距離である。この手法では、画像センサの搭載数を削減できるが、教師データに含まれる距離データの範囲内の距離のみを推定するため汎用性がないという欠点がある。このため、推定された距離の誤差や精度の範囲が保障されておらず、さらに処理負荷が高い。このため、人の活動環境等のリアルタイム、かつ高精度に距離検出が必要な環境では適用できないという課題がある。 Also, there is a method for estimating the distance of each pixel in one image captured with a single eye by CNN (Convolutional Neural Network) using a plurality of images prepared in advance and distance data as teacher data. Here, the pixel distance is the distance from the camera of the object shown in the pixel. Although this method can reduce the number of mounted image sensors, it has a drawback that it is not versatile because it estimates only the distance within the range of distance data included in the teacher data. Therefore, the estimated distance error and accuracy range are not guaranteed, and the processing load is high. For this reason, there is a problem that it cannot be applied in an environment that requires distance detection with high accuracy in real time such as a human activity environment.
 このような背景に鑑みて本発明がなされたのであり、本発明は、低処理負荷な自律移動装置及び自律移動システムを提供することを課題とする。 The present invention has been made in view of such a background, and an object of the present invention is to provide an autonomous mobile device and an autonomous mobile system with a low processing load.
 前記した課題を解決するため、本発明は、移動体の直進方向に対して正方向の向きを撮像領域に含む第1の撮像部を、少なくとも2つ有し、前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有し、前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、算出された前記距離に基づいて、自己位置を算出し、算出された前記自己位置を基に、自律移動を行う自律移動制御部とを有し、前記距離算出部は、前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出することを特徴とする。
 その他の解決手段は実施形態中において適宜記載する。
In order to solve the above-described problem, the present invention has at least two first imaging units including, in an imaging region, a positive direction with respect to a straight direction of a moving body, and the straight direction of the moving body Each having at least one second imaging unit including an orientation in the orthogonal direction in the imaging region, and based on the captured images captured by the first imaging unit and the second imaging unit. A distance calculation unit that calculates a distance to the target object, and an autonomous movement control unit that calculates a self-position based on the calculated distance and performs autonomous movement based on the calculated self-position. The distance calculating unit calculates the distance based on the parallax of the image captured by the first imaging unit, and generates a plurality of captured images captured by the second imaging unit and having different imaging times. Based on this, the distance is calculated.
Other solutions will be described as appropriate in the embodiments.
 本発明によれば、低処理負荷な自律移動装置及び自律移動システムを提供することができる。 According to the present invention, an autonomous mobile device and an autonomous mobile system with a low processing load can be provided.
第1実施形態に係る移動体1の構成を示す図である。It is a figure which shows the structure of the mobile body 1 which concerns on 1st Embodiment. 単眼距離算出部113での距離算出の詳細と距離誤差を表す図(その1)である。FIG. 10 is a diagram (part 1) illustrating details of distance calculation and distance error in a monocular distance calculation unit 113; 単眼距離算出部113での距離算出の詳細と距離誤差を表す図(その2)である。FIG. 10 is a diagram (part 2) illustrating details of distance calculation and distance error in the monocular distance calculation unit 113; 単眼距離算出部113での距離算出の詳細と距離誤差を表す図(その3)である。FIG. 11 is a diagram (part 3) illustrating details of distance calculation and distance error in the monocular distance calculation unit 113; 移動体1における移動制御の手法を示す図である。FIG. 3 is a diagram illustrating a movement control method in a moving body 1. 第2実施形態による移動体1の計算処理部110aの構成を示す図である。It is a figure which shows the structure of the calculation process part 110a of the moving body 1 by 2nd Embodiment. 第3実施形態に係る自律移動システムZの構成例を示す図である。It is a figure which shows the structural example of the autonomous mobile system Z which concerns on 3rd Embodiment. 第3実施形態に係るサーバ5の構成例を示す図である。It is a figure which shows the structural example of the server 5 which concerns on 3rd Embodiment.
 次に、本発明を実施するための形態(「実施形態」という)について、適宜図面を参照しながら詳細に説明する。 Next, modes for carrying out the present invention (referred to as “embodiments”) will be described in detail with reference to the drawings as appropriate.
 [第1実施形態]
 まず、図1~図3を参照して、本発明の第1実施形態を説明する。
 図1は、第1実施形態に係る移動体1の構成を示す図である。
 本実施形態では、複数の画像センサ120を搭載した無人車両や、自動車や、ロボット等、さらには船舶等の移動体(自律移動装置)1が自律移動する。
 移動体1は、複数(図1の例では6つ)の画像センサ(撮像部)120を備えるとともに、計算処理部110と、複数の駆動部130を備えている。画像センサ120は、具体的にはカメラである。ここで、画像センサ120として、Webカメラのような低解像度かつ安価なカメラを使用することができる。
[First Embodiment]
First, a first embodiment of the present invention will be described with reference to FIGS.
FIG. 1 is a diagram illustrating a configuration of a moving body 1 according to the first embodiment.
In the present embodiment, an unmanned vehicle equipped with a plurality of image sensors 120, a car, a robot, and a mobile body (autonomous mobile device) 1 such as a ship autonomously moves.
The moving body 1 includes a plurality (six in the example of FIG. 1) of image sensors (imaging units) 120, a calculation processing unit 110, and a plurality of driving units 130. Specifically, the image sensor 120 is a camera. Here, as the image sensor 120, a low-resolution and inexpensive camera such as a Web camera can be used.
 画像センサ120のうち、画像センサ120A,120Bは、移動体1の移動方向に対して正方向の向きを撮像領域に含むように設置されている。つまり、画像センサ120A,120Bは、移動体1が図1に示す矢印A1の方向へ動くときに、移動体1の前方を撮像する。
 そして、画像センサ120C,120Dは、移動体1の移動方向に対して負方向の向きを撮像領域に含むように設置されている。つまり、画像センサ120C,120Dは、移動体1が図1に示す矢印A1の方向へ動くときに、移動体1の後方を撮像する。
Among the image sensors 120, the image sensors 120 </ b> A and 120 </ b> B are installed so that the imaging region includes a positive direction with respect to the moving direction of the moving body 1. That is, the image sensors 120A and 120B image the front of the moving body 1 when the moving body 1 moves in the direction of the arrow A1 shown in FIG.
The image sensors 120 </ b> C and 120 </ b> D are installed so that the imaging region includes a negative direction with respect to the moving direction of the moving body 1. That is, the image sensors 120C and 120D capture an image of the rear of the moving body 1 when the moving body 1 moves in the direction of the arrow A1 illustrated in FIG.
 また、画像センサ120E、120Fは、それぞれ移動体1の移動方向に対して直交方向の向きを撮像領域に含むように設置されている。つまり、画像センサ120E,120Fは、移動体1が図1に示す矢印A1の方向へ動くときに、移動体1の側方を撮像する。ちなみに、移動体1が図1に示す矢印A1の方向へ動くときに、画像センサ120Eは、移動体1の左方を撮像し、画像センサ120Fは、移動体1の右方を撮像する。
 なお、図1に示すように、画像センサ120E,120Fは、互いに略対向するように設置されている。
 ここで、それぞれの画像センサ120の画角は広角または超広角にすることで移動体1の周囲の対象物を抜け目なく撮像できる。
In addition, the image sensors 120E and 120F are installed so that the imaging region includes a direction orthogonal to the moving direction of the moving body 1, respectively. That is, the image sensors 120E and 120F image the side of the moving body 1 when the moving body 1 moves in the direction of the arrow A1 shown in FIG. Incidentally, when the moving body 1 moves in the direction of the arrow A1 shown in FIG. 1, the image sensor 120E images the left side of the moving body 1, and the image sensor 120F images the right side of the moving body 1.
As shown in FIG. 1, the image sensors 120E and 120F are installed so as to be substantially opposed to each other.
Here, by setting the angle of view of each image sensor 120 to a wide angle or an ultra-wide angle, it is possible to capture an object around the moving body 1 without any gaps.
 画像センサ120の受光帯域は走行環境に応じて決定すればよい。例えば、屋内や昼間の屋外を走行する場合は可視光帯域を受光するカメラが画像センサ120として搭載される。また、暗所や夜間の屋外を走行する場合は近赤外帯域を受光する画像センサ120が搭載される。 The light receiving band of the image sensor 120 may be determined according to the traveling environment. For example, when traveling indoors or outdoors in the daytime, a camera that receives a visible light band is mounted as the image sensor 120. Further, when traveling outdoors in the dark or at night, an image sensor 120 that receives light in the near infrared band is mounted.
 画像センサ120のフレームレートは移動体1の最高移動速度や走行環境、制動距離、1フレーム間における最大移動距離等に基づいて設定されればよい。例えば、最高速度6km/hで屋内タイル上を走行する場合、周囲の撮像画像を基に急停止したときに許容できる移動距離を0.5mとすると、動摩擦係数0.3のタイル上での制動距離0.47mを考慮して、画像センサ120のフレームレートは6000/3600/(0.5-0.47)=約56fps程度に設定される。人や障害物の密度が低い環境では、1フレーム間における最大移動距離を0.05mとし、例えば、画像センサ120のフレームレートは6000/3600/0.05=約33fps程度に設定される。同様に、最高速度60km/hで屋外を走行する場合は、1フレーム間における最大移動距離を0.05mとし、画像センサ120のフレームレートが、例えば、60000/3600/0.05=約333fps程度に設定される。 The frame rate of the image sensor 120 may be set based on the maximum moving speed of the moving body 1, the traveling environment, the braking distance, the maximum moving distance between frames, and the like. For example, when traveling on an indoor tile at a maximum speed of 6 km / h, if the allowable travel distance is 0.5 m when suddenly stopped based on the surrounding captured image, braking on the tile with a dynamic friction coefficient of 0.3 Considering the distance of 0.47 m, the frame rate of the image sensor 120 is set to about 6000/3600 / (0.5−0.47) = about 56 fps. In an environment where the density of people and obstacles is low, the maximum moving distance between one frame is set to 0.05 m. For example, the frame rate of the image sensor 120 is set to about 6000/3600 / 0.05 = about 33 fps. Similarly, when traveling outdoors at a maximum speed of 60 km / h, the maximum movement distance between one frame is set to 0.05 m, and the frame rate of the image sensor 120 is, for example, about 60000/3600 / 0.05 = about 333 fps. Set to
 移動速度に制約がない環境では、予め決定した画角と受光帯域を満たす画像センサ120の最大フレームレートや、制動距離等に基づいて移動体1の最高移動速度を決定することもできる。例えば、画像センサ120の最大フレームレートが30fpsである場合、1フレーム間における最大移動距離を0.05mとし、移動体1の最高移動速度が0.05×30=1.5m/s=5.4km/hに設定される。 In an environment where there is no restriction on the moving speed, the maximum moving speed of the moving body 1 can be determined based on the maximum frame rate of the image sensor 120 satisfying the predetermined angle of view and the light receiving band, the braking distance, and the like. For example, when the maximum frame rate of the image sensor 120 is 30 fps, the maximum moving distance between one frame is 0.05 m, and the maximum moving speed of the moving body 1 is 0.05 × 30 = 1.5 m / s = 5. It is set to 4 km / h.
 駆動部130は車輪である。そして、駆動部130のうち、前部駆動部130A,130Bは車輪軸の方向を制御する。また、後部駆動部130C,130Dは車輪の回転数を制御する。後部駆動部130C,130Dは互いに異なる回転数で制御できる。例えば、後部駆動部130Cと後部駆動部130Dとをむすぶ線分の中心を旋回中心として超信地旋回する場合、前部駆動部130A,130Bの車輪軸を回転方向に対して垂直の方向に向け、後部駆動部130C,130Dを互いに逆方向に回転させる。 The drive unit 130 is a wheel. And among the drive parts 130, front part drive part 130A, 130B controls the direction of a wheel shaft. The rear drive units 130C and 130D control the rotation speed of the wheels. The rear drive units 130C and 130D can be controlled at different rotational speeds. For example, in the case of super-superior turning with the center of the line segment connecting the rear drive unit 130C and the rear drive unit 130D as the turning center, the wheel shafts of the front drive units 130A and 130B are directed in a direction perpendicular to the rotation direction Then, the rear drive units 130C and 130D are rotated in opposite directions.
 また、前部駆動部130A,130Bはキャスタ等でもよい。この場合、前部駆動部130A,130Bは制御されない。前部駆動部130A,130Bと、後部駆動部130C,130Dの機能を入れかえてもよい。すなわち、前部駆動部130A,130Bの回転数と、後部駆動部130C,130Dの車輪軸の方向を制御することで、前部駆動部130Aと前部駆動部130Bをむすぶ線分の中心を旋回中心として超信地旋回してもよい。なお、超信地旋回ではなく、単なる旋回でもよい。 Further, the front drive units 130A and 130B may be casters or the like. In this case, the front drive units 130A and 130B are not controlled. The functions of the front drive units 130A and 130B and the rear drive units 130C and 130D may be interchanged. In other words, by controlling the rotational speed of the front drive units 130A and 130B and the direction of the wheel shafts of the rear drive units 130C and 130D, the center of the line segment connecting the front drive unit 130A and the front drive unit 130B is turned. You may make a super turn as the center. It should be noted that a simple turn may be used instead of a superstitch turn.
 計算処理部110は、図示しないCPU(Central Processing Unit)と、図示しないROM(Read Only Memory)、図示しないRAM(Random Access Memory)を備えている。ROM等に格納されているプログラムが、RAMにロードされ、ロードされたプログラムがCPUによって実行される。このようにすることで、データ取得部111、ステレオ距離算出部112、単眼距離算出部113、対象物検出部114、自己位置算出部115、制御部116が具現化する。 The calculation processing unit 110 includes a CPU (Central Processing Unit) (not shown), a ROM (Read Only Memory) (not shown), and a RAM (Random Access Memory) (not shown). A program stored in the ROM or the like is loaded into the RAM, and the loaded program is executed by the CPU. By doing in this way, the data acquisition part 111, the stereo distance calculation part 112, the monocular distance calculation part 113, the target object detection part 114, the self-position calculation part 115, and the control part 116 are embodied.
 データ取得部111は、それぞれの画像センサ120で撮像された画像を設定したフレームレートで取得する。画像の取得は、それぞれの画像センサ120において同期的に行われる。 
 ステレオ距離算出部(距離算出部)112は、データ取得部111で同時刻に取得した画像センサ120A,120Bの画像の視差に基づいて、画像センサ120A,120Bの両方の撮像領域に含まれる対象物までの距離を算出する。そして、ステレオ距離算出部112は、画像センサ120A,120Bのうち少なくとも1つで撮像された、撮像時刻の異なる複数枚の画像にオプティカルフロー推定法を適用し、移動体1の前方に存在する対象物を追跡する。ここでの追跡とは、異なるフレーム(異なる撮像時刻における画像)において、同一の対象物を検出することである。
The data acquisition unit 111 acquires an image captured by each image sensor 120 at a set frame rate. Image acquisition is performed synchronously in each image sensor 120.
The stereo distance calculation unit (distance calculation unit) 112 is based on the parallax of the images of the image sensors 120A and 120B acquired at the same time by the data acquisition unit 111, and is included in the imaging regions of both the image sensors 120A and 120B. The distance to is calculated. Then, the stereo distance calculation unit 112 applies the optical flow estimation method to a plurality of images captured by at least one of the image sensors 120 </ b> A and 120 </ b> B at different imaging times, and is present in front of the moving object 1. Track things. The tracking here is to detect the same object in different frames (images at different imaging times).
 ステレオ距離算出部112は、画像センサ120C、120Dについても同様の処理を実行し、画像センサ120C,120Dの撮像領域に含まれる対象物までの距離を算出する。さらに、ステレオ距離算出部112は、オプティカルフロー推定法を適用し、移動体1の後方に存在する対象物を追跡する。 The stereo distance calculation unit 112 performs the same processing for the image sensors 120C and 120D, and calculates the distance to the target object included in the imaging regions of the image sensors 120C and 120D. Furthermore, the stereo distance calculation unit 112 applies an optical flow estimation method and tracks an object existing behind the moving object 1.
 ここで対象物は、回避対象となる人や、障害物や、後記する自己位置算出部115で移動体1の位置と姿勢を算出するために使われる特徴点や、ランドマーク等である。前記したオプティカルフロー推定法は、例えば、Lucas-Kanade法や、Horn-Schunck法等が用いられる。画像センサ120のフレームレートや移動体1の最高移動速度に基づいて、ユーザは、オプティカルフロー推定法として、どの手法を用いるかを予め決定しておく。 Here, the object is a person to be avoided, an obstacle, a feature point used for calculating the position and orientation of the moving body 1 by the self-position calculating unit 115 described later, a landmark, or the like. As the above-described optical flow estimation method, for example, the Lucas-Kanade method, the Horn-Schunkck method, or the like is used. Based on the frame rate of the image sensor 120 and the maximum moving speed of the moving body 1, the user determines in advance which method to use as the optical flow estimation method.
 単眼距離算出部(距離算出部)113は、データ取得部111で取得した画像センサ120E,120Fの各々で撮像された、撮像時刻がそれぞれ異なる画像と、後記する自己位置算出部115で算出した前記撮像時刻における移動体1の位置の時系列情報とに基づいて、画像センサ120E、120Fの各々の撮像領域に含まれる対象物までの距離を算出する。 The monocular distance calculation unit (distance calculation unit) 113 calculates the images taken by the image sensors 120E and 120F acquired by the data acquisition unit 111 at different imaging times and the self-position calculation unit 115 described later. Based on the time-series information of the position of the moving body 1 at the imaging time, the distances to the objects included in the imaging regions of the image sensors 120E and 120F are calculated.
 また、単眼距離算出部113は、画像センサ120A,120Bのいずれか1つについても同様の処理を行い、画像センサ120A,120Bのいずれか1つに含まれる撮像領域に含まれる対象物までの距離を算出する。さらに、単眼距離算出部113は、画像センサ120C,120Dのいずれか1つについても同様の処理を行い、画像センサ120C,120Dのいずれか1つに含まれる撮像領域に含まれる対象物までの距離を算出する。要するに、単眼距離算出部113は、異なる時刻で撮像した2枚の画像における視差を利用して、あたかも複眼視したかのようにして幾何学的に距離を算出する。 In addition, the monocular distance calculation unit 113 performs the same processing for any one of the image sensors 120A and 120B, and the distance to the target object included in the imaging region included in any one of the image sensors 120A and 120B. Is calculated. Furthermore, the monocular distance calculation unit 113 performs the same processing for any one of the image sensors 120C and 120D, and the distance to the target object included in the imaging region included in any one of the image sensors 120C and 120D. Is calculated. In short, the monocular distance calculation unit 113 uses the parallax between two images taken at different times to calculate the distance as if it were a compound eye view.
 画像センサ120A,120Bや、画像センサ120C,120Dで撮像された画像がステレオ距離算出部112で処理されるか、単眼距離算出部113で処理されるかは、後記する基準で切り替えられる。 Whether the images captured by the image sensors 120A and 120B and the image sensors 120C and 120D are processed by the stereo distance calculation unit 112 or the monocular distance calculation unit 113 is switched according to the criteria described later.
 なお、画像センサ120Aと、画像センサ120Cとは、図1に示すように互いの設置位置がずれるよう設置されてもよいし、位置が揃うよう(対向するよう)設置されてもよい。同様に、画像センサ120Bと、画像センサ120Dとは、図1に示すように互いの設置位置がずれるよう設置されてもよいし、位置が揃うよう(対向するよう)設置されてもよい。また、画像センサ120Eと、画像センサ120Fとは、図1に示すように互いの設置位置がずれるよう設置されてもよいし、位置が揃うよう(対向するよう)設置されてもよい。 Note that the image sensor 120A and the image sensor 120C may be installed so that their installation positions are shifted as shown in FIG. 1, or may be installed so that their positions are aligned (facing each other). Similarly, the image sensor 120B and the image sensor 120D may be installed so that their installation positions are shifted as shown in FIG. 1, or may be installed so that their positions are aligned (facing each other). Further, the image sensor 120E and the image sensor 120F may be installed so that their installation positions are shifted as shown in FIG. 1, or may be installed so that their positions are aligned (facing each other).
 対象物検出部(自律移動制御部)114は、ステレオ距離算出部112あるいは単眼距離算出部113で算出した各々の対象物までの距離と、画像センサ120それぞれの搭載位置と姿勢とに基づいて、各々の対象物の位置を算出する。そして、対象物が移動物である場合、対象物検出部114は、対象物それぞれの単位時間あたりの移動量を算出する。移動量は、ステレオ距離算出部112あるいは単眼距離算出部113のそれぞれでオプティカルフロー推定法により追跡した対象物における、複数の異なる時刻での位置と時刻とに基づいて算出される。 The object detection unit (autonomous movement control unit) 114 is based on the distance to each object calculated by the stereo distance calculation unit 112 or the monocular distance calculation unit 113 and the mounting position and orientation of each of the image sensors 120. The position of each object is calculated. If the object is a moving object, the object detection unit 114 calculates the amount of movement per unit time of each object. The amount of movement is calculated based on the position and time at a plurality of different times on the object tracked by the optical flow estimation method by the stereo distance calculation unit 112 or the monocular distance calculation unit 113, respectively.
 自己位置算出部(自律移動制御部)115は、データ取得部111で画像を取得した時刻における移動体1の位置及び姿勢を算出する。位置及び姿勢は、予め作成されている地図と、対象物検出部114で位置を算出した対象物とを対応付けることにより算出される(マップマッチング)。また、自己位置算出部115は、算出した移動体1の位置と姿勢に基づいて、対象物検出部114で算出した対象物の位置を修正する。つまり、自己位置算出部115は、移動体1の位置・姿勢と、地図とから、ステレオ距離算出部112や、単眼距離算出部113が算出した対象物の位置(距離)を修正する。 The self position calculation unit (autonomous movement control unit) 115 calculates the position and posture of the moving body 1 at the time when the data acquisition unit 111 acquires the image. The position and orientation are calculated by associating a map prepared in advance with the object whose position is calculated by the object detection unit 114 (map matching). In addition, the self-position calculation unit 115 corrects the position of the target object calculated by the target object detection unit 114 based on the calculated position and orientation of the moving body 1. That is, the self-position calculation unit 115 corrects the position (distance) of the target object calculated by the stereo distance calculation unit 112 or the monocular distance calculation unit 113 from the position / posture of the moving body 1 and the map.
 また、対象物が移動物である場合、自己位置算出部115は、算出した移動体1の位置と姿勢に基づいて、対象物の単位時間あたりの移動量を修正する。地図は、移動体1を手動で走行させながら、走行環境を撮像することで得られる。そして、撮像時刻の異なる複数枚の画像を取得し、取得した画像にSLAM(Simultaneous Localization and Mapping)やSfM(Structure from Motion)を適用することにより地図が作成される。地図作成のための撮像は、例えば、画像センサ120を複数搭載した台車を手動で移動させながら、または画像センサ120を複数搭載したユニットを手持ちして移動しながら行われる。 Further, when the object is a moving object, the self-position calculating unit 115 corrects the amount of movement of the object per unit time based on the calculated position and orientation of the moving body 1. The map is obtained by capturing an image of the traveling environment while the mobile body 1 is traveling manually. A plurality of images having different imaging times are acquired, and a map is created by applying SLAM (Simultaneous Localization and Mapping) or SfM (Structure from Motion) to the acquired images. Imaging for creating a map is performed, for example, while manually moving a carriage equipped with a plurality of image sensors 120 or while holding a unit equipped with a plurality of image sensors 120 and moving them.
 地図と対象物との対応付けの手法として以下の手法が存在する。いずれの手法が用いられてもよい。
 ・特徴点の配置関係に基づいて対応付けるICP(Iterative Closest Point)。
 ・SHOT(Signature of Histograms of OrienTations)。
 ・特徴量(画像上の特徴点近傍の輝度勾配ベクトルや、画像全体の輝度勾配ベクトルの分布等)が近似する特徴点同士を対応付ける手法。
 これらの手法のうち、どの手法を採用するかは、地図の構成により決定される。例えば、地図が特徴点の位置情報のみで構成される場合、地図が2次元であればICP、3次元であればSHOTが採用される。なお、地図が特徴点の位置情報と特徴量で構成される場合、移動体1の自律移動時における自己位置推定では、地図作成時に用いた手法と同じ手法で特徴量が算出され、この特徴量を用いた対応付けが行われる。
The following methods exist as a method for associating a map with an object. Any method may be used.
ICP (Iterative Closest Point) to be associated based on the arrangement relationship of feature points.
-SHOT (Signature of Histograms of OrienTations).
A method of associating feature points that approximate feature amounts (luminance gradient vectors in the vicinity of feature points on an image, distribution of luminance gradient vectors of the entire image, and the like).
Which of these methods is adopted is determined by the map configuration. For example, when the map is composed only of the feature point position information, ICP is adopted if the map is two-dimensional, and SHOT is adopted if the map is three-dimensional. If the map is composed of feature point position information and feature quantities, the self-position estimation during the autonomous movement of the mobile 1 calculates the feature quantities using the same technique as that used when creating the map. Association using is performed.
 制御部(自律移動制御部)116は、自己位置算出部115で算出した移動体1の位置、姿勢、修正された対象物の位置、対象物が移動物である場合、対象物の単位時間あたりの移動量に基づいて移動体1の次回移動量を決定する。そして、制御部116は、次回移動量に基づいて駆動部130への制御値を算出し、駆動部130に算出した制御値を送信する。
 なお、矢印A2については後記する。
The control unit (autonomous movement control unit) 116 determines the position and posture of the moving body 1 calculated by the self-position calculating unit 115, the corrected position of the target object, and the unit per unit time of the target object when the target object is a moving object. The next movement amount of the moving body 1 is determined based on the movement amount. Then, the control unit 116 calculates a control value for the driving unit 130 based on the next movement amount, and transmits the calculated control value to the driving unit 130.
The arrow A2 will be described later.
 次に、図2A~図2Cを参照して、移動方向、側方方向、超信地旋回時における単眼距離算出で生じる誤差を説明する。
 (単眼距離算出による拒理誤差)
 図2A~図2Cは、単眼距離算出部113での距離算出の詳細と距離誤差を表している。
 図2Aにおいて、移動体1は図1の矢印A1方向に移動しているものとする。そして、図2Aは、画像センサ120Aまたは画像センサ120Bが撮像した前方画像を基に単眼距離算出部113が対象物Jの距離を算出した場合に生じる可能性のある誤差を示している。
 図2Aにおいて、符号201は時刻t1における移動体1の位置と姿勢である。このとき、画像センサ120Aは、移動体1の移動方向に対して、前方にある対象物Jを視線202で撮像する。
Next, with reference to FIG. 2A to FIG. 2C, errors that occur in the calculation of the monocular distance in the moving direction, the lateral direction, and the superstrate turning will be described.
(Rejection error by monocular distance calculation)
2A to 2C show details of distance calculation in the monocular distance calculation unit 113 and distance errors.
2A, it is assumed that the moving body 1 is moving in the direction of arrow A1 in FIG. 2A illustrates an error that may occur when the monocular distance calculation unit 113 calculates the distance of the object J based on the front image captured by the image sensor 120A or the image sensor 120B.
In FIG. 2A, reference numeral 201 denotes the position and posture of the moving body 1 at time t1. At this time, the image sensor 120 </ b> A captures an image of the object J ahead of the moving direction of the moving body 1 with the line of sight 202.
 その後、移動体1は時刻t2に符号211の地点まで移動し、画像センサ120Aが対象物Jを視線212で撮像する。
 単眼距離算出部113は、時刻t1における位置と姿勢(符号201)、時刻t2における位置と姿勢(符号211)、それぞれの時刻における視線202、視線212の視差に基づいて、対象物Jまでの距離(視線212の線分長)を算出する。
 視線202と視線212の視差は、対象物Jに含まれる同一点を、時刻t1での画像と時刻t2での画像から検出することで算出される。同一点の検出は、オプティカルフロー推定法を用いることで行われる。時刻t2における位置と姿勢(符号211)は、後記する自己位置算出部115で算出した時刻t1における位置と姿勢(符号201)に、時刻t1に制御部116で決定した駆動部130への制御値を積算して算出した位置と姿勢の暫定値である。時刻t2における位置及び姿勢(符号211)の暫定値は、自己位置算出部115で処理修正される。つまり、自己位置算出部115は、地図を用いることによって、時刻t2における移動体1の位置・姿勢を修正する。
Thereafter, the moving body 1 moves to a point 211 at time t <b> 2, and the image sensor 120 </ b> A images the object J with the line of sight 212.
The monocular distance calculation unit 113 determines the distance to the object J based on the position and orientation at time t1 (reference numeral 201), the position and orientation at time t2 (reference numeral 211), and the parallax of the line of sight 202 and line of sight 212 at each time. (Line segment length of the line of sight 212) is calculated.
The parallax between the line of sight 202 and the line of sight 212 is calculated by detecting the same point included in the object J from the image at time t1 and the image at time t2. The same point is detected by using an optical flow estimation method. The position and orientation (reference numeral 211) at the time t2 are the control values for the drive unit 130 determined by the control section 116 at the time t1 to the position and orientation (reference numeral 201) at the time t1 calculated by the self-position calculator 115 described later. Is a provisional value of the position and orientation calculated by integrating. The provisional value of the position and orientation (reference numeral 211) at time t2 is processed and corrected by the self-position calculation unit 115. That is, the self-position calculation unit 115 corrects the position / posture of the moving body 1 at time t2 by using the map.
 ここで仮に、時刻t2における視線212が、画像センサ120Aのセンサ誤差によって視線221として対象物Jを撮像したとする。この場合、対象物Jは地点Jaに存在すると計算される。このため、対象物Jまでの距離に誤差E1が生じる。
 画像センサ120C,120Dのいずれか一方で撮像された後方画像を用いた場合も同程度の誤差が生じる。
Here, it is assumed that the line of sight 212 at time t2 has captured the object J as the line of sight 221 due to the sensor error of the image sensor 120A. In this case, it is calculated that the object J exists at the point Ja. For this reason, an error E1 occurs in the distance to the object J.
A similar error occurs when a rear image captured by either one of the image sensors 120C and 120D is used.
 このように移動体1の移動方向に存在する対象物Jと移動体1との距離を、単眼距離算出で距離を求めると、大きな誤差が生じてしまう。 As described above, when the distance between the object J existing in the moving direction of the moving body 1 and the moving body 1 is obtained by monocular distance calculation, a large error occurs.
 図2Bにおいて、移動体1は図1の矢印A1方向に移動しているものとする。そして、図2Bは、画像センサ120E,画像センサ120Fのいずれか一方が撮像した側方画像を基に単眼距離算出部113が対象物Jの距離を算出した場合に生じる可能性のある誤差を示している。
 距離算出の手法は図2Aの場合と同様である。すなわち、時刻t1に符号301の地点より視線302で対象物Jが撮像される。その後、時刻t2に符号311の地点より視線312で対象物Jが撮像される。そして、対象物Jまでの距離(視線312の線分長)が算出される。ここで仮に、時刻t2における視線312が、画像センサ120Eのセンサ誤差によって視線321として対象物Jを撮像したとすると、対象物Jは地点Jbに存在すると計算される。つまり、対象物Jまでの距離に誤差E2が生じる。
2B, it is assumed that the moving body 1 is moving in the direction of arrow A1 in FIG. 2B shows errors that may occur when the monocular distance calculation unit 113 calculates the distance of the object J based on the side image captured by either the image sensor 120E or the image sensor 120F. ing.
The method for calculating the distance is the same as in FIG. 2A. That is, the object J is imaged at the line of sight 302 from the point 301 at time t1. Thereafter, the object J is imaged from the point 311 at the time t2 with the line of sight 312. Then, the distance to the object J (line segment length of the line of sight 312) is calculated. Here, if the line of sight 312 at time t2 images the object J as the line of sight 321 due to the sensor error of the image sensor 120E, it is calculated that the object J exists at the point Jb. That is, an error E2 occurs in the distance to the object J.
 図2Aに示す誤差角θ1と、図2Bに示す誤差角θ2は、ほとんど同じである。むしろ、図2Bに示す誤差角θ2の方が、図2Aに示す誤差角θ1より若干大きい。にもかかわらず、図2Aに示す誤差E1と、図2Bに示す誤差E2とを比較すると、図2Bに示す誤差E2のほうが小さい。これは、対象物Jまでの距離が、時刻t1の画像と時刻t2の画像との視差と反比例の関係にあるからである。要するに、時刻t1の画像と時刻t2の画像との視差が小さいと、誤差が大きくなりやすい。逆に、時刻t1の画像と時刻t2の画像との視差が大きいと、誤差が大きくなりにくい。
 よって、誤差を小さくするためには、2つの画像の視差をできるだけ大きくする必要がある。
The error angle θ1 shown in FIG. 2A and the error angle θ2 shown in FIG. 2B are almost the same. Rather, the error angle θ2 shown in FIG. 2B is slightly larger than the error angle θ1 shown in FIG. 2A. Nevertheless, when the error E1 shown in FIG. 2A is compared with the error E2 shown in FIG. 2B, the error E2 shown in FIG. 2B is smaller. This is because the distance to the object J is inversely proportional to the parallax between the image at time t1 and the image at time t2. In short, if the parallax between the image at time t1 and the image at time t2 is small, the error tends to increase. Conversely, if the parallax between the image at time t1 and the image at time t2 is large, the error is difficult to increase.
Therefore, in order to reduce the error, it is necessary to increase the parallax between the two images as much as possible.
 そのために、移動方向に対して直交方向の向きの撮像領域に対しては、ステレオ距離算出部112よりも処理負荷の低い単眼距離算出部113の処理を適用することが望ましい。
 このように、移動体1の移動方向に対して直交方向に備えられている画像センサ120で撮像された画像は、単眼距離算出部113によって距離を算出されることが望ましい。例えば、駆動部130がオムニホイール等であれば、移動体1が図1の矢印A2の方向に移動することも可能である。移動体1が図1の矢印A2の方向に移動するような場合、画像センサ120A~120Dが移動方向に対して直交方向に設置されている画像センサ120となる。このような場合、画像センサ120A~120Dで撮像された画像は、単眼距離算出部113による距離算出が行われるとよい。ただし、この場合、画像センサ120A,120Bのいずれか一方、画像センサ120C,120Dのいずれか一方で撮像された画像が用いられればよい。
Therefore, it is desirable to apply the processing of the monocular distance calculation unit 113 having a lower processing load than the stereo distance calculation unit 112 to the imaging region in the direction orthogonal to the movement direction.
As described above, it is desirable that the monocular distance calculation unit 113 calculates the distance of the image captured by the image sensor 120 provided in a direction orthogonal to the moving direction of the moving body 1. For example, if the drive unit 130 is an omni wheel or the like, the moving body 1 can also move in the direction of the arrow A2 in FIG. When the moving body 1 moves in the direction of the arrow A2 in FIG. 1, the image sensors 120A to 120D are the image sensors 120 installed in a direction orthogonal to the moving direction. In such a case, distances calculated by the monocular distance calculation unit 113 may be performed on images captured by the image sensors 120A to 120D. However, in this case, an image captured by either one of the image sensors 120A and 120B or one of the image sensors 120C and 120D may be used.
 また、移動体1の移動方向に対して正方向(つまり前方)、負方向(つまり後方)に設置されている画像センサ120で撮像された画像は、ステレオ距離算出部112で処理される。
 すなわち、図2Aに示すように、誤差E1は大きい値となるため、図2Aのように移動体1の移動方向に設置されている画像センサ120A,120Bで撮像された画像は、単眼距離算出部113より、ステレオ距離算出部112で処理されるのがよい。
 このように、本願の特徴は、移動体1の移動方向によって、同じ画像センサ120でも、単眼距離算出を行うか、ステレオ距離算出を行うかが切り替えられることにある。
Further, an image captured by the image sensor 120 installed in the positive direction (that is, forward) and the negative direction (that is, rearward) with respect to the moving direction of the moving body 1 is processed by the stereo distance calculation unit 112.
That is, since the error E1 is a large value as shown in FIG. 2A, the images captured by the image sensors 120A and 120B installed in the moving direction of the moving body 1 as shown in FIG. From 113, the stereo distance calculation unit 112 is preferably processed.
As described above, the feature of the present application is that the monocular distance calculation or the stereo distance calculation is switched even in the same image sensor 120 depending on the moving direction of the moving body 1.
 図2Cでは、移動体1が超信地旋回している場合について説明する。
 移動体1が図2Cの旋回方向(矢印A3)の方向に超信地旋回する場合、図1の矢印A1に示す移動方向に対して直交方向に移動体1が移動しているといえる。すなわち、この場合、画像センサ120A~120Dは、移動体1の移動方向とは直交方向に存在する画像センサ120(側方に設置されている画像センサ120)となる。
In FIG. 2C, the case where the mobile body 1 is performing a super turn is demonstrated.
When the mobile body 1 makes a super turn in the direction of the turning direction (arrow A3) in FIG. 2C, it can be said that the mobile body 1 is moving in a direction orthogonal to the movement direction indicated by the arrow A1 in FIG. In other words, in this case, the image sensors 120A to 120D are the image sensors 120 (image sensors 120 installed on the sides) that exist in a direction orthogonal to the moving direction of the moving body 1.
 つまり、移動体1が超信地旋回している間、画像センサ120A~120Dについてステレオ距離算出部112の処理を適用しない方がよい。すなわち、移動体1が超信地旋回している場合、画像センサ120A,120Bのうち、少なくとも1つで撮像した画像に単眼距離算出部113の処理を適用する。同様に、画像センサ120C,120Dのうち、少なくとも1つで撮像した画像に単眼距離算出部113の処理を適用する。その理由を以下に記載する。 That is, it is better not to apply the processing of the stereo distance calculation unit 112 to the image sensors 120A to 120D while the mobile body 1 is turning around. That is, when the moving body 1 is turning in a super-confidence, the process of the monocular distance calculation unit 113 is applied to an image captured by at least one of the image sensors 120A and 120B. Similarly, the processing of the monocular distance calculation unit 113 is applied to an image captured by at least one of the image sensors 120C and 120D. The reason is described below.
 図2Cにおいて、移動体1は図2Cの矢印A3の方向に旋回(超信地旋回)しているものとする。そして、図2Cは、画像センサ120Aまたは画像センサ120Bが撮像した画像を基に単眼距離算出部113が対象物Jの距離を算出した場合に生じる可能性のある誤差を示している。 In FIG. 2C, it is assumed that the moving body 1 is turning in the direction of arrow A3 in FIG. FIG. 2C shows an error that may occur when the monocular distance calculation unit 113 calculates the distance of the object J based on the image captured by the image sensor 120A or the image sensor 120B.
 図2Cにおける距離算出の手法は図2A及び図2Bの場合と同様である。時刻t1で、画像センサ120Aは符号401の位置・姿勢において、視線402で対象物Jを撮像する。その後、移動体1が超信地旋回方向(矢印A3)へ超信地旋回する。そして、時刻t2で、画像センサ120Aは、符号411の位置・姿勢において視線412で対象物Jを撮像する。 The distance calculation method in FIG. 2C is the same as in FIGS. 2A and 2B. At time t <b> 1, the image sensor 120 </ b> A captures an image of the object J with the line of sight 402 in the position / posture 401. Thereafter, the mobile body 1 performs a super-spinning in the super-spinning direction (arrow A3). Then, at time t <b> 2, the image sensor 120 </ b> A captures an image of the object J with the line of sight 412 at the position / posture 411.
 その後、単眼距離算出部113は、時刻t1で撮像された画像と、時刻t2で撮像された画像とを基に対象物Jまでの距離(視線412の線分長)を算出する。超信地旋回中かどうかは、時刻t1での制御部116の制御値から判断される。 Thereafter, the monocular distance calculation unit 113 calculates the distance to the target object J (line segment length of the line of sight 412) based on the image captured at time t1 and the image captured at time t2. It is determined from the control value of the control unit 116 at time t1 whether or not super turning is in progress.
 ここで仮に、時刻t2における視線412が、画像センサ120Aのセンサ誤差によって視線421として、対象物Jが撮像されたものとする。この場合、対象物Jは地点Jcに存在すると計算され、対象物Jまでの距離に誤差E3が生じる。 Here, it is assumed that the visual line 412 at time t2 is captured as the visual line 421 by the sensor error of the image sensor 120A. In this case, it is calculated that the object J exists at the point Jc, and an error E3 occurs in the distance to the object J.
 ここで、図2Aに示す誤差E1と、図2Cに示す誤差E3とを比較すると、誤差E3の方が小さい。これは、移動方向に対して直交方向の移動量、つまり、旋回方向(矢印A3)が増大し、視差が大きくなったためである。言い換えれば、図2Cでは移動体1の移動方向が旋回方向(矢印A3)であるため、画像センサ120A(あるいは、画像センサ120B)が、移動体1の側方を撮像する側方画像センサとなったためである。 Here, when the error E1 shown in FIG. 2A is compared with the error E3 shown in FIG. 2C, the error E3 is smaller. This is because the amount of movement in the direction orthogonal to the movement direction, that is, the turning direction (arrow A3) increases, and the parallax increases. In other words, since the moving direction of the moving body 1 is the turning direction (arrow A3) in FIG. 2C, the image sensor 120A (or the image sensor 120B) is a side image sensor that captures the side of the moving body 1. This is because.
 よって、超信地旋回量を制御部116の制御値に基づいて算出し、超信地旋回量が予め設定した判定閾値よりも大きい場合、画像センサ120A,120Bのうち、少なくとも1つで撮像した画像に単眼距離算出部113の処理を適用する。この場合、ステレオ距離算出部112は何も実行しない。画像センサ120C,120Dについても同様である。 Therefore, the amount of super turning is calculated based on the control value of the control unit 116, and when the amount of super turning is larger than a preset determination threshold, the image is picked up by at least one of the image sensors 120A and 120B. The processing of the monocular distance calculation unit 113 is applied to the image. In this case, the stereo distance calculation unit 112 does nothing. The same applies to the image sensors 120C and 120D.
 このように、画像センサ120が移動体1の移動方向に対して、直交方向に備えられている場合、ステレオ距離算出よりも、単眼距離算出の方が誤差を小さくすることができる。さらに、単眼距離算出は、ステレオ距離算出の方が処理データを低減できるため、処理負荷を低減することができる。
 つまり、移動体1が超信地旋回している場合、画像センサ120A、120Bで撮像された画像をステレオ距離算出部112により距離を算出するよりも、単眼距離算出部113で距離を算出する手法の方が誤差を低減できる。さらに、単眼距離算出部113で距離を算出することにより、処理対象の画像データ量が削減され、処理負荷を低減することができる。
As described above, when the image sensor 120 is provided in a direction orthogonal to the moving direction of the moving body 1, the monocular distance calculation can make the error smaller than the stereo distance calculation. Furthermore, in the monocular distance calculation, since the stereo distance calculation can reduce the processing data, the processing load can be reduced.
That is, when the moving body 1 is turning in a super-confidence, a method of calculating the distance by the monocular distance calculation unit 113 rather than calculating the distance of the images captured by the image sensors 120A and 120B by the stereo distance calculation unit 112. Can reduce the error. Furthermore, by calculating the distance with the monocular distance calculation unit 113, the amount of image data to be processed can be reduced, and the processing load can be reduced.
 なお、画像センサ120A,120Bのうち、どの画像センサ120で撮像した画像を単眼距離算出部113に適用するかは、超信地旋回による各々の画像センサ120の移動量に基づいて決定される。例えば、画像センサ120A,120Bのうち、画像センサ120Aの移動量が大きければ、画像センサ120Aで撮像された画像が使用される。画像センサ120C,120Dについても同様である。
 ただし、移動体1の中心軸に対して画像センサ120A,120Bが対称の位置関係にある場合、画像センサ120A,120Bそれぞれの超信地旋回による移動量は同じである。このような場合、撮像された画像上において特徴点が多い画像センサ120の画像が使用される。画像センサ120C,120Dも同様である。
It should be noted that which of the image sensors 120A and 120B the image captured by the image sensor 120 is applied to the monocular distance calculation unit 113 is determined based on the movement amount of each of the image sensors 120 due to the super turning. For example, of the image sensors 120A and 120B, if the movement amount of the image sensor 120A is large, an image captured by the image sensor 120A is used. The same applies to the image sensors 120C and 120D.
However, when the image sensors 120A and 120B are in a symmetrical positional relationship with respect to the central axis of the moving body 1, the amount of movement of each of the image sensors 120A and 120B due to the super turning is the same. In such a case, an image of the image sensor 120 having many feature points on the captured image is used. The same applies to the image sensors 120C and 120D.
 単眼距離算出部113で距離を算出するか、ステレオ距離算出部112で距離を算出するかの判定閾値は、画像センサ120A,120Bと、画像センサ120C,120Dのそれぞれで予め設定されている。例えば、画像センサ120Aと画像センサ120Bとの距離(ベースライン距離)が、判定閾値として設定される。画像センサ120C,120Dについても同様に設定される。ここで、ベースライン距離は、ステレオ距離算出における視差である。つまり、異なる時刻で画像が撮像された場合、それぞれの撮像時刻間において、移動体1が図1の矢印A2の方向に移動した距離が、ベースライン距離より大きい場合、画像センサ120A,120Bのいずれか一方で撮像された画像に対し、単眼距離算出が適用される。それぞれの撮像時刻間において、移動体1が図1の矢印A2の方向に移動した距離が、ベースライン距離より小さい場合、画像センサ120A及び画像センサ120Bで撮像された画像に対し、ステレオ距離算出が適用される。画像センサ120C,120Dについても同様である。 The determination threshold value for determining whether the monocular distance calculation unit 113 calculates the distance or the stereo distance calculation unit 112 calculates the distance is set in advance for each of the image sensors 120A and 120B and the image sensors 120C and 120D. For example, the distance (baseline distance) between the image sensor 120A and the image sensor 120B is set as the determination threshold value. The image sensors 120C and 120D are set similarly. Here, the baseline distance is a parallax in the stereo distance calculation. That is, when images are captured at different times, when the distance that the moving body 1 moves in the direction of the arrow A2 in FIG. 1 is greater than the baseline distance between the respective imaging times, either of the image sensors 120A and 120B is used. On the other hand, monocular distance calculation is applied to the captured image. When the distance that the moving body 1 has moved in the direction of the arrow A2 in FIG. 1 is smaller than the baseline distance between the respective imaging times, stereo distance calculation is performed on images captured by the image sensor 120A and the image sensor 120B. Applied. The same applies to the image sensors 120C and 120D.
 ちなみに、画像センサ120E,120Fは、超信地旋回時でも移動体1の移動方向に対して直交方向に備えられているため、単眼距離算出部113による距離算出が適用される。 Incidentally, since the image sensors 120E and 120F are provided in a direction orthogonal to the moving direction of the moving body 1 even during the super turning, distance calculation by the monocular distance calculation unit 113 is applied.
 なお、CNNは学習による推定距離であるため、CNNを用いた単眼距離算出は距離の精度に保障がない。本実施形態では、幾何学的に求められる距離であるため、誤差は生じるものの、CNNより算出される距離の精度が保障される。 In addition, since CNN is an estimated distance by learning, calculation of monocular distance using CNN does not guarantee the accuracy of distance. In the present embodiment, since the distance is determined geometrically, an error occurs, but the accuracy of the distance calculated from the CNN is guaranteed.
 なお、ここでは超信地旋回について記載しているが、カーブでも適用可能である。移動体1がカーブしている場合、移動体1の移動方向のベクトルを直進方向と、直進方向と直交する方向(直交方向)のベクトルに分解したとき、直進方向成分が直交方向成分より大きい場合、画像センサ120A、120Bのいずれか一方で撮像された画像に対してステレオ距離算出が適用される。また、直交方向成分が直進方向成分より大きい場合、画像センサ120A、120Bのいずれか一方で撮像された画像に対して単眼距離算出が適用される。画像センサ120C,120Dについても同様である。 It should be noted that although super-superficial turning is described here, it can also be applied to curves. When the moving body 1 is curved, when the moving direction vector of the moving body 1 is decomposed into a straight direction and a vector orthogonal to the straight direction (orthogonal direction), the straight direction component is larger than the orthogonal direction component. Stereo distance calculation is applied to an image captured by one of the image sensors 120A and 120B. In addition, when the orthogonal direction component is larger than the straight traveling direction component, the monocular distance calculation is applied to the image captured by one of the image sensors 120A and 120B. The same applies to the image sensors 120C and 120D.
 (移動制御)
 図3は、移動体1における移動制御の手法を示す図である。
 まず、予め作成した壁等の対象物J1と目的地点位置とに基づいて、目的地点までの目標経路Wが作成される。目標経路Wの作成手法として、例えば、ダイクストラ法やA-Star法がある。この手法では、まず、出発点と終了点が指定される。そして、対象物J1を構成する各特徴点の近傍にポテンシャル場Pが設けられる。ポテンシャル場Pは、移動体1が避ける領域である。次に、制御部116は、目的地点までの距離とポテンシャル場Pとを基に、最小のコストとなる経路探索を行う。そして、制御部116は、最小コストとなる経路が目標経路Wとして生成される。目標経路Wは、例えば、図示しないサーバ等で生成された後、移動体1に送信される。
(Movement control)
FIG. 3 is a diagram illustrating a method of movement control in the moving body 1.
First, a target route W to the destination point is created based on the object J1 such as a wall and the destination location that are created in advance. Examples of the method for creating the target route W include the Dijkstra method and the A-Star method. In this method, first, a starting point and an ending point are designated. And the potential field P is provided in the vicinity of each feature point which comprises the target object J1. The potential field P is a region that the moving body 1 avoids. Next, the control unit 116 performs a route search with the minimum cost based on the distance to the destination point and the potential field P. Then, the control unit 116 generates a route having the minimum cost as the target route W. The target route W is transmitted to the mobile body 1 after being generated by, for example, a server (not shown).
 次に、制御部116は、前回の制御値を基に算出された移動体1の移動速度と旋回角速度B1を中心として、次回の移動速度と旋回角速度の候補Bを複数設定する。そして、制御部116は、それぞれの候補Bを採用した場合における次回の移動体1の候補位置を算出する。 Next, the control unit 116 sets a plurality of candidates B for the next moving speed and turning angular speed around the moving speed and turning angular speed B1 of the moving body 1 calculated based on the previous control value. And the control part 116 calculates the candidate position of the next mobile body 1 when each candidate B is employ | adopted.
 それぞれの候補Bにおける各移動速度及び旋回角速度は、移動体1の最大移動速度と最大旋回角速度を超えないように設定される。例えば、候補B1での移動速度をVmとし、候補B2の移動速度を(Vm-3km/h)から(Vm+3km/h)の範囲で設定したとする。このとき、最大移動速度が(Vm+2km/h)の場合は、移動速度の候補B2を(Vm-3km/h)から(Vm+2km/h)の範囲に設定しなおす。 Each moving speed and turning angular speed in each candidate B is set so as not to exceed the maximum moving speed and the maximum turning angular speed of the moving body 1. For example, it is assumed that the moving speed of the candidate B1 is Vm, and the moving speed of the candidate B2 is set in the range of (Vm−3 km / h) to (Vm + 3 km / h). At this time, if the maximum moving speed is (Vm + 2 km / h), the moving speed candidate B2 is reset to a range from (Vm−3 km / h) to (Vm + 2 km / h).
 次に、制御部116は、自己位置算出部115で修正した移動対象物M1,M2の位置と単位時間あたりの移動量M11、M21を基に、移動対象物M1,M2の近傍にポテンシャル場P1、P2を設ける。そして、制御部116は、移動体1の次回移動先候補位置から目標経路Wまでのコストと、移動体1の次回移動先候補位置から目標地点(移動終了地点)までのコストとを比較する。このとき、制御部116は、各ポテンシャル場P,P1,P2を避ける経路でコストを算出する。
 そして、制御部116は、最もコストが低くなる候補Bを選択する。そして、制御部116は、最小コストとなる候補Bを次回の移動速度と旋回角速度として採用する。その後、制御部116は、採用した移動速度と旋回角速度に基づいて駆動部130への制御値を算出する。
Next, based on the positions of the moving objects M1 and M2 corrected by the self-position calculating unit 115 and the movement amounts M11 and M21 per unit time, the control unit 116 generates a potential field P1 in the vicinity of the moving objects M1 and M2. , P2. Then, the control unit 116 compares the cost from the next movement destination candidate position of the mobile body 1 to the target route W with the cost from the next movement destination candidate position of the mobile body 1 to the target point (movement end point). At this time, the control unit 116 calculates the cost using a route that avoids the potential fields P, P1, and P2.
And the control part 116 selects the candidate B with the lowest cost. And the control part 116 employ | adopts the candidate B used as the minimum cost as a next moving speed and turning angular velocity. Thereafter, the control unit 116 calculates a control value for the drive unit 130 based on the adopted moving speed and turning angular velocity.
 なお、図3の例では、移動対象物M1,M2を避けるために、移動体1が既に目標経路Wを外れているところを示している。 In addition, in the example of FIG. 3, in order to avoid the moving objects M1 and M2, the place where the moving body 1 has already deviated from the target route W is shown.
 第1実施形態では、移動体1の移動方向に画像センサ120が設置されている場合、ステレオ距離算出が適用される。また、画像センサ120が移動方向に対して直交方向に設置されている場合、単眼距離算出が適用される。このようにすることにより、移動体1は、移動・旋回方向に応じて、処理負荷が低くなるよう最適な距離算出手法を選択する。これにより、無死角でありながら、高精度かつ低処理負荷な自律移動を実現することができる。また、誤差が小さくなる距離算出手法が選択されることで、安価なカメラでも算出される距離の精度が低下することを防止することができる。
 これにより、安価なカメラでも障害物検出精度が低下することを防止することができる。
 なお、特許文献1に記載の技術は、車両の移動方向とは関係なく、カメラの視野が重複していない部分を単眼視している。これに対して、本実施形態では移動体1の移動方向に応じて、ステレオ距離算出と、単眼距離算出とを切り替えている点が異なる。
In the first embodiment, when the image sensor 120 is installed in the moving direction of the moving body 1, stereo distance calculation is applied. Further, when the image sensor 120 is installed in a direction orthogonal to the moving direction, monocular distance calculation is applied. By doing in this way, the mobile body 1 selects the optimal distance calculation method so that processing load may become low according to a movement / turning direction. Thereby, it is possible to realize autonomous movement with high accuracy and low processing load while having no blind spots. Further, by selecting a distance calculation method that reduces the error, it is possible to prevent the accuracy of the distance calculated even in an inexpensive camera from being lowered.
Thereby, it is possible to prevent the obstacle detection accuracy from being lowered even with an inexpensive camera.
Note that the technique described in Patent Document 1 monocularly views a portion where the field of view of the camera does not overlap regardless of the moving direction of the vehicle. On the other hand, the present embodiment is different in that the stereo distance calculation and the monocular distance calculation are switched according to the moving direction of the moving body 1.
 また、これまでは画像の取得頻度を低下させて処理負荷を低減することが行われていたが、このような手法では距離算出精度の低下等といった性能低下が生じるおそれがある。本実施形態では、画像の取得頻度を低下させることなく、距離算出精度の低下等を防ぐことができる。 In the past, the processing frequency was reduced by reducing the frequency of image acquisition. However, there is a possibility that performance degradation such as a decrease in distance calculation accuracy may occur in such a method. In the present embodiment, it is possible to prevent a decrease in distance calculation accuracy and the like without reducing the image acquisition frequency.
 [第2実施形態]
 次に、図4を参照して、本発明の第2実施形態を説明する。
 第2実施形態では、移動体1が、起動時や、目的地に到着後の停止時や、人混みでの停滞時や、エレベータ搭乗等における一時停止後に、安全に自律移動を開始・再開することを目的とする。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIG.
In the second embodiment, the mobile body 1 starts and resumes autonomous movement safely at the time of start-up, stop after arrival at the destination, stagnation due to crowds, or temporary stop in elevator boarding, etc. With the goal.
 図4は、第2実施形態による移動体1の計算処理部110aの構成を示す図である。
 計算処理部110aは、第1実施形態と同様の構成である各部111~116に加えて、状態判定部117と、旋回角速度変更部(自律移動制御部)118を有している。
 各部111~116は、第1実施形態における各部111~116と同様の処理を実行することで、移動体1を自律移動させる。
 状態判定部117は、自己位置算出部115で算出した移動体1の位置と姿勢の時系列情報と、起動情報とに基づいて、移動体1の走行状態を判定する。計算処理部110aの起動時や、現在時刻を含めた過去の一定期間(例えば30秒間)における移動体1の位置と姿勢の両方が変化していない場合において、状態判定部117は走行状態を「停止・停滞」と判定する。それ以外の場合、状態判定部117は走行状態を「走行」と判定する。
FIG. 4 is a diagram illustrating a configuration of the calculation processing unit 110a of the moving body 1 according to the second embodiment.
The calculation processing unit 110a includes a state determination unit 117 and a turning angular velocity change unit (autonomous movement control unit) 118 in addition to the units 111 to 116 having the same configuration as that of the first embodiment.
Each unit 111 to 116 autonomously moves the moving body 1 by executing the same processing as that of each unit 111 to 116 in the first embodiment.
The state determination unit 117 determines the traveling state of the mobile body 1 based on the time series information of the position and orientation of the mobile body 1 calculated by the self-position calculation unit 115 and the activation information. When the calculation processing unit 110a is started up or when both the position and posture of the moving body 1 have not changed during a past fixed period (for example, 30 seconds) including the current time, the state determination unit 117 sets the running state as “ Determined as “stopped / stagnation” In other cases, the state determination unit 117 determines the traveling state as “traveling”.
 旋回角速度変更部118は、状態判定部117で判定した走行状態に基づいて、移動体1の最高旋回角速度を設定する。走行状態が「停止・停滞」の場合は、最高旋回角速度をゼロに設定する。これは、単眼距離算出が、画像を時系列で取得しなければ算出できないためである。つまり、走行状態が「停止・停滞」の場合、画像センサ120E,120Fによる対象物の距離算出ができない状態である。これにより、移動体1の側方に存在している対象物の距離が算出できていないため、移動体1の側方が死角となっている。そのため、移動体1を旋回して発進させると、思わぬ障害物に衝突するおそれがある。そのため、最高旋回角速度がゼロに設定され、直進方向にしか発進できないようになっている。 The turning angular velocity changing unit 118 sets the maximum turning angular velocity of the moving body 1 based on the traveling state determined by the state determining unit 117. When the running state is “stop / stagnation”, the maximum turning angular velocity is set to zero. This is because the monocular distance cannot be calculated unless the images are acquired in time series. That is, when the running state is “stop / stagnation”, the distance of the object cannot be calculated by the image sensors 120E and 120F. Thereby, since the distance of the object which exists in the side of the mobile body 1 cannot be calculated, the side of the mobile body 1 becomes a blind spot. Therefore, if the mobile body 1 is turned and started, there is a possibility of colliding with an unexpected obstacle. Therefore, the maximum turning angular velocity is set to zero and the vehicle can start only in the straight direction.
 走行状態が「走行」の場合、走行状態が「停止・停滞」から「走行」に切り替わった時刻における移動体1の位置と、現在の移動体1の位置との距離が一定量(例えば1m)を超えたとき、最高旋回角速度を移動体1の本来の値に設定する。これは、前記したように、単眼距離算出には、画像が時系列的にある程度揃っている必要があるためである。 When the running state is “running”, the distance between the position of the moving body 1 and the current position of the moving body 1 at a time when the running state is switched from “stop / stagnation” to “running” is a fixed amount (for example, 1 m) Is exceeded, the maximum turning angular velocity is set to the original value of the moving body 1. This is because, as described above, for calculating the monocular distance, the images need to be aligned to some extent in time series.
 第2実施形態の移動体1は、起動時や、停止・停滞時から走行を開始・再開するとき、一定量を直進・後退するまで旋回しないように駆動部130を制御する。このようにすることにより、移動体1の側方に存在する対象物までの距離を正確に算出できるようになるまで、移動体1の前方に存在する対象物と後方に存在する対象物までの距離をステレオ距離算出で算出しながら移動する。このようにすることにより、移動体1を安全な方向に移動することができる。 The moving body 1 of the second embodiment controls the drive unit 130 so as not to turn until a certain amount of straight travels / retreats when starting or resuming running from the time of starting or stopping / stagnation. By doing in this way, until it becomes possible to accurately calculate the distance to the object existing on the side of the moving body 1, the object existing in front of the moving object 1 and the object existing behind the moving object 1 can be calculated. Move while calculating the distance by calculating the stereo distance. By doing in this way, the mobile body 1 can be moved in a safe direction.
 移動体1の位置と姿勢が変化しているか否かの判定は、例えば、以下の手順で行われる。まず、状態判定部117が、現在時刻を含めた過去の一定期間における位置と姿勢との分散を算出する。そして、状態判定部117が、予め設定した状態判定閾値と、算出した分散とを比較することで移動体1の位置と姿勢が変化しているか否かの判定を実行する。 The determination as to whether or not the position and orientation of the moving body 1 has been changed is performed, for example, by the following procedure. First, the state determination unit 117 calculates the variance between the position and the posture in a past fixed period including the current time. And the state determination part 117 performs the determination whether the position and attitude | position of the mobile body 1 are changing by comparing the state determination threshold value preset and the calculated dispersion | distribution.
 ここで、状態判定閾値が小さく設定されると、分散が0近傍で停止と判定される。また、状態判定閾値が大きく設定されると、移動体1がかなり動いている状態でも停止と判定される。
 状態判定閾値が小さく設定されると、移動体1が少し動いただけでも移動していると判定されてしまう。従って、移動体1の側方に設置された画像センサ120が、単眼距離算出に必要な距離を動く前に、側方に設置された画像センサ120による単眼距離算出が行われてしまう。
 逆に、状態判定閾値が大きく設定されると、前記したように、移動体1がかなり動いている状態でも停止と判定される。つまり、移動体1の側方に設置された画像センサ120が、単眼距離算出に必要な距離を動いた後に、側方に設置された画像センサ120による単眼距離算出が行われる。
Here, when the state determination threshold is set to be small, it is determined that the variance is stopped when the variance is close to zero. If the state determination threshold is set to be large, it is determined that the moving body 1 is stopped even when the moving body 1 is moving considerably.
If the state determination threshold is set to be small, it is determined that the moving body 1 is moving even if it moves a little. Therefore, before the image sensor 120 installed on the side of the moving body 1 moves a distance necessary for calculating the monocular distance, the monocular distance calculation by the image sensor 120 installed on the side is performed.
On the other hand, if the state determination threshold is set large, as described above, it is determined that the moving body 1 is stopped even when the moving body 1 is moving considerably. That is, after the image sensor 120 installed on the side of the moving body 1 moves a distance necessary for the monocular distance calculation, the monocular distance calculation is performed by the image sensor 120 installed on the side.
 このような特徴から、人ごみや、周囲に障害物が多い場合には、状態判定閾値を大きく設定し、周囲に何もないような場所では状態判定閾値を小さく設定するとよい。このようにすることで、効率的な移動体1の移動を実現することができる。 Because of these characteristics, it is better to set the state determination threshold to a large value when there are many people or obstacles around it, and to set the state determination threshold to a small value in places where there is nothing around. In this way, efficient movement of the moving body 1 can be realized.
 [第3実施形態]
 図5は、第3実施形態に係る自律移動システムZの構成例を示す図である。
 図5に示すように、自律移動システムZは、移動体1bと、サーバ5とを有する。
 移動体1bは、それぞれの画像センサ120で撮像した画像をサーバ5へ送信する。サーバ5は、送信された画像を基に、単眼距離算出またはステレオ距離算出を用いて移動体1bから対象物までの距離を算出する。そして、サーバ5は、算出した対象物までの距離を基に、対象物の位置を算出し、さらに、マップマッチングによって移動体1bの自己位置(位置・姿勢)を算出する。そして、サーバ5は、移動体1bの自己位置等を基に、移動体1bの次回移動速度及び旋回角度を算出する。その後、サーバ5は、移動体1bの自己位置、及び、移動体1bの次回移動速度及び旋回角度を移動指示情報として移動体1bに送信する。移動体1bは、受信した移動指示情報に従って移動を行う。なお、移動体1b及びサーバ5の間の通信は無線通信が好ましい。
 また、サーバ5は、上記した処理の他にも、図6で後記するように第1実施形態におけるステレオ距離算出部112、単眼距離算出部113、対象物検出部114、自己位置算出部115及び制御部116が行う処理を適宜行う。
[Third Embodiment]
FIG. 5 is a diagram illustrating a configuration example of the autonomous mobile system Z according to the third embodiment.
As shown in FIG. 5, the autonomous mobile system Z includes a moving body 1 b and a server 5.
The moving body 1b transmits an image captured by each image sensor 120 to the server 5. The server 5 calculates the distance from the moving body 1b to the object using monocular distance calculation or stereo distance calculation based on the transmitted image. Then, the server 5 calculates the position of the object based on the calculated distance to the object, and further calculates the self position (position / posture) of the moving body 1b by map matching. And the server 5 calculates the next moving speed and turning angle of the moving body 1b based on the self-position etc. of the moving body 1b. Thereafter, the server 5 transmits the self position of the moving body 1b and the next moving speed and turning angle of the moving body 1b to the moving body 1b as movement instruction information. The moving body 1b moves according to the received movement instruction information. The communication between the mobile body 1b and the server 5 is preferably wireless communication.
In addition to the processing described above, the server 5 also includes a stereo distance calculation unit 112, a monocular distance calculation unit 113, an object detection unit 114, a self-position calculation unit 115, and a first embodiment as described later in FIG. The processing performed by the control unit 116 is appropriately performed.
 移動体1bの計算処理部110bは、データ送信部119aと、データ受信部119bと、移動制御部119cとを有する。
 データ送信部119aは、それぞれの画像センサ120で撮像された画像をサーバ5へ送信する。
 データ受信部119bは、サーバ5から移動指示情報を受信する。
 また、移動制御部119cは、サーバ5から送られた移動指示情報に基づいて、それぞれの駆動部130を制御する。
 画像センサ120(120A~120F)、駆動部130(130A~130D)は図1と同様であるので、ここでの説明を省略する。
 また、サーバ5の詳細は図6で説明する。
The calculation processing unit 110b of the moving body 1b includes a data transmission unit 119a, a data reception unit 119b, and a movement control unit 119c.
The data transmission unit 119 a transmits the image captured by each image sensor 120 to the server 5.
The data receiving unit 119 b receives movement instruction information from the server 5.
Further, the movement control unit 119 c controls each driving unit 130 based on the movement instruction information sent from the server 5.
Since the image sensor 120 (120A to 120F) and the drive unit 130 (130A to 130D) are the same as those in FIG. 1, description thereof is omitted here.
Details of the server 5 will be described with reference to FIG.
 図6は、第3実施形態に係るサーバ5の構成例を示す図である。
 サーバ5は、データ受信部511、ステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515、制御部516及びデータ送信部517を有する。
 データ受信部511は、移動体1bから、それぞれの画像センサ120で撮像された画像を受信する。
 ステレオ距離算出部512、単眼距離算出部513、対象物検出部514及び自己位置算出部515は、図1のステレオ距離算出部112、単眼距離算出部113、対象物検出部114及び自己位置算出部115と同様の動作を行うので、ここでの説明を省略する。
 制御部516は、図1の制御部216が行う動作のうち、駆動部130の制御以外の動作を行う。
 データ送信部517は、ステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515、制御部516による処理で算出された移動体1bの自己位置、及び、移動体1bの次回移動速度・旋回角度を移動指示情報として移動体1bへ送信する。
FIG. 6 is a diagram illustrating a configuration example of the server 5 according to the third embodiment.
The server 5 includes a data reception unit 511, a stereo distance calculation unit 512, a monocular distance calculation unit 513, an object detection unit 514, a self-position calculation unit 515, a control unit 516, and a data transmission unit 517.
The data reception unit 511 receives images captured by the respective image sensors 120 from the moving body 1b.
The stereo distance calculation unit 512, the monocular distance calculation unit 513, the object detection unit 514, and the self position calculation unit 515 are the stereo distance calculation unit 112, the monocular distance calculation unit 113, the object detection unit 114, and the self position calculation unit illustrated in FIG. Since the same operation as 115 is performed, a description thereof is omitted here.
The control unit 516 performs operations other than the control of the drive unit 130 among the operations performed by the control unit 216 of FIG.
The data transmission unit 517 includes a stereo distance calculation unit 512, a monocular distance calculation unit 513, an object detection unit 514, a self-position calculation unit 515, a self-position of the moving object 1b calculated by the processing by the control unit 516, and a moving object. The next moving speed / turning angle 1b is transmitted to the moving body 1b as movement instruction information.
 なお、サーバ5は、図示しないCPUと、図示しないRAM、図示しないHD(Hard Disk)等を備えている。そして、HD等に格納されているプログラムが、RAMにロードされ、ロードされたプログラムがCPUによって実行される。このようにすることで、データ受信部511、ステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515、制御部516及びデータ送信部517が具現化する。 The server 5 includes a CPU (not shown), a RAM (not shown), an HD (Hard Disk) (not shown), and the like. Then, the program stored in the HD or the like is loaded into the RAM, and the loaded program is executed by the CPU. By doing so, the data receiving unit 511, the stereo distance calculating unit 512, the monocular distance calculating unit 513, the object detecting unit 514, the self-position calculating unit 515, the control unit 516, and the data transmitting unit 517 are realized.
 第3実施形態によれば、移動体1bの移動に必要な距離の計算や、移動体1bの位置計算がサーバ5で行われるため、移動体1bの処理負荷を低減することができる。ちなみに、サーバ5は、複数の移動体1bについて、距離の計算や、移動体1bの位置計算を行うことができる。
 また、図6に示すサーバ5を構成するステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515、制御部516のうち、少なくとも1つが移動体1bに備わっていてもよい。
According to the third embodiment, since the calculation of the distance required for the movement of the moving body 1b and the position calculation of the moving body 1b are performed by the server 5, the processing load on the moving body 1b can be reduced. Incidentally, the server 5 can calculate the distance and the position of the moving body 1b for the plurality of moving bodies 1b.
Further, at least one of the stereo distance calculation unit 512, the monocular distance calculation unit 513, the object detection unit 514, the self-position calculation unit 515, and the control unit 516 configuring the server 5 illustrated in FIG. May be.
 例えば、駆動部130としてオムニホイールを用いることができる。このような場合、移動体1は図1の画像センサ120Eや、画像センサ120Fの方向に移動することができる。このような構成の場合、画像センサ120Eや、画像センサ120Fの方向に、2つの画像センサ120が設けられてもよい。 For example, an omni wheel can be used as the drive unit 130. In such a case, the moving body 1 can move in the direction of the image sensor 120E or the image sensor 120F in FIG. In such a configuration, two image sensors 120 may be provided in the direction of the image sensor 120E or the image sensor 120F.
 本実施形態の移動体1は、ロボットや、自律移動する車両や、自律移動するパーソナルモビリティ等といった自律移動装置に適用可能である。 The moving body 1 of the present embodiment is applicable to autonomous mobile devices such as robots, vehicles that move autonomously, personal mobility that moves autonomously, and the like.
 本発明は前記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を有するものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to having all the configurations described. In addition, a part of the configuration of a certain embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of a certain embodiment. In addition, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
 また、前記した各構成、機能、各部111~118,511~517、記憶部等は、それらの一部又はすべてを、例えば集積回路で設計すること等によりハードウェアで実現してもよい。また、前記した各構成、機能等は、CPU等のプロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、HD(Hard Disk)に格納すること以外に、メモリや、SSD(Solid State Drive)等の記録装置、又は、IC(Integrated Circuit)カードや、SD(Secure Digital)カード、DVD(Digital Versatile Disc)等の記録媒体に格納することができる。
 また、各実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には、ほとんどすべての構成が相互に接続されていると考えてよい。
Further, each of the above-described configurations, functions, units 111 to 118, 511 to 517, a storage unit, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Further, each configuration, function, and the like described above may be realized by software by a processor such as a CPU interpreting and executing a program that realizes each function. Information such as programs, tables, and files for realizing each function is stored in an HD (Hard Disk), a memory, a recording device such as an SSD (Solid State Drive), an IC (Integrated Circuit) card, It can be stored in a recording medium such as an SD (Secure Digital) card or a DVD (Digital Versatile Disc).
In each embodiment, control lines and information lines are those that are considered necessary for explanation, and not all control lines and information lines are necessarily shown on the product. In practice, it can be considered that almost all configurations are connected to each other.
 1   移動体(自律移動装置)
 5   サーバ
 112,512 ステレオ距離算出部(距離算出部)
 113,513 単眼距離算出部(距離算出部)
 114,514 対象物検出部(自律移動制御部)
 115,515 自己位置算出部(自律移動制御部)
 116,516 制御部(自律移動制御部)
 117, 状態判定部
 118 旋回角速度変更部(自律移動制御部)
 120,120A~120F 画像センサ(撮像部)
1 Mobile body (autonomous mobile device)
5 servers 112, 512 Stereo distance calculation unit (distance calculation unit)
113,513 Monocular distance calculation unit (distance calculation unit)
114,514 Object detection unit (autonomous movement control unit)
115,515 Self-position calculation unit (autonomous movement control unit)
116,516 Control unit (autonomous movement control unit)
117, State determination unit 118 Turning angular velocity change unit (autonomous movement control unit)
120, 120A to 120F Image sensor (imaging unit)

Claims (5)

  1.  移動体の直進方向に対して正方向の向きを撮像領域に含む第1の撮像部を、少なくとも2つ有し、
     前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有し、
     前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、
     算出された前記距離に基づいて、自己位置を算出し、算出された前記自己位置を基に、自律移動を行う自律移動制御部と
     を有し、
     前記距離算出部は、
     前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、
     前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出する
     ことを特徴とする自律移動装置。
    Having at least two first imaging units including, in an imaging region, a direction in the positive direction with respect to the straight traveling direction of the moving body;
    Each having at least one second imaging unit including an orientation in the imaging region that is orthogonal to the straight direction of the moving body;
    A distance calculation unit that calculates a distance to an object in the imaging region based on a captured image captured by the first imaging unit and the second imaging unit;
    An autonomous movement control unit that calculates a self-position based on the calculated distance, and performs autonomous movement based on the calculated self-position;
    The distance calculation unit
    Calculating the distance based on the parallax of the image captured by the first imaging unit;
    The autonomous mobile device, wherein the distance is calculated based on a plurality of captured images captured by the second imaging unit and having different imaging times.
  2.  前記自律移動装置が停止しているか、移動しているかを判定する状態判定部を、有し、
     前記自律移動制御部は、
     前記自律移動装置が停止から移動に移ったとき、所定距離の間、前記自律移動装置を直進方向へ移動させる
     ことを特徴とする請求項1に記載の自律移動装置。
    A state determination unit for determining whether the autonomous mobile device is stopped or moving;
    The autonomous movement control unit
    2. The autonomous mobile device according to claim 1, wherein when the autonomous mobile device moves from stop to move, the autonomous mobile device is moved in a straight direction for a predetermined distance.
  3.  前記自律移動装置が停止しているか、移動しているか否かの判定は、前記自律移動装置の位置の分散と、判定閾値とが比較されることによって行われ、
     前記自律移動装置が移動する周囲の環境によって、前記判定閾値が変更される
     ことを特徴とする請求項2に記載の自律移動装置。
    The determination of whether the autonomous mobile device is stopped or moving is performed by comparing the dispersion of the position of the autonomous mobile device with a determination threshold,
    The autonomous mobile device according to claim 2, wherein the determination threshold is changed according to a surrounding environment in which the autonomous mobile device moves.
  4.  前記第1の撮像部は、移動体の直進方向に対して負方向の向きを撮像領域に含む第3の撮像部を、少なくとも2つ有し、
     前記距離算出部は、
     前記第3の撮像部が撮像した画像の視差に基づいて、前記距離を算出する
     ことを特徴とする請求項1に記載の自律移動装置。
    The first imaging unit includes at least two third imaging units including, in an imaging region, a negative direction with respect to the straight direction of the moving object.
    The distance calculation unit
    The autonomous mobile device according to claim 1, wherein the distance is calculated based on parallax of an image captured by the third imaging unit.
  5.  自律移動装置と、サーバと、を備え、
     前記自律移動装置は、
     移動体の直進方向に対して正方向の向きを撮像領域に含む第1の撮像部を、少なくとも2つ有し、
     前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有するとともに、
     前記サーバから送られた前記自律移動装置の自己位置を基に、自律移動を行う自律移動制御部を
     有し、
     前記サーバは、
     前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、
     算出された前記距離に基づいて、前記自律移動装置の自己位置を算出する位置算出部と、
     を有し、
     前記距離算出部は、
     前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、
     前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出する
     ことを特徴とする自律移動システム。
    An autonomous mobile device and a server,
    The autonomous mobile device is
    Having at least two first imaging units including, in an imaging region, a direction in the positive direction with respect to the straight traveling direction of the moving body;
    Each has at least one second imaging unit including an orientation in the imaging region that is orthogonal to the straight direction of the moving body,
    Based on the autonomous position of the autonomous mobile device sent from the server, an autonomous movement control unit that performs autonomous movement,
    The server
    A distance calculation unit that calculates a distance to an object in the imaging region based on a captured image captured by the first imaging unit and the second imaging unit;
    A position calculation unit that calculates a self-position of the autonomous mobile device based on the calculated distance;
    Have
    The distance calculation unit
    Calculating the distance based on the parallax of the image captured by the first imaging unit;
    The autonomous movement system, wherein the distance is calculated based on a plurality of captured images captured by the second imaging unit and having different imaging times.
PCT/JP2019/007890 2018-05-15 2019-02-28 Autonomous movement device and autonomous movement system WO2019220740A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE112019001454.4T DE112019001454T5 (en) 2018-05-15 2019-02-28 AUTONOMOUS MOBILE DEVICE AND AUTONOMOUS MOBILE SYSTEM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-093563 2018-05-15
JP2018093563A JP7064948B2 (en) 2018-05-15 2018-05-15 Autonomous mobile devices and autonomous mobile systems

Publications (1)

Publication Number Publication Date
WO2019220740A1 true WO2019220740A1 (en) 2019-11-21

Family

ID=68540034

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/007890 WO2019220740A1 (en) 2018-05-15 2019-02-28 Autonomous movement device and autonomous movement system

Country Status (3)

Country Link
JP (1) JP7064948B2 (en)
DE (1) DE112019001454T5 (en)
WO (1) WO2019220740A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7379802B2 (en) * 2019-12-26 2023-11-15 株式会社竹中工務店 Travel route determination device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061075A (en) * 2001-08-09 2003-02-28 Matsushita Electric Ind Co Ltd Object-tracking device, object-tracking method and intruder monitor system
JP2007263657A (en) * 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2008123462A (en) * 2006-11-16 2008-05-29 Hitachi Ltd Object detector
JP2013015882A (en) * 2011-06-30 2013-01-24 Toyota Motor Corp Image recognition device for vehicle
JP2013054399A (en) * 2011-08-31 2013-03-21 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2013186042A (en) * 2012-03-09 2013-09-19 Hitachi Automotive Systems Ltd Distance calculating device and distance calculating method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061075A (en) * 2001-08-09 2003-02-28 Matsushita Electric Ind Co Ltd Object-tracking device, object-tracking method and intruder monitor system
JP2007263657A (en) * 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2008123462A (en) * 2006-11-16 2008-05-29 Hitachi Ltd Object detector
JP2013015882A (en) * 2011-06-30 2013-01-24 Toyota Motor Corp Image recognition device for vehicle
JP2013054399A (en) * 2011-08-31 2013-03-21 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2013186042A (en) * 2012-03-09 2013-09-19 Hitachi Automotive Systems Ltd Distance calculating device and distance calculating method

Also Published As

Publication number Publication date
JP2019200509A (en) 2019-11-21
DE112019001454T5 (en) 2021-01-07
JP7064948B2 (en) 2022-05-11

Similar Documents

Publication Publication Date Title
US11393350B2 (en) Systems and methods for vehicle guidance using depth map generation
US10133278B2 (en) Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof
Kobilarov et al. People tracking and following with mobile robot using an omnidirectional camera and a laser
JP3719095B2 (en) Behavior detection apparatus and gradient detection method
JP4810582B2 (en) Mobile object image tracking apparatus and method
US11906983B2 (en) System and method for tracking targets
Freda et al. Vision-based interception of a moving target with a nonholonomic mobile robot
JP4982407B2 (en) Mobile object image tracking apparatus and method
KR102305333B1 (en) Driving assistance methods, driving assistance systems and vehicles
CN106569225B (en) Unmanned vehicle real-time obstacle avoidance method based on ranging sensor
JP4333611B2 (en) Obstacle detection device for moving objects
JPH11213157A (en) Camera mounted mobile object
Coombs et al. 'Bee-bot': using peripheral optical flow to avoid obstacles
EP3193229B1 (en) Mobile body control device and mobile body
Coombs et al. Centering behavior using peripheral vision
JP2020106357A (en) Movement amount estimating device
Huang A Semi-Autonomous Vision-Based Navigation System for a Mobile Robotic Vehicle
WO2019220740A1 (en) Autonomous movement device and autonomous movement system
Hong et al. Real-time mobile robot navigation based on stereo vision and low-cost GPS
JP7385388B2 (en) Self-position estimation device
Park et al. A novel line of sight control system for a robot vision tracking system, using vision feedback and motion-disturbance feedforward compensation
CN109398533A (en) A kind of mobile platform and the method for mobile platform tracking for a long time
WO2021246170A1 (en) Information processing device, information processing system and method, and program
Lima et al. Indoor visual localization of a wheelchair using Shi-Tomasi and KLT
US20240019877A1 (en) Following control method for robot, electronic device, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19803678

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19803678

Country of ref document: EP

Kind code of ref document: A1