JP7064948B2 - Autonomous mobile devices and autonomous mobile systems - Google Patents

Autonomous mobile devices and autonomous mobile systems Download PDF

Info

Publication number
JP7064948B2
JP7064948B2 JP2018093563A JP2018093563A JP7064948B2 JP 7064948 B2 JP7064948 B2 JP 7064948B2 JP 2018093563 A JP2018093563 A JP 2018093563A JP 2018093563 A JP2018093563 A JP 2018093563A JP 7064948 B2 JP7064948 B2 JP 7064948B2
Authority
JP
Japan
Prior art keywords
moving body
unit
distance
image pickup
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018093563A
Other languages
Japanese (ja)
Other versions
JP2019200509A (en
Inventor
太紀 飯村
亮子 一野瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018093563A priority Critical patent/JP7064948B2/en
Priority to DE112019001454.4T priority patent/DE112019001454T5/en
Priority to PCT/JP2019/007890 priority patent/WO2019220740A1/en
Publication of JP2019200509A publication Critical patent/JP2019200509A/en
Application granted granted Critical
Publication of JP7064948B2 publication Critical patent/JP7064948B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、自律移動装置及び自律移動システムの技術に関する。 The present invention relates to techniques for autonomous mobile devices and autonomous mobile systems.

従来から、ロボットや自動車等の移動体に外界センサや、内界センサを搭載し、移動体の周囲の障害物を検出、回避しながら目的地まで自律的に移動する自律移動に関する技術が開発されている。ここで、外界センサは画像センサやLiDAR等であり、内界センサは、エンコーダや慣性計測装置等である。そのなかで、搭載するセンサの低コスト化のため、比較的安価である画像センサを用いた技術開発の需要が高まっている。 Conventionally, technologies related to autonomous movement have been developed in which external sensors and internal sensors are mounted on moving objects such as robots and automobiles to detect and avoid obstacles around the moving objects while autonomously moving to the destination. ing. Here, the external sensor is an image sensor, LiDAR, or the like, and the internal sensor is an encoder, an inertial measurement unit, or the like. Under these circumstances, there is an increasing demand for technological development using relatively inexpensive image sensors in order to reduce the cost of mounted sensors.

例えば、特許文献1には、「車両に搭載され、所定の設置距離で配置された、少なくとも2台のカメラを有し、該少なくとも2台のカメラで取得された複数の画像を用いて、該車両周辺の物標の3次元座標を推定取得する装置において、少なくとも2台のカメラの内の1台のカメラが経時的に取得した2枚の画像から、車両周辺の物標の3次元座標を推定演算する単眼ステレオ処理部、少なくとも2台のカメラの内の2台のカメラが同時に取得した2枚の画像から、車両周辺の物標の3次元座標を推定演算する複眼ステレオ処理部、それら単眼ステレオ処理部及び複眼ステレオ処理部に接続され、それら処理部でそれぞれ演算推定された物標の3次元座標を、所定の基準で選択、統合して、求めるべき前記物標の3次元座標と推定し、その結果を出力する、結果統合・切替手段、を有する」3次元座標取得装置が開示されている(要約参照)。 For example, Patent Document 1 states that "having at least two cameras mounted on a vehicle and arranged at a predetermined installation distance, and using a plurality of images acquired by the at least two cameras, the present invention is used. In a device that estimates and acquires the three-dimensional coordinates of the target around the vehicle, the three-dimensional coordinates of the target around the vehicle are obtained from two images acquired over time by one of at least two cameras. Monocular stereo processing unit that estimates and calculates, compound-eye stereo processing unit that estimates and calculates the 3D coordinates of the target around the vehicle from two images acquired by at least two cameras at the same time, those monocular The 3D coordinates of the target connected to the stereo processing unit and the compound eye stereo processing unit and calculated and estimated by those processing units are selected and integrated according to a predetermined standard, and estimated as the 3D coordinates of the target to be obtained. It has a result integration / switching means that outputs the result. ”A three-dimensional coordinate acquisition device is disclosed (see summary).

特開2007-263657号公報Japanese Unexamined Patent Publication No. 2007-263657

画像センサを用いて、死角なく移動体の周囲を検出するため、画像センサに駆動装置を設置し、撮像方向を機械的に制御することで撮像領域を時系列で拡張する手法がある。しかし、このような駆動装置は使用頻度に応じて早期に劣化が生じるため、駆動装置の交換コストがかかる。 In order to detect the surroundings of a moving object without blind spots using an image sensor, there is a method of installing a drive device in the image sensor and mechanically controlling the image pickup direction to expand the image pickup area in time series. However, since such a drive device deteriorates at an early stage depending on the frequency of use, the replacement cost of the drive device is high.

一方で、複数の画像センサで複数の領域の画像を検出する手法がある。しかし、この手法で使用する画像センサはLiDAR等の外界センサと比べて取得データ量が多く、画像センサと計算処理部との通信や計算処理部での計算処理負荷が増大する。ただし、この問題は、計算機の増設や画像センサのフレームレート低減、または画像センサで検出した画像の圧縮、画素の間引き(画像データ量の低減)により回避できる。しかし、データ処理量が大きくなると、搭載する機器が多くなる。そのため、移動体の大きさやデザインが制約され、さらに、画像センサの検出性能の劣化を引き起こしてしまう。 On the other hand, there is a method of detecting an image of a plurality of regions with a plurality of image sensors. However, the image sensor used in this method has a larger amount of acquired data than the external sensor such as LiDAR, and the communication between the image sensor and the calculation processing unit and the calculation processing load in the calculation processing unit increase. However, this problem can be avoided by adding more computers, reducing the frame rate of the image sensor, compressing the image detected by the image sensor, and thinning out the pixels (reducing the amount of image data). However, as the amount of data processing increases, the number of devices to be installed increases. Therefore, the size and design of the moving body are restricted, and further, the detection performance of the image sensor is deteriorated.

また、予め用意した複数枚の画像と距離データを教師データとし、CNN(Convolutional Neural Network)によって、単眼で撮像された1枚の画像における各ピクセルの距離を推定する手法がある。ここで、ピクセルの距離とは、ピクセルに写っている対象物の、カメラからの距離である。この手法では、画像センサの搭載数を削減できるが、教師データに含まれる距離データの範囲内の距離のみを推定するため汎用性がないという欠点がある。このため、推定された距離の誤差や精度の範囲が保障されておらず、さらに処理負荷が高い。このため、人の活動環境等のリアルタイム、かつ高精度に距離検出が必要な環境では適用できないという課題がある。 Further, there is a method of estimating the distance of each pixel in one image captured by a monocular by CNN (Convolutional Neural Network) using a plurality of images and distance data prepared in advance as teacher data. Here, the pixel distance is the distance from the camera of the object reflected in the pixel. Although this method can reduce the number of image sensors mounted, it has a drawback that it is not versatile because it estimates only the distance within the range of the distance data included in the teacher data. Therefore, the estimated distance error and accuracy range are not guaranteed, and the processing load is high. Therefore, there is a problem that it cannot be applied in an environment where distance detection is required in real time and with high accuracy such as a human activity environment.

このような背景に鑑みて本発明がなされたのであり、本発明は、低処理負荷な自律移動装置及び自律移動システムを提供することを課題とする。 The present invention has been made in view of such a background, and it is an object of the present invention to provide an autonomous mobile device and an autonomous mobile system having a low processing load.

前記した課題を解決するため、本発明は、移動体の直進方向に対して正方向の向きを撮像領域に含む第1の撮像部を、少なくとも2つ有し、前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有し、前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、算出された前記距離に基づいて、自己位置を算出し、算出された前記自己位置を基に、自律移動を行う自律移動制御部と、前記移動体が停止しているか、移動しているかを判定する状態判定部とを有する、前記移動体としての自律移動装置であって、前記距離算出部は、前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出し、前記自律移動制御部は、前記移動体が停止から移動に移ったとき、所定距離の間、前記移動体を直進方向へ移動させることを特徴とする。
その他の解決手段は実施形態中において適宜記載する。
In order to solve the above-mentioned problems, the present invention has at least two first image pickup units having a direction in the positive direction with respect to the straight-ahead direction of the moving body in the image pickup region, with respect to the straight-ahead direction of the moving body. It has at least one second image pickup unit that includes the orientation in the orthogonal direction in the image pickup area, and is in the image pickup area based on the image pickup images captured by the first image pickup unit and the second image pickup unit. A distance calculation unit that calculates the distance to the object, an autonomous movement control unit that calculates the self-position based on the calculated distance, and performs autonomous movement based on the calculated self-position, and the above-mentioned It is an autonomous moving device as the moving body having a state determination unit for determining whether the moving body is stopped or moving, and the distance calculation unit is imaged by the first imaging unit. The distance is calculated based on the disparity of the images, and the distance is calculated based on a plurality of captured images with different imaging times captured by the second imaging unit , and the autonomous movement control unit uses the autonomous movement control unit to calculate the distance. When the moving body moves from a stop to a movement, the moving body is moved in a straight direction for a predetermined distance .
Other solutions will be described as appropriate in the embodiments.

本発明によれば、低処理負荷な自律移動装置及び自律移動システムを提供することができる。 According to the present invention, it is possible to provide an autonomous mobile device and an autonomous mobile system having a low processing load.

第1実施形態に係る移動体1の構成を示す図である。It is a figure which shows the structure of the moving body 1 which concerns on 1st Embodiment. 単眼距離算出部113での距離算出の詳細と距離誤差を表す図(その1)である。It is a figure (the 1) which shows the detail of the distance calculation by a monocular distance calculation unit 113, and the distance error. 単眼距離算出部113での距離算出の詳細と距離誤差を表す図(その2)である。It is a figure (the 2) which shows the detail of the distance calculation by a monocular distance calculation unit 113, and the distance error. 単眼距離算出部113での距離算出の詳細と距離誤差を表す図(その3)である。FIG. 3 is a diagram (No. 3) showing details of distance calculation by the monocular distance calculation unit 113 and a distance error. 移動体1における移動制御の手法を示す図である。It is a figure which shows the method of the movement control in the moving body 1. 第2実施形態による移動体1の計算処理部110aの構成を示す図である。It is a figure which shows the structure of the calculation processing part 110a of the moving body 1 by 2nd Embodiment. 第3実施形態に係る自律移動システムZの構成例を示す図である。It is a figure which shows the configuration example of the autonomous movement system Z which concerns on 3rd Embodiment. 第3実施形態に係るサーバ5の構成例を示す図である。It is a figure which shows the configuration example of the server 5 which concerns on 3rd Embodiment.

次に、本発明を実施するための形態(「実施形態」という)について、適宜図面を参照しながら詳細に説明する。 Next, an embodiment (referred to as “embodiment”) for carrying out the present invention will be described in detail with reference to the drawings as appropriate.

[第1実施形態]
まず、図1~図3を参照して、本発明の第1実施形態を説明する。
図1は、第1実施形態に係る移動体1の構成を示す図である。
本実施形態では、複数の画像センサ120を搭載した無人車両や、自動車や、ロボット等、さらには船舶等のの移動体(自律移動装置)1が自律移動する。
移動体1は、複数(図1の例では6つ)の画像センサ(撮像部)120を備えるとともに、計算処理部110と、複数の駆動部130を備えている。画像センサ120は、具体的にはカメラである。ここで、画像センサ120として、Webカメラのような低解像度かつ安価なカメラを使用することができる。
[First Embodiment]
First, the first embodiment of the present invention will be described with reference to FIGS. 1 to 3.
FIG. 1 is a diagram showing a configuration of a mobile body 1 according to the first embodiment.
In the present embodiment, an unmanned vehicle equipped with a plurality of image sensors 120, a moving body (autonomous moving device) 1 such as an automobile, a robot, or a ship autonomously moves.
The mobile body 1 includes a plurality of (six in the example of FIG. 1) image sensors (imaging units) 120, a calculation processing unit 110, and a plurality of drive units 130. The image sensor 120 is specifically a camera. Here, as the image sensor 120, a low-resolution and inexpensive camera such as a Web camera can be used.

画像センサ120のうち、画像センサ120A,120Bは、移動体1の移動方向に対して正方向の向きを撮像領域に含むように設置されている。つまり、画像センサ120A,120Bは、移動体1が図1に示す矢印A1の方向へ動くときに、移動体1の前方を撮像する。
そして、画像センサ120C,120Dは、移動体1の移動方向に対して負方向の向きを撮像領域に含むように設置されている。つまり、画像センサ120C,120Dは、移動体1が図1に示す矢印A1の方向へ動くときに、移動体1の後方を撮像する。
Of the image sensors 120, the image sensors 120A and 120B are installed so as to include the direction in the positive direction with respect to the moving direction of the moving body 1 in the image pickup region. That is, the image sensors 120A and 120B take an image of the front of the moving body 1 when the moving body 1 moves in the direction of the arrow A1 shown in FIG.
The image sensors 120C and 120D are installed so as to include the direction in the negative direction with respect to the moving direction of the moving body 1 in the image pickup region. That is, the image sensors 120C and 120D take an image of the rear of the moving body 1 when the moving body 1 moves in the direction of the arrow A1 shown in FIG.

また、画像センサ120E、120Fは、それぞれ移動体1の移動方向に対して直交方向の向きを撮像領域に含むように設置されている。つまり、画像センサ120E,120Fは、移動体1が図1に示す矢印A1の方向へ動くときに、移動体1の側方を撮像する。ちなみに、移動体1が図1に示す矢印A1の方向へ動くときに、画像センサ120Eは、移動体1の左方を撮像し、画像センサ120Fは、移動体1の右方を撮像する。
なお、図1に示すように、画像センサ120E,120Fは、互いに略対向するように設置されている。
ここで、それぞれの画像センサ120の画角は広角または超広角にすることで移動体1の周囲の対象物を抜け目なく撮像できる。
Further, the image sensors 120E and 120F are installed so as to include the direction orthogonal to the moving direction of the moving body 1 in the imaging region. That is, the image sensors 120E and 120F take an image of the side of the moving body 1 when the moving body 1 moves in the direction of the arrow A1 shown in FIG. Incidentally, when the moving body 1 moves in the direction of the arrow A1 shown in FIG. 1, the image sensor 120E images the left side of the moving body 1, and the image sensor 120F images the right side of the moving body 1.
As shown in FIG. 1, the image sensors 120E and 120F are installed so as to substantially face each other.
Here, by setting the angle of view of each image sensor 120 to be wide-angle or ultra-wide-angle, it is possible to capture an object around the moving body 1 without fail.

画像センサ120の受光帯域は走行環境に応じて決定すればよい。例えば、屋内や昼間の屋外を走行する場合は可視光帯域を受光するカメラが画像センサ120として搭載される。また、暗所や夜間の屋外を走行する場合は近赤外帯域を受光する画像センサ120が搭載される。 The light receiving band of the image sensor 120 may be determined according to the traveling environment. For example, when traveling indoors or outdoors in the daytime, a camera that receives a visible light band is mounted as an image sensor 120. Further, when traveling outdoors in a dark place or at night, an image sensor 120 that receives light in the near infrared band is mounted.

画像センサ120のフレームレートは移動体1の最高移動速度や走行環境、制動距離、1フレーム間における最大移動距離等に基づいて設定されればよい。例えば、最高速度6km/hで屋内タイル上を走行する場合、周囲の撮像画像を基に急停止したときに許容できる移動距離を0.5mとすると、動摩擦係数0.3のタイル上での制動距離0.47mを考慮して、画像センサ120のフレームレートは6000/3600/(0.5-0.47)=約56fps程度に設定される。人や障害物の密度が低い環境では、1フレーム間における最大移動距離を0.05mとし、例えば、画像センサ120のフレームレートは6000/3600/0.05=約33fps程度に設定される。同様に、最高速度60km/hで屋外を走行する場合は、1フレーム間における最大移動距離を0.05mとし、画像センサ120のフレームレートが、例えば、60000/3600/0.05=約333fps程度に設定される。 The frame rate of the image sensor 120 may be set based on the maximum moving speed of the moving body 1, the traveling environment, the braking distance, the maximum moving distance between one frame, and the like. For example, when traveling on an indoor tile at a maximum speed of 6 km / h, assuming that the allowable moving distance when suddenly stopped based on the surrounding captured image is 0.5 m, braking on a tile with a dynamic friction coefficient of 0.3 Considering the distance of 0.47 m, the frame rate of the image sensor 120 is set to about 6000/3600 / (0.5-0.47) = about 56 fps. In an environment where the density of people and obstacles is low, the maximum moving distance between one frame is set to 0.05 m, and for example, the frame rate of the image sensor 120 is set to about 6000/3600/0.05 = about 33 fps. Similarly, when traveling outdoors at a maximum speed of 60 km / h, the maximum moving distance between one frame is 0.05 m, and the frame rate of the image sensor 120 is, for example, about 60000/3600/0.05 = about 333 fps. Is set to.

移動速度に制約がない環境では、予め決定した画角と受光帯域を満たす画像センサ120の最大フレームレートや、制動距離等に基づいて移動体1の最高移動速度を決定することもできる。例えば、画像センサ120の最大フレームレートが30fpsである場合、1フレーム間における最大移動距離を0.05mとし、移動体1の最高移動速度が0.05×30=1.5m/s=5.4km/hに設定される。 In an environment where the moving speed is not restricted, the maximum moving speed of the moving body 1 can be determined based on the maximum frame rate of the image sensor 120 that satisfies the predetermined angle of view and the light receiving band, the braking distance, and the like. For example, when the maximum frame rate of the image sensor 120 is 30 fps, the maximum moving distance between one frame is 0.05 m, and the maximum moving speed of the moving body 1 is 0.05 × 30 = 1.5 m / s = 5. It is set to 4 km / h.

駆動部130は車輪である。そして、駆動部130のうち、前部駆動部130A,130Bは車輪軸の方向を制御する。また、後部駆動部130C,130Dは車輪の回転数を制御する。後部駆動部130C,130Dは互いに異なる回転数で制御できる。例えば、後部駆動部130Cと後部駆動部130Dとをむすぶ線分の中心を旋回中心として超信地旋回する場合、前部駆動部130A,130Bの車輪軸を回転方向に対して垂直の方向に向け、後部駆動部130C,130Dを互いに逆方向に回転させる。 The drive unit 130 is a wheel. Then, among the drive units 130, the front drive units 130A and 130B control the direction of the wheel shaft. Further, the rear drive units 130C and 130D control the rotation speed of the wheels. The rear drive units 130C and 130D can be controlled at different rotation speeds. For example, in the case of making a super-credit turn with the center of the line segment connecting the rear drive unit 130C and the rear drive unit 130D as the rotation center, the wheel axes of the front drive units 130A and 130B are oriented in a direction perpendicular to the rotation direction. , The rear drive units 130C and 130D are rotated in opposite directions to each other.

また、前部駆動部130A,130Bはキャスタ等でもよい。この場合、前部駆動部130A,130Bは制御されない。前部駆動部130A,130Bと、後部駆動部130C,130Dの機能を入れかえてもよい。すなわち、前部駆動部130A,130Bの回転数と、後部駆動部130C,130Dの車輪軸の方向を制御することで、前部駆動部130Aと前部駆動部130Bをむすぶ線分の中心を旋回中心として超信地旋回してもよい。なお、超信地旋回ではなく、単なる旋回でもよい。 Further, the front drive units 130A and 130B may be casters or the like. In this case, the front drive units 130A and 130B are not controlled. The functions of the front drive units 130A and 130B and the rear drive units 130C and 130D may be interchanged. That is, by controlling the rotation speed of the front drive units 130A and 130B and the direction of the wheel shafts of the rear drive units 130C and 130D, the center of the line segment connecting the front drive unit 130A and the front drive unit 130B is swiveled. You may make a super-credit turn as the center. In addition, it may be a simple turn instead of a super-credit turn.

計算処理部110は、図示しないCPU(Central Processing Unit)と、図示しないROM(Read Only Memory)、図示しないRAM(Random Access Memory)を備えている。ROM等に格納されているプログラムが、RAMにロードされ、ロードされたプログラムがCPUによって実行される。このようにすることで、データ取得部111、ステレオ距離算出部112、単眼距離算出部113、対象物検出部114、自己位置算出部115、制御部116が具現化する。 The calculation processing unit 110 includes a CPU (Central Processing Unit) (not shown), a ROM (Read Only Memory) (not shown), and a RAM (Random Access Memory) (not shown). The program stored in the ROM or the like is loaded into the RAM, and the loaded program is executed by the CPU. By doing so, the data acquisition unit 111, the stereo distance calculation unit 112, the monocular distance calculation unit 113, the object detection unit 114, the self-position calculation unit 115, and the control unit 116 are embodied.

データ取得部111は、それぞれの画像センサ120で撮像された画像を設定したフレームレートで取得する。画像の取得は、それぞれの画像センサ120において同期的に行われる。
ステレオ距離算出部(距離算出部)112は、データ取得部111で同時刻に取得した画像センサ120A,120Bの画像の視差に基づいて、画像センサ120A,120Bの両方の撮像領域に含まれる対象物までの距離を算出する。そして、ステレオ距離算出部112は、画像センサ120A,120Bのうち少なくとも1つで撮像された、撮像時刻の異なる複数枚の画像にオプティカルフロー推定法を適用し、移動体1の前方に存在する対象物を追跡する。ここでの追跡とは、異なるフレーム(異なる撮像時刻における画像)において、同一の対象物を検出することである。
The data acquisition unit 111 acquires the image captured by each image sensor 120 at a set frame rate. Image acquisition is performed synchronously in each image sensor 120.
The stereo distance calculation unit (distance calculation unit) 112 is an object included in both the imaging regions of the image sensors 120A and 120B based on the disparity of the images of the image sensors 120A and 120B acquired at the same time by the data acquisition unit 111. Calculate the distance to. Then, the stereo distance calculation unit 112 applies the optical flow estimation method to a plurality of images with different imaging times captured by at least one of the image sensors 120A and 120B, and the object existing in front of the moving body 1 Track things. Tracking here means detecting the same object in different frames (images at different imaging times).

ステレオ距離算出部112は、画像センサ120C、120Dについても同様の処理を実行し、画像センサ120C,120Dの撮像領域に含まれる対象物までの距離を算出する。さらに、ステレオ距離算出部112は、オプティカルフロー推定法を適用し、移動体1の後方に存在する対象物を追跡する。 The stereo distance calculation unit 112 executes the same processing for the image sensors 120C and 120D, and calculates the distance to the object included in the image pickup region of the image sensors 120C and 120D. Further, the stereo distance calculation unit 112 applies an optical flow estimation method to track an object existing behind the moving body 1.

ここで対象物は、回避対象となる人や、障害物や、後記する自己位置算出部115で移動体1の位置と姿勢を算出するために使われる特徴点や、ランドマーク等である。前記したオプティカルフロー推定法は、例えば、Lucas-Kanade法や、Horn-Schunck法等が用いられる。画像センサ120のフレームレートや移動体1の最高移動速度に基づいて、ユーザは、オプティカルフロー推定法として、どの手法を用いるかを予め決定しておく。 Here, the object is a person to be avoided, an obstacle, a feature point used for calculating the position and posture of the moving body 1 by the self-position calculation unit 115 described later, a landmark, or the like. As the optical flow estimation method described above, for example, the Lucas-Kanade method, the Horn-Schunkk method, or the like is used. Based on the frame rate of the image sensor 120 and the maximum moving speed of the moving body 1, the user determines in advance which method to use as the optical flow estimation method.

単眼距離算出部(距離算出部)113は、データ取得部111で取得した画像センサ120E,120Fの各々で撮像された、撮像時刻がそれぞれ異なる画像と、後記する自己位置算出部115で算出した前記撮像時刻における移動体1の位置の時系列情報とに基づいて、画像センサ120E、120Fの各々の撮像領域に含まれる対象物までの距離を算出する。 The monocular distance calculation unit (distance calculation unit) 113 includes images with different imaging times captured by the image sensors 120E and 120F acquired by the data acquisition unit 111, and the self-position calculation unit 115 calculated later. Based on the time-series information of the position of the moving body 1 at the imaging time, the distance to the object included in each imaging region of the image sensors 120E and 120F is calculated.

また、単眼距離算出部113は、画像センサ120A,120Bのいずれか1つについても同様の処理を行い、画像センサ120A,120Bのいずれか1つに含まれる撮像領域に含まれる対象物までの距離を算出する。さらに、単眼距離算出部113は、画像センサ120C,120Dのいずれか1つについても同様の処理を行い、画像センサ120C,120Dのいずれか1つに含まれる撮像領域に含まれる対象物までの距離を算出する。要するに、単眼距離算出部113は、異なる時刻で撮像した2枚の画像における視差を利用して、あたかも複眼視したかのようにして幾何学的に距離を算出する。 Further, the monocular distance calculation unit 113 performs the same processing on any one of the image sensors 120A and 120B, and the distance to the object included in the image pickup region included in any one of the image sensors 120A and 120B. Is calculated. Further, the monocular distance calculation unit 113 performs the same processing on any one of the image sensors 120C and 120D, and the distance to the object included in the image pickup region included in any one of the image sensors 120C and 120D. Is calculated. In short, the monocular distance calculation unit 113 uses the parallax between two images taken at different times to geometrically calculate the distance as if it were compound-eye.

画像センサ120A,120Bや、画像センサ120C,120Dで撮像された画像がステレオ距離算出部112で処理されるか、単眼距離算出部113で処理されるかは、後記する基準で切り替えられる。 Whether the images captured by the image sensors 120A and 120B and the image sensors 120C and 120D are processed by the stereo distance calculation unit 112 or the monocular distance calculation unit 113 is switched according to the criteria described later.

なお、画像センサ120Aと、画像センサ120Cとは、図1に示すように互いの設置位置がずれるよう設置されてもよいし、位置が揃うよう(対向するよう)設置されてもよい。同様に、画像センサ120Bと、画像センサ120Dとは、図1に示すように互いの設置位置がずれるよう設置されてもよいし、位置が揃うよう(対向するよう)設置されてもよい。また、画像センサ120Eと、画像センサ120Fとは、図1に示すように互いの設置位置がずれるよう設置されてもよいし、位置が揃うよう(対向するよう)設置されてもよい。 The image sensor 120A and the image sensor 120C may be installed so that their installation positions are displaced from each other as shown in FIG. 1, or they may be installed so that their positions are aligned (opposed to each other). Similarly, the image sensor 120B and the image sensor 120D may be installed so as to be displaced from each other as shown in FIG. 1, or may be installed so as to be aligned (opposed). Further, the image sensor 120E and the image sensor 120F may be installed so as to be displaced from each other as shown in FIG. 1, or may be installed so as to be aligned (opposed).

対象物検出部(自律移動制御部)114は、ステレオ距離算出部112あるいは単眼距離算出部113で算出した各々の対象物までの距離と、画像センサ120それぞれの搭載位置と姿勢とに基づいて、各々の対象物の位置を算出する。そして、対象物が移動物である場合、対象物検出部114は、対象物それぞれの単位時間あたりの移動量を算出する。移動量は、ステレオ距離算出部112あるいは単眼距離算出部113のそれぞれでオプティカルフロー推定法により追跡した対象物における、複数の異なる時刻での位置と時刻とに基づいて算出される。 The object detection unit (autonomous movement control unit) 114 is based on the distance to each object calculated by the stereo distance calculation unit 112 or the monocular distance calculation unit 113, and the mounting position and posture of each of the image sensors 120. Calculate the position of each object. Then, when the object is a moving object, the object detecting unit 114 calculates the amount of movement of each object per unit time. The amount of movement is calculated based on the positions and times at a plurality of different times in the object tracked by the optical flow estimation method by the stereo distance calculation unit 112 or the monocular distance calculation unit 113, respectively.

自己位置算出部(自律移動制御部)115は、データ取得部111で画像を取得した時刻における移動体1の位置及び姿勢を算出する。位置及び姿勢は、予め作成されている地図と、対象物検出部114で位置を算出した対象物とを対応付けることにより算出される(マップマッチング)。また、自己位置算出部115は、算出した移動体1の位置と姿勢に基づいて、対象物検出部114で算出した対象物の位置を修正する。つまり、自己位置算出部115は、移動体1の位置・姿勢と、地図とから、ステレオ距離算出部112や、単眼距離算出部113が算出した対象物の位置(距離)を修正する。 The self-position calculation unit (autonomous movement control unit) 115 calculates the position and posture of the moving body 1 at the time when the image is acquired by the data acquisition unit 111. The position and posture are calculated by associating a map created in advance with an object whose position has been calculated by the object detection unit 114 (map matching). Further, the self-position calculation unit 115 corrects the position of the object calculated by the object detection unit 114 based on the calculated position and posture of the moving body 1. That is, the self-position calculation unit 115 corrects the position (distance) of the object calculated by the stereo distance calculation unit 112 and the monocular distance calculation unit 113 from the position / posture of the moving body 1 and the map.

また、対象物が移動物である場合、自己位置算出部115は、算出した移動体1の位置と姿勢に基づいて、対象物の単位時間あたりの移動量を修正する。地図は、移動体1を手動で走行させながら、走行環境を撮像することで得られる。そして、撮像時刻の異なる複数枚の画像を取得し、取得した画像にSLAM(Simultaneous Localization and Mapping)やSfM(Structure from Motion)を適用することにより地図が作成される。地図作成のための撮像は、例えば、画像センサ120を複数搭載した台車を手動で移動させながら、または画像センサ120を複数搭載したユニットを手持ちして移動しながら行われる。 When the object is a moving object, the self-position calculation unit 115 corrects the amount of movement of the object per unit time based on the calculated position and posture of the moving body 1. The map can be obtained by imaging the traveling environment while manually traveling the moving body 1. Then, a map is created by acquiring a plurality of images having different imaging times and applying SLAM (Simultaneous Localization and Mapping) or SfM (Structure from Motion) to the acquired images. Imaging for creating a map is performed, for example, while manually moving a dolly equipped with a plurality of image sensors 120 or by holding and moving a unit equipped with a plurality of image sensors 120.

地図と対象物との対応付けの手法として以下の手法が存在する。いずれの手法が用いられてもよい。
・特徴点の配置関係に基づいて対応付けるICP(Iterative Closest Point)。
・SHOT(Signature of Histograms of OrienTations)。
・特徴量(画像上の特徴点近傍の輝度勾配ベクトルや、画像全体の輝度勾配ベクトルの分布等)が近似する特徴点同士を対応付ける手法。
これらの手法のうち、どの手法を採用するかは、地図の構成により決定される。例えば、地図が特徴点の位置情報のみで構成される場合、地図が2次元であればICP、3次元であればSHOTが採用される。なお、地図が特徴点の位置情報と特徴量で構成される場合、移動体1の自律移動時における自己位置推定では、地図作成時に用いた手法と同じ手法で特徴量が算出され、この特徴量を用いた対応付けが行われる。
The following methods exist as methods for associating a map with an object. Any method may be used.
-ICP (Iterative Closest Point) that associates based on the arrangement of feature points.
-SHOT (Signature of Histograms of OrienTations).
-A method of associating feature points with similar feature quantities (brightness gradient vector near the feature points on the image, distribution of the brightness gradient vector of the entire image, etc.).
Which of these methods is adopted is determined by the composition of the map. For example, when the map is composed only of the position information of the feature points, ICP is adopted if the map is two-dimensional, and SHOT is adopted if the map is three-dimensional. When the map is composed of the position information of the feature points and the feature amount, the feature amount is calculated by the same method as the method used at the time of creating the map in the self-position estimation at the time of autonomous movement of the moving body 1. The mapping is performed using.

制御部(自律移動制御部)116は、自己位置算出部115で算出した移動体1の位置、姿勢、修正された対象物の位置、対象物が移動物である場合、対象物の単位時間あたりの移動量に基づいて移動体1の次回移動量を決定する。そして、制御部116は、次回移動量に基づいて駆動部130への制御値を算出し、駆動部130に算出した制御値を送信する。
なお、矢印A2については後記する。
The control unit (autonomous movement control unit) 116 determines the position and posture of the moving body 1 calculated by the self-position calculation unit 115, the corrected position of the object, and when the object is a moving object, per unit time of the object. The next movement amount of the moving body 1 is determined based on the movement amount of. Then, the control unit 116 calculates the control value to the drive unit 130 based on the next movement amount, and transmits the calculated control value to the drive unit 130.
The arrow A2 will be described later.

次に、図2A~図2Cを参照して、移動方向、側方方向、超信地旋回時における単眼距離算出で生じる誤差を説明する。
(単眼距離算出による拒理誤差)
図2A~図2Cは、単眼距離算出部113での距離算出の詳細と距離誤差を表している。
図2Aにおいて、移動体1は図1の矢印A1方向に移動しているものとする。そして、図2Aは、画像センサ120Aまたは画像センサ120Bが撮像した前方画像を基に単眼距離算出部113が対象物Jの距離を算出した場合に生じる可能性のある誤差を示している。
図2Aにおいて、符号201は時刻t1における移動体1の位置と姿勢である。このとき、画像センサ120Aは、移動体1の移動方向に対して、前方にある対象物Jを視線202で撮像する。
Next, with reference to FIGS. 2A to 2C, an error caused by the monocular distance calculation in the moving direction, the lateral direction, and the super-credit turning will be described.
(Rejection error due to monocular distance calculation)
2A to 2C show the details of the distance calculation by the monocular distance calculation unit 113 and the distance error.
In FIG. 2A, it is assumed that the moving body 1 is moving in the direction of the arrow A1 in FIG. Then, FIG. 2A shows an error that may occur when the monocular distance calculation unit 113 calculates the distance of the object J based on the front image captured by the image sensor 120A or the image sensor 120B.
In FIG. 2A, reference numeral 201 is the position and orientation of the moving body 1 at time t1. At this time, the image sensor 120A takes an image of the object J in front of the moving body 1 with the line of sight 202.

その後、移動体1は時刻t2に符号211の地点まで移動し、画像センサ120Aが対象物Jを視線212で撮像する。
単眼距離算出部113は、時刻t1における位置と姿勢(符号201)、時刻t2における位置と姿勢(符号211)、それぞれの時刻における視線202、視線212の視差に基づいて、対象物Jまでの距離(視線212の線分長)を算出する。
視線202と視線212の視差は、対象物Jに含まれる同一点を、時刻t1での画像と時刻t2での画像から検出することで算出される。同一点の検出は、オプティカルフロー推定法を用いることで行われる。時刻t2における位置と姿勢(符号211)は、後記する自己位置算出部115で算出した時刻t1における位置と姿勢(符号201)に、時刻t1に制御部116で決定した駆動部130への制御値を積算して算出した位置と姿勢の暫定値である。時刻t2における位置及び姿勢(符号211)の暫定値は、自己位置算出部115で処理修正される。つまり、自己位置算出部115は、地図を用いることによって、時刻t2における移動体1の位置・姿勢を修正する。
After that, the moving body 1 moves to the point of reference numeral 211 at time t2, and the image sensor 120A images the object J with the line of sight 212.
The monocular distance calculation unit 113 is a distance to the object J based on the position and posture (reference numeral 201) at time t1, the position and posture (reference numeral 211) at time t2, the line of sight 202 and the line of sight 212 at each time. (Line length of line of sight 212) is calculated.
The parallax between the line of sight 202 and the line of sight 212 is calculated by detecting the same point included in the object J from the image at time t1 and the image at time t2. The detection of the same point is performed by using an optical flow estimation method. The position and posture (reference numeral 211) at time t2 are the control values for the drive unit 130 determined by the control unit 116 at time t1 at the position and posture (reference numeral 201) at time t1 calculated by the self-position calculation unit 115 described later. It is a provisional value of the position and posture calculated by integrating. The provisional values of the position and the posture (reference numeral 211) at the time t2 are processed and corrected by the self-position calculation unit 115. That is, the self-position calculation unit 115 corrects the position / posture of the moving body 1 at time t2 by using the map.

ここで仮に、時刻t2における視線212が、画像センサ120Aのセンサ誤差によって視線221として対象物Jを撮像したとする。この場合、対象物Jは地点Jaに存在すると計算される。このため、対象物Jまでの距離に誤差E1が生じる。
画像センサ120C,120Dのいずれか一方で撮像された後方画像を用いた場合も同程度の誤差が生じる。
Here, it is assumed that the line-of-sight 212 at time t2 images the object J as the line-of-sight 221 due to the sensor error of the image sensor 120A. In this case, the object J is calculated to exist at the point Ja. Therefore, an error E1 occurs in the distance to the object J.
When a rear image captured by either one of the image sensors 120C and 120D is used, the same degree of error occurs.

このように移動体1の移動方向に存在する対象物Jと移動体1との距離を、単眼距離算出で距離を求めると、大きな誤差が生じてしまう。 If the distance between the object J existing in the moving direction of the moving body 1 and the moving body 1 is calculated by monocular distance calculation in this way, a large error will occur.

図2Bにおいて、移動体1は図1の矢印A1方向に移動しているものとする。そして、図2Bは、画像センサ120E,画像センサ120Fのいずれか一方が撮像した側方画像を基に単眼距離算出部113が対象物Jの距離を算出した場合に生じる可能性のある誤差を示している。
距離算出の手法は図2Aの場合と同様である。すなわち、時刻t1に符号301の地点より視線302で対象物Jが撮像される。その後、時刻t2に符号311の地点より視線312で対象物Jが撮像される。そして、対象物Jまでの距離(視線312の線分長)が算出される。ここで仮に、時刻t2における視線312が、画像センサ120Eのセンサ誤差によって視線321として対象物Jを撮像したとすると、対象物Jは地点Jbに存在すると計算される。つまり、対象物Jまでの距離に誤差E2が生じる。
In FIG. 2B, it is assumed that the moving body 1 is moving in the direction of the arrow A1 in FIG. Then, FIG. 2B shows an error that may occur when the monocular distance calculation unit 113 calculates the distance of the object J based on the lateral image captured by either the image sensor 120E or the image sensor 120F. ing.
The method of calculating the distance is the same as in the case of FIG. 2A. That is, the object J is imaged from the point of reference numeral 301 at time t1 with the line of sight 302. Then, at time t2, the object J is imaged from the point of reference numeral 311 with the line of sight 312. Then, the distance to the object J (the line segment length of the line of sight 312) is calculated. Here, assuming that the line of sight 312 at time t2 images the object J as the line of sight 321 due to the sensor error of the image sensor 120E, it is calculated that the object J exists at the point Jb. That is, an error E2 occurs in the distance to the object J.

図2Aに示す誤差角θ1と、図2Bに示す誤差角θ2は、ほとんど同じである。むしろ、図2Bに示す誤差角θ2の方が、図2Aに示す誤差角θ1より若干大きい。にもかかわらず、図2Aに示す誤差E1と、図2Bに示す誤差E2とを比較すると、図2Bに示す誤差E2のほうが小さい。これは、対象物Jまでの距離が、時刻t1の画像と時刻t2の画像との視差と反比例の関係にあるからである。要するに、時刻t1の画像と時刻t2の画像との視差が小さいと、誤差が大きくなりやすい。逆に、時刻t1の画像と時刻t2の画像との視差が大きいと、誤差が大きくなりにくい。
よって、誤差を小さくするためには、2つの画像の視差をできるだけ大きくする必要がある。
The error angle θ1 shown in FIG. 2A and the error angle θ2 shown in FIG. 2B are almost the same. Rather, the error angle θ2 shown in FIG. 2B is slightly larger than the error angle θ1 shown in FIG. 2A. Nevertheless, when the error E1 shown in FIG. 2A and the error E2 shown in FIG. 2B are compared, the error E2 shown in FIG. 2B is smaller. This is because the distance to the object J is inversely proportional to the parallax between the image at time t1 and the image at time t2. In short, if the parallax between the image at time t1 and the image at time t2 is small, the error tends to be large. On the contrary, if the parallax between the image at time t1 and the image at time t2 is large, the error is unlikely to be large.
Therefore, in order to reduce the error, it is necessary to increase the parallax between the two images as much as possible.

そのために、移動方向に対して直交方向の向きの撮像領域に対しては、ステレオ距離算出部112よりも処理負荷の低い単眼距離算出部113の処理を適用することが望ましい。
このように、移動体1の移動方向に対して直交方向に備えられている画像センサ120で撮像された画像は、単眼距離算出部113によって距離を算出されることが望ましい。例えば、駆動部130がオムニホイール等であれば、移動体1が図1の矢印A2の方向に移動することも可能である。移動体1が図1の矢印A2の方向に移動するような場合、画像センサ120A~120Dが移動方向に対して直交方向に設置されている画像センサ120となる。このような場合、画像センサ120A~120Dで撮像された画像は、単眼距離算出部113による距離算出が行われるとよい。ただし、この場合、画像センサ120A,120Bのいずれか一方、画像センサ120C,120Dのいずれか一方で撮像された画像が用いられればよい。
Therefore, it is desirable to apply the processing of the monocular distance calculation unit 113, which has a lower processing load than the stereo distance calculation unit 112, to the imaging region in the direction orthogonal to the moving direction.
As described above, it is desirable that the distance of the image captured by the image sensor 120 provided in the direction orthogonal to the moving direction of the moving body 1 is calculated by the monocular distance calculating unit 113. For example, if the drive unit 130 is an omni wheel or the like, the moving body 1 can move in the direction of the arrow A2 in FIG. When the moving body 1 moves in the direction of the arrow A2 in FIG. 1, the image sensors 120A to 120D are the image sensors 120 installed in the direction orthogonal to the moving direction. In such a case, it is preferable that the monocular distance calculation unit 113 calculates the distance of the images captured by the image sensors 120A to 120D. However, in this case, an image captured by either one of the image sensors 120A and 120B and one of the image sensors 120C and 120D may be used.

また、移動体1の移動方向に対して正方向(つまり前方)、負方向(つまり後方)に設置されている画像センサ120で撮像された画像は、ステレオ距離算出部112で処理される。
すなわち、図2Aに示すように、誤差E1は大きい値となるため、図2Aのように移動体1の移動方向に設置されている画像センサ120A,120Bで撮像された画像は、単眼距離算出部113より、ステレオ距離算出部112で処理されるのがよい。
このように、本願の特徴は、移動体1の移動方向によって、同じ画像センサ120でも、単眼距離算出を行うか、ステレオ距離算出を行うかが切り替えられることにある。
Further, the image captured by the image sensor 120 installed in the positive direction (that is, forward) and the negative direction (that is, backward) with respect to the moving direction of the moving body 1 is processed by the stereo distance calculation unit 112.
That is, as shown in FIG. 2A, the error E1 is a large value, so that the images captured by the image sensors 120A and 120B installed in the moving direction of the moving body 1 as shown in FIG. 2A are the monocular distance calculation unit. From 113, it is better to be processed by the stereo distance calculation unit 112.
As described above, the feature of the present application is that even with the same image sensor 120, it is possible to switch between monocular distance calculation and stereo distance calculation depending on the moving direction of the moving body 1.

図2Cでは、移動体1が超信地旋回している場合について説明する。
移動体1が図2Cの旋回方向(矢印A3)の方向に超信地旋回する場合、図1の矢印A1に示す移動方向に対して直交方向に移動体1が移動しているといえる。すなわち、この場合、画像センサ120A~120Dは、移動体1の移動方向とは直交方向に存在する画像センサ120(側方に設置されている画像センサ120)となる。
In FIG. 2C, a case where the moving body 1 is making a super-credit turn will be described.
When the moving body 1 makes a super-credit turn in the direction of the turning direction (arrow A3) of FIG. 2C, it can be said that the moving body 1 is moving in a direction orthogonal to the moving direction shown by the arrow A1 of FIG. That is, in this case, the image sensors 120A to 120D are image sensors 120 (image sensors 120 installed on the side) existing in a direction orthogonal to the moving direction of the moving body 1.

つまり、移動体1が超信地旋回している間、画像センサ120A~120Dについてステレオ距離算出部112の処理を適用しない方がよい。すなわち、移動体1が超信地旋回している場合、画像センサ120A,120Bのうち、少なくとも1つで撮像した画像に単眼距離算出部113の処理を適用する。同様に、画像センサ120C,120Dのうち、少なくとも1つで撮像した画像に単眼距離算出部113の処理を適用する。その理由を以下に記載する。 That is, it is better not to apply the processing of the stereo distance calculation unit 112 to the image sensors 120A to 120D while the moving body 1 is making a super-credit turn. That is, when the moving body 1 is making a super-credit turn, the processing of the monocular distance calculation unit 113 is applied to the image captured by at least one of the image sensors 120A and 120B. Similarly, the process of the monocular distance calculation unit 113 is applied to the image captured by at least one of the image sensors 120C and 120D. The reason is described below.

図2Cにおいて、移動体1は図2Cの矢印A3の方向に旋回(超信地旋回)しているものとする。そして、図2Cは、画像センサ120Aまたは画像センサ120Bが撮像した画像を基に単眼距離算出部113が対象物Jの距離を算出した場合に生じる可能性のある誤差を示している。 In FIG. 2C, it is assumed that the moving body 1 is turning in the direction of the arrow A3 in FIG. 2C (super-credit turning). Then, FIG. 2C shows an error that may occur when the monocular distance calculation unit 113 calculates the distance of the object J based on the image captured by the image sensor 120A or the image sensor 120B.

図2Cにおける距離算出の手法は図2A及び図2Bの場合と同様である。時刻t1で、画像センサ120Aは符号401の位置・姿勢において、視線402で対象物Jを撮像する。その後、移動体1が超信地旋回方向(矢印A3)へ超信地旋回する。そして、時刻t2で、画像センサ120Aは、符号411の位置・姿勢において視線412で対象物Jを撮像する。 The method of calculating the distance in FIG. 2C is the same as that of FIGS. 2A and 2B. At time t1, the image sensor 120A images the object J with the line of sight 402 at the position / posture of reference numeral 401. After that, the moving body 1 makes a super-credit turn in the super-credit turn direction (arrow A3). Then, at time t2, the image sensor 120A images the object J with the line of sight 412 at the position / posture of the reference numeral 411.

その後、単眼距離算出部113は、時刻t1で撮像された画像と、時刻t2で撮像された画像とを基に対象物Jまでの距離(視線412の線分長)を算出する。超信地旋回中かどうかは、時刻t1での制御部116の制御値から判断される。 After that, the monocular distance calculation unit 113 calculates the distance to the object J (the line segment length of the line of sight 412) based on the image captured at time t1 and the image captured at time t2. Whether or not the super-credit turning is in progress is determined from the control value of the control unit 116 at time t1.

ここで仮に、時刻t2における視線412が、画像センサ120Aのセンサ誤差によって視線421として、対象物Jが撮像されたものとする。この場合、対象物Jは地点Jcに存在すると計算され、対象物Jまでの距離に誤差E3が生じる。 Here, it is assumed that the line-of-sight 412 at time t2 is the line-of-sight 421 due to the sensor error of the image sensor 120A, and the object J is imaged. In this case, it is calculated that the object J exists at the point Jc, and an error E3 occurs in the distance to the object J.

ここで、図2Aに示す誤差E1と、図2Cに示す誤差E3とを比較すると、誤差E3の方が小さい。これは、移動方向に対して直交方向の移動量、つまり、旋回方向(矢印A3)が増大し、視差が大きくなったためである。言い換えれば、図2Cでは移動体1の移動方向が旋回方向(矢印A3)であるため、画像センサ120A(あるいは、画像センサ120B)が、移動体1の側方を撮像する側方画像センサとなったためである。 Here, when the error E1 shown in FIG. 2A and the error E3 shown in FIG. 2C are compared, the error E3 is smaller. This is because the amount of movement in the direction orthogonal to the moving direction, that is, the turning direction (arrow A3) has increased, and the parallax has increased. In other words, in FIG. 2C, since the moving direction of the moving body 1 is the turning direction (arrow A3), the image sensor 120A (or the image sensor 120B) becomes a side image sensor that images the side of the moving body 1. This is because of the fact.

よって、超信地旋回量を制御部116の制御値に基づいて算出し、超信地旋回量が予め設定した判定閾値よりも大きい場合、画像センサ120A,120Bのうち、少なくとも1つで撮像した画像に単眼距離算出部113の処理を適用する。この場合、ステレオ距離算出部112は何も実行しない。画像センサ120C,120Dについても同様である。 Therefore, the super-credit turning amount is calculated based on the control value of the control unit 116, and when the super-credit turning amount is larger than the preset determination threshold value, an image is taken with at least one of the image sensors 120A and 120B. The processing of the monocular distance calculation unit 113 is applied to the image. In this case, the stereo distance calculation unit 112 does nothing. The same applies to the image sensors 120C and 120D.

このように、画像センサ120が移動体1の移動方向に対して、直交方向に備えられている場合、ステレオ距離算出よりも、単眼距離算出の方が誤差を小さくすることができる。さらに、単眼距離算出は、ステレオ距離算出の方が処理データを低減できるため、処理負荷を低減することができる。
つまり、移動体1が超信地旋回している場合、画像センサ120A、120Bで撮像された画像をステレオ距離算出部112により距離を算出するよりも、単眼距離算出部113で距離を算出する手法の方が誤差を低減できる。さらに、単眼距離算出部113で距離を算出することにより、処理対象の画像データ量が削減され、処理負荷を低減することができる。
As described above, when the image sensor 120 is provided in the direction orthogonal to the moving direction of the moving body 1, the error can be made smaller in the monocular distance calculation than in the stereo distance calculation. Further, in the monocular distance calculation, the processing data can be reduced by the stereo distance calculation, so that the processing load can be reduced.
That is, when the moving body 1 is making a super-credit turn, a method of calculating the distance by the monocular distance calculation unit 113 rather than calculating the distance by the stereo distance calculation unit 112 from the images captured by the image sensors 120A and 120B. Can reduce the error. Further, by calculating the distance by the monocular distance calculation unit 113, the amount of image data to be processed can be reduced and the processing load can be reduced.

なお、画像センサ120A,120Bのうち、どの画像センサ120で撮像した画像を単眼距離算出部113に適用するかは、超信地旋回による各々の画像センサ120の移動量に基づいて決定される。例えば、画像センサ120A,120Bのうち、画像センサ120Aの移動量が大きければ、画像センサ120Aで撮像された画像が使用される。画像センサ120C,120Dについても同様である。
ただし、移動体1の中心軸に対して画像センサ120A,120Bが対称の位置関係にある場合、画像センサ120A,120Bそれぞれの超信地旋回による移動量は同じである。このような場合、撮像された画像上において特徴点が多い画像センサ120の画像が使用される。画像センサ120C,120Dも同様である。
Which of the image sensors 120A and 120B the image captured by the image sensor 120 is applied to the monocular distance calculation unit 113 is determined based on the amount of movement of each image sensor 120 due to the super-credit turning. For example, among the image sensors 120A and 120B, if the amount of movement of the image sensor 120A is large, the image captured by the image sensor 120A is used. The same applies to the image sensors 120C and 120D.
However, when the image sensors 120A and 120B are in a symmetrical positional relationship with respect to the central axis of the moving body 1, the amount of movement due to the super-credit turning of each of the image sensors 120A and 120B is the same. In such a case, the image of the image sensor 120 having many feature points on the captured image is used. The same applies to the image sensors 120C and 120D.

単眼距離算出部113で距離を算出するか、ステレオ距離算出部112で距離を算出するかの判定閾値は、画像センサ120A,120Bと、画像センサ120C,120Dのそれぞれで予め設定されている。例えば、画像センサ120Aと画像センサ120Bとの距離(ベースライン距離)が、判定閾値として設定される。画像センサ120C,120Dについても同様に設定される。ここで、ベースライン距離は、ステレオ距離算出における視差である。つまり、異なる時刻で画像が撮像された場合、それぞれの撮像時刻間において、移動体1が図1の矢印A2の方向に移動した距離が、ベースライン距離より大きい場合、画像センサ120A,120Bのいずれか一方で撮像された画像に対し、単眼距離算出が適用される。それぞれの撮像時刻間において、移動体1が図1の矢印A2の方向に移動した距離が、ベースライン距離より小さい場合、画像センサ120A及び画像センサ120Bで撮像された画像に対し、ステレオ距離算出が適用される。画像センサ120C,120Dについても同様である。 The determination thresholds for calculating the distance by the monocular distance calculation unit 113 or the stereo distance calculation unit 112 are preset in the image sensors 120A and 120B and the image sensors 120C and 120D, respectively. For example, the distance (baseline distance) between the image sensor 120A and the image sensor 120B is set as a determination threshold value. The same applies to the image sensors 120C and 120D. Here, the baseline distance is the parallax in the calculation of the stereo distance. That is, when images are captured at different times, the distance traveled by the moving body 1 in the direction of the arrow A2 in FIG. 1 between the respective imaging times is larger than the baseline distance, whichever is the image sensor 120A or 120B. On the other hand, the monocular distance calculation is applied to the captured image. When the distance traveled by the moving body 1 in the direction of the arrow A2 in FIG. 1 between the respective imaging times is smaller than the baseline distance, the stereo distance is calculated for the images captured by the image sensor 120A and the image sensor 120B. Applies. The same applies to the image sensors 120C and 120D.

ちなみに、画像センサ120E,120Fは、超信地旋回時でも移動体1の移動方向に対して直交方向に備えられているため、単眼距離算出部113による距離算出が適用される。 Incidentally, since the image sensors 120E and 120F are provided in the direction orthogonal to the moving direction of the moving body 1 even during the super-credit turning, the distance calculation by the monocular distance calculating unit 113 is applied.

なお、CNNは学習による推定距離であるため、CNNを用いた単眼距離算出は距離の精度に保障がない。本実施形態では、幾何学的に求められる距離であるため、誤差は生じるものの、CNNより算出される距離の精度が保障される。 Since CNN is an estimated distance by learning, the accuracy of the distance is not guaranteed in the monocular distance calculation using CNN. In the present embodiment, since the distance is geometrically obtained, the accuracy of the distance calculated from the CNN is guaranteed, although an error occurs.

なお、ここでは超信地旋回について記載しているが、カーブでも適用可能である。移動体1がカーブしている場合、移動体1の移動方向のベクトルを直進方向と、直進方向と直交する方向(直交方向)のベクトルに分解したとき、直進方向成分が直交方向成分より大きい場合、画像センサ120A、120Bのいずれか一方で撮像された画像に対してステレオ距離算出が適用される。また、直交方向成分が直進方向成分より大きい場合、画像センサ120A、120Bのいずれか一方で撮像された画像に対して単眼距離算出が適用される。画像センサ120C,120Dについても同様である。 In addition, although the super-credit turning is described here, it can also be applied to a curve. When the moving body 1 is curved, when the vector of the moving direction of the moving body 1 is decomposed into the vector of the straight direction and the vector of the direction orthogonal to the straight direction (orthogonal direction), the straight direction component is larger than the orthogonal direction component. , The stereo distance calculation is applied to the image captured by either one of the image sensors 120A and 120B. When the orthogonal direction component is larger than the straight direction component, the monocular distance calculation is applied to the image captured by either one of the image sensors 120A and 120B. The same applies to the image sensors 120C and 120D.

(移動制御)
図3は、移動体1における移動制御の手法を示す図である。
まず、予め作成した壁等の対象物J1と目的地点位置とに基づいて、目的地点までの目標経路Wが作成される。目標経路Wの作成手法として、例えば、ダイクストラ法やA-Star法がある。この手法では、まず、出発点と終了点が指定される。そして、対象物J1を構成する各特徴点の近傍にポテンシャル場Pが設けられる。ポテンシャル場Pは、移動体1が避ける領域である。次に、制御部116は、目的地点までの距離とポテンシャル場Pとを基に、最小のコストとなる経路探索を行う。そして、制御部116は、最小コストとなる経路が目標経路Wとして生成される。目標経路Wは、例えば、図示しないサーバ等で生成された後、移動体1に送信される。
(Movement control)
FIG. 3 is a diagram showing a method of movement control in the moving body 1.
First, a target route W to the destination point is created based on the object J1 such as a wall created in advance and the destination point position. As a method for creating the target route W, for example, there are the Dijkstra method and the A-Star method. In this method, the starting point and the ending point are first specified. Then, a potential field P is provided in the vicinity of each feature point constituting the object J1. The potential field P is a region avoided by the moving body 1. Next, the control unit 116 performs a route search with the minimum cost based on the distance to the destination point and the potential field P. Then, in the control unit 116, the route having the lowest cost is generated as the target route W. The target route W is generated by, for example, a server (not shown) and then transmitted to the mobile body 1.

次に、制御部116は、前回の制御値を基に算出された移動体1の移動速度と旋回角速度B1を中心として、次回の移動速度と旋回角速度の候補Bを複数設定する。そして、制御部116は、それぞれの候補Bを採用した場合における次回の移動体1の候補位置を算出する。 Next, the control unit 116 sets a plurality of candidates B for the next moving speed and turning angular velocity around the moving speed and turning angular velocity B1 of the moving body 1 calculated based on the previous control value. Then, the control unit 116 calculates the candidate position of the next moving body 1 when each candidate B is adopted.

それぞれの候補Bにおける各移動速度及び旋回角速度は、移動体1の最大移動速度と最大旋回角速度を超えないように設定される。例えば、候補B1での移動速度をVmとし、候補B2の移動速度を(Vm-3km/h)から(Vm+3km/h)の範囲で設定したとする。このとき、最大移動速度が(Vm+2km/h)の場合は、移動速度の候補B2を(Vm-3km/h)から(Vm+2km/h)の範囲に設定しなおす。 Each moving speed and turning angular velocity in each candidate B are set so as not to exceed the maximum moving speed and the maximum turning angular velocity of the moving body 1. For example, it is assumed that the moving speed of the candidate B1 is Vm and the moving speed of the candidate B2 is set in the range of (Vm-3km / h) to (Vm + 3km / h). At this time, if the maximum moving speed is (Vm + 2km / h), the moving speed candidate B2 is reset to the range from (Vm-3km / h) to (Vm + 2km / h).

次に、制御部116は、自己位置算出部115で修正した移動対象物M1,M2の位置と単位時間あたりの移動量M11、M21を基に、移動対象物M1,M2の近傍にポテンシャル場P1、P2を設ける。そして、制御部116は、移動体1の次回移動先候補位置から目標経路Wまでのコストと、移動体1の次回移動先候補位置から目標地点(移動終了地点)までのコストとを比較する。このとき、制御部116は、各ポテンシャル場P,P1,P2を避ける経路でコストを算出する。
そして、制御部116は、最もコストが低くなる候補Bを選択する。そして、制御部116は、最小コストとなる候補Bを次回の移動速度と旋回角速度として採用する。その後、制御部116は、採用した移動速度と旋回角速度に基づいて駆動部130への制御値を算出する。
Next, the control unit 116 has a potential field P1 in the vicinity of the moving objects M1 and M2 based on the positions of the moving objects M1 and M2 corrected by the self-position calculation unit 115 and the moving amounts M11 and M21 per unit time. , P2 is provided. Then, the control unit 116 compares the cost from the next movement destination candidate position of the moving body 1 to the target route W with the cost from the next moving destination candidate position of the moving body 1 to the target point (movement end point). At this time, the control unit 116 calculates the cost by a path avoiding each potential field P, P1, P2.
Then, the control unit 116 selects the candidate B having the lowest cost. Then, the control unit 116 adopts the candidate B, which is the minimum cost, as the next moving speed and turning angular velocity. After that, the control unit 116 calculates a control value for the drive unit 130 based on the adopted moving speed and turning angular velocity.

なお、図3の例では、移動対象物M1,M2を避けるために、移動体1が既に目標経路Wを外れているところを示している。 In the example of FIG. 3, in order to avoid the moving objects M1 and M2, the moving body 1 has already deviated from the target path W.

第1実施形態では、移動体1の移動方向に画像センサ120が設置されている場合、ステレオ距離算出が適用される。また、画像センサ120が移動方向に対して直交方向に設置されている場合、単眼距離算出が適用される。このようにすることにより、移動体1は、移動・旋回方向に応じて、処理負荷が低くなるよう最適な距離算出手法を選択する。これにより、無死角でありながら、高精度かつ低処理負荷な自律移動を実現することができる。また、誤差が小さくなる距離算出手法が選択されることで、安価なカメラでも算出される距離の精度が低下することを防止することができる。
これにより、安価なカメラでも障害物検出精度が低下することを防止することができる。
なお、特許文献1に記載の技術は、車両の移動方向とは関係なく、カメラの視野が重複していない部分を単眼視している。これに対して、本実施形態では移動体1の移動方向に応じて、ステレオ距離算出と、単眼距離算出とを切り替えている点が異なる。
In the first embodiment, when the image sensor 120 is installed in the moving direction of the moving body 1, the stereo distance calculation is applied. Further, when the image sensor 120 is installed in the direction orthogonal to the moving direction, the monocular distance calculation is applied. By doing so, the moving body 1 selects the optimum distance calculation method so that the processing load is reduced according to the moving / turning direction. As a result, it is possible to realize autonomous movement with high accuracy and low processing load while having no blind spot. Further, by selecting a distance calculation method that reduces the error, it is possible to prevent the accuracy of the calculated distance from being lowered even with an inexpensive camera.
As a result, it is possible to prevent the obstacle detection accuracy from being lowered even with an inexpensive camera.
The technique described in Patent Document 1 monocularly views a portion where the fields of view of the camera do not overlap, regardless of the moving direction of the vehicle. On the other hand, the present embodiment is different in that the stereo distance calculation and the monocular distance calculation are switched according to the moving direction of the moving body 1.

また、これまでは画像の取得頻度を低下させて処理負荷を低減することが行われていたが、このような手法では距離算出精度の低下等といった性能低下が生じるおそれがある。本実施形態では、画像の取得頻度を低下させることなく、距離算出精度の低下等を防ぐことができる。 Further, until now, the frequency of image acquisition has been reduced to reduce the processing load, but such a method may cause a decrease in performance such as a decrease in distance calculation accuracy. In the present embodiment, it is possible to prevent the distance calculation accuracy from being lowered without reducing the image acquisition frequency.

[第2実施形態]
次に、図4を参照して、本発明の第2実施形態を説明する。
第2実施形態では、移動体1が、起動時や、目的地に到着後の停止時や、人混みでの停滞時や、エレベータ搭乗等における一時停止後に、安全に自律移動を開始・再開することを目的とする。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIG.
In the second embodiment, the mobile body 1 safely starts / resumes autonomous movement at the time of activation, when the vehicle is stopped after arriving at the destination, when the vehicle is stagnant due to crowds, or after being temporarily stopped when boarding an elevator or the like. With the goal.

図4は、第2実施形態による移動体1の計算処理部110aの構成を示す図である。
計算処理部110aは、第1実施形態と同様の構成である各部111~116に加えて、状態判定部117と、旋回角速度変更部(自律移動制御部)118を有している。
各部111~116は、第1実施形態における各部111~116と同様の処理を実行することで、移動体1を自律移動させる。
状態判定部117は、自己位置算出部115で算出した移動体1の位置と姿勢の時系列情報と、起動情報とに基づいて、移動体1の走行状態を判定する。計算処理部110aの起動時や、現在時刻を含めた過去の一定期間(例えば30秒間)における移動体1の位置と姿勢の両方が変化していない場合において、状態判定部117は走行状態を「停止・停滞」と判定する。それ以外の場合、状態判定部117は走行状態を「走行」と判定する。
FIG. 4 is a diagram showing a configuration of a calculation processing unit 110a of the mobile body 1 according to the second embodiment.
The calculation processing unit 110a has a state determination unit 117 and a turning angular velocity changing unit (autonomous movement control unit) 118 in addition to the units 111 to 116 having the same configuration as that of the first embodiment.
Each part 111 to 116 autonomously moves the moving body 1 by executing the same processing as each part 111 to 116 in the first embodiment.
The state determination unit 117 determines the traveling state of the moving body 1 based on the time-series information of the position and posture of the moving body 1 calculated by the self-position calculation unit 115 and the activation information. When the calculation processing unit 110a is started, or when both the position and the posture of the moving body 1 have not changed in the past fixed period (for example, 30 seconds) including the current time, the state determination unit 117 sets the running state to ". Judged as "stop / stagnation". In other cases, the state determination unit 117 determines the traveling state as "traveling".

旋回角速度変更部118は、状態判定部117で判定した走行状態に基づいて、移動体1の最高旋回角速度を設定する。走行状態が「停止・停滞」の場合は、最高旋回角速度をゼロに設定する。これは、単眼距離算出が、画像を時系列で取得しなければ算出できないためである。つまり、走行状態が「停止・停滞」の場合、画像センサ120E,120Fによる対象物の距離算出ができない状態である。これにより、移動体1の側方に存在している対象物の距離が算出できていないため、移動体1の側方が死角となっている。そのため、移動体1を旋回して発進させると、思わぬ障害物に衝突するおそれがある。そのため、最高旋回角速度がゼロに設定され、直進方向にしか発進できないようになっている。 The turning angular velocity changing unit 118 sets the maximum turning angular velocity of the moving body 1 based on the traveling state determined by the state determination unit 117. If the running condition is "stop / stagnation", set the maximum turning angular velocity to zero. This is because the monocular distance calculation cannot be calculated unless the images are acquired in chronological order. That is, when the traveling state is "stop / stagnation", the distance of the object cannot be calculated by the image sensors 120E and 120F. As a result, the distance of the object existing on the side of the moving body 1 cannot be calculated, so that the side of the moving body 1 is a blind spot. Therefore, if the moving body 1 is turned and started, it may collide with an unexpected obstacle. Therefore, the maximum turning angular velocity is set to zero, and the vehicle can only start in the straight direction.

走行状態が「走行」の場合、走行状態が「停止・停滞」から「走行」に切り替わった時刻における移動体1の位置と、現在の移動体1の位置との距離が一定量(例えば1m)を超えたとき、最高旋回角速度を移動体1の本来の値に設定する。これは、前記したように、単眼距離算出には、画像が時系列的にある程度揃っている必要があるためである。 When the running state is "running", the distance between the position of the moving body 1 at the time when the running state is switched from "stop / stagnation" to "running" and the current position of the moving body 1 is a fixed amount (for example, 1 m). When it exceeds, the maximum turning angular velocity is set to the original value of the moving body 1. This is because, as described above, the images need to be aligned to some extent in time series in order to calculate the monocular distance.

第2実施形態の移動体1は、起動時や、停止・停滞時から走行を開始・再開するとき、一定量を直進・後退するまで旋回しないように駆動部130を制御する。このようにすることにより、移動体1の側方に存在する対象物までの距離を正確に算出できるようになるまで、移動体1の前方に存在する対象物と後方に存在する対象物までの距離をステレオ距離算出で算出しながら移動する。このようにすることにより、移動体1を安全な方向に移動することができる。 The moving body 1 of the second embodiment controls the drive unit 130 so that it does not turn until it goes straight or backwards by a certain amount when it starts or restarts running from the time of starting or when it is stopped or stagnated. By doing so, until the distance to the object existing on the side of the moving body 1 can be accurately calculated, the object existing in front of the moving body 1 and the object existing in the rear are reached. Move while calculating the distance by stereo distance calculation. By doing so, the moving body 1 can be moved in a safe direction.

移動体1の位置と姿勢が変化しているか否かの判定は、例えば、以下の手順で行われる。まず、状態判定部117が、現在時刻を含めた過去の一定期間における位置と姿勢との分散を算出する。そして、状態判定部117が、予め設定した状態判定閾値と、算出した分散とを比較することで移動体1の位置と姿勢が変化しているか否かの判定を実行する。 For example, the determination of whether or not the position and posture of the moving body 1 has changed is performed by the following procedure. First, the state determination unit 117 calculates the variance between the position and the posture in the past fixed period including the current time. Then, the state determination unit 117 determines whether or not the position and posture of the moving body 1 have changed by comparing the preset state determination threshold value with the calculated variance.

ここで、状態判定閾値が小さく設定されると、分散が0近傍で停止と判定される。また、状態判定閾値が大きく設定されると、移動体1がかなり動いている状態でも停止と判定される。
状態判定閾値が小さく設定されると、移動体1が少し動いただけでも移動していると判定されてしまう。従って、移動体1の側方に設置された画像センサ120が、単眼距離算出に必要な距離を動く前に、側方に設置された画像センサ120による単眼距離算出が行われてしまう。
逆に、状態判定閾値が大きく設定されると、前記したように、移動体1がかなり動いている状態でも停止と判定される。つまり、移動体1の側方に設置された画像センサ120が、単眼距離算出に必要な距離を動いた後に、側方に設置された画像センサ120による単眼距離算出が行われる。
Here, if the state determination threshold is set small, it is determined that the variance is stopped near 0. Further, when the state determination threshold value is set to be large, it is determined that the moving body 1 is stopped even when it is moving considerably.
If the state determination threshold is set small, it is determined that the moving body 1 is moving even if it moves only a little. Therefore, before the image sensor 120 installed on the side of the moving body 1 moves the distance required for calculating the monocular distance, the monocular distance is calculated by the image sensor 120 installed on the side.
On the contrary, when the state determination threshold value is set to a large value, it is determined that the moving body 1 is stopped even when the moving body 1 is considerably moving, as described above. That is, after the image sensor 120 installed on the side of the moving body 1 moves the distance required for calculating the monocular distance, the monocular distance is calculated by the image sensor 120 installed on the side.

このような特徴から、人ごみや、周囲に障害物が多い場合には、状態判定閾値を大きく設定し、周囲に何もないような場所では状態判定閾値を小さく設定するとよい。このようにすることで、効率的な移動体1の移動を実現することができる。 From such a feature, when there are many crowds or obstacles in the surroundings, it is preferable to set a large state determination threshold value, and in a place where there is nothing in the surrounding area, it is preferable to set a small state determination threshold value. By doing so, it is possible to realize efficient movement of the moving body 1.

[第3実施形態]
図5は、第3実施形態に係る自律移動システムZの構成例を示す図である。
図5に示すように、自律移動システムZは、移動体1bと、サーバ5とを有する。
移動体1bは、それぞれの画像センサ120で撮像した画像をサーバ5へ送信する。サーバ5は、送信された画像を基に、単眼距離算出またはステレオ距離算出を用いて移動体1bから対象物までの距離を算出する。そして、サーバ5は、算出した対象物までの距離を基に、対象物の位置を算出し、さらに、マップマッチングによって移動体1bの自己位置(位置・姿勢)を算出する。そして、サーバ5は、移動体1bの自己位置等を基に、移動体1bが、次回移動速度及び旋回角度を算出する。その後、サーバ5は、移動体1bの自己位置、及び、移動体1bの次回移動速度及び旋回角度を移動指示情報として移動体1bに送信する。移動体1bは、受信した移動指示情報に従って移動を行う。なお、移動体1b及びサーバ5の間の通信は無線通信が好ましい。
また、サーバ5は、上記した処理の他にも、第1実施形態におけるステレオ距離算出部112、単眼距離算出部113、対象物検出部114、自己位置算出部115及び制御部116が行う処理を適宜行う。
[Third Embodiment]
FIG. 5 is a diagram showing a configuration example of the autonomous mobile system Z according to the third embodiment.
As shown in FIG. 5, the autonomous mobile system Z has a mobile body 1b and a server 5.
The mobile body 1b transmits the image captured by each image sensor 120 to the server 5. The server 5 calculates the distance from the moving object 1b to the object by using the monocular distance calculation or the stereo distance calculation based on the transmitted image. Then, the server 5 calculates the position of the object based on the calculated distance to the object, and further calculates the self-position (position / posture) of the moving body 1b by map matching. Then, the server 5 calculates the next movement speed and the turning angle of the moving body 1b based on the self-position of the moving body 1b and the like. After that, the server 5 transmits the self-position of the moving body 1b and the next moving speed and turning angle of the moving body 1b to the moving body 1b as movement instruction information. The moving body 1b moves according to the received movement instruction information. Wireless communication is preferable for communication between the mobile body 1b and the server 5.
In addition to the above-mentioned processing, the server 5 also performs processing performed by the stereo distance calculation unit 112, the monocular distance calculation unit 113, the object detection unit 114, the self-position calculation unit 115, and the control unit 116 in the first embodiment. Do as appropriate.

移動体1bの計算処理部110bは、データ送信部119aと、データ受信部119bと、移動制御部119cとを有する。
データ送信部119aは、それぞれの画像センサ120で撮像された画像をサーバ5へ送信する。
データ受信部119bは、サーバ5から移動指示情報を受信する。
また、移動制御部119cは、サーバ5から送られた移動指示情報に基づいて、それぞれの駆動部130を制御する。
画像センサ120(120A~120F)、駆動部130(130A~130D)は図1と同様であるので、ここでの説明を省略する。
また、サーバ5の詳細は図6で説明する。
The calculation processing unit 110b of the mobile body 1b includes a data transmission unit 119a, a data reception unit 119b, and a movement control unit 119c.
The data transmission unit 119a transmits the image captured by each image sensor 120 to the server 5.
The data receiving unit 119b receives the movement instruction information from the server 5.
Further, the movement control unit 119c controls each drive unit 130 based on the movement instruction information sent from the server 5.
Since the image sensors 120 (120A to 120F) and the drive units 130 (130A to 130D) are the same as those in FIG. 1, the description thereof is omitted here.
The details of the server 5 will be described with reference to FIG.

図6は、第3実施形態に係るサーバ5の構成例を示す図である。
サーバ5は、データ受信部511、ステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515、制御部516及びデータ送信部517を有する。
データ受信部511は、移動体1bから、それぞれの画像センサ120で撮像された画像を受信する。
ステレオ距離算出部512、単眼距離算出部513、対象物検出部514及び自己位置算出部515は、図1のステレオ距離算出部112、単眼距離算出部113、対象物検出部114及び自己位置算出部115と同様の動作を行うので、ここでの説明を省略する。
制御部516は、図1の制御部216が行う動作のうち、駆動部130の制御以外の動作を行う。
データ送信部517は、ステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515、制御部516による処理で算出された移動体1bの自己位置、及び、移動体1bの次回移動速度・旋回角度を移動指示情報として移動体1bへ送信する。
FIG. 6 is a diagram showing a configuration example of the server 5 according to the third embodiment.
The server 5 includes a data receiving unit 511, a stereo distance calculation unit 512, a monocular distance calculation unit 513, an object detection unit 514, a self-position calculation unit 515, a control unit 516, and a data transmission unit 517.
The data receiving unit 511 receives the images captured by the respective image sensors 120 from the moving body 1b.
The stereo distance calculation unit 512, the monocular distance calculation unit 513, the object detection unit 514, and the self-position calculation unit 515 are the stereo distance calculation unit 112, the monocular distance calculation unit 113, the object detection unit 114, and the self-position calculation unit in FIG. Since the operation is the same as that of 115, the description thereof is omitted here.
The control unit 516 performs operations other than the control of the drive unit 130 among the operations performed by the control unit 216 in FIG. 1.
The data transmission unit 517 includes a stereo distance calculation unit 512, a monocular distance calculation unit 513, an object detection unit 514, a self-position calculation unit 515, a self-position of the moving body 1b calculated by processing by the control unit 516, and a moving body. The next movement speed / turning angle of 1b is transmitted to the moving body 1b as movement instruction information.

なお、サーバ5は、図示しないCPUと、図示しないRAM、図示しないHD(Hard Disk)等を備えている。そして、HD等に格納されているプログラムが、RAMにロードされ、ロードされたプログラムがCPUによって実行される。このようにすることで、データ受信部511、ステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515及び制御部516が具現化する。 The server 5 includes a CPU (not shown), a RAM (not shown), an HD (Hard Disk) (not shown), and the like. Then, the program stored in the HD or the like is loaded into the RAM, and the loaded program is executed by the CPU. By doing so, the data receiving unit 511, the stereo distance calculation unit 512, the monocular distance calculation unit 513, the object detection unit 514, the self-position calculation unit 515, and the control unit 516 are embodied.

第3実施形態によれば、移動体1bの移動に必要な距離の計算や、移動体1bの位置計算がサーバ5で行われるため、移動体1bの処理負荷を低減することができる。ちなみに、サーバ5は、複数の移動体1bについて、距離の計算や、移動体1bの位置計算を行うことができる。
また、図6に示すサーバ5を構成するステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515、制御部516のうち、少なくとも1つが移動体1bに備わっていてもよい。
According to the third embodiment, since the calculation of the distance required for the movement of the moving body 1b and the position calculation of the moving body 1b are performed by the server 5, the processing load of the moving body 1b can be reduced. Incidentally, the server 5 can calculate the distance and the position of the moving body 1b for the plurality of moving bodies 1b.
Further, at least one of the stereo distance calculation unit 512, the monocular distance calculation unit 513, the object detection unit 514, the self-position calculation unit 515, and the control unit 516 constituting the server 5 shown in FIG. 6 is provided in the moving body 1b. You may.

例えば、駆動部130としてオムニホイールを用いることができる。このような場合、移動体1は図1の画像センサ120Eや、画像センサ120Fの方向に移動することができる。このような構成の場合、画像センサ120Eや、画像センサ120Fの方向に、2つの画像センサ120が設けられてもよい。 For example, an omni wheel can be used as the drive unit 130. In such a case, the moving body 1 can move in the direction of the image sensor 120E and the image sensor 120F of FIG. In such a configuration, two image sensors 120 may be provided in the direction of the image sensor 120E or the image sensor 120F.

本実施形態の移動体1は、ロボットや、自律移動する車両や、自律移動するパーソナルモビリティ等といった自律移動装置に適用可能である。 The mobile body 1 of the present embodiment can be applied to an autonomous mobile device such as a robot, a vehicle that autonomously moves, a personal mobility that autonomously moves, and the like.

本発明は前記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を有するものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the described configurations. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.

また、前記した各構成、機能、各部111~118、記憶部等は、それらの一部又はすべてを、例えば集積回路で設計すること等によりハードウェアで実現してもよい。また、前記した各構成、機能等は、CPU等のプロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、HD(Hard Disk)に格納すること以外に、メモリや、SSD(Solid State Drive)等の記録装置、又は、IC(Integrated Circuit)カードや、SD(Secure Digital)カード、DVD(Digital Versatile Disc)等の記録媒体に格納することができる。
また、各実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には、ほとんどすべての構成が相互に接続されていると考えてよい。
Further, each configuration, function, each unit 111 to 118, a storage unit, etc. described above may be realized by hardware, for example, by designing a part or all of them by an integrated circuit or the like. Further, each configuration, function, etc. described above may be realized by software by interpreting and executing a program in which a processor such as a CPU realizes each function. In addition to storing information such as programs, tables, and files that realize each function in HD (Hard Disk), memory, recording devices such as SSD (Solid State Drive), IC (Integrated Circuit) cards, etc. , SD (Secure Digital) card, DVD (Digital Versatile Disc) and other recording media.
Further, in each embodiment, the control lines and information lines are shown as necessary for explanation, and not all the control lines and information lines are necessarily shown in the product. In practice, you can think of almost all configurations as interconnected.

1 移動体(自律移動装置)
5 サーバ
112,512 ステレオ距離算出部(距離算出部)
113,513 単眼距離算出部(距離算出部)
114,514 対象物検出部(自律移動制御部)
115,515 自己位置算出部(自律移動制御部)
116,516 制御部(自律移動制御部)
117, 状態判定部
118 旋回角速度変更部(自律移動制御部)
120,120A~120F 画像センサ(撮像部)
1 Mobile (autonomous mobile device)
5 Server 112,512 Stereo distance calculation unit (distance calculation unit)
113,513 Monocular distance calculation unit (distance calculation unit)
114,514 Object detection unit (autonomous movement control unit)
115,515 Self-position calculation unit (autonomous movement control unit)
116,516 Control unit (autonomous movement control unit)
117, Status determination unit 118 Turning angular velocity change unit (autonomous movement control unit)
120, 120A-120F image sensor (imaging unit)

Claims (5)

移動体の直進方向に対して正方向の向きを撮像領域に含む第1の撮像部を、少なくとも2つ有し、
前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有し、
前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、
算出された前記距離に基づいて、自己位置を算出し、算出された前記自己位置を基に、自律移動を行う自律移動制御部と
前記移動体が停止しているか、移動しているかを判定する状態判定部と
を有する、前記移動体としての自律移動装置であって、
前記距離算出部は、
前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、
前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出し、
前記自律移動制御部は、
前記移動体が停止から移動に移ったとき、所定距離の間、前記移動体を直進方向へ移動させる
ことを特徴とする自律移動装置。
It has at least two first image pickup units that include the direction in the positive direction with respect to the straight direction of the moving body in the image pickup region.
Each has at least one second image pickup unit that includes the direction orthogonal to the straight-ahead direction of the moving body in the image pickup region.
A distance calculation unit that calculates the distance to an object in the image pickup region based on the image captured by the first image pickup unit and the second image pickup unit.
An autonomous movement control unit that calculates a self-position based on the calculated distance and performs autonomous movement based on the calculated self-position .
With a state determination unit that determines whether the moving body is stopped or moving
An autonomous mobile device as the mobile body having the above.
The distance calculation unit
The distance is calculated based on the parallax of the image captured by the first imaging unit.
The distance is calculated based on a plurality of captured images with different imaging times captured by the second imaging unit .
The autonomous movement control unit
When the moving body moves from a stop to a moving body, the moving body is moved in a straight direction for a predetermined distance.
An autonomous mobile device characterized by that.
移動体の直進方向に対して正方向の向きを撮像領域に含む第1の撮像部を、少なくとも2つ有し、
前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有し、
前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、
算出された前記距離に基づいて、自己位置を算出し、算出された前記自己位置を基に、自律移動を行う自律移動制御部と
前記移動体が停止しているか、移動しているかを判定する状態判定部と
を有する、前記移動体としての自律移動装置であって、
前記距離算出部は、
前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、
前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出する
前記自律移動制御部は、
前記移動体が停止から移動に移ったとき、所定距離の間、前記移動体を直進方向へ移動させ、
前記移動体が停止しているか、移動しているかの判定は、前記移動体の位置の分散と、判定閾値とが比較されることによって行われ、
前記移動体が移動する周囲の環境によって、前記判定閾値が変更される
ことを特徴とする自律移動装置。
It has at least two first image pickup units that include the direction in the positive direction with respect to the straight direction of the moving body in the image pickup region.
Each has at least one second image pickup unit that includes the direction orthogonal to the straight-ahead direction of the moving body in the image pickup region.
A distance calculation unit that calculates the distance to an object in the image pickup region based on the image captured by the first image pickup unit and the second image pickup unit.
An autonomous movement control unit that calculates a self-position based on the calculated distance and performs autonomous movement based on the calculated self-position .
With a state determination unit that determines whether the moving body is stopped or moving
An autonomous mobile device as the mobile body having the above.
The distance calculation unit
The distance is calculated based on the parallax of the image captured by the first imaging unit.
The distance is calculated based on a plurality of captured images with different imaging times captured by the second imaging unit.
The autonomous movement control unit
When the moving body moves from a stop to a moving body, the moving body is moved in a straight direction for a predetermined distance.
Judgment as to whether the moving body is stopped or moving is performed by comparing the variance of the position of the moving body with the determination threshold value.
The determination threshold is changed depending on the surrounding environment in which the moving object moves.
An autonomous mobile device characterized by that.
前記第1の撮像部は、移動体の直進方向に対して負方向の向きを撮像領域に含む第3の撮像部を、少なくとも2つ有し、
前記距離算出部は、
前記第3の撮像部が撮像した画像の視差に基づいて、前記距離を算出する
ことを特徴とする請求項1又は請求項2に記載の自律移動装置。
The first image pickup unit has at least two third image pickup units that include a direction in the negative direction with respect to the straight direction of the moving body in the image pickup region.
The distance calculation unit
The autonomous mobile device according to claim 1 or 2 , wherein the distance is calculated based on the parallax of the image captured by the third imaging unit.
移動体と、サーバと、を備え、
前記移動体は、
前記移動体の直進方向に対して正方向の向きを撮像領域に含む第1の撮像部を、少なくとも2つ有し、
前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有するとともに、
前記サーバから送られた前記移動体の自己位置を基に、自律移動を行う自律移動制御部と
前記移動体が停止しているか、移動しているかを判定する状態判定部と
有し、
前記サーバは、
前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、
算出された前記距離に基づいて、前記移動体の自己位置を算出する位置算出部と、
を有し、
前記距離算出部は、
前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、
前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出し、
前記自律移動制御部は、
前記移動体が停止から移動に移ったとき、所定距離の間、前記移動体を直進方向へ移動させる
ことを特徴とする自律移動システム。
Equipped with a mobile and a server,
The moving body is
It has at least two first imaging units including a direction in the positive direction with respect to the straight direction of the moving body in the imaging region.
It has at least one second image pickup unit that includes the direction orthogonal to the straight direction of the moving body in the image pickup region, and at the same time, it has at least one second image pickup unit.
An autonomous movement control unit that performs autonomous movement based on the self-position of the moving body sent from the server .
With a state determination unit that determines whether the moving body is stopped or moving
Have and
The server
A distance calculation unit that calculates the distance to an object in the image pickup region based on the image captured by the first image pickup unit and the second image pickup unit.
A position calculation unit that calculates the self-position of the moving body based on the calculated distance, and
Have,
The distance calculation unit
The distance is calculated based on the parallax of the image captured by the first imaging unit.
The distance is calculated based on a plurality of captured images with different imaging times captured by the second imaging unit .
The autonomous movement control unit
When the moving body moves from a stop to a moving body, the moving body is moved in a straight direction for a predetermined distance.
An autonomous mobile system characterized by that.
移動体と、サーバと、を備え、
前記移動体は、
前記移動体の直進方向に対して正方向の向きを撮像領域に含む第1の撮像部を、少なくとも2つ有し、
前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有するとともに、
前記サーバから送られた前記移動体の自己位置を基に、自律移動を行う自律移動制御部と
前記移動体が停止しているか、移動しているかを判定する状態判定部と
有し、
前記サーバは、
前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、
算出された前記距離に基づいて、前記移動体の自己位置を算出する位置算出部と、
を有し、
前記距離算出部は、
前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、
前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出し、
前記自律移動制御部は、
前記移動体が停止から移動に移ったとき、所定距離の間、前記移動体を直進方向へ移動させ、
前記移動体が停止しているか、移動しているかの判定は、前記移動体の位置の分散と、判定閾値とが比較されることによって行われ、
前記移動体が移動する周囲の環境によって、前記判定閾値が変更される
ことを特徴とする自律移動システム。
Equipped with a mobile and a server,
The moving body is
It has at least two first imaging units including a direction in the positive direction with respect to the straight direction of the moving body in the imaging region.
It has at least one second image pickup unit that includes the direction orthogonal to the straight direction of the moving body in the image pickup region, and at the same time, it has at least one second image pickup unit.
An autonomous movement control unit that performs autonomous movement based on the self-position of the moving body sent from the server .
With a state determination unit that determines whether the moving body is stopped or moving
Have and
The server
A distance calculation unit that calculates the distance to an object in the image pickup region based on the image captured by the first image pickup unit and the second image pickup unit.
A position calculation unit that calculates the self-position of the moving body based on the calculated distance, and
Have,
The distance calculation unit
The distance is calculated based on the parallax of the image captured by the first imaging unit.
The distance is calculated based on a plurality of captured images with different imaging times captured by the second imaging unit .
The autonomous movement control unit
When the moving body moves from a stop to a moving body, the moving body is moved in a straight direction for a predetermined distance.
Judgment as to whether the moving body is stopped or moving is performed by comparing the variance of the position of the moving body with the determination threshold value.
The determination threshold is changed depending on the surrounding environment in which the moving object moves.
An autonomous mobile system characterized by that.
JP2018093563A 2018-05-15 2018-05-15 Autonomous mobile devices and autonomous mobile systems Active JP7064948B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018093563A JP7064948B2 (en) 2018-05-15 2018-05-15 Autonomous mobile devices and autonomous mobile systems
DE112019001454.4T DE112019001454T5 (en) 2018-05-15 2019-02-28 AUTONOMOUS MOBILE DEVICE AND AUTONOMOUS MOBILE SYSTEM
PCT/JP2019/007890 WO2019220740A1 (en) 2018-05-15 2019-02-28 Autonomous movement device and autonomous movement system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018093563A JP7064948B2 (en) 2018-05-15 2018-05-15 Autonomous mobile devices and autonomous mobile systems

Publications (2)

Publication Number Publication Date
JP2019200509A JP2019200509A (en) 2019-11-21
JP7064948B2 true JP7064948B2 (en) 2022-05-11

Family

ID=68540034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018093563A Active JP7064948B2 (en) 2018-05-15 2018-05-15 Autonomous mobile devices and autonomous mobile systems

Country Status (3)

Country Link
JP (1) JP7064948B2 (en)
DE (1) DE112019001454T5 (en)
WO (1) WO2019220740A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7379802B2 (en) * 2019-12-26 2023-11-15 株式会社竹中工務店 Travel route determination device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061075A (en) 2001-08-09 2003-02-28 Matsushita Electric Ind Co Ltd Object-tracking device, object-tracking method and intruder monitor system
JP2007263657A (en) 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2008123462A (en) 2006-11-16 2008-05-29 Hitachi Ltd Object detector
JP2013015882A (en) 2011-06-30 2013-01-24 Toyota Motor Corp Image recognition device for vehicle
JP2013054399A (en) 2011-08-31 2013-03-21 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2013186042A (en) 2012-03-09 2013-09-19 Hitachi Automotive Systems Ltd Distance calculating device and distance calculating method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061075A (en) 2001-08-09 2003-02-28 Matsushita Electric Ind Co Ltd Object-tracking device, object-tracking method and intruder monitor system
JP2007263657A (en) 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2008123462A (en) 2006-11-16 2008-05-29 Hitachi Ltd Object detector
JP2013015882A (en) 2011-06-30 2013-01-24 Toyota Motor Corp Image recognition device for vehicle
JP2013054399A (en) 2011-08-31 2013-03-21 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2013186042A (en) 2012-03-09 2013-09-19 Hitachi Automotive Systems Ltd Distance calculating device and distance calculating method

Also Published As

Publication number Publication date
JP2019200509A (en) 2019-11-21
WO2019220740A1 (en) 2019-11-21
DE112019001454T5 (en) 2021-01-07

Similar Documents

Publication Publication Date Title
US11393350B2 (en) Systems and methods for vehicle guidance using depth map generation
US10133278B2 (en) Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof
US9946264B2 (en) Autonomous navigation using visual odometry
KR102508843B1 (en) Method and device for the estimation of car egomotion from surround view images
Kobilarov et al. People tracking and following with mobile robot using an omnidirectional camera and a laser
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
JP2017087758A (en) Obstacle detection device
KR101758736B1 (en) Guard and surveillance robot system and method for travelling of mobile robot
KR20150144730A (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
Tarhan et al. A catadioptric and pan-tilt-zoom camera pair object tracking system for UAVs
Coombs et al. 'Bee-bot': using peripheral optical flow to avoid obstacles
JP4333611B2 (en) Obstacle detection device for moving objects
US10379541B2 (en) Mobile unit control device and mobile unit
JP7385388B2 (en) Self-position estimation device
JP7064948B2 (en) Autonomous mobile devices and autonomous mobile systems
Hong et al. Real-time mobile robot navigation based on stereo vision and low-cost GPS
EP3169977A2 (en) Autonomous vehicle operation
Yasin et al. Night vision obstacle detection and avoidance based on Bio-Inspired Vision Sensors
Park et al. A novel line of sight control system for a robot vision tracking system, using vision feedback and motion-disturbance feedforward compensation
WO2021246170A1 (en) Information processing device, information processing system and method, and program
Lima et al. Indoor visual localization of a wheelchair using Shi-Tomasi and KLT
Fu et al. Multi-waypoint visual homing in piecewise linear trajectory
JP2020030721A (en) Moving vehicle
US20240208488A1 (en) Information processing device, control method, and recording medium
JP7199337B2 (en) Position estimation device, position estimation method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R150 Certificate of patent or registration of utility model

Ref document number: 7064948

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150