JP2019200509A - 自律移動装置及び自律移動システム - Google Patents

自律移動装置及び自律移動システム Download PDF

Info

Publication number
JP2019200509A
JP2019200509A JP2018093563A JP2018093563A JP2019200509A JP 2019200509 A JP2019200509 A JP 2019200509A JP 2018093563 A JP2018093563 A JP 2018093563A JP 2018093563 A JP2018093563 A JP 2018093563A JP 2019200509 A JP2019200509 A JP 2019200509A
Authority
JP
Japan
Prior art keywords
distance
unit
imaging
moving body
mobile device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018093563A
Other languages
English (en)
Other versions
JP7064948B2 (ja
Inventor
太紀 飯村
Taiki IIMURA
太紀 飯村
一野瀬 亮子
Ryoko Ichinose
亮子 一野瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018093563A priority Critical patent/JP7064948B2/ja
Priority to PCT/JP2019/007890 priority patent/WO2019220740A1/ja
Priority to DE112019001454.4T priority patent/DE112019001454T5/de
Publication of JP2019200509A publication Critical patent/JP2019200509A/ja
Application granted granted Critical
Publication of JP7064948B2 publication Critical patent/JP7064948B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

【課題】低処理負荷な自律移動装置及び自律移動システムを提供することを課題とする。【解決手段】移動体1の直進方向に対して正方向及び負方向の向きを撮像領域に含む画像センサ120を、それぞれ少なくとも2つ有し、移動体1の直進方向に対して直交方向の向きを撮像領域に含む画像センサ120を、それぞれ少なくとも1つ有し、画像センサ120及び画像センサ120で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出し、算出された距離に基づいて、自己位置を算出し、算出された自己位置を基に、自律移動を行う移動体1であり、画像センサ120が撮像した画像の視差に基づいて、距離を算出し、画像センサ120が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、距離を算出することを特徴とする。【選択図】図1

Description

本発明は、自律移動装置及び自律移動システムの技術に関する。
従来から、ロボットや自動車等の移動体に外界センサや、内界センサを搭載し、移動体の周囲の障害物を検出、回避しながら目的地まで自律的に移動する自律移動に関する技術が開発されている。ここで、外界センサは画像センサやLiDAR等であり、内界センサは、エンコーダや慣性計測装置等である。そのなかで、搭載するセンサの低コスト化のため、比較的安価である画像センサを用いた技術開発の需要が高まっている。
例えば、特許文献1には、「車両に搭載され、所定の設置距離で配置された、少なくとも2台のカメラを有し、該少なくとも2台のカメラで取得された複数の画像を用いて、該車両周辺の物標の3次元座標を推定取得する装置において、少なくとも2台のカメラの内の1台のカメラが経時的に取得した2枚の画像から、車両周辺の物標の3次元座標を推定演算する単眼ステレオ処理部、少なくとも2台のカメラの内の2台のカメラが同時に取得した2枚の画像から、車両周辺の物標の3次元座標を推定演算する複眼ステレオ処理部、それら単眼ステレオ処理部及び複眼ステレオ処理部に接続され、それら処理部でそれぞれ演算推定された物標の3次元座標を、所定の基準で選択、統合して、求めるべき前記物標の3次元座標と推定し、その結果を出力する、結果統合・切替手段、を有する」3次元座標取得装置が開示されている(要約参照)。
特開2007−263657号公報
画像センサを用いて、死角なく移動体の周囲を検出するため、画像センサに駆動装置を設置し、撮像方向を機械的に制御することで撮像領域を時系列で拡張する手法がある。しかし、このような駆動装置は使用頻度に応じて早期に劣化が生じるため、駆動装置の交換コストがかかる。
一方で、複数の画像センサで複数の領域の画像を検出する手法がある。しかし、この手法で使用する画像センサはLiDAR等の外界センサと比べて取得データ量が多く、画像センサと計算処理部との通信や計算処理部での計算処理負荷が増大する。ただし、この問題は、計算機の増設や画像センサのフレームレート低減、または画像センサで検出した画像の圧縮、画素の間引き(画像データ量の低減)により回避できる。しかし、データ処理量が大きくなると、搭載する機器が多くなる。そのため、移動体の大きさやデザインが制約され、さらに、画像センサの検出性能の劣化を引き起こしてしまう。
また、予め用意した複数枚の画像と距離データを教師データとし、CNN(Convolutional Neural Network)によって、単眼で撮像された1枚の画像における各ピクセルの距離を推定する手法がある。ここで、ピクセルの距離とは、ピクセルに写っている対象物の、カメラからの距離である。この手法では、画像センサの搭載数を削減できるが、教師データに含まれる距離データの範囲内の距離のみを推定するため汎用性がないという欠点がある。このため、推定された距離の誤差や精度の範囲が保障されておらず、さらに処理負荷が高い。このため、人の活動環境等のリアルタイム、かつ高精度に距離検出が必要な環境では適用できないという課題がある。
このような背景に鑑みて本発明がなされたのであり、本発明は、低処理負荷な自律移動装置及び自律移動システムを提供することを課題とする。
前記した課題を解決するため、本発明は、移動体の直進方向に対して正方向の向きを撮像領域に含む第1の撮像部を、少なくとも2つ有し、前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有し、前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、算出された前記距離に基づいて、自己位置を算出し、算出された前記自己位置を基に、自律移動を行う自律移動制御部とを有し、前記距離算出部は、前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出することを特徴とする。
その他の解決手段は実施形態中において適宜記載する。
本発明によれば、低処理負荷な自律移動装置及び自律移動システムを提供することができる。
第1実施形態に係る移動体1の構成を示す図である。 単眼距離算出部113での距離算出の詳細と距離誤差を表す図(その1)である。 単眼距離算出部113での距離算出の詳細と距離誤差を表す図(その2)である。 単眼距離算出部113での距離算出の詳細と距離誤差を表す図(その3)である。 移動体1における移動制御の手法を示す図である。 第2実施形態による移動体1の計算処理部110aの構成を示す図である。 第3実施形態に係る自律移動システムZの構成例を示す図である。 第3実施形態に係るサーバ5の構成例を示す図である。
次に、本発明を実施するための形態(「実施形態」という)について、適宜図面を参照しながら詳細に説明する。
[第1実施形態]
まず、図1〜図3を参照して、本発明の第1実施形態を説明する。
図1は、第1実施形態に係る移動体1の構成を示す図である。
本実施形態では、複数の画像センサ120を搭載した無人車両や、自動車や、ロボット等、さらには船舶等のの移動体(自律移動装置)1が自律移動する。
移動体1は、複数(図1の例では6つ)の画像センサ(撮像部)120を備えるとともに、計算処理部110と、複数の駆動部130を備えている。画像センサ120は、具体的にはカメラである。ここで、画像センサ120として、Webカメラのような低解像度かつ安価なカメラを使用することができる。
画像センサ120のうち、画像センサ120A,120Bは、移動体1の移動方向に対して正方向の向きを撮像領域に含むように設置されている。つまり、画像センサ120A,120Bは、移動体1が図1に示す矢印A1の方向へ動くときに、移動体1の前方を撮像する。
そして、画像センサ120C,120Dは、移動体1の移動方向に対して負方向の向きを撮像領域に含むように設置されている。つまり、画像センサ120C,120Dは、移動体1が図1に示す矢印A1の方向へ動くときに、移動体1の後方を撮像する。
また、画像センサ120E、120Fは、それぞれ移動体1の移動方向に対して直交方向の向きを撮像領域に含むように設置されている。つまり、画像センサ120E,120Fは、移動体1が図1に示す矢印A1の方向へ動くときに、移動体1の側方を撮像する。ちなみに、移動体1が図1に示す矢印A1の方向へ動くときに、画像センサ120Eは、移動体1の左方を撮像し、画像センサ120Fは、移動体1の右方を撮像する。
なお、図1に示すように、画像センサ120E,120Fは、互いに略対向するように設置されている。
ここで、それぞれの画像センサ120の画角は広角または超広角にすることで移動体1の周囲の対象物を抜け目なく撮像できる。
画像センサ120の受光帯域は走行環境に応じて決定すればよい。例えば、屋内や昼間の屋外を走行する場合は可視光帯域を受光するカメラが画像センサ120として搭載される。また、暗所や夜間の屋外を走行する場合は近赤外帯域を受光する画像センサ120が搭載される。
画像センサ120のフレームレートは移動体1の最高移動速度や走行環境、制動距離、1フレーム間における最大移動距離等に基づいて設定されればよい。例えば、最高速度6km/hで屋内タイル上を走行する場合、周囲の撮像画像を基に急停止したときに許容できる移動距離を0.5mとすると、動摩擦係数0.3のタイル上での制動距離0.47mを考慮して、画像センサ120のフレームレートは6000/3600/(0.5−0.47)=約56fps程度に設定される。人や障害物の密度が低い環境では、1フレーム間における最大移動距離を0.05mとし、例えば、画像センサ120のフレームレートは6000/3600/0.05=約33fps程度に設定される。同様に、最高速度60km/hで屋外を走行する場合は、1フレーム間における最大移動距離を0.05mとし、画像センサ120のフレームレートが、例えば、60000/3600/0.05=約333fps程度に設定される。
移動速度に制約がない環境では、予め決定した画角と受光帯域を満たす画像センサ120の最大フレームレートや、制動距離等に基づいて移動体1の最高移動速度を決定することもできる。例えば、画像センサ120の最大フレームレートが30fpsである場合、1フレーム間における最大移動距離を0.05mとし、移動体1の最高移動速度が0.05×30=1.5m/s=5.4km/hに設定される。
駆動部130は車輪である。そして、駆動部130のうち、前部駆動部130A,130Bは車輪軸の方向を制御する。また、後部駆動部130C,130Dは車輪の回転数を制御する。後部駆動部130C,130Dは互いに異なる回転数で制御できる。例えば、後部駆動部130Cと後部駆動部130Dとをむすぶ線分の中心を旋回中心として超信地旋回する場合、前部駆動部130A,130Bの車輪軸を回転方向に対して垂直の方向に向け、後部駆動部130C,130Dを互いに逆方向に回転させる。
また、前部駆動部130A,130Bはキャスタ等でもよい。この場合、前部駆動部130A,130Bは制御されない。前部駆動部130A,130Bと、後部駆動部130C,130Dの機能を入れかえてもよい。すなわち、前部駆動部130A,130Bの回転数と、後部駆動部130C,130Dの車輪軸の方向を制御することで、前部駆動部130Aと前部駆動部130Bをむすぶ線分の中心を旋回中心として超信地旋回してもよい。なお、超信地旋回ではなく、単なる旋回でもよい。
計算処理部110は、図示しないCPU(Central Processing Unit)と、図示しないROM(Read Only Memory)、図示しないRAM(Random Access Memory)を備えている。ROM等に格納されているプログラムが、RAMにロードされ、ロードされたプログラムがCPUによって実行される。このようにすることで、データ取得部111、ステレオ距離算出部112、単眼距離算出部113、対象物検出部114、自己位置算出部115、制御部116が具現化する。
データ取得部111は、それぞれの画像センサ120で撮像された画像を設定したフレームレートで取得する。画像の取得は、それぞれの画像センサ120において同期的に行われる。
ステレオ距離算出部(距離算出部)112は、データ取得部111で同時刻に取得した画像センサ120A,120Bの画像の視差に基づいて、画像センサ120A,120Bの両方の撮像領域に含まれる対象物までの距離を算出する。そして、ステレオ距離算出部112は、画像センサ120A,120Bのうち少なくとも1つで撮像された、撮像時刻の異なる複数枚の画像にオプティカルフロー推定法を適用し、移動体1の前方に存在する対象物を追跡する。ここでの追跡とは、異なるフレーム(異なる撮像時刻における画像)において、同一の対象物を検出することである。
ステレオ距離算出部112は、画像センサ120C、120Dについても同様の処理を実行し、画像センサ120C,120Dの撮像領域に含まれる対象物までの距離を算出する。さらに、ステレオ距離算出部112は、オプティカルフロー推定法を適用し、移動体1の後方に存在する対象物を追跡する。
ここで対象物は、回避対象となる人や、障害物や、後記する自己位置算出部115で移動体1の位置と姿勢を算出するために使われる特徴点や、ランドマーク等である。前記したオプティカルフロー推定法は、例えば、Lucas−Kanade法や、Horn−Schunck法等が用いられる。画像センサ120のフレームレートや移動体1の最高移動速度に基づいて、ユーザは、オプティカルフロー推定法として、どの手法を用いるかを予め決定しておく。
単眼距離算出部(距離算出部)113は、データ取得部111で取得した画像センサ120E,120Fの各々で撮像された、撮像時刻がそれぞれ異なる画像と、後記する自己位置算出部115で算出した前記撮像時刻における移動体1の位置の時系列情報とに基づいて、画像センサ120E、120Fの各々の撮像領域に含まれる対象物までの距離を算出する。
また、単眼距離算出部113は、画像センサ120A,120Bのいずれか1つについても同様の処理を行い、画像センサ120A,120Bのいずれか1つに含まれる撮像領域に含まれる対象物までの距離を算出する。さらに、単眼距離算出部113は、画像センサ120C,120Dのいずれか1つについても同様の処理を行い、画像センサ120C,120Dのいずれか1つに含まれる撮像領域に含まれる対象物までの距離を算出する。要するに、単眼距離算出部113は、異なる時刻で撮像した2枚の画像における視差を利用して、あたかも複眼視したかのようにして幾何学的に距離を算出する。
画像センサ120A,120Bや、画像センサ120C,120Dで撮像された画像がステレオ距離算出部112で処理されるか、単眼距離算出部113で処理されるかは、後記する基準で切り替えられる。
なお、画像センサ120Aと、画像センサ120Cとは、図1に示すように互いの設置位置がずれるよう設置されてもよいし、位置が揃うよう(対向するよう)設置されてもよい。同様に、画像センサ120Bと、画像センサ120Dとは、図1に示すように互いの設置位置がずれるよう設置されてもよいし、位置が揃うよう(対向するよう)設置されてもよい。また、画像センサ120Eと、画像センサ120Fとは、図1に示すように互いの設置位置がずれるよう設置されてもよいし、位置が揃うよう(対向するよう)設置されてもよい。
対象物検出部(自律移動制御部)114は、ステレオ距離算出部112あるいは単眼距離算出部113で算出した各々の対象物までの距離と、画像センサ120それぞれの搭載位置と姿勢とに基づいて、各々の対象物の位置を算出する。そして、対象物が移動物である場合、対象物検出部114は、対象物それぞれの単位時間あたりの移動量を算出する。移動量は、ステレオ距離算出部112あるいは単眼距離算出部113のそれぞれでオプティカルフロー推定法により追跡した対象物における、複数の異なる時刻での位置と時刻とに基づいて算出される。
自己位置算出部(自律移動制御部)115は、データ取得部111で画像を取得した時刻における移動体1の位置及び姿勢を算出する。位置及び姿勢は、予め作成されている地図と、対象物検出部114で位置を算出した対象物とを対応付けることにより算出される(マップマッチング)。また、自己位置算出部115は、算出した移動体1の位置と姿勢に基づいて、対象物検出部114で算出した対象物の位置を修正する。つまり、自己位置算出部115は、移動体1の位置・姿勢と、地図とから、ステレオ距離算出部112や、単眼距離算出部113が算出した対象物の位置(距離)を修正する。
また、対象物が移動物である場合、自己位置算出部115は、算出した移動体1の位置と姿勢に基づいて、対象物の単位時間あたりの移動量を修正する。地図は、移動体1を手動で走行させながら、走行環境を撮像することで得られる。そして、撮像時刻の異なる複数枚の画像を取得し、取得した画像にSLAM(Simultaneous Localization and Mapping)やSfM(Structure from Motion)を適用することにより地図が作成される。地図作成のための撮像は、例えば、画像センサ120を複数搭載した台車を手動で移動させながら、または画像センサ120を複数搭載したユニットを手持ちして移動しながら行われる。
地図と対象物との対応付けの手法として以下の手法が存在する。いずれの手法が用いられてもよい。
・特徴点の配置関係に基づいて対応付けるICP(Iterative Closest Point)。
・SHOT(Signature of Histograms of OrienTations)。
・特徴量(画像上の特徴点近傍の輝度勾配ベクトルや、画像全体の輝度勾配ベクトルの分布等)が近似する特徴点同士を対応付ける手法。
これらの手法のうち、どの手法を採用するかは、地図の構成により決定される。例えば、地図が特徴点の位置情報のみで構成される場合、地図が2次元であればICP、3次元であればSHOTが採用される。なお、地図が特徴点の位置情報と特徴量で構成される場合、移動体1の自律移動時における自己位置推定では、地図作成時に用いた手法と同じ手法で特徴量が算出され、この特徴量を用いた対応付けが行われる。
制御部(自律移動制御部)116は、自己位置算出部115で算出した移動体1の位置、姿勢、修正された対象物の位置、対象物が移動物である場合、対象物の単位時間あたりの移動量に基づいて移動体1の次回移動量を決定する。そして、制御部116は、次回移動量に基づいて駆動部130への制御値を算出し、駆動部130に算出した制御値を送信する。
なお、矢印A2については後記する。
次に、図2A〜図2Cを参照して、移動方向、側方方向、超信地旋回時における単眼距離算出で生じる誤差を説明する。
(単眼距離算出による拒理誤差)
図2A〜図2Cは、単眼距離算出部113での距離算出の詳細と距離誤差を表している。
図2Aにおいて、移動体1は図1の矢印A1方向に移動しているものとする。そして、図2Aは、画像センサ120Aまたは画像センサ120Bが撮像した前方画像を基に単眼距離算出部113が対象物Jの距離を算出した場合に生じる可能性のある誤差を示している。
図2Aにおいて、符号201は時刻t1における移動体1の位置と姿勢である。このとき、画像センサ120Aは、移動体1の移動方向に対して、前方にある対象物Jを視線202で撮像する。
その後、移動体1は時刻t2に符号211の地点まで移動し、画像センサ120Aが対象物Jを視線212で撮像する。
単眼距離算出部113は、時刻t1における位置と姿勢(符号201)、時刻t2における位置と姿勢(符号211)、それぞれの時刻における視線202、視線212の視差に基づいて、対象物Jまでの距離(視線212の線分長)を算出する。
視線202と視線212の視差は、対象物Jに含まれる同一点を、時刻t1での画像と時刻t2での画像から検出することで算出される。同一点の検出は、オプティカルフロー推定法を用いることで行われる。時刻t2における位置と姿勢(符号211)は、後記する自己位置算出部115で算出した時刻t1における位置と姿勢(符号201)に、時刻t1に制御部116で決定した駆動部130への制御値を積算して算出した位置と姿勢の暫定値である。時刻t2における位置及び姿勢(符号211)の暫定値は、自己位置算出部115で処理修正される。つまり、自己位置算出部115は、地図を用いることによって、時刻t2における移動体1の位置・姿勢を修正する。
ここで仮に、時刻t2における視線212が、画像センサ120Aのセンサ誤差によって視線221として対象物Jを撮像したとする。この場合、対象物Jは地点Jaに存在すると計算される。このため、対象物Jまでの距離に誤差E1が生じる。
画像センサ120C,120Dのいずれか一方で撮像された後方画像を用いた場合も同程度の誤差が生じる。
このように移動体1の移動方向に存在する対象物Jと移動体1との距離を、単眼距離算出で距離を求めると、大きな誤差が生じてしまう。
図2Bにおいて、移動体1は図1の矢印A1方向に移動しているものとする。そして、図2Bは、画像センサ120E,画像センサ120Fのいずれか一方が撮像した側方画像を基に単眼距離算出部113が対象物Jの距離を算出した場合に生じる可能性のある誤差を示している。
距離算出の手法は図2Aの場合と同様である。すなわち、時刻t1に符号301の地点より視線302で対象物Jが撮像される。その後、時刻t2に符号311の地点より視線312で対象物Jが撮像される。そして、対象物Jまでの距離(視線312の線分長)が算出される。ここで仮に、時刻t2における視線312が、画像センサ120Eのセンサ誤差によって視線321として対象物Jを撮像したとすると、対象物Jは地点Jbに存在すると計算される。つまり、対象物Jまでの距離に誤差E2が生じる。
図2Aに示す誤差角θ1と、図2Bに示す誤差角θ2は、ほとんど同じである。むしろ、図2Bに示す誤差角θ2の方が、図2Aに示す誤差角θ1より若干大きい。にもかかわらず、図2Aに示す誤差E1と、図2Bに示す誤差E2とを比較すると、図2Bに示す誤差E2のほうが小さい。これは、対象物Jまでの距離が、時刻t1の画像と時刻t2の画像との視差と反比例の関係にあるからである。要するに、時刻t1の画像と時刻t2の画像との視差が小さいと、誤差が大きくなりやすい。逆に、時刻t1の画像と時刻t2の画像との視差が大きいと、誤差が大きくなりにくい。
よって、誤差を小さくするためには、2つの画像の視差をできるだけ大きくする必要がある。
そのために、移動方向に対して直交方向の向きの撮像領域に対しては、ステレオ距離算出部112よりも処理負荷の低い単眼距離算出部113の処理を適用することが望ましい。
このように、移動体1の移動方向に対して直交方向に備えられている画像センサ120で撮像された画像は、単眼距離算出部113によって距離を算出されることが望ましい。例えば、駆動部130がオムニホイール等であれば、移動体1が図1の矢印A2の方向に移動することも可能である。移動体1が図1の矢印A2の方向に移動するような場合、画像センサ120A〜120Dが移動方向に対して直交方向に設置されている画像センサ120となる。このような場合、画像センサ120A〜120Dで撮像された画像は、単眼距離算出部113による距離算出が行われるとよい。ただし、この場合、画像センサ120A,120Bのいずれか一方、画像センサ120C,120Dのいずれか一方で撮像された画像が用いられればよい。
また、移動体1の移動方向に対して正方向(つまり前方)、負方向(つまり後方)に設置されている画像センサ120で撮像された画像は、ステレオ距離算出部112で処理される。
すなわち、図2Aに示すように、誤差E1は大きい値となるため、図2Aのように移動体1の移動方向に設置されている画像センサ120A,120Bで撮像された画像は、単眼距離算出部113より、ステレオ距離算出部112で処理されるのがよい。
このように、本願の特徴は、移動体1の移動方向によって、同じ画像センサ120でも、単眼距離算出を行うか、ステレオ距離算出を行うかが切り替えられることにある。
図2Cでは、移動体1が超信地旋回している場合について説明する。
移動体1が図2Cの旋回方向(矢印A3)の方向に超信地旋回する場合、図1の矢印A1に示す移動方向に対して直交方向に移動体1が移動しているといえる。すなわち、この場合、画像センサ120A〜120Dは、移動体1の移動方向とは直交方向に存在する画像センサ120(側方に設置されている画像センサ120)となる。
つまり、移動体1が超信地旋回している間、画像センサ120A〜120Dについてステレオ距離算出部112の処理を適用しない方がよい。すなわち、移動体1が超信地旋回している場合、画像センサ120A,120Bのうち、少なくとも1つで撮像した画像に単眼距離算出部113の処理を適用する。同様に、画像センサ120C,120Dのうち、少なくとも1つで撮像した画像に単眼距離算出部113の処理を適用する。その理由を以下に記載する。
図2Cにおいて、移動体1は図2Cの矢印A3の方向に旋回(超信地旋回)しているものとする。そして、図2Cは、画像センサ120Aまたは画像センサ120Bが撮像した画像を基に単眼距離算出部113が対象物Jの距離を算出した場合に生じる可能性のある誤差を示している。
図2Cにおける距離算出の手法は図2A及び図2Bの場合と同様である。時刻t1で、画像センサ120Aは符号401の位置・姿勢において、視線402で対象物Jを撮像する。その後、移動体1が超信地旋回方向(矢印A3)へ超信地旋回する。そして、時刻t2で、画像センサ120Aは、符号411の位置・姿勢において視線412で対象物Jを撮像する。
その後、単眼距離算出部113は、時刻t1で撮像された画像と、時刻t2で撮像された画像とを基に対象物Jまでの距離(視線412の線分長)を算出する。超信地旋回中かどうかは、時刻t1での制御部116の制御値から判断される。
ここで仮に、時刻t2における視線412が、画像センサ120Aのセンサ誤差によって視線421として、対象物Jが撮像されたものとする。この場合、対象物Jは地点Jcに存在すると計算され、対象物Jまでの距離に誤差E3が生じる。
ここで、図2Aに示す誤差E1と、図2Cに示す誤差E3とを比較すると、誤差E3の方が小さい。これは、移動方向に対して直交方向の移動量、つまり、旋回方向(矢印A3)が増大し、視差が大きくなったためである。言い換えれば、図2Cでは移動体1の移動方向が旋回方向(矢印A3)であるため、画像センサ120A(あるいは、画像センサ120B)が、移動体1の側方を撮像する側方画像センサとなったためである。
よって、超信地旋回量を制御部116の制御値に基づいて算出し、超信地旋回量が予め設定した判定閾値よりも大きい場合、画像センサ120A,120Bのうち、少なくとも1つで撮像した画像に単眼距離算出部113の処理を適用する。この場合、ステレオ距離算出部112は何も実行しない。画像センサ120C,120Dについても同様である。
このように、画像センサ120が移動体1の移動方向に対して、直交方向に備えられている場合、ステレオ距離算出よりも、単眼距離算出の方が誤差を小さくすることができる。さらに、単眼距離算出は、ステレオ距離算出の方が処理データを低減できるため、処理負荷を低減することができる。
つまり、移動体1が超信地旋回している場合、画像センサ120A、120Bで撮像された画像をステレオ距離算出部112により距離を算出するよりも、単眼距離算出部113で距離を算出する手法の方が誤差を低減できる。さらに、単眼距離算出部113で距離を算出することにより、処理対象の画像データ量が削減され、処理負荷を低減することができる。
なお、画像センサ120A,120Bのうち、どの画像センサ120で撮像した画像を単眼距離算出部113に適用するかは、超信地旋回による各々の画像センサ120の移動量に基づいて決定される。例えば、画像センサ120A,120Bのうち、画像センサ120Aの移動量が大きければ、画像センサ120Aで撮像された画像が使用される。画像センサ120C,120Dについても同様である。
ただし、移動体1の中心軸に対して画像センサ120A,120Bが対称の位置関係にある場合、画像センサ120A,120Bそれぞれの超信地旋回による移動量は同じである。このような場合、撮像された画像上において特徴点が多い画像センサ120の画像が使用される。画像センサ120C,120Dも同様である。
単眼距離算出部113で距離を算出するか、ステレオ距離算出部112で距離を算出するかの判定閾値は、画像センサ120A,120Bと、画像センサ120C,120Dのそれぞれで予め設定されている。例えば、画像センサ120Aと画像センサ120Bとの距離(ベースライン距離)が、判定閾値として設定される。画像センサ120C,120Dについても同様に設定される。ここで、ベースライン距離は、ステレオ距離算出における視差である。つまり、異なる時刻で画像が撮像された場合、それぞれの撮像時刻間において、移動体1が図1の矢印A2の方向に移動した距離が、ベースライン距離より大きい場合、画像センサ120A,120Bのいずれか一方で撮像された画像に対し、単眼距離算出が適用される。それぞれの撮像時刻間において、移動体1が図1の矢印A2の方向に移動した距離が、ベースライン距離より小さい場合、画像センサ120A及び画像センサ120Bで撮像された画像に対し、ステレオ距離算出が適用される。画像センサ120C,120Dについても同様である。
ちなみに、画像センサ120E,120Fは、超信地旋回時でも移動体1の移動方向に対して直交方向に備えられているため、単眼距離算出部113による距離算出が適用される。
なお、CNNは学習による推定距離であるため、CNNを用いた単眼距離算出は距離の精度に保障がない。本実施形態では、幾何学的に求められる距離であるため、誤差は生じるものの、CNNより算出される距離の精度が保障される。
なお、ここでは超信地旋回について記載しているが、カーブでも適用可能である。移動体1がカーブしている場合、移動体1の移動方向のベクトルを直進方向と、直進方向と直交する方向(直交方向)のベクトルに分解したとき、直進方向成分が直交方向成分より大きい場合、画像センサ120A、120Bのいずれか一方で撮像された画像に対してステレオ距離算出が適用される。また、直交方向成分が直進方向成分より大きい場合、画像センサ120A、120Bのいずれか一方で撮像された画像に対して単眼距離算出が適用される。画像センサ120C,120Dについても同様である。
(移動制御)
図3は、移動体1における移動制御の手法を示す図である。
まず、予め作成した壁等の対象物J1と目的地点位置とに基づいて、目的地点までの目標経路Wが作成される。目標経路Wの作成手法として、例えば、ダイクストラ法やA−Star法がある。この手法では、まず、出発点と終了点が指定される。そして、対象物J1を構成する各特徴点の近傍にポテンシャル場Pが設けられる。ポテンシャル場Pは、移動体1が避ける領域である。次に、制御部116は、目的地点までの距離とポテンシャル場Pとを基に、最小のコストとなる経路探索を行う。そして、制御部116は、最小コストとなる経路が目標経路Wとして生成される。目標経路Wは、例えば、図示しないサーバ等で生成された後、移動体1に送信される。
次に、制御部116は、前回の制御値を基に算出された移動体1の移動速度と旋回角速度B1を中心として、次回の移動速度と旋回角速度の候補Bを複数設定する。そして、制御部116は、それぞれの候補Bを採用した場合における次回の移動体1の候補位置を算出する。
それぞれの候補Bにおける各移動速度及び旋回角速度は、移動体1の最大移動速度と最大旋回角速度を超えないように設定される。例えば、候補B1での移動速度をVmとし、候補B2の移動速度を(Vm−3km/h)から(Vm+3km/h)の範囲で設定したとする。このとき、最大移動速度が(Vm+2km/h)の場合は、移動速度の候補B2を(Vm−3km/h)から(Vm+2km/h)の範囲に設定しなおす。
次に、制御部116は、自己位置算出部115で修正した移動対象物M1,M2の位置と単位時間あたりの移動量M11、M21を基に、移動対象物M1,M2の近傍にポテンシャル場P1、P2を設ける。そして、制御部116は、移動体1の次回移動先候補位置から目標経路Wまでのコストと、移動体1の次回移動先候補位置から目標地点(移動終了地点)までのコストとを比較する。このとき、制御部116は、各ポテンシャル場P,P1,P2を避ける経路でコストを算出する。
そして、制御部116は、最もコストが低くなる候補Bを選択する。そして、制御部116は、最小コストとなる候補Bを次回の移動速度と旋回角速度として採用する。その後、制御部116は、採用した移動速度と旋回角速度に基づいて駆動部130への制御値を算出する。
なお、図3の例では、移動対象物M1,M2を避けるために、移動体1が既に目標経路Wを外れているところを示している。
第1実施形態では、移動体1の移動方向に画像センサ120が設置されている場合、ステレオ距離算出が適用される。また、画像センサ120が移動方向に対して直交方向に設置されている場合、単眼距離算出が適用される。このようにすることにより、移動体1は、移動・旋回方向に応じて、処理負荷が低くなるよう最適な距離算出手法を選択する。これにより、無死角でありながら、高精度かつ低処理負荷な自律移動を実現することができる。また、誤差が小さくなる距離算出手法が選択されることで、安価なカメラでも算出される距離の精度が低下することを防止することができる。
これにより、安価なカメラでも障害物検出精度が低下することを防止することができる。
なお、特許文献1に記載の技術は、車両の移動方向とは関係なく、カメラの視野が重複していない部分を単眼視している。これに対して、本実施形態では移動体1の移動方向に応じて、ステレオ距離算出と、単眼距離算出とを切り替えている点が異なる。
また、これまでは画像の取得頻度を低下させて処理負荷を低減することが行われていたが、このような手法では距離算出精度の低下等といった性能低下が生じるおそれがある。本実施形態では、画像の取得頻度を低下させることなく、距離算出精度の低下等を防ぐことができる。
[第2実施形態]
次に、図4を参照して、本発明の第2実施形態を説明する。
第2実施形態では、移動体1が、起動時や、目的地に到着後の停止時や、人混みでの停滞時や、エレベータ搭乗等における一時停止後に、安全に自律移動を開始・再開することを目的とする。
図4は、第2実施形態による移動体1の計算処理部110aの構成を示す図である。
計算処理部110aは、第1実施形態と同様の構成である各部111〜116に加えて、状態判定部117と、旋回角速度変更部(自律移動制御部)118を有している。
各部111〜116は、第1実施形態における各部111〜116と同様の処理を実行することで、移動体1を自律移動させる。
状態判定部117は、自己位置算出部115で算出した移動体1の位置と姿勢の時系列情報と、起動情報とに基づいて、移動体1の走行状態を判定する。計算処理部110aの起動時や、現在時刻を含めた過去の一定期間(例えば30秒間)における移動体1の位置と姿勢の両方が変化していない場合において、状態判定部117は走行状態を「停止・停滞」と判定する。それ以外の場合、状態判定部117は走行状態を「走行」と判定する。
旋回角速度変更部118は、状態判定部117で判定した走行状態に基づいて、移動体1の最高旋回角速度を設定する。走行状態が「停止・停滞」の場合は、最高旋回角速度をゼロに設定する。これは、単眼距離算出が、画像を時系列で取得しなければ算出できないためである。つまり、走行状態が「停止・停滞」の場合、画像センサ120E,120Fによる対象物の距離算出ができない状態である。これにより、移動体1の側方に存在している対象物の距離が算出できていないため、移動体1の側方が死角となっている。そのため、移動体1を旋回して発進させると、思わぬ障害物に衝突するおそれがある。そのため、最高旋回角速度がゼロに設定され、直進方向にしか発進できないようになっている。
走行状態が「走行」の場合、走行状態が「停止・停滞」から「走行」に切り替わった時刻における移動体1の位置と、現在の移動体1の位置との距離が一定量(例えば1m)を超えたとき、最高旋回角速度を移動体1の本来の値に設定する。これは、前記したように、単眼距離算出には、画像が時系列的にある程度揃っている必要があるためである。
第2実施形態の移動体1は、起動時や、停止・停滞時から走行を開始・再開するとき、一定量を直進・後退するまで旋回しないように駆動部130を制御する。このようにすることにより、移動体1の側方に存在する対象物までの距離を正確に算出できるようになるまで、移動体1の前方に存在する対象物と後方に存在する対象物までの距離をステレオ距離算出で算出しながら移動する。このようにすることにより、移動体1を安全な方向に移動することができる。
移動体1の位置と姿勢が変化しているか否かの判定は、例えば、以下の手順で行われる。まず、状態判定部117が、現在時刻を含めた過去の一定期間における位置と姿勢との分散を算出する。そして、状態判定部117が、予め設定した状態判定閾値と、算出した分散とを比較することで移動体1の位置と姿勢が変化しているか否かの判定を実行する。
ここで、状態判定閾値が小さく設定されると、分散が0近傍で停止と判定される。また、状態判定閾値が大きく設定されると、移動体1がかなり動いている状態でも停止と判定される。
状態判定閾値が小さく設定されると、移動体1が少し動いただけでも移動していると判定されてしまう。従って、移動体1の側方に設置された画像センサ120が、単眼距離算出に必要な距離を動く前に、側方に設置された画像センサ120による単眼距離算出が行われてしまう。
逆に、状態判定閾値が大きく設定されると、前記したように、移動体1がかなり動いている状態でも停止と判定される。つまり、移動体1の側方に設置された画像センサ120が、単眼距離算出に必要な距離を動いた後に、側方に設置された画像センサ120による単眼距離算出が行われる。
このような特徴から、人ごみや、周囲に障害物が多い場合には、状態判定閾値を大きく設定し、周囲に何もないような場所では状態判定閾値を小さく設定するとよい。このようにすることで、効率的な移動体1の移動を実現することができる。
[第3実施形態]
図5は、第3実施形態に係る自律移動システムZの構成例を示す図である。
図5に示すように、自律移動システムZは、移動体1bと、サーバ5とを有する。
移動体1bは、それぞれの画像センサ120で撮像した画像をサーバ5へ送信する。サーバ5は、送信された画像を基に、単眼距離算出またはステレオ距離算出を用いて移動体1bから対象物までの距離を算出する。そして、サーバ5は、算出した対象物までの距離を基に、対象物の位置を算出し、さらに、マップマッチングによって移動体1bの自己位置(位置・姿勢)を算出する。そして、サーバ5は、移動体1bの自己位置等を基に、移動体1bが、次回移動速度及び旋回角度を算出する。その後、サーバ5は、移動体1bの自己位置、及び、移動体1bの次回移動速度及び旋回角度を移動指示情報として移動体1bに送信する。移動体1bは、受信した移動指示情報に従って移動を行う。なお、移動体1b及びサーバ5の間の通信は無線通信が好ましい。
また、サーバ5は、上記した処理の他にも、第1実施形態におけるステレオ距離算出部112、単眼距離算出部113、対象物検出部114、自己位置算出部115及び制御部116が行う処理を適宜行う。
移動体1bの計算処理部110bは、データ送信部119aと、データ受信部119bと、移動制御部119cとを有する。
データ送信部119aは、それぞれの画像センサ120で撮像された画像をサーバ5へ送信する。
データ受信部119bは、サーバ5から移動指示情報を受信する。
また、移動制御部119cは、サーバ5から送られた移動指示情報に基づいて、それぞれの駆動部130を制御する。
画像センサ120(120A〜120F)、駆動部130(130A〜130D)は図1と同様であるので、ここでの説明を省略する。
また、サーバ5の詳細は図6で説明する。
図6は、第3実施形態に係るサーバ5の構成例を示す図である。
サーバ5は、データ受信部511、ステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515、制御部516及びデータ送信部517を有する。
データ受信部511は、移動体1bから、それぞれの画像センサ120で撮像された画像を受信する。
ステレオ距離算出部512、単眼距離算出部513、対象物検出部514及び自己位置算出部515は、図1のステレオ距離算出部112、単眼距離算出部113、対象物検出部114及び自己位置算出部115と同様の動作を行うので、ここでの説明を省略する。
制御部516は、図1の制御部216が行う動作のうち、駆動部130の制御以外の動作を行う。
データ送信部517は、ステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515、制御部516による処理で算出された移動体1bの自己位置、及び、移動体1bの次回移動速度・旋回角度を移動指示情報として移動体1bへ送信する。
なお、サーバ5は、図示しないCPUと、図示しないRAM、図示しないHD(Hard Disk)等を備えている。そして、HD等に格納されているプログラムが、RAMにロードされ、ロードされたプログラムがCPUによって実行される。このようにすることで、データ受信部511、ステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515及び制御部516が具現化する。
第3実施形態によれば、移動体1bの移動に必要な距離の計算や、移動体1bの位置計算がサーバ5で行われるため、移動体1bの処理負荷を低減することができる。ちなみに、サーバ5は、複数の移動体1bについて、距離の計算や、移動体1bの位置計算を行うことができる。
また、図6に示すサーバ5を構成するステレオ距離算出部512、単眼距離算出部513、対象物検出部514、自己位置算出部515、制御部516のうち、少なくとも1つが移動体1bに備わっていてもよい。
例えば、駆動部130としてオムニホイールを用いることができる。このような場合、移動体1は図1の画像センサ120Eや、画像センサ120Fの方向に移動することができる。このような構成の場合、画像センサ120Eや、画像センサ120Fの方向に、2つの画像センサ120が設けられてもよい。
本実施形態の移動体1は、ロボットや、自律移動する車両や、自律移動するパーソナルモビリティ等といった自律移動装置に適用可能である。
本発明は前記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を有するものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、前記した各構成、機能、各部111〜118、記憶部等は、それらの一部又はすべてを、例えば集積回路で設計すること等によりハードウェアで実現してもよい。また、前記した各構成、機能等は、CPU等のプロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、HD(Hard Disk)に格納すること以外に、メモリや、SSD(Solid State Drive)等の記録装置、又は、IC(Integrated Circuit)カードや、SD(Secure Digital)カード、DVD(Digital Versatile Disc)等の記録媒体に格納することができる。
また、各実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には、ほとんどすべての構成が相互に接続されていると考えてよい。
1 移動体(自律移動装置)
5 サーバ
112,512 ステレオ距離算出部(距離算出部)
113,513 単眼距離算出部(距離算出部)
114,514 対象物検出部(自律移動制御部)
115,515 自己位置算出部(自律移動制御部)
116,516 制御部(自律移動制御部)
117, 状態判定部
118 旋回角速度変更部(自律移動制御部)
120,120A〜120F 画像センサ(撮像部)

Claims (5)

  1. 移動体の直進方向に対して正方向の向きを撮像領域に含む第1の撮像部を、少なくとも2つ有し、
    前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有し、
    前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、
    算出された前記距離に基づいて、自己位置を算出し、算出された前記自己位置を基に、自律移動を行う自律移動制御部と
    を有し、
    前記距離算出部は、
    前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、
    前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出する
    ことを特徴とする自律移動装置。
  2. 前記自律移動装置が停止しているか、移動しているかを判定する状態判定部を、有し、
    前記自律移動制御部は、
    前記自律移動装置が停止から移動に移ったとき、所定距離の間、前記自律移動装置を直進方向へ移動させる
    ことを特徴とする請求項1に記載の自律移動装置。
  3. 前記自律移動装置が停止しているか、移動しているか否かの判定は、前記自律移動装置の位置の分散と、判定閾値とが比較されることによって行われ、
    前記自律移動装置が移動する周囲の環境によって、前記判定閾値が変更される
    ことを特徴とする請求項2に記載の自律移動装置。
  4. 前記第1の撮像部は、移動体の直進方向に対して負方向の向きを撮像領域に含む第3の撮像部を、少なくとも2つ有し、
    前記距離算出部は、
    前記第3の撮像部が撮像した画像の視差に基づいて、前記距離を算出する
    ことを特徴とする請求項1に記載の自律移動装置。
  5. 自律移動装置と、サーバと、を備え、
    前記自律移動装置は、
    移動体の直進方向に対して正方向の向きを撮像領域に含む第1の撮像部を、少なくとも2つ有し、
    前記移動体の直進方向に対して直交方向の向きを撮像領域に含む第2の撮像部を、それぞれ少なくとも1つ有するとともに、
    前記サーバから送られた前記自律移動装置の自己位置を基に、自律移動を行う自律移動制御部を
    有し、
    前記サーバは、
    前記第1の撮像部及び前記第2の撮像部で撮像された撮像画像に基づいて、撮像領域内の対象物までの距離を算出する距離算出部と、
    算出された前記距離に基づいて、前記自律移動装置の自己位置を算出する位置算出部と、
    を有し、
    前記距離算出部は、
    前記第1の撮像部が撮像した画像の視差に基づいて、前記距離を算出し、
    前記第2の撮像部が撮像した、撮像時間がそれぞれ異なる複数の撮像画像に基づいて、前記距離を算出する
    ことを特徴とする自律移動システム。
JP2018093563A 2018-05-15 2018-05-15 自律移動装置及び自律移動システム Active JP7064948B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018093563A JP7064948B2 (ja) 2018-05-15 2018-05-15 自律移動装置及び自律移動システム
PCT/JP2019/007890 WO2019220740A1 (ja) 2018-05-15 2019-02-28 自律移動装置及び自律移動システム
DE112019001454.4T DE112019001454T5 (de) 2018-05-15 2019-02-28 Autonomes mobiles endgerät und autonomes mobiles system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018093563A JP7064948B2 (ja) 2018-05-15 2018-05-15 自律移動装置及び自律移動システム

Publications (2)

Publication Number Publication Date
JP2019200509A true JP2019200509A (ja) 2019-11-21
JP7064948B2 JP7064948B2 (ja) 2022-05-11

Family

ID=68540034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018093563A Active JP7064948B2 (ja) 2018-05-15 2018-05-15 自律移動装置及び自律移動システム

Country Status (3)

Country Link
JP (1) JP7064948B2 (ja)
DE (1) DE112019001454T5 (ja)
WO (1) WO2019220740A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021105816A (ja) * 2019-12-26 2021-07-26 株式会社竹中工務店 移動経路決定装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061075A (ja) * 2001-08-09 2003-02-28 Matsushita Electric Ind Co Ltd 物体追跡装置、物体追跡方法および侵入者監視システム
JP2007263657A (ja) * 2006-03-28 2007-10-11 Denso It Laboratory Inc 3次元座標取得装置
JP2008123462A (ja) * 2006-11-16 2008-05-29 Hitachi Ltd 物体検知装置
JP2013015882A (ja) * 2011-06-30 2013-01-24 Toyota Motor Corp 車両用画像認識装置
JP2013054399A (ja) * 2011-08-31 2013-03-21 Honda Motor Co Ltd 車両周辺監視装置
JP2013186042A (ja) * 2012-03-09 2013-09-19 Hitachi Automotive Systems Ltd 距離算出装置及び距離算出方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061075A (ja) * 2001-08-09 2003-02-28 Matsushita Electric Ind Co Ltd 物体追跡装置、物体追跡方法および侵入者監視システム
JP2007263657A (ja) * 2006-03-28 2007-10-11 Denso It Laboratory Inc 3次元座標取得装置
JP2008123462A (ja) * 2006-11-16 2008-05-29 Hitachi Ltd 物体検知装置
JP2013015882A (ja) * 2011-06-30 2013-01-24 Toyota Motor Corp 車両用画像認識装置
JP2013054399A (ja) * 2011-08-31 2013-03-21 Honda Motor Co Ltd 車両周辺監視装置
JP2013186042A (ja) * 2012-03-09 2013-09-19 Hitachi Automotive Systems Ltd 距離算出装置及び距離算出方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021105816A (ja) * 2019-12-26 2021-07-26 株式会社竹中工務店 移動経路決定装置
JP7379802B2 (ja) 2019-12-26 2023-11-15 株式会社竹中工務店 移動経路決定装置

Also Published As

Publication number Publication date
DE112019001454T5 (de) 2021-01-07
JP7064948B2 (ja) 2022-05-11
WO2019220740A1 (ja) 2019-11-21

Similar Documents

Publication Publication Date Title
US11393350B2 (en) Systems and methods for vehicle guidance using depth map generation
US10133278B2 (en) Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof
US9846043B2 (en) Map creation apparatus, map creation method, and computer-readable recording medium
Kobilarov et al. People tracking and following with mobile robot using an omnidirectional camera and a laser
US11906983B2 (en) System and method for tracking targets
JP4810582B2 (ja) 移動体画像追尾装置および方法
JP2017087758A (ja) 障害物検知装置
KR102305333B1 (ko) 주행 보조 방법, 주행 보조 시스템 및 차량
CN106569225B (zh) 一种基于测距传感器的无人车实时避障方法
KR20150144730A (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP4333611B2 (ja) 移動体用の障害物検出装置
Coombs et al. 'Bee-bot': using peripheral optical flow to avoid obstacles
US10379541B2 (en) Mobile unit control device and mobile unit
JP7385388B2 (ja) 自己位置推定装置
Coombs et al. Centering behavior using peripheral vision
JP2020106357A (ja) 移動量推定装置
Huang A Semi-Autonomous Vision-Based Navigation System for a Mobile Robotic Vehicle
WO2019220740A1 (ja) 自律移動装置及び自律移動システム
WO2021246170A1 (ja) 情報処理装置、情報処理システム、および方法、並びにプログラム
CN109398533A (zh) 一种移动平台及移动平台长时间跟踪的方法
Hattori et al. Generalized measuring-worm algorithm: High-accuracy mapping and movement via cooperating swarm robots
US20240019877A1 (en) Following control method for robot, electronic device, and storage medium
WO2023234384A1 (ja) 地図生成装置、地図生成方法、及びコンピュータ読み取り可能な記録媒体
JP7199337B2 (ja) 位置推定装置、位置推定方法およびプログラム
WO2023067892A1 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R150 Certificate of patent or registration of utility model

Ref document number: 7064948

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150