JP2016173655A - 移動体用制御システム及び移動体の制御方法 - Google Patents

移動体用制御システム及び移動体の制御方法 Download PDF

Info

Publication number
JP2016173655A
JP2016173655A JP2015052427A JP2015052427A JP2016173655A JP 2016173655 A JP2016173655 A JP 2016173655A JP 2015052427 A JP2015052427 A JP 2015052427A JP 2015052427 A JP2015052427 A JP 2015052427A JP 2016173655 A JP2016173655 A JP 2016173655A
Authority
JP
Japan
Prior art keywords
feature point
deviation
traveling direction
unit
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015052427A
Other languages
English (en)
Inventor
拓也 上原
Takuya Uehara
拓也 上原
隆史 園浦
Takashi Sonoura
隆史 園浦
直孝 菅沼
Naotaka Suganuma
直孝 菅沼
陽 露木
Akira Tsuyuki
陽 露木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015052427A priority Critical patent/JP2016173655A/ja
Publication of JP2016173655A publication Critical patent/JP2016173655A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】進行方向に対する移動体の実移動方向のずれ度合いを推定可能な技術を提供する。【解決手段】実施形態によれば、進行方向決定部115は、移動ロボットの進行方向を決定する。画像取得部101は、移動ロボットの進行方向を含む画像データを取得する。特徴点抽出部103は、当該画像データが示す撮像画像から特徴点を抽出する。ずれ推定用特徴点決定部107は、当該特徴点のうち、撮像画像において進行方向を示す基準線の一部を含む所定の範囲内にあるものに基づいて、ずれ推定用特徴点を決定する。ずれ推定用特徴点追跡部108は、移動ロボットの移動に伴う、ずれ推定用特徴点の撮像画像における位置の時間変化を追跡する。ずれ推定部109は、追跡されているずれ推定用特徴点の撮像画像における位置に基づいて、進行方向に対する実際に移動体が移動している実移動方向のずれ度合いを推定する。【選択図】図2

Description

本発明の実施形態は、移動体を制御する技術に関する。
車輪やクローラ、脚機構等の移動を生じさせる機構(以下、移動機構と記す)を有する移動体には、例えば、自動車や移動ロボットがある。このような移動体は、例えば、制御システムにより移動機構が制御されて、移動機構が接する物理的な面(以下、移動面と記す)上を移動する。このような移動体は、操作者等の遠隔操作を受けて制御システムが進行方向を決定する場合がある。また、制御システムが移動体の周辺の環境を認識して自動的に進行方向を決定する、いわゆる自律移動を行う場合もある。
なお、下記の特許文献1には、自動車の前方をカメラにより撮像し、撮像された画像から走行路面の区画線(いわゆる白線)を検出して走行レーンを設定し、当該走行レーンに沿って走行するよう自動車を制御する運転支援装置が開示されている。
特開2014−44744号公報
このような移動体は、制御システムが決定した進行方向に対して、実際に移動する方向(以下、実移動方向と記す)がずれる場合がある。このような「ずれ」が生じる要因には、移動機構の製造上の精度、移動体に設けられたセンサの精度やドリフトがある。また、移動面の傾斜や凹凸等の影響を受けた場合にも、移動体は、制御システムにより決定された進行方向に対して左右のいずれかにずれた方向に移動する。
このような進行方向に対する実移動方向の「ずれ」は、操作者や制御システムには、認識することが困難なものである。なお、GPS等の外部からの電波信号を制御システムが受けて、移動体の位置を認識し、上述した「ずれ」を算出する技術も考えられるが、このような技術では、移動ロボットが屋内等の電波の状態が悪い場所に位置している場合、正しく機能させることができないという問題がある。
本発明の実施形態は、上記事情に鑑みてなされたものであって、進行方向に対する移動体の実移動方向のずれ度合いを推定可能な移動体用制御技術を提供することを目的とする。
上述の目的を達成するため、本発明の実施形態の移動体用制御システムは、移動体の進行方向を決定する進行方向決定部と、移動体に設けられており、進行方向を含む画像を撮像可能なカメラと、当該カメラにより撮像された画像データを取得する画像取得部と、当該画像データが示す撮像画像から特徴点を抽出する特徴点抽出部と、当該特徴点のうち、撮像画像において進行方向を示す基準線の一部を含む所定の範囲内にあるものに基づいて、ずれ推定用特徴点を決定するずれ推定用特徴点決定部と、移動体の移動に伴う、ずれ推定用特徴点の撮像画像における位置の時間変化を追跡するずれ推定用特徴点追跡部と、当該ずれ推定用特徴点追跡部により追跡されているずれ推定用特徴点の撮像画像における位置に基づいて、前記進行方向に対する実際に移動体が移動している実移動方向のずれ度合いを推定するずれ推定部と、を備えることを特徴とする。
また、本発明の実施形態の移動体の制御方法は、移動体の進行方向を、進行方向決定部が決定するステップと、移動体の進行方向を含む画像データを、画像取得部が取得するステップと、当該画像データが示す撮像画像から特徴点を、特徴点抽出部が抽出するステップと、当該特徴点のうち、撮像画像において進行方向を示す基準線の一部を含む所定の範囲内にあるものに基づいて、ずれ推定用特徴点を、ずれ推定用特徴点決定部が決定するステップと、移動体の移動に伴う、ずれ推定用特徴点の撮像画像における位置の時間変化を、ずれ推定用特徴点追跡部が追跡するステップと、追跡されているずれ推定用特徴点の撮像画像における位置に基づいて、前記進行方向に対する実際に移動体が移動している実移動方向のずれ度合いを、ずれ推定部が推定するステップと、を含むことを特徴とする。
本発明の実施形態によれば、進行方向に対する移動体の実移動方向のずれ度合いを推定できる。
第1の実施形態の移動体と、その制御システムの概略構成を示す斜視図である。 第1の実施形態の制御システムの構成を模式的に示すブロック図であり、当該制御システムが実行する情報処理の内容を示している。 撮像画像の一例を説明する図である。 撮像画像の一例を説明する図であり、当該撮像画像において抽出された特徴点を説明する図である。 撮像画像の一例を説明する図であり、移動ロボットの進行方向を示す特徴点選定基準線と、当該基準線を含む所定の範囲にある直進ずれ推定用特徴点とを説明する図である。 第2の実施形態の制御システムの構成を模式的に示すブロック図であり、当該制御システムが実行する情報処理の内容を示している。
以下に、本発明の実施形態について図面を参照して説明する。なお、以下に説明する実施形態により、本発明が限定されるものではなく、その要旨を逸脱しない範囲において種々の変更が可能である。
〔第1の実施形態〕
まず、本実施形態の移動体の一例について、図1を用いて説明する。図1は、本実施形態の移動体と、その制御システムの概略構成を示す斜視図である。
図1に示すように、本実施形態の移動体は、自動的に移動すること可能な移動ロボット10であり、操作者により遠隔操作されるものである。より具体的には、移動ロボット10は、移動機構として4つの脚機構12を備えた、いわゆる脚移動ロボット(legged robot)である。4つの脚機構12は、移動ロボット10の本体11から移動面に向けて延びており、当該移動面に接している。各脚機構12は、それぞれ、モータ(図示せず)を内蔵しており、当該モータにより駆動可能に構成されている。各脚機構12は、制御ユニット18により制御されて、それぞれ独立して動作可能に構成されている。
移動ロボット10の本体11には、進行方向を含む周辺の環境を撮像可能なカメラ14が複数設けられている。本実施形態において、各カメラ14は、映像を記録可能なビデオカメラとして構成されており、広角レンズを備えている。複数のカメラ14は、本体11を中心とする全方位を死角なく撮像することができるように配置されている。また、移動ロボット10は、内界センサとして本体11の加速度を検出する加速度センサ15と、本体11の角速度を検出するジャイロセンサ16とを有している。制御ユニット18は、加速度センサ15及びジャイロセンサ16から信号を受けている。また、制御ユニット18は、複数のカメラ14から映像データを受けている。
次に、移動ロボット(移動体)を制御するシステム(以下、単に「制御システム」と記す)1について、移動ロボット(移動体)の制御方法と併せて、図1及び図2を用いて説明する。図2は、本実施形態の制御システムの構成を模式的に示すブロック図であり、制御システムが実行する情報処理の内容を示している。
図1及び図2に示すように、本実施形態の制御システム1は、移動ロボット10を遠隔操作するための制御ユニット20と、操作者による入力(以下、操作入力と記す)を受け付ける入力装置22とを有している。本実施形態において、入力装置22には、操縦桿(いわゆる、ジョイスティック)が用いられている。入力装置22と制御ユニット20は、電気的に接続されており、データの送受信が可能に構成されている。なお、制御システム1には、移動ロボット10に設けられた複数のカメラ14が含まれている。
加えて、制御システム1は、操作者側にある制御ユニット20と、移動ロボット10に設けられた制御ユニット18との間において、無線によるデータの送受信を行うために通信装置19,21を有している。通信装置19は、移動ロボット10の本体11に設けられており、制御ユニット18と電気的に接続されている。一方、通信装置21は、制御ユニット20と電気的に接続されている。
このように移動ロボット10側の制御ユニット18と、操作者側の制御ユニット20は、通信装置19,21を介してデータの送受信を行うことが可能となっている。これにより、移動ロボット10側の制御ユニット18は、カメラ14からの映像、すなわちカメラ14により撮像された時系列的に連続する一連の画像に関するデータを、操作者側の制御ユニット20に送信することが可能となっている。また、移動ロボット10側の制御ユニット18は、操作者側の制御ユニット20から操作者の操作入力を示すデータを受信することが可能となっている。
具体的には、制御システム1は、画像を画面に表示可能な表示装置24を有している。表示装置24には、例えば、コンピュータ・ディスプレイを用いることができる。表示装置24は、操作者が各種の操作を行うためのGUI(グラフィカルユーザインターフェース)画像と共に、移動ロボット10においてカメラ14により撮像された映像を、画面に表示する。操作者は、入力装置22を操作し、表示装置24の画面上に表示された画像等を選択することで、移動ロボット10の制御ユニット18に操作入力を示すデータを送信することが可能となっている。制御ユニット18は、操作者の操作入力を受けて、移動ロボット10の移動機構(脚機構12)を制御する。これにより、操作者は、移動ロボット10を遠隔操作して所望の進行方向に移動させることが可能になっている。
次に、本実施形態の制御システム1において実行される各種の情報処理について、図1〜図5を用いて説明する。図3は、撮像画像の一例を説明する図である。図4は、撮像画像の一例を説明する図であり、当該撮像画像において抽出された特徴点を説明する図である。図5は、撮像画像の一例を説明する図であり、移動ロボットの進行方向を示す特徴点選定基準線と、当該基準線を含む所定の範囲にある直進ずれ推定用特徴点とを説明する図である。
本実施形態の制御システム1において、制御ユニット20は、図2に示すように、各種の情報処理を行う処理装置100と、各種の情報(データ)を記憶する記憶装置130とを有している。
処理装置100は、移動ロボット10のカメラ14により撮像された映像データから時系列的に連続する一連の画像データを取得する機能(以下、画像取得部と記す)101を有している。すなわち、画像取得部101は、カメラ14からの映像データから画像データを時系列的に抽出する。移動ロボット10のカメラ14により撮像されて画像取得部101により取得された画像データが示す画像(以下、撮像画像と記す)200には、例えば、図3に示すように、移動ロボット10の進行方向にある移動面の輪郭を示す画像201と構造物の画像202が含まれている。
なお、画像取得部101により取得される画像データは、1つのカメラ14が撮像した映像データから取得されるものとは限らない。当該画像データは、移動ロボット10に設けられた複数のカメラ14により撮像された映像データを、それぞれ画像データに変換して得られた複数の画像データを合成して、進行方向を含む一つの撮像画像200を示す画像データを生成するものとしても良い。
(特徴点抽出部)
また、図2に示すように、処理装置100は、画像取得部101により取得された画像データが示す撮像画像200から特徴点を抽出する機能(以下、特徴点抽出部と記す)103を有している。なお、「特徴点」とは、撮像画像200のうち特徴のある部分であり、単数又は複数の画像で構成されている。特徴点を構成する画素は、隣接する(特徴点を構成しない)画素に比べて、色相や輝度が、大きく異なる画素である。
本実施形態において、特徴点抽出部103は、図4に示すように、撮像画像200のうち構造物の画像202の輪郭203のうち、曲率が大きい部分を構成する画素を、特徴点204として抽出している。なお、撮像画像200から特徴点を抽出する手法は、従来技術であるため詳細な説明を省略する。特徴点抽出部103は、撮像画像200における特徴点204の位置を示すデータを、記憶装置130に格納する。
また、図2に示すように、処理装置100は、特徴点抽出部103により抽出された特徴点204に対応する構造物と移動ロボット(移動体)10との間の物理的な距離を算出する機能(以下、特徴点距離算出部と記す)104を有している。
本実施形態において、移動ロボット10に設けられた複数のカメラ14(図1参照)は、ステレオ視が可能に配置されており、移動ロボット10から、特徴点抽出部103により抽出された特徴点204に対応する構造物までの物理的な距離を算出可能に構成されている。なお、当該特徴点に対応する構造物までの物理的な距離を算出する手法は、ステレオ視を用いたものに限定されるものではない。レーザ距離計や距離画像センサ等のセンサを利用して特徴点に対応する構造物までの物理的な距離を算出するものとしても良い。
本実施形態において、特徴点距離算出部104は、特徴点抽出部103により抽出された全ての特徴点204にそれぞれ対応する各構造物と、移動ロボット(移動体)10との間の物理的な距離を算出する。そして、各特徴点204と距離とを対応づけたテーブルを、記憶装置130に格納する。
また、図2に示すように、処理装置100は、入力装置22が受け付けた操作者の操作入力に基づいて、移動ロボット10の進行方向を決定する機能(以下、進行方向決定部と記す)115を有している。本実施形態において、進行方向決定部115は、入力装置22が受け付けた操作者の操作入力に基づいて、移動ロボット10の進行方向を決定する。
また、図2に示すように、処理装置100は、特徴点抽出部103により抽出された特徴点204のうち、図5に示す撮像画像200において進行方向を示す基準線(図に一点鎖線205で示す)の一部を含む所定の範囲206内にあるものに基づいて、ずれ推定用特徴点207を決定する機能(以下、ずれ推定用特徴点決定部と記す)107を有している。
基準線205は、進行方向決定部115により決定された進行方向に応じて撮像画像中に描かれる直線であり、撮像画像の上下方向(図に矢印Vで示す)に延びている。基準線205は、進行方向決定部115により決定された進行方向の変化に応じて、撮像画像200における水平方向(図に矢印Hで示す)の位置が変化するものである。進行方向に対する基準線205の撮像画像200における位置は、適合実験やシミュレーション等により予め求められており、図2に示す記憶装置130に予め記憶されている。
ずれ推定用特徴点決定部107は、記憶装置130から進行方向に対応する基準線205の撮像画像200における位置を示すデータを読み取り、進行方向を示す基準線205を撮像画像200に重ね合わせる。ずれ推定用特徴点決定部107は、当該基準線205のうち一部を含む所定の範囲206内にある特徴点204に基づいて、ずれ推定用特徴点207を決定する。
本実施形態において、ずれ推定用特徴点決定部107は、基準線205のうち移動面の輪郭を示す画像201より上側にある部分を含む所定の範囲206内にある複数(4つ)の特徴点204の中心の位置(図5に符号207で示す)を算出し、当該中心の位置をずれ推定用特徴点207に決定する。
なお、ずれ推定用特徴点207を決定する手法は、これに限定されるものではない。進行方向を示す基準線の一部を含む所定の範囲206内にある特徴点204の全てを、ずれ推定用特徴点207に決定するものとしても良い。また、当該所定の範囲206内にある特徴点204のうち最も基準線205の近くに位置しているものを、ずれ推定用特徴点207に決定するものとしても良い。
また、ずれ推定用特徴点決定部107は、記憶装置130から特徴点204に対応する構造物までの物理的な距離を読み取って、撮像画像200にある全ての特徴点204のうち、対応する構造物が、移動ロボット10から比較的近距離にあると判定されたものについては、ずれ推定用特徴点の算出には用いない、又はずれ推定用特徴点として選択しないことも好適である。対応する構造物が比較的近距離にある特徴点204は、移動ロボット10の移動や振動の影響を、比較的遠距離にあるものに比べて受け易いためである。
また、図2に示すように、処理装置100は、移動体の移動に伴う、ずれ推定用特徴点207の撮像画像200における位置の時間変化を追跡する機能(以下、ずれ推定用特徴点追跡部と記す)108を有している。
本実施形態において、ずれ推定用特徴点追跡部108は、特徴点抽出部103により抽出された特徴点204の撮像画像200における位置関係に基づいて、時系列的に隣り合って前後する2つの時点の撮像画像200の間において各特徴点204の対応付けを行う。これにより、複数の特徴点204から算出されるずれ推定用特徴点207の撮像画像における位置の時間変化を算出して追跡することができる。
なお、ずれ推定用特徴点を追跡する手法、いわゆるトラキング手法は、従来技術であるため、詳細な説明を省略する。ずれ推定用特徴点追跡部108が実行するずれ推定用特徴点207の位置の時間変化を追跡する方法には、上述した以外のトラッキング手法を用いることもできる。
また、図2に示すように、処理装置100は、ずれ推定用特徴点追跡部108により追跡されているずれ推定用特徴点207の撮像画像200における位置に基づいて、進行方向に対する移動ロボット10の実移動方向のずれ度合いを推定する機能(以下、ずれ推定部と記す)109を有している。
本実施形態において、ずれ推定部109は、まず、図5に示すように、撮像画像200における基準線205に対するずれ推定用特徴点207のずれ量(図に寸法dで示す)を算出する。ずれ量dは、撮像画像200における基準線205からずれ推定用特徴点207までの水平方向の画素数である。
加えて、本実施形態のずれ推定部109は、当該ずれ量dと、ずれ推定用特徴点207に対応する構造物と移動ロボット10との間の物理的な距離Lに基づいて、進行方向決定部115により決定された進行方向と、移動ロボット10が実際に移動している実移動方向がなしている角度(以下、単に「ずれ角度」と記す)θを推定する。ずれ角度θは、以下の式(1)により算出される。
Figure 2016173655
ここで、K(L)は、距離Lに応じた係数[m/pixel]であり、カメラ14に固有の値である。係数K(L)は、適合実験やシミュレーション等により予め求められており、距離Lに対するK(L)の値は、記憶装置130に予め記憶されている。
このように本実施形態のずれ推定部109においては、進行方向に対する実移動方向のずれ度合いとして、進行方向に対して実移動方向がなしている角度であるずれ角度θを推定するものとしたが、本発明に係る「ずれ度合い」は、当該ずれ角度θに限定されるものではない。例えば、距離Lの正確な値を得ることができない場合には、ずれ推定部109は、ずれ度合いとして、上述したずれ量dを用いるができ、当該ずれ量dが所定の閾値を超えるか否かによって進行方向に対して実移動方向がずれているか否かを判定するものとしても良い。この場合、ずれ推定用特徴点207に対応する構造物までの距離Lを計測、算出する必要がなくなる。また、距離Lを所定の値に設定し、上述した式(1)に代入して、ずれ量dに応じたずれ角度θを算出することも好適である。
(ずれ判定部)
また、図2に示すように、処理装置100は、ずれ推定部109により推定されたずれ度合いに基づいて、前記進行方向に対して実移動方向がずれているか否かを判定する機能(以下、ずれ判定部と記す)111を有している。本実施形態のずれ判定部111は、ずれ度合いとしてのずれ角度θが、所定の閾値を超えた場合に、進行方向決定部115により決定された進行方向に対して移動ロボット10が実際に移動している実移動方向がずれていると判定する。一方、ずれ判定部111は、ずれ角度θが所定の閾値以下である場合には、移動ロボット10が、進行方向に移動しているものと判定する。
(表示制御部)
また、図2に示すように、処理装置100は、ずれ判定部111により進行方向に対して実移動方向がずれている旨を操作者に知らせる通知手段として、上述した表示装置24と、当該表示装置24の画面に表示される表示画像を制御する機能(以下、表示制御部と記す)113を有している。表示制御部113は、ずれ判定部111による判定結果、より具体的には、進行方向に対して実移動方向がずれている旨の警告を示す画像を、表示装置24の画面に表示させる。本実施形態において、当該警告を示す画像は、上述したGUI画像の一部として表示される。これにより、操作者は、移動ロボット10の実移動方向が、操作者の操作入力を受けて決定された進行方向に対してずれていることを知ることができる。
以上に説明したように本実施形態の移動ロボット(移動体)10の制御方法は、図2及び図5に示すように、移動ロボット10の進行方向を、進行方向決定部115が決定するステップと、移動ロボット10の進行方向を含む画像データを、画像取得部101が取得するステップと、当該画像データが示す撮像画像200から特徴点204を、特徴点抽出部103が抽出するステップと、当該特徴点204のうち、撮像画像において進行方向を示す基準線205の一部を含む所定の範囲206内にあるものに基づいて、ずれ推定用特徴点207を、ずれ推定用特徴点決定部107が決定するステップと、移動ロボット10の移動に伴う、ずれ推定用特徴点207の撮像画像200における位置の時間変化を、ずれ推定用特徴点追跡部108が追跡するステップと、追跡されているずれ推定用特徴点207の撮像画像200における位置に基づいて、進行方向に対する実際に移動体が移動している実移動方向のずれ度合いを、ずれ推定部109が推定するステップとを含むものとした。このような画像処理を行うことにより、GPS等の外部からの信号に依存することなく、進行方向に対する実移動方向のずれ度合いを推定することができる。
なお、本実施形態において、操作者の操作入力を受けて決定された進行方向に対して移動ロボット10の実移動方向がずれていることを、操作者に知らせる通知手段は、上述した態様に限定されるものではない。通知手段は、進行方向に対して実移動方向がずれていると判定された場合に、その旨を操作者に知らせることができれば良く、例えば、光の明滅、音や振動により、操作者に知らせるものとしても良い。
なお、本実施形態において、制御システム1において実行される情報処理は、その多くが操作者側の制御ユニット20において行われるものとしたが、本発明の制御システムは、この態様に限定されるものではない。本発明に係る制御システムにおいて実行される情報処理は、例えば、操作者側の制御ユニット20又は移動ロボット10側の制御ユニット18のいずれかで行われれば良い。例えば、本実施形態の処理装置100及び記憶装置130が有する機能を、移動ロボット10側の制御ユニット18が有するものとし、制御システム1において実行される情報処理の大部分は、移動ロボット10側の制御ユニット18で行われるものとしても良い。
また、本実施形態において、移動ロボット10は、通信装置19,21を介して操作者により遠隔操作されるものとしたが、本発明に係る移動ロボットの制御手法は、この態様に限定されるものではなく、その一例について以下に説明する。
〔第2の実施形態〕
第2の実施形態の制御システムの構成について、図1及び図6を用いて説明する。図6は、第2の実施形態の制御システムの構成を模式的に示すブロック図であり、当該制御システムが実行する情報処理の内容を示している。
図1に示すように、本実施形態の移動ロボット10Cは、周囲の環境を認識理解し且つ操作者等の外部から支援を受けることなく移動する、いわゆる自律移動(autonomous locomotion)が可能な自律移動ロボットであり、第1実施形態において説明した操作者により遠隔操作される移動ロボット10と略共通の構成となっている。
移動ロボット10Cを制御する制御システム1Cは、図6に示すように、移動ロボット10Cに設けられた複数のカメラ14、加速度センサ15、ジャイロセンサ16、通信装置19に加えて、移動ロボット10Cを制御する制御ユニット18Cを有している。制御ユニット18Cは、処理装置100Cと、記憶装置130とを有している。
図6に示すように、処理装置100Cは、上述した第1実施形態の制御ユニット20と同様に、画像取得部101、特徴点抽出部103、特徴点距離算出部104、ずれ推定用特徴点決定部107、ずれ推定用特徴点追跡部108、ずれ推定部109、ずれ判定部111及び進行方向決定部115を有している。
処理装置100Cは、当該移動ロボット10Cの移動機構、すなわち図1に示す脚機構12の動作を生成する機能(以下、動作生成部と記す)121を有している。動作生成部121は、進行方向決定部115により決定された進行方向に移動ロボット10Cが移動するよう、脚機構(移動機構)12の動作(以下、移動動作と記す)を生成する。
なお、進行方向決定部115及び動作生成部121は、記憶装置130に予め記憶されている地図情報や障害物配置情報に基づいて進行方向を決定し、脚機構12の動作を生成するものとしても良い。
加えて、処理装置100Cは、ずれ判定部111において進行方向に対して実移動方向がずれていると判定された場合に、動作生成部121により生成された移動機構の移動動作を修正する機能(以下、動作修正部と記す)123を有している。
本実施形態の動作修正部123は、進行方向に対して実移動方向がずれている旨の判定結果と共に、ずれ推定部109により推定されたずれ度合いとしてのずれ角度θを受けて、動作生成部121により生成された移動動作を修正する。具体的には、動作修正部123は、ずれ角度θ(ずれ度合い)が減少する方向に移動するよう移動動作を修正する。
さらに、処理装置100Cは、動作修正部123により修正された移動動作が行われるよう移動機構(脚機構)12を制御する機能(以下、移動機構制御部と記す)125を有している。移動機構制御部125により制御された脚機構12は、移動ロボット10Cを、ずれ角度θが減少する方向に移動させる。なお、ずれ判定部111において進行方向に対して実移動方向がずれていないと判定された場合には、移動機構制御部125は、動作生成部121により生成された移動動作が行われるよう脚機構12を制御する。
本実施形態においては、進行方向決定部115により決定された進行方向に対して移動ロボット10Cの実移動方向がずれているか否かを判定している。ずれ判定部111が、進行方向に対して実移動方向がずれていると判定した場合には、動作修正部123に移動動作を修正することで、移動ロボット10Cを、ずれの度合いが減少するよう移動させることができる。
〔他の実施形態〕
上述した各実施形態において、移動ロボット10,10Cは、移動機構として4つの脚機構12を有し、4つの脚機構12を独立して動作可能な脚移動ロボットであるものとしたが、本発明に係る移動体は、この態様に限定されるものではない。移動体は、車輪を移動機構とした車輪移動ロボットや、クローラ(無限軌道履帯)を移動機構としたクローラ移動ロボットであるものとしても良い。
また、本発明に係る移動体は、上述した移動ロボット10,10Cのようなロボットに限定されるものではない。本発明の制御技術は、カメラ14を備えた移動体であれば適用することができ、例えば、自動車に適用することも好適である。また、本発明に係る移動体は、移動面上を移動する移動体に限定されるものではない。例えば、空中や水上を移動する移動体にも本発明を適用することができる。
本発明のいくつかの実施形態について説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態はその他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1,1C 制御システム
10,10C 移動ロボット(移動体、脚移動ロボット)
11 本体
12 脚機構
14 カメラ
15 加速度センサ
16 ジャイロセンサ
18,18C 制御ユニット
19 通信装置
20 制御ユニット
21 通信装置
22 入力装置
24 表示装置(通知手段)
100,100C 処理装置
101 画像取得部
103 特徴点抽出部
104 特徴点距離算出部
107 ずれ推定用特徴点決定部
108 ずれ推定用特徴点追跡部
109 ずれ推定部
111 ずれ判定部
113 表示制御部(通知手段)
115 進行方向決定部
121 動作生成部
123 動作修正部
125 移動機構制御部
130 記憶装置
200 撮像画像
201 移動面の輪郭を示す画像
202 構造物の画像
203 構造物の輪郭を示す画像
204 特徴点
205 基準線
206 所定の範囲
207 ずれ推定用特徴点

Claims (8)

  1. 移動体の進行方向を決定する進行方向決定部と、
    移動体に設けられており、進行方向を含む画像を撮像可能なカメラと、
    当該カメラにより撮像された画像データを取得する画像取得部と、
    当該画像データが示す撮像画像から特徴点を抽出する特徴点抽出部と、
    当該特徴点のうち、撮像画像において進行方向を示す基準線の一部を含む所定の範囲内にあるものに基づいて、ずれ推定用特徴点を決定するずれ推定用特徴点決定部と、
    移動体の移動に伴う、ずれ推定用特徴点の撮像画像における位置の時間変化を追跡するずれ推定用特徴点追跡部と、
    当該ずれ推定用特徴点追跡部により追跡されているずれ推定用特徴点の撮像画像における位置に基づいて、前記進行方向に対する実際に移動体が移動している実移動方向のずれ度合いを推定するずれ推定部と、
    を備えることを特徴とする移動体用制御システム。
  2. 前記ずれ推定部により推定されたずれ度合いに基づいて、前記進行方向に対して前記実移動方向が、ずれているか否かを判定するずれ判定部と、
    さらに備えることを特徴とする移動体用制御システム。
  3. 前記移動体は、操作者により遠隔操作されるものであり、
    前記ずれ判定部により前記進行方向に対して前記実移動方向がずれていると判定した場合に、その旨を操作者に知らせる通知手段を、さらに備える
    ことを特徴とする請求項2に記載の移動体用制御システム。
  4. 前記通知手段は、
    前記カメラにより撮像された映像を画面に表示可能な表示装置と、
    前記表示装置の画面に表示される表示画像を制御可能な表示制御部と、
    を有し、
    当該表示制御部は、前記ずれ判定部により前記進行方向に対して前記実移動方向がずれていると判定された場合に、その旨を示す画像を前記表示装置の画面に表示させる
    ことを特徴とする請求項3に記載の移動体用制御システム。
  5. 前記ずれ推定部により推定されたずれ度合いが減少する方向に前記移動体が移動するよう移動機構の動作を修正する動作修正部を、
    さらに備えることを特徴とする請求項1ないし請求項4のいずれか一項に記載の移動体用制御システム。
  6. 前記ずれ推定用特徴点により決定されたずれ推定用特徴点に対応する構造物と移動体との間の物理的な距離を算出可能な特徴点距離算出部を、さらに備え、
    前記ずれ推定部は、
    撮像画像における基準線から当該ずれ推定用特徴点までの画素数であるずれ量を算出し、
    当該ずれ量と、前記特徴点距離算出部により算出された距離に基づいて、前記進行方向と、前記実移動方向がなしている角度であるずれ角度を推定する
    ことを特徴とする請求項1ないし請求項5のいずれか一項に記載の移動体用制御システム。
  7. 前記ずれ推定用特徴点決定部は、前記所定の範囲内にある複数の特徴点の中心の位置を算出し、当該中心の位置をずれ推定用特徴点に決定する
    ことを特徴とする請求項1ないし請求項6のいずれか一項に記載の移動体用制御システム。
  8. 移動体の進行方向を、進行方向決定部が決定するステップと、
    移動体の進行方向を含む画像データを、画像取得部が取得するステップと、
    当該画像データが示す撮像画像から特徴点を、特徴点抽出部が抽出するステップと、
    当該特徴点のうち、撮像画像において進行方向を示す基準線の一部を含む所定の範囲内にあるものに基づいて、ずれ推定用特徴点を、ずれ推定用特徴点決定部が決定するステップと、
    移動体の移動に伴う、ずれ推定用特徴点の撮像画像における位置の時間変化を、ずれ推定用特徴点追跡部が追跡するステップと、
    追跡されているずれ推定用特徴点の撮像画像における位置に基づいて、前記進行方向に対する実際に移動体が移動している実移動方向のずれ度合いを、ずれ推定部が推定するステップと、
    を含むことを特徴とする移動体の制御方法。
JP2015052427A 2015-03-16 2015-03-16 移動体用制御システム及び移動体の制御方法 Pending JP2016173655A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015052427A JP2016173655A (ja) 2015-03-16 2015-03-16 移動体用制御システム及び移動体の制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015052427A JP2016173655A (ja) 2015-03-16 2015-03-16 移動体用制御システム及び移動体の制御方法

Publications (1)

Publication Number Publication Date
JP2016173655A true JP2016173655A (ja) 2016-09-29

Family

ID=57009082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015052427A Pending JP2016173655A (ja) 2015-03-16 2015-03-16 移動体用制御システム及び移動体の制御方法

Country Status (1)

Country Link
JP (1) JP2016173655A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020113134A (ja) * 2019-01-15 2020-07-27 株式会社アトラックラボ 無人移動体、無人移動体の制御方法及び無人移動プログラム
CN113932808A (zh) * 2021-11-02 2022-01-14 湖南格兰博智能科技有限责任公司 一种适用于视觉导航扫地机器人视觉和陀螺仪融合校正的算法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020113134A (ja) * 2019-01-15 2020-07-27 株式会社アトラックラボ 無人移動体、無人移動体の制御方法及び無人移動プログラム
CN113932808A (zh) * 2021-11-02 2022-01-14 湖南格兰博智能科技有限责任公司 一种适用于视觉导航扫地机器人视觉和陀螺仪融合校正的算法
CN113932808B (zh) * 2021-11-02 2024-04-02 湖南格兰博智能科技有限责任公司 一种适用于视觉导航扫地机器人视觉和陀螺仪融合校正的算法

Similar Documents

Publication Publication Date Title
JP6901625B2 (ja) 地図データ、レーザ、およびカメラからのヨー誤差の確定
JP6233706B2 (ja) 自律移動装置及び自律移動装置の自己位置推定方法
JP4600357B2 (ja) 測位装置
JP6541590B2 (ja) カメラキャリブレーション装置
US20190291721A1 (en) In-Vehicle Processing Apparatus
JP6368651B2 (ja) 走行環境認識システム
EP2485203B1 (en) Vehicle-surroundings monitoring device
JP4832321B2 (ja) カメラ姿勢推定装置、車両、およびカメラ姿勢推定方法
KR101896715B1 (ko) 주변차량 위치 추적 장치 및 방법
KR101532320B1 (ko) 자율주행 무인차량에 탑재된 쌍안카메라를 이용한 동적물체 검출방법
WO2018179616A1 (ja) 車両位置推定装置
JP2017226270A (ja) 車両制御装置
US10528056B2 (en) Vehicle guidance system
KR101573576B1 (ko) Avm 시스템의 이미지 처리 방법
JP2011028495A (ja) 無人走行車両の遠隔操縦装置
KR101203816B1 (ko) 로봇 물고기 위치 인식 시스템 및 로봇 물고기 위치 인식 방법
CN107735826B (zh) 信号机检测装置及信号机检测方法
JPWO2011013813A1 (ja) 車載装置および画像処理プログラム
JP2005038225A (ja) 車線追従装置
JP2016173655A (ja) 移動体用制御システム及び移動体の制御方法
JP6044084B2 (ja) 移動物体位置姿勢推定装置及び方法
JP6614607B2 (ja) 遠隔操縦システムと方法
JP2017083458A (ja) サーバ装置、天候状況取得方法、情報送信装置、情報送信方法、プログラム、及び、天候状況取得システム
WO2018225480A1 (ja) 位置推定装置
KR20150128140A (ko) 어라운드 뷰 시스템