JPH07116981A - 移動ロボットの誘導装置 - Google Patents

移動ロボットの誘導装置

Info

Publication number
JPH07116981A
JPH07116981A JP5266647A JP26664793A JPH07116981A JP H07116981 A JPH07116981 A JP H07116981A JP 5266647 A JP5266647 A JP 5266647A JP 26664793 A JP26664793 A JP 26664793A JP H07116981 A JPH07116981 A JP H07116981A
Authority
JP
Japan
Prior art keywords
hypothesis
data
sensor
interpretation
sonar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5266647A
Other languages
English (en)
Other versions
JP2501010B2 (ja
Inventor
Shunichi Asaka
Tomio Echigo
Shinichiro Hazeki
Shigeki Ishikawa
信一郎 枦木
俊一 浅香
繁樹 石川
富夫 越後
Original Assignee
Internatl Business Mach Corp <Ibm>
インターナショナル・ビジネス・マシーンズ・コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Internatl Business Mach Corp <Ibm>, インターナショナル・ビジネス・マシーンズ・コーポレイション filed Critical Internatl Business Mach Corp <Ibm>
Priority to JP5266647A priority Critical patent/JP2501010B2/ja
Publication of JPH07116981A publication Critical patent/JPH07116981A/ja
Application granted granted Critical
Publication of JP2501010B2 publication Critical patent/JP2501010B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2201/00Application
    • G05D2201/02Control of position of land vehicles
    • G05D2201/0216Vehicle for transporting goods in a warehouse, factory or similar
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

(57)【要約】 【目的】 複数の異種センサーにより得られる環境から
移動ロボットを安全かつ効率的に走行誘導する。 【構成】 対象物までの距離情報であるソナーデータを
用いてソナー解釈部28で対象物の面形状を解釈する。
また、ステレオカメラ12からの映像信号に基づく3次
元情報のステレオデータを用いてステレオ解釈部30で
対象物の面形状を解釈する。仮説生成部32では各セン
サーから得られる解釈から幾何学的に矛盾のない解釈を
用い対象物の形状である仮説を生成し、この仮説により
ソナーとステレオカメラとの何れのデータを優先するか
を定めたテーブルを用いて仮説の面形状に対応するセン
サーデータと実際のセンサーデータとを時系列的に照合
し仮説を検証する。移動ロボットの移動は、走行経路を
参照し現在の環境に関する仮説に従い回避行動、すなわ
ち、移動ロボットの誘導を行う。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、移動ロボットの誘導装
置にかかり、特に、周囲の環境に応じて移動ロボットを
誘導する移動ロボットの誘導装置に関する。
【0002】
【従来の技術及び発明が解決しようとする課題】近年、
工場等には荷物配送等に移動ロボットが用いられてい
る。この移動ロボットの多くは、レールのように与えら
れた走行ガイドに沿って移動するか、予め移動ロボット
内部に記憶された順路に従って走行距離等を検出する検
出器(以下、内界センサーという。)を備えて検出値に
基づいて移動している。移動ロボットの移動方向に存在
する障害物に対しては、バンパーによる回避や移動ロボ
ットの周囲の状態を検出するための超音波センサー等の
検出器を備えて検出値であるデータ(以下、センサーデ
ータという)に基づいて障害物を検出して回避行動をす
るものもある。
【0003】また、最近では、自由な範囲を移動できる
自律型の移動ロボットもある。この自律型の移動ロボッ
トでは、安全かつ効率的な走行誘導をするために移動す
る周囲の環境認識をする必要がある。このため、複数の
異なる状態を検出する異種のセンサーを備えて、安全か
つ効率的に走行誘導しなければならない。
【0004】このような、異種のセンサーではセンサー
毎に特徴が異なるため、同一対象物に対して同じ計測単
位のセンサーデータを得るものでも、センサーデータか
ら解釈されるシーンの形状は矛盾を生じる可能性があ
る。ここで言う、シーンの形状とは、自律型の移動ロボ
ットが検出する対象物となり得る人工物や自然物を含ん
だ構成で成立する環境をいう。
【0005】例えば、超音波ソナー及びカメラによる異
種のセンサー各々で対象物までの距離情報を得ようとす
ると、超音波ソナーでは超音波の放射方向に対して角度
のある面や折れ曲がった面の角において正確な距離情報
が得られないが、カメラではこのような面形状の距離情
報を得ることができ、センサーの種類によって得られる
距離情報が異なる。
【0006】この矛盾を解決するため、統計的な処理に
よってセンサーから得られた環境データの信頼性を評価
するアルゴリズムがある(A.Elfes,"Sonar-Based Real-
World Mapping and Navigation",IEEE Journal of Robo
tics and Automation,Vol.RA-3,No.3,pp249-265,June 1
987 、H.F.Durrant-Whyte,"Sensor Models and Multise
nsor Integration",The Int'l Journal of Robotics Re
aserch.Vol.7,No.6,pp97-113,Dec.1988 )。
【0007】しかしながら、これらの手法では、センサ
ーデータの信頼度を向上させるだけであり、他のセンサ
ーデータから得られる情報によって生じる矛盾を解消す
ることができない。すなわち、センサーデータはシーン
の形状に依存するため、シーンの形状によって、センサ
ー毎に信頼度を変更する必要がある。
【0008】また、センサーの特性により、検出困難な
対象物もあり、この対象物に関するセンサーデータが増
加すると、対象物が存在しないという信頼性は向上する
が、他の対象物に対する信頼性が向上するとは限らない
ため、正確に環境を把握できない。従って、正確に環境
を把握するためには、センサーデータ毎に環境を解釈
し、複数のセンサーにより解釈された環境に矛盾が生じ
たときには、何れのセンサーによる解釈が有効かを判別
する必要がある。
【0009】このような対象物に関する情報が不十分で
あっても、その時点までに得られた情報から環境を予測
して、予測に基づいて行動し、センサーによる予測と行
動を協調することで、信頼性の高いセンサー情報を有利
に利用するアクティブセンシングが提案されている(S.
A.Stanfield,"A Robotic Perceptual System Utilizing
Passive Vision and Active Touch",The Int'l Journa
l of Robotics Reaserch.Vol.7,No.6,pp138-161,Dec.19
88)。
【0010】この方法によれば、検出に有利な位置を推
論し、推論したセンサーが検出し易い異なる位置にセン
サーを移動することにより、初期位置ではセンサーのダ
イナミックレンジ外または検知不能な位置にある対象物
から信頼度の高いセンサーデータを得ることができる。
【0011】しかしながら、この方法では、センサーを
移動して最適に検出するための行動計画が必要となり、
特に初期の検出時における信頼度の低いセンサーデータ
から有効な行動計画を建てることは困難である。これに
より、例えば、自律型の移動ロボットの走行誘導では、
検出のための行動計画が本来の走行誘導を妨げることに
なる。
【0012】また、類似の考え方で、認識したいという
意図に沿ってセンシングのメカニズムを決定するインテ
ンショナルセンシングと呼ばれる概念もある(石川正
竣、”センサーフュジョンの課題”,日本ロボット学会
誌,Vol.8,No.6,pp735-742,Dec.1990 )。
【0013】この方法は、どんな対象物をどのような方
法で測定し、得られた情報をどのように利用するかとい
った検出の意図が、与えられた事前情報や環境設定ある
いは制限のある知識の中で明示的に記述され、その意図
の基にアクティブセンシングを含めた検出構造を示唆す
るものであるが、この方法は概念レベルであり、具体的
な実現方法まで言及されていない。
【0014】本発明は、上記事実を考慮して、複数の異
なる種類の異種センサーにより得られる環境から移動ロ
ボットを安全かつ効率的に走行誘導できる移動ロボット
の誘導装置を得ることが目的である。
【0015】
【課題を解決するための手段】上記目的を達成するため
に請求項1に記載の発明の移動ロボットの誘導装置は、
対象物の有無を検出するセンサー及び該対象物に関する
画像情報を検出するセンサーを含む複数の異種のセンサ
ーと、前記複数のセンサーから得られるセンサーデータ
の各々に基づいてセンサー毎に前記対象物の要素を解釈
する解釈手段と、予め定めた対象物の形状に対するセン
サー毎の解釈が予め記憶されたテーブルを参照すると共
に、前記センサー毎に解釈された前記対象物の要素に基
づいて該対象物の形状を表す仮説を生成する仮説生成手
段と、生成された仮説を用いて移動ロボットを誘導する
誘導手段と、を備えている。
【0016】また、請求項2に記載の発明の移動ロボッ
トの誘導装置は、対象物の有無を検出するセンサー及び
該対象物に関する画像情報を検出するセンサーを含む複
数の異種のセンサーと、前記複数のセンサーから得られ
るセンサーデータの各々に基づいてセンサー毎に前記対
象物の要素を解釈する解釈手段と、予め定めた対象物の
形状に対するセンサー毎の解釈が予め記憶されたテーブ
ルを参照すると共に、前記センサー毎に解釈された前記
対象物の要素に基づいて該対象物の形状を表す仮説を生
成し、時系列的に得られるセンサーデータに基づいて生
成された仮説を検証し、検証された仮説が正しい場合に
はそのまま生成された仮説を用いると共に矛盾する場合
には生成された仮説を破棄して新たに仮説を生成する仮
説生成手段と、前記仮説を用いて移動ロボットを誘導す
る誘導手段と、を備えている。
【0017】前記仮説生成手段は、予め定めた対象物の
形状を該対象物の面形状により分類し該分類した面形状
の各々について前記センサー毎に生成されるべき解釈の
全ての組み合わせが予め記憶されたテーブルを参照する
ことができる。
【0018】
【作用】自律型の移動ロボットでは、安全な走行誘導の
ため、センサーの検出値に基づく環境認識が必要である
が、1種類のセンサーのみでは、知覚できる物体や距離
が限定されるために、信頼性や知覚できる範囲など不十
分である。
【0019】そこで、本発明では、障害物を回避しなが
ら走行する等の自律型の移動ロボットの走行誘導のため
の環境解釈に有効となる、種類の異なる複数センサーか
ら得られたセンサーデータを統合する手法を提案する。
【0020】請求項1に記載の移動ロボットの誘導装置
は、解釈手段を備えており、解釈手段は、対象物の有無
を検出するセンサー及び該対象物に関する画像情報を検
出するセンサーを含む複数の異種のセンサーから得られ
るセンサーデータの各々に基づいてセンサー毎に対象物
の要素を解釈する。この異種のセンサーとしては、セン
サーデータが距離情報として得られる超音波ソナーとセ
ンサーデータが3次元情報として得られるステレオカメ
ラを用いることができる。このソナーは大きな面の検出
に有効なセンサーであり対象物の要素である面要素を検
出でき、ステレオカメラは画像における濃淡変化部位の
エッジによる3次元情報を得て対象物に関する画像情報
を検出することができる。
【0021】これらの異種のセンサーから得られるセン
サーデータから、対象物の形状を表す仮説により移動ロ
ボットを誘導するが、得られるセンサーデータを統合す
るため、対象となるシーンの面形状によりソナーとステ
レオカメラとの何れのデータを優先するか等の予め定め
た対象物の形状に対するセンサー毎の解釈を予めテーブ
ルに定義しておく。このテーブルは仮説生成手段に記憶
されており、仮説生成手段は、このテーブルを参照する
と共に、センサー毎に解釈された対象物の要素に基づい
て、例えば各センサーから得られる解釈で幾何学的に矛
盾のない解釈を用いる等により該対象物の形状を表す仮
説を生成する。この生成された仮説は周囲の環境地図と
みなせるので、生成された仮説を用いて誘導手段によっ
て移動ロボットを誘導できる。
【0022】ところで、異種センサーの1つであるソナ
ーは大きな面の検出に有効なセンサーであるが、面の形
状により誤った形状の面として解釈されることがある。
また、ステレオカメラでは、画像における濃淡変化部位
のエッジにより面を含む3次元情報が得られるものの、
3次元情報から面を再構成することが困難な場合があ
る。
【0023】そこで、請求項2に記載の移動ロボットの
誘導装置の仮説生成手段は、センサー毎の解釈から対象
物の要素に基づいて該対象物の形状を表す仮説を生成
し、その後の時系列的に得られるセンサーデータに基づ
いて生成された解釈を用いて、予め定めた対象物の形状
とセンサー毎の解釈に対する検証結果が予め記憶された
テーブルを参照することによって先の仮説を検証する。
この検証された仮説が正しい場合にはそのまま生成され
た仮説を用いると共に矛盾する場合には既に生成された
仮説を破棄して新たに仮説を生成する。そして、この生
成された仮説を再びその後のセンサー毎の解釈を用いて
検証することを繰り返す。
【0024】例えば、ソナーとステレオカメラとの異種
のセンサーから得たセンサーデータによる情報を統合す
るため、各センサーから得られる解釈から幾何学的に矛
盾のない解釈を用いて仮説を生成する。この対象となる
シーンの面形状等の対象物の形状によりソナーとステレ
オカメラとの何れのデータを優先するか等を予めテーブ
ルに定義すれば、環境地図とみなせる仮説を用いて仮説
の面形状に対し、推定できるセンサーデータを実際のセ
ンサーデータと照合することで仮説の検証を行うことが
できる。従って、センサーデータから周囲の環境を再構
成することは困難であるが、周囲の環境を表す環境地図
等の仮説から現時点に得られるであろうセンサーデータ
を推定することは容易である。従って、生成された仮説
を周囲の環境地図とみなして移動ロボットを移動する
が、移動中に得られる時系列的なセンサーデータを用い
て仮説を検証し、矛盾があれば仮説を破棄し、他の解釈
を用いて新たな仮説とする。
【0025】このように、仮説検証を繰り返し、現時点
の移動ロボットの周囲の環境に相当する仮説を生成す
る。これによりステレオカメラのセンサーデータからは
面形状を、ソナーのセンサーデータからは面の存在を得
ることにより各異種センサーの欠点を補うことができ
る。
【0026】なお、検証は、前回生成された仮説を時系
列的に得られるセンサーデータを用いて検証してもよ
く、センサーデータが得られる度に仮説を生成した後に
検証してもよい。
【0027】このように、請求項2の発明は、複数セン
サーの曖昧なデータを統合するので、仮説検証を繰り返
し、環境の解釈の確信度を高めることができる。また、
移動ロボットの走行誘導が目的であるため、走行の障害
となる物体面が経路上及びその周囲の存在するか否かを
知覚することが重要であり、その物体が何であるか等、
環境の厳密な認識を行わず、認識のための行動も取らな
いので、走行誘導におけるセンシングの実時間性を得る
ことができる。
【0028】なお、仮説生成手段は、予め定めた対象物
の形状を該対象物の面形状により分類し該分類した面形
状の各々について前記センサー毎に生成されるべき解釈
の全ての組み合わせが予め記憶されたテーブルを参照す
ることができる。
【0029】
【実施例】以下、図面を参照して、本発明の実施例を詳
細に説明する。本実施例は、障害物を回避しながら走行
する自律型の移動ロボット10に本発明を適用したもの
である。
【0030】図2に示したように、本実施例の移動ロボ
ット10は、異なる状態を検出する異種のセンサーとし
て超音波を利用してセンサーデータが対象物までの距離
情報として得られるソナーリング装置14と、2台のカ
メラ12R,12Lによるステレオ視を利用してセンサ
ーデータが3次元情報として得られる(詳細後述)ステ
レオカメラ12とを備えている。また、移動ロボット1
0は、ソナーリング装置14及びステレオカメラ12か
らの信号データに基づいて周囲の環境についての仮説を
生成及び検証するためのマイクロコンピュータ等により
構成された制御装置16と、この制御装置16からの信
号により駆動する走行装置18を含んでいる。なお、こ
の走行装置18には、移動ロボットの走行距離を計測す
るための距離計20及び現在の移動ロボットの方位を計
測するための方位計22を有している(図1参照)。
【0031】ステレオカメラ12は、基線長15cmで
カメラ12R,12Lの光軸が平行になるように配置さ
れると共に、水平面に対し仰角18度で傾かせて、例え
ば前方5mの床面までを撮像可能な視野になるように配
置され、人間の視界に近い撮像(所謂、ステレオ視)を
可能にしている。このカメラ12R,12Lは制御装置
16に接続されている。ソナーリング装置14は、音波
を媒体として対象物の検出を行うため、放射方向に向け
られた上部位置の発信器と下部位置の受信機とを有する
ソナー14A〜14Hが、8つ等角度間隔でリング状に
配置されている(図3参照)。このソナーリング装置1
4は制御装置16に接続されている。
【0032】図1に示したように、制御装置16は、ソ
ナー処理装置24と、画像処理装置26と、仮説検証装
置36と、環境地図装置38と、走行経路記憶装置40
と、走行制御装置42とから構成されている。また、仮
説検証装置36は、ソナー解釈部28と、ステレオ解釈
部30と、仮説記憶部34を有する仮説生成検証部32
とから構成されている。
【0033】ソナー処理装置24には、ソナーリング装
置14が接続されており、各々のソナー14A〜14H
を処理する。このソナー処理装置24では、各ソナー1
4A〜14Hが、隣接する他のソナーの発信器からの超
音波による干渉を防止するため、反時計方向に25ms
遅れで超音波の発信するように処理する。発信周波数は
40kHzで使用され、3.0m〜0.1mの範囲で対
象物までの測距が可能になっている。このソナー処理装
置24は、仮説検証装置36のソナー解釈部28に接続
されている。
【0034】なお、各ソナー14A〜14Hの送受信機
の指向性は光のように鋭くなく、空気中を伝搬すると、
超音波ビームは拡散して幅が拡がる。この幅の広いビー
ムを用いて反射面の距離を測定すると、反射面に沿う方
向については、ビーム幅程度の精度しか測定できず、1
点で反射された場合でもビーム幅に相当する球面状の何
れかに面が検知される。このように、各々のソナーは対
象物までの距離に比例した大きさである検出領域を有す
ることになる。
【0035】従って、移動ロボット10の周囲の対象物
を検出できる検出領域は、図4に示したように、ステレ
オカメラ12では検出領域Viになり、ソナーリング装
置14では検出領域Srになる。
【0036】画像処理装置26は、ステレオカメラ12
のカメラ12R,12Lに接続されており、カメラ12
R,12Lが撮像した映像を処理する。この映像の処理
は、上記のように配置されたカメラ12R,12Lによ
るステレオ視による各映像情報(ビデオ信号等)から、
3次元情報を得る。この画像処理装置26は、仮説検証
装置36のステレオ解釈部30に接続されている。
【0037】このステレオ視により、3次元情報が得ら
れるのは、画像における明るさが急変するエッジであ
る。また、2台のカメラを水平に配置したことにより画
像における水平でないエッジの対応付けは可能である
が、水平なエッジの画像間対応は得られない。そこで、
水平エッジの端点を対応付け、水平エッジの3次元情報
を得ることができる。
【0038】例えば、図11(A)に示す正面のイメー
ジ90を想定した対象物であるドア80を撮像した場合
を考える。各カメラ12R,12Lではドア80を撮像
するが、平行に配置されているため、撮像位置がずれ
る。このため、各カメラ12R,12Lの映像信号を微
分等の処理をして水平方向に明るさが急変するエッジを
抽出すると、図11(B)に示したように、カメラ12
Rによる処理画像92Rと、カメラ12Lによる処理画
像92Lとになる。すなわち、処理画像92Rではドア
80の鉛直方向の明るさが急変する部位が線分84A,
84Bとして得られ、処理画像92Lでは線分82A,
82Bとして得られる。従って、図11(C)に示しよ
うに、処理画像92Rと処理画像92Lとの合成画像9
4において、端点86A,86Bとを対応付ければよ
い。この線分82Bと線分84Bとの間隔Xがドア80
までの距離に対応する。この線分82Bと線分84Bと
から得られる線分が3次元線分となる。線分は、画像の
ずれを補正した位置で示してもよく、線分82B及び線
分84Bの何れか一方を用いてもよい。
【0039】仮説検証装置36では、詳細は後述する
が、ソナーリング装置14のセンサーデータ(以下、ソ
ナーデータという)に基づいてソナー解釈部28におい
て解釈された対象物の面成分と、ステレオカメラ12の
センサーデータ(以下、ステレオデータという)に基づ
いてステレオ解釈部30において解釈された対象物の形
状とから移動ロボット10の周囲の環境に関する仮説を
生成する。
【0040】走行制御装置42には、距離計20及び方
位計22が接続されており、移動ロボット10の現在の
位置及び方向が特定できるようになっている。また、走
行制御装置42には、環境地図装置38及び走行経路記
憶装置40が接続されている。環境地図装置38では、
仮説検証装置36において生成された仮説による周囲の
環境地図を記憶する。この環境地図は上方から見下ろし
た2次元地図で表現する。また、走行経路記憶装置40
は、予めオペレータ等により入力された、移動ロボット
10の走行経路が記憶されている。従って、走行制御装
置42は走行経路記憶装置40に記憶された走行経路を
参照すると共に環境地図装置38から得た環境地図を参
照して走行経路に存在する障害物を回避しながら移動ロ
ボット10が移動するように、走行装置18を制御す
る。
【0041】次に、本実施例の移動ロボット10の動作
を仮説検証装置36の動作と共に説明する。まず、仮説
検証装置36のソナー解釈部28ではソナーデータを解
釈し、ステレオ解釈部30ではステレオデータを解釈す
る。
【0042】このソナーデータの解釈について説明す
る。上記で説明したように、各ソナーの指向性は光のよ
うに鋭くないため、ソナーリング装置により得られる距
離情報からはビーム幅に相当する球面状の何処かに面が
検知されたことになる。
【0043】ところが、ソナーリング装置14の検出の
ためのサイクルタイムは、移動ロボットの移動速度に比
べて非常に高速であり、移動しながら得られるソナーの
距離情報は、時系列で連続して密に得られるため、平面
的な面成分として統合できる。連続した標本点で得られ
た微小面要素が連結できるか否かは、移動ロボット10
の移動を相殺し、微小面要素の中心の距離が、閾値以内
のとき、連続した面成分として統合する。このとき、受
信機の感度調整により、単発生のノイズが得られること
があるが、時系列で連続した複数の標本点で距離データ
等のソナーデータが得られないときにノイズとして除去
できる。
【0044】環境地図は上方から見下ろした2次元地図
で表現されるので、面成分は、線分データとして記述
し、始点と終点とで線分データを登録する。4点以上の
連続した標本点で結合可能な微小面要素が得られたと
き、最小自乗法により線分を求め、両方の端点から線分
に下ろした垂線の交点を、面成分として登録する。
【0045】このソナーリング装置14では、音波を媒
体として対象物を検出しているので、次のような性質が
ある。対象物50の面(以下、対象面という)50Aの
凹凸(表面粗さ)が超音波の波長のオーダーで不規則に
変化しているときに対象面では何れの方向から超音波が
入射しても散乱波の一部が入射方向に戻るために、距離
データを得ることができるが、対象面50Aの凹凸が超
音波の波長より1桁以上小さいときには対象物の表面が
鏡面として作用し超音波を反射する。
【0046】このため、図5(3)に示したように、1
つのソナーによる超音波の放射方向に対し、垂直または
ビームの広がり角以内にある物体面からの反射波は受信
できるが、それ以上大きな傾きを持った面からは反射波
が得られずに、自由領域(空間)と同様のデータにな
る。また、他のソナーでも検出することができない。従
って、登録された面成分が離れた標本点からのソナーデ
ータから自由領域と解釈された場合であっても、既に面
成分として解釈されている場合、この解釈は破棄しない
こととする。
【0047】また、面の形状が次のような場合にも、ソ
ナーリング装置14から正確なデータを得ることができ
ない。
【0048】図5(1)に示すように、凹角のコーナー
においては、放射した超音波が対面する2面で反射し受
信機に戻るため、実際の物体より遠い位置(符号5
0’)から距離データが得られる。また、図5(2)に
示すように、凸角のコーナーが対象物として存在する
と、凸角の頂点付近(符号50’)のみで反射波が得ら
れ、他の部分からのソナーデータが得られず、自由領域
と同じになる。以上の場合、ソナーデータのみから正確
な解釈を得るには、面のトレースを行わない限り、不可
能である。
【0049】次に、ステレオデータの解釈について説明
する。2台のカメラから得られたステレオデータは、エ
ッジに沿う3次元情報だけで、画像上で滑らかに明るさ
が変化する面上ではデータを得ることができない(図1
1参照)。このため、3次元線分に面が繋がっているこ
とが予想されるが、何れに存在しているかは判らない。
上記で説明したように、処理画像におけるエッジは、シ
ーンにおいて、面の向き(法線)が急変する場所、一方
の面がカメラから見えない境界線、或いは面上に描かれ
たマークや影である。従って、3次元線分から面を再構
成するには、3次元線分に繋がる面がどちら側にあるか
を知ると共に、画像上で隣接する他の3次元線分が必要
であるが、ステレオデータから得られた3次元線分は粗
で、面を構成するための3次元線分が、同時に複数本得
られるとは限らない。
【0050】ここで、室内環境において移動ロボット1
0の走行に障害となる面は垂直に立っている場合が多い
ので、本実施例では、3次元線分を含む垂直面を1つの
解釈として採用する。図11で用いたドア80を例にと
ると、3次元線分が2本得られる。説明を簡単にするた
め、この3次元線分は、線分82A,82Bであるもの
とする。この線分82A,82Bを含む垂直面は重複す
るため、線分82A,82Bの間を占める1つの面が存
在するものとして解釈できる。
【0051】また、3次元線分が得られた場合、単に床
面に描かれた線である場合もある。従って、この3次元
線分からは、この3次元線分を含む垂直な面があるとい
う解釈と、単に床面上に描かれた線分であるという解釈
との2つの解釈ができる。
【0052】なお、複数の垂直な3次元線分からは、こ
の3次元線分を含む垂直な面が多数考えられるため、最
も移動ロボットに近い距離の面をステレオデータの解釈
とする。また、線分は視野の限界、すなわち、画像枠に
よって途切れることが多いが、この線分は視野の範囲外
まで延長可能であるという属性を付与するものとする。
【0053】次に、上記のソナーデータ及びステレオデ
ータに基づく解説生成部32における仮説生成について
説明する。本実施例では、ステレオカメラによるステレ
オデータ、及びソナーリング装置による方位及び距離デ
ータ等のソナーデータを、次の規則で扱う。 (1)複数の異種センサーから得られた複数の解釈に対
して、走行に安全と考えられる解釈から環境に関する仮
説を生成する。 (2)仮説の生成には、各センサーで検知された地点の
解釈だけではなく、センサーデータに矛盾しなければ、
検知されていない地点にもセンサーに基づく解釈を延長
した解釈を採用する。 (3)仮説に基づき移動ロボットは移動するが、移動中
に得られる時系列のセンサーデータを仮説に参照し、仮
説の検証を行う。 (4)センサーデータが仮説に矛盾した場合、仮説を破
棄し、残った解釈から仮説を再生成する。
【0054】従って、統合結果として検証データに矛盾
しない確信度の高い仮説が得られる。
【0055】移動ロボットの走行誘導では、衝突を最も
避けなければならないため、本実施例の仮説では走行に
安全となる面成分の解釈を優先する。従って、ステレオ
カメラ12によるステレオデータ(3次元データ)の解
釈として、面と描かれた線分との2通りの解釈がある
が、ステレオデータが未検証(詳細は後述)のとき、面
の解釈を仮説として採用する。ソナーリング装置14と
ステレオカメラ12との検出領域が重ならないとき、両
方のセンサーの解釈をそのまま仮説として採用するが、
仮説には、大きい方の面成分を登録する。同じ解釈か否
かの判定は、短い線分から長い線分へ垂線を下ろしたそ
の距離の最大値が、閾値以下のときと線分間の距離が閾
値以上であったとき、移動ロボットに近い方の解釈を採
用する。仮説生成では、面成分の統合しか行わないの
で、仮説が矛盾するか否かの判定は行わない。以上の処
理は、得られたデータの内、移動ロボットに最も近いデ
ータを集める方法と等価である。このように、本実施例
では、誤った解釈を検証で破棄し、仮説を正確な環境地
図に近づける方法であり、これが誤った解釈を破棄でき
ない従来の方法と大きく異なる点である。
【0056】ここで、ソナーリング装置14とステレオ
カメラ12とでは、互いの検出領域が異なり(図4)、
センサーデータの検知し易さも対象により異なってい
る。例えば、ソナーリング装置14では移動を伴わなけ
れば面成分を解釈できず、また遠くの面は検知できな
い。一方、ステレオカメラ12ではソナーリング装置1
4に比べ遠くの3次元エッジが得られるが、ステレオデ
ータが得られる方位が限られているので単独の3次元エ
ッジから面を解釈することでは信頼性が低い。このよう
にセンサーの種類によって特性が異なるため、各々のセ
ンサーデータから直接的に環境を解釈しただけでは、そ
れらの解釈の結果を有効に統合できない。
【0057】従って、複数の異種センサーのデータを統
合し、ロボットの走行誘導に利用するには、大きな面成
分が必要である。このため、得られたセンサーデータを
基にした直接的な解釈の他に、後述するようにセンサー
の検出範囲外の領域を含めた解釈を行う。例えば、図4
に示すように、延長可能な3次元線分52を面と解釈し
たとき、その面を延長した線分52A上にソナーの面成
分54があればステレオカメラ12の範囲内の線分52
から面成分54までを連続した長い線分として解釈す
る。この場合の異種センサーによる解釈を結合するか否
かの判定は、ステレオデータの解釈で視野外まで延長可
能な属性であり、延長した線分上または線分までの最大
距離が閾値以内であるときとする。
【0058】移動ロボットの移動は、走行経路を参照し
現在の環境に関する仮説に従い回避行動を行う。もし、
移動中に現在の仮説に合致しないセンサーデータの解釈
が得られると、後述する方法によってその仮説が破棄さ
れ、新しい解釈を基にした仮説に対して最適となるよう
に移動ロボットの誘導を行う。
【0059】上記のようにして生成された仮説の検証に
ついて説明する。センシングデータから環境を再構成す
るボトムアップ的手法は、解釈の曖昧さがあるため、正
確な環境地図を得るには困難であるが、環境地図からセ
ンシングデータを推定するトップダウン的手法は、個々
のセンサーの特性が既知であるので容易である。
【0060】本実施例では、仮説を環境地図とみなし、
仮説に対して推定できるセンサーデータを、実際に検出
されたセンサーデータと照合し、仮説を破棄するか否か
は、予め想定しておいた結果に基づいて決定する。先
ず、面の形状毎にソナーリング装置14とステレオカメ
ラ12から得られると推定されるセンサーデータの組み
合わせに対して、センサーに優先権を付与し、仮説を破
棄するか否かを結論づけたテーブルを作成しておく(表
1参照)。
【0061】
【表1】
【0062】仮説は、面成分だけが記述されているた
め、センサーデータの解釈における面成分の位置に、対
応する仮説が無し(null)であったとき、検証は行われ
ず、センサーデータに基づいた新規な仮説が生成され
る。一方、センシングデータの位置に対応する仮説が存
在したとき、仮説の面形状に対応した検証が行われる。
【0063】ソナーリング装置14は、短時間では小さ
な面成分しか得られないため、仮説における面形状は、
ステレオカメラ12から得られた面成分と、仮説生成で
解釈を結合して得た大きな面しかない。従って、一様に
大きな面という仮説に対し、ソナーリング装置14とス
テレオカメラ12とのセンサーデータによる解釈の組み
合わせから表1の4通りの検証結果が推定できる。但
し、ソナーリング装置14のセンサーデータの解釈にお
いては、仮説の面に対し垂直或いは閾値以内にあるソナ
ーからの解釈に基づいて検証し、それ以外の仮説の面に
対し角度を持つソナーからのソナーデータは検証に用い
ない。表1のように一様に大きい面の仮説に対する検証
においてはソナーデータによる解釈を優先している。
【0064】例えば、表1の番号(2)ではステレオデ
ータの解釈における床面上に描かれた線分に対する面の
解釈を破棄して正しい解釈をするためであり、番号
(3)ではガラス面に対する正しい解釈を結論づけるた
めである。番号(4)については、仮説生成における解
釈を結合した大きな面成分が誤りであったことを結論づ
けるものである。
【0065】次に、凸面と凹面に対する検証を考える。
仮説で凸面と凹面を得るには、ステレオの解釈から生成
された仮説が採用されている場合に限る。従って、凸面
と凹面の場合は、検証において、ステレオデータの解釈
を考慮する必要がなく、ソナーデータだけに基づいた検
証を行う。表1の番号(5)では、凸面の先端部の近傍
にソナーの面成分があるとき、凸形状の面が確認され
る。一方、ソナーの面成分が得られなかったときには
(番号(6)参照)、ステレオデータの解釈が、床面に
描かれた線分であるものとして、仮説を破棄する。
【0066】同様に、表1の番号(7)では、凹面の最
深部の近傍にソナーの面成分があるとき、凹形状の面が
確認される。一方、ソナーの面成分が得られなかったと
き(番号(8)参照)、ステレオデータの解釈が、床面
に描かれた線分として、仮説を破棄する。
【0067】次に、細長いまたは小さな面に対する検証
を考える。仮説において、細長いまたは小さな面がソナ
ーの解釈に基づくとき、ステレオの解釈において面があ
るなしに拘わらず、仮説を破棄しない(番号(9)、
(11)参照)。一方、ステレオから面の解釈がある
が、ソナーでは面が得られなかったとき、面の見かけの
大きさと面までの距離によって、仮説を破棄するか否か
を結論づけるものである(番号(10)参照)。
【0068】上記で説明した仮説・検証の処理を時系列
的に得られるセンサーデータを用いで詳細に説明する。
ソナーリング装置14とステレオカメラ12とでは、ソ
ナーデータ及びステレオデータの各々が検知される標本
時間が異なり、ソナーデータはステレオデータより速い
サイクルタイムで得られる。前記の仮説生成及び検証は
センサーデータが得られる毎に行うため、ソナーデータ
のみに基づくとき、及びソナーデータとステレオデータ
の両方に基づくときの2つの場合がある。各々のセンサ
ーデータは移動ロボットの移動と共に常に連続して得ら
れる。
【0069】図6に示すように、時刻tk では、ソナー
データとステレオデータの両方が得られ、これに基づい
て仮説生成及び検証する場合を想定し、測距範囲(図4
の検出領域Sr)内でソナーデータ60が得られ、測視
範囲(図4の検出領域Vi)内でステレオデータ62が
得られる。このソナーデータ60を用いてソナー解釈部
28(図1)において解釈処理64が成され面成分とし
て解釈された解釈データSk,i (i=1,2,・・・,
8=ソナーの総数)を得ると共に、ステレオデータ62
を用いてステレオ解釈部30において解釈処理66が成
され面成分として解釈された解釈データVk,j (j=
1,2,・・・,エッジの総数から得られる数)を得
る。これらのソナーデータ60とステレオデータ62か
らは複数の面成分が得られ、特にステレオデータ62か
らは各エッジについて複数の解釈が得られる。従って、
全ての解釈データSk,i 、Vk,j には、その時点で仮説
に採用されているか、既に破棄されたかの属性を付与す
る。すなわち、解釈データSk, i と解釈データVk,j
を統合し、直前の時刻tk-1 における仮説Hk-1 を検証
する、次の検証処理68が成されるときに、直前の仮説
k-1 から想定されるソナーデータとステレオデータに
よる面成分と一致するか否かを判別し、一致しない仮説
k-1 における一部の面成分が破棄され、残った(一致
した)仮説Hk-1'と現在の解釈データSk,i 、Vk,j
の統合データ70が得られる。この統合データ70を用
いて仮説生成処理72が成され、新たな仮説Hk が生成
される。この仮説Hk では、解釈データSk,i と解釈デ
ータVk,j との中から何れの解釈データが反映されてい
るか関連づけておく。なお、移動ロボット10の最初の
移動である時刻t0 においては事前の仮説が無(null)
であるので、検出されたセンサーデータから得られる解
釈データS0,i と解釈データV0,j のみの統合から仮説
0 が生成される。
【0070】次に、直後の時刻tk+1 では、上記で説明
したように、ソナーデータはステレオデータより速いサ
イクルタイムで得られるため、仮説生成及び検証はソナ
ーデータのみに基づいて成される。先ず、得られるソナ
ーデータ60を用いて解釈処理64が成され面成分とし
て解釈された解釈データSk+1,i を得る。次の検証処理
68については、解釈データSk+1,i を用いて、直前の
時刻tk における仮説Hk を検証する。すなわち、直前
の仮説Hk から想定されるソナーデータとステレオデー
タによる面成分と一致するか否かを判別し、一致しない
仮説Hk-1 における一部の面成分が破棄され、残った
(一致した)仮説Hk ' と現在の解釈データSk+1,i
k,j との統合データ70が得られる。この統合データ
70を用いて仮説生成処理72が成され、新たな仮説H
k+1 が生成される。この仮説Hk+1では、解釈データS
k+1,i の何れの解釈データが反映されているか関連づけ
ておく。以下同様に、時系列的に仮説検証及び仮説生成
が成される。
【0071】この仮説検証の時系列的な過程を具体例を
挙げて説明する。図7(A)に示したように、移動ロボ
ット10の周囲に壁等の大きな面が存在するときには、
現在位置P1において、ステレオデータにより面と解釈
された延長可能な3次元線分72及びソナーデータから
得られた面成分74が得られ、線分72の延長上の面成
分74までを連続した長い線分を仮説76である平面と
して解釈する。この仮説76である平面について、図7
(B)に示したように、所定時間移動した後の位置P2
で検証され、さらに大きな面である仮説が生成される。
すなわち、ステレオデータによる3次元線分72及びソ
ナーデータによる面成分74が得られ、線分72及び面
成分74が前回の仮説76に該当するため、前回の仮説
76が正しいと解釈され、前回の平面である仮説76か
ら延長した平面を用いた前回の仮説を反映した新たな仮
説76’が生成される。なお、このとき、表1にもある
ように、仮説に対してステレオデータから面が解釈され
ていなくても、ガラス面に対する解釈を行うため、各ソ
ナーの解釈である面を結論づけることができる。
【0072】次に、仮説で凸面と凹面を得るには、上記
の表1から理解されるように、ステレオデータの解釈か
ら生成された仮説が採用されている場合に限る。従っ
て、移動ロボット10の周囲が凸面または凹面の場合に
は、仮説生成の段階で、ステレオデータからは凸面また
は凹面が解釈されていなければならない。
【0073】凸面の場合の仮説検証では、ソナーの解釈
が先端だけに集中した場合に凸面として解釈された仮説
が検証されたことにする。すなわち、図8(A)に示し
たように、現在位置P1では、ソナーデータにより凸面
の先端部分であることが予想される面成分74が得られ
ると共にステレオデータにより3次元線分72が得られ
る。これにより凸面としての仮説72が生成される。こ
の仮説76について、図8(B)に示したように、所定
時間移動した後の位置P2で検証される。すなわち、移
動ロボット10の移動後の位置P2においても、ソナー
データにより生成あれた仮説の凸面の先端部分の面成分
74が得られると共に、ステレオデータにより3次元線
分72が得られ、前回の仮説76が正しいことが検証さ
れる。
【0074】また、凹面の場合の仮説検証では、移動ロ
ボット10の周辺と両側に面要素が解釈された場合、凹
面として解釈された仮説が検証されたことにする。すな
わち、図9(A)に示したように、現在位置P1では、
ソナーデータにより凹面の先端部分の面成分74が得ら
れると共に、ステレオデータにより3次元線分72が得
られる。これにより凹面としての仮説72が生成され
る。この仮説76について、図9(B)に示したよう
に、所定時間移動した後の位置P2で検証される。すな
わち、移動ロボット10の移動後の位置P2において
は、1つのソナーのソナーデータにより凸面の先端部分
の面成分74が得られると共に、他のソナーのソナーデ
ータから対向する面成分74A,74Bが得られる。ま
た、ステレオデータにより3次元線分72が得られる。
従って、上記の平面の検証の場合と同様に、3次元線分
72、面成分74及び他の面成分74A,74Bが前回
の仮説76に該当するため、前回生成された凹面である
という仮説76が正しいことが検証される。
【0075】なお、上記の凸面及び凹面の仮説生成時の
検証において、ソナーの面成分が得られなかったとき
(図8(B)及び図9(B)参照)、ステレオデータに
よる解釈は床面に描かれた線分であるものとして新たな
解釈をし、前回の仮説である凸面及び凹面の解釈を破棄
する。
【0076】次に、細長い対象物または小さな面である
対象物の場合の仮説検証について説明する。図10
(A)に示したように、現在位置P1において生成され
る仮説は、ステレオデータから3次元線分72が得られ
て細長いまたは小さな面であることが解釈されるが、ソ
ナーデータからは面成分を得ることができる解釈がなさ
れないので、対象面までの距離が遠いものとしてステレ
オデータの解釈である対象面を仮説76とする。この仮
説76について、図10(B)に示したように、所定時
間移動した後の位置P2で検証される。すなわち、移動
ロボット10の移動後の位置P2においては、面までの
距離が近くなったため、ソナーデータから面として解釈
し得る面成分74が得られ、ステレオデータとソナーデ
ータから前回生成した小さい面という仮説が正しいこと
が検証される。
【0077】以上のように、ステレオカメラによるステ
レオ視とソナーリング装置による各ソナーから得るセン
サーデータから仮説を生成して、移動後のステレオデー
タとソナーデータによる解釈から仮説を検証し、仮説を
採用するか否かを判別し、破棄された場合、新たな仮説
を生成する。また、仮説が採用されても、新たなデータ
が加われば、それも合わせて更に仮説を大きく拡大す
る。
【0078】従って、複数の異種センサーから得られた
解釈から仮説を生成し、最初の仮説は曖昧であっても、
移動ロボットの動作によって最初とは異なった角度から
環境を検知でき、時系列データを仮説に検証すること
で、確信度の高い仮説が得られるようになる。そのた
め、ロボットが障害物に最接近する以前に障害物を検知
でき、安全で効率的な走行誘導が可能となる。
【0079】また、複数の異種センサーによるセンサー
データを統合して、総合的に環境を認識でき、移動ロボ
ットの走行誘導において実時間で容易に走行環境を理解
することができる。
【0080】さらに、本実施例では、移動ロボットの走
行誘導を目的として、走行の障害となる物体面が経路上
及びその周囲に存在するか否かを知覚することを重要視
し、その物体が何であるか等の環境の厳密な認識は必要
ない。このため、アクティブセンシングとは異なり、曖
昧な解釈に対して確認の行動をとらない。回避行動中に
得たデータに基づいて解釈を更新するが、曖昧な解釈の
ままであっても、回避し、通り過ぎた地点のデータは破
棄する。こうして、走行誘導におけるセンサー検出の実
時間性を得ている。
【0081】なお、上記実施例では、距離計及び方位計
を備えてこれらのデータを用いる場合について説明した
が、本発明はこれに限定されるものではなく、ソナーリ
ング装置及びステレオカメラから得たセンサーデータの
みを用いて距離及び方位を求めるようにしてもよい。
【0082】また、上記仮説検証装置は、移動領域を予
め定めてこの領域内を自由に移動して環境地図を作成し
つつ移動する移動ロボットに有効である。また、所定領
域内を始点と終点とを指示し、最短経路で移動するよう
に自律型走行を行うことができる移動ロボットに適用可
能なことは勿論である。
【0083】また、上記実施例では、ソナー及びステレ
オカメラを用いた異種センサーの例を説明したが、本発
明は、これに限定されるものではなく、赤外線センサ
ー、レーザー、熱線センサー及び送光受光型の光センサ
ー、そしてこれらの組み合わせによる3次元情報を得る
センサーを用いてもよい。
【0084】
【発明の効果】以上説明したように請求項1に記載した
発明によれば、複数の異種センサーによるセンサーデー
タを統合して、総合的に環境を認識できるので、移動ロ
ボットの走行誘導において実時間で容易に走行環境を理
解することができる、という効果がある。
【0085】請求項2に記載した発明によれば、時系列
的に得られるセンサーデータによって生成される仮説を
検証しているので、移動ロボットの移動に即した仮説が
生成されることにより、安全かつ効率的に走行誘導でき
る、という効果がある。
【図面の簡単な説明】
【図1】本実施例の仮説検証装置を含む制御装置の構成
を示すブロック図である。
【図2】移動ロボットを示す外観斜視図である。
【図3】ソナーリング装置を示す外観図である。
【図4】ソナーリング装置及びステレオカメラの検出領
域を示す線図である。
【図5】ソナーリング装置による誤検出を説明するため
のイメージ図である。
【図6】時系列的な仮説・検証時のデータの流れを示す
ブロック図である。
【図7】平面に対する仮説・検証を時系列的に説明する
ための説明図であり、(A)は移動前、(B)は移動後
を示している。
【図8】凸面に対する仮説・検証を時系列的に説明する
ための説明図であり、(A)は移動前、(B)は移動後
を示している。
【図9】凹面に対する仮説・検証を時系列的に説明する
ための説明図であり、(A)は移動前、(B)は移動後
を示している。
【図10】小さい面に対する仮説・検証を時系列的に説
明するための説明図であり、(A)は移動前、(B)は
移動後を示している。
【図11】ステレオカメラによる3次元データを得るこ
とを説明するためのイメージ図であり、(A)はドアの
正面図、(B)は各カメラに対する処理画像図、(C)
は(B)の合成図である。
【符号の説明】
10 移動ロボット 12 ステレオカメラ 14 ソナーリング装置 16 制御装置 28 ソナー解釈部 30 ステレオ解釈部 32 仮説生成検証部 36 仮説検証装置
フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G05D 1/02 S 9323−3H G06T 7/00 (72)発明者 石川 繁樹 神奈川県大和市下鶴間1623番地14 日本ア イ・ビー・エム株式会社 東京基礎研究所 内 (72)発明者 浅香 俊一 神奈川県大和市下鶴間1623番地14 日本ア イ・ビー・エム株式会社 東京基礎研究所 内 (72)発明者 枦木 信一郎 神奈川県大和市下鶴間1623番地14 日本ア イ・ビー・エム株式会社 東京基礎研究所 内

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 対象物の有無を検出するセンサー及び該
    対象物に関する画像情報を検出するセンサーを含む複数
    の異種のセンサーと、 前記複数のセンサーから得られるセンサーデータの各々
    に基づいてセンサー毎に前記対象物の要素を解釈する解
    釈手段と、 予め定めた対象物の形状に対するセンサー毎の解釈が予
    め記憶されたテーブルを参照すると共に、前記センサー
    毎に解釈された前記対象物の要素に基づいて該対象物の
    形状を表す仮説を生成する仮説生成手段と、 生成された仮説を用いて移動ロボットを誘導する誘導手
    段と、を備えた移動ロボットの誘導装置。
  2. 【請求項2】 対象物の有無を検出するセンサー及び該
    対象物に関する画像情報を検出するセンサーを含む複数
    の異種のセンサーと、 前記複数のセンサーから得られるセンサーデータの各々
    に基づいてセンサー毎に前記対象物の要素を解釈する解
    釈手段と、 予め定めた対象物の形状に対するセンサー毎の解釈が予
    め記憶されたテーブルを参照すると共に、前記センサー
    毎に解釈された前記対象物の要素に基づいて該対象物の
    形状を表す仮説を生成し、時系列的に得られるセンサー
    データに基づいて生成された仮説を検証し、検証された
    仮説が正しい場合にはそのまま生成された仮説を用いる
    と共に矛盾する場合には生成された仮説を破棄して新た
    に仮説を生成する仮説生成手段と、 前記仮説を用いて移動ロボットを誘導する誘導手段と、
    を備えた移動ロボットの誘導装置。
  3. 【請求項3】 前記仮説生成手段は、予め定めた対象物
    の形状を該対象物の面形状により分類し該分類した面形
    状の各々について前記センサー毎に生成されるべき解釈
    の全ての組み合わせが予め記憶されたテーブルを参照す
    ることを特徴とする請求項1または2に記載の移動ロボ
    ットの誘導装置。
JP5266647A 1993-10-25 1993-10-25 移動ロボットの誘導装置 Expired - Fee Related JP2501010B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5266647A JP2501010B2 (ja) 1993-10-25 1993-10-25 移動ロボットの誘導装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP5266647A JP2501010B2 (ja) 1993-10-25 1993-10-25 移動ロボットの誘導装置
CA002132359A CA2132359A1 (en) 1993-10-25 1994-09-19 Device for moving a mobile robot
US08/328,030 US5525882A (en) 1993-10-25 1994-10-24 Method and system for maneuvering a mobile robot
EP94307828A EP0649709A3 (en) 1993-10-25 1994-10-25 Apparatus for moving a mobile robot.

Publications (2)

Publication Number Publication Date
JPH07116981A true JPH07116981A (ja) 1995-05-09
JP2501010B2 JP2501010B2 (ja) 1996-05-29

Family

ID=17433741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5266647A Expired - Fee Related JP2501010B2 (ja) 1993-10-25 1993-10-25 移動ロボットの誘導装置

Country Status (4)

Country Link
US (1) US5525882A (ja)
EP (1) EP0649709A3 (ja)
JP (1) JP2501010B2 (ja)
CA (1) CA2132359A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002541568A (ja) * 1999-03-31 2002-12-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ シーンの第1の画像から第2の画像への画素ブロックの移動量を検出する方法
JP2004085337A (ja) * 2002-08-27 2004-03-18 Fujitsu Ltd 車両検出方法及び車両検出装置
JP2006174440A (ja) * 2000-02-21 2006-06-29 Sharp Corp 画像合成装置
JP2006239844A (ja) * 2005-03-04 2006-09-14 Sony Corp 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置
CN100434915C (zh) * 2004-05-28 2008-11-19 哈尔滨工程大学 采用水下机器人对堤坝隐患的检测方法
US7782187B2 (en) 2007-04-18 2010-08-24 Mitsubishi Electric Corporation Monitoring apparatus
JP2011008791A (ja) * 2010-06-30 2011-01-13 Advanced Telecommunication Research Institute International ロボットの対象物認識方法
JP2012248032A (ja) * 2011-05-27 2012-12-13 Fujitsu Ltd 地図処理方法及びプログラム、並びにロボットシステム

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL113913A (en) 1995-05-30 2000-02-29 Friendly Machines Ltd Navigation method and system
US5819008A (en) * 1995-10-18 1998-10-06 Rikagaku Kenkyusho Mobile robot sensor system
US5978504A (en) * 1997-02-19 1999-11-02 Carnegie Mellon University Fast planar segmentation of range data for mobile robots
GB2344888A (en) * 1998-12-18 2000-06-21 Notetry Ltd Obstacle detection system
EP2410742A1 (en) * 1999-04-16 2012-01-25 Panasonic Corporation Image processing apparatus and monitoring system
JP2001191283A (ja) * 1999-12-31 2001-07-17 Sony Corp ロボット装置及びその制御方法
JP4672175B2 (ja) * 2000-05-26 2011-04-20 本田技研工業株式会社 位置検出装置、位置検出方法、及び位置検出プログラム
SE0004466D0 (sv) * 2000-12-04 2000-12-04 Abb Ab Mobile Robot
SE0004465D0 (sv) * 2000-12-04 2000-12-04 Abb Ab Robot system
JP4087104B2 (ja) * 2001-11-20 2008-05-21 シャープ株式会社 群ロボットシステム
US6728608B2 (en) 2002-08-23 2004-04-27 Applied Perception, Inc. System and method for the creation of a terrain density model
WO2004031878A1 (ja) * 2002-10-01 2004-04-15 Fujitsu Limited ロボット
US7145478B2 (en) * 2002-12-17 2006-12-05 Evolution Robotics, Inc. Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system
JP3879848B2 (ja) * 2003-03-14 2007-02-14 松下電工株式会社 自律移動装置
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
KR100561863B1 (ko) * 2004-02-19 2006-03-16 삼성전자주식회사 가상 센서를 이용한 로봇의 네비게이션 방법 및 장치
CA2505715A1 (en) * 2004-05-03 2005-11-03 Her Majesty In Right Of Canada As Represented By The Minister Of National Defence Volumetric sensor for mobile robotics
US10705533B1 (en) 2005-05-31 2020-07-07 Richard Anthony Bishel Autonomous lawnmower
US7840308B2 (en) * 2004-09-10 2010-11-23 Honda Motor Co., Ltd. Robot device control based on environment and position of a movable robot
JP5112666B2 (ja) * 2006-09-11 2013-01-09 株式会社日立製作所 移動装置
US8414246B2 (en) * 2007-06-06 2013-04-09 Cycogs, Llc Modular hybrid snake arm
EP2045624A1 (en) * 2007-10-01 2009-04-08 Samsung Electronics Co., Ltd. Ultrasonic distance sensor and robot cleaner using the same
US8213706B2 (en) * 2008-04-22 2012-07-03 Honeywell International Inc. Method and system for real-time visual odometry
US8238612B2 (en) * 2008-05-06 2012-08-07 Honeywell International Inc. Method and apparatus for vision based motion determination
US8275506B1 (en) 2008-06-08 2012-09-25 Richard Anthony Bishel Boundary sensor
TWM348676U (en) * 2008-07-22 2009-01-11 Iner Aec Executive Yuan Environmental survey robot
US8755997B2 (en) * 2008-07-30 2014-06-17 Honeywell International Inc. Laser ranging process for road and obstacle detection in navigating an autonomous vehicle
US8364334B2 (en) * 2008-10-30 2013-01-29 Honeywell International Inc. System and method for navigating an autonomous vehicle using laser detection and ranging
US8364309B1 (en) * 2009-07-14 2013-01-29 Bailey Bendrix L User-assisted robot navigation system
US8325061B2 (en) * 2010-01-07 2012-12-04 Emilcott Associates, Inc. System and method for mobile environmental measurements and displays
JP5218479B2 (ja) 2010-06-10 2013-06-26 株式会社安川電機 移動体システム
US20120195491A1 (en) * 2010-07-21 2012-08-02 Palo Alto Research Center Incorporated System And Method For Real-Time Mapping Of An Indoor Environment Using Mobile Robots With Limited Sensing
CA2812723C (en) 2010-09-24 2017-02-14 Evolution Robotics, Inc. Systems and methods for vslam optimization
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
US10108186B2 (en) * 2011-12-09 2018-10-23 Daimler Ag Adaptive workstation assembly in production processing
US9020637B2 (en) 2012-11-02 2015-04-28 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US9037396B2 (en) 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
CN105425794A (zh) * 2015-11-25 2016-03-23 哈尔滨工业大学 一种移动机器人寻找放射源轨迹的方法
DE102016101552A1 (de) * 2016-01-28 2017-08-03 Vorwerk & Co. Interholding Gmbh Verfahren zum Erstellen einer Umgebungskarte für ein selbsttätig verfahrbares Bearbeitungsgerät

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0370803B2 (ja) * 1983-10-17 1991-11-11 Hitachi Ltd
JPS61183716A (en) * 1985-02-08 1986-08-16 Hitachi Ltd Guiding device
US4954962A (en) * 1988-09-06 1990-09-04 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002541568A (ja) * 1999-03-31 2002-12-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ シーンの第1の画像から第2の画像への画素ブロックの移動量を検出する方法
JP4658787B2 (ja) * 2000-02-21 2011-03-23 シャープ株式会社 画像合成装置
JP2006174440A (ja) * 2000-02-21 2006-06-29 Sharp Corp 画像合成装置
JP2004085337A (ja) * 2002-08-27 2004-03-18 Fujitsu Ltd 車両検出方法及び車両検出装置
CN100434915C (zh) * 2004-05-28 2008-11-19 哈尔滨工程大学 采用水下机器人对堤坝隐患的检测方法
JP2006239844A (ja) * 2005-03-04 2006-09-14 Sony Corp 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置
US7782187B2 (en) 2007-04-18 2010-08-24 Mitsubishi Electric Corporation Monitoring apparatus
JP2011008791A (ja) * 2010-06-30 2011-01-13 Advanced Telecommunication Research Institute International ロボットの対象物認識方法
JP2012248032A (ja) * 2011-05-27 2012-12-13 Fujitsu Ltd 地図処理方法及びプログラム、並びにロボットシステム

Also Published As

Publication number Publication date
CA2132359A1 (en) 1995-04-26
EP0649709A3 (en) 1996-05-29
JP2501010B2 (ja) 1996-05-29
EP0649709A2 (en) 1995-04-26
US5525882A (en) 1996-06-11

Similar Documents

Publication Publication Date Title
US9863775B2 (en) Vehicle localization system
US9329598B2 (en) Simultaneous localization and mapping for a mobile robot
JP5946147B2 (ja) 可動式ヒューマンインターフェースロボット
Ibisch et al. Towards autonomous driving in a parking garage: Vehicle localization and tracking using environment-embedded lidar sensors
Murray et al. Stereo vision based mapping and navigation for mobile robots
US20160291154A1 (en) Apparatus for acquiring 3-dimensional maps of a scene
Surmann et al. An autonomous mobile robot with a 3D laser range finder for 3D exploration and digitalization of indoor environments
JP3941765B2 (ja) 物体検出装置
US6906620B2 (en) Obstacle detection device and method therefor
Stiller et al. Multisensor obstacle detection and tracking
Molton et al. A stereo vision-based aid for the visually impaired
JP5588812B2 (ja) 画像処理装置及びそれを用いた撮像装置
US6442476B1 (en) Method of tracking and sensing position of objects
JP3596314B2 (ja) 物体端の位置計測装置および移動体の通行判断装置
Chong et al. Feature-based mapping in real, large scale environments using an ultrasonic array
US6205380B1 (en) Process for preparing an area plan having a cellular structure and comprising a unit moving automatically and positioned in said area using sensors based on wave reflection
CN106527424A (zh) 移动机器人及移动机器人的导航方法
US8793069B2 (en) Object recognition system for autonomous mobile body
US6289282B1 (en) Method of determining the distance between and object and a device of varying location
US9529087B2 (en) Curb detection using lidar with sparse measurements
Kriegman et al. A mobile robot: Sensing, planning and locomotion
KR101003168B1 (ko) 다차원 에비던스 그리드 및 그를 적용한 시스템 및 방법
US6496754B2 (en) Mobile robot and course adjusting method thereof
KR100899820B1 (ko) 자율 이동 차량용 지면/장애물 판별장치 및 판별방법
US7742841B2 (en) Autonomous vehicle and planar obstacle recognition method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees