JP4479372B2 - 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置 - Google Patents

環境地図作成方法、環境地図作成装置、及び移動型ロボット装置 Download PDF

Info

Publication number
JP4479372B2
JP4479372B2 JP2004188868A JP2004188868A JP4479372B2 JP 4479372 B2 JP4479372 B2 JP 4479372B2 JP 2004188868 A JP2004188868 A JP 2004188868A JP 2004188868 A JP2004188868 A JP 2004188868A JP 4479372 B2 JP4479372 B2 JP 4479372B2
Authority
JP
Japan
Prior art keywords
map
dimensional
height
plane
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004188868A
Other languages
English (en)
Other versions
JP2006011880A (ja
Inventor
グッドマン ステフェン
正樹 福地
浩太郎 佐部
ブルース ジェイムズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004188868A priority Critical patent/JP4479372B2/ja
Priority to US11/165,047 priority patent/US7912583B2/en
Publication of JP2006011880A publication Critical patent/JP2006011880A/ja
Application granted granted Critical
Publication of JP4479372B2 publication Critical patent/JP4479372B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Description

本発明は、環境内の情報を取得し環境地図を作成する環境地図作成方法、その装置、及び脚部などの移動手段を有し自身のおかれた環境内の障害物を認識して移動する移動型ロボット装置に関する。
自律型ロボット装置は、産業用ロボットと異なり、周囲の外部状態やロボット自身の内部状態に応じて自律的に動作を行うことのできるロボット装置である。例えば、自律型ロボット装置は、歩行動作では、外部の障害物を検出して障害物を回避するような行動経路を計画することができなくてはならない。従来のロボット装置のなかには、自身のおかれた環境の障害物地図を作成し、これに基づいて行動経路を決定できるロボット装置も提案されている。
ロボット装置が取得した3次元の距離情報から平面を検出するアルゴリズムについては様々な研究が行われている。検出された平面は、例えば移動式のロボット装置の障害物回避、又は階段昇降動作の用途とすることができる。
一般に、距離情報から平面を検出してロボット装置を移動させる手法として、ロボット装置の周囲の環境を2次元格子(Grid)(以下、2次元グリッドと記す。)で表現し、検出される全ての障害物からの仮想斥力(Repulsive Force)とターゲット(目標)に対する仮想引力(Attractive Force)の線形和によって得られる方向にロボット装置を移動させる方法が提案されている(特許文献1)。
また、取得した距離情報を用いて床面検出することで障害物か否かを推定できるロボット装置において、ロボット装置周辺の環境を所定の大きさグリッドに分割されたロボット中心座標系の地図情報としての環境地図で表現し、地図内の各グリッドに対して障害物の存在確率を保持できるようにし、存在確率がある閾値を超えたグリッドを障害物として扱うことによって、ロボット装置に周辺環境を識別させる手法が提案されている(特許文献2)。また、この特許文献2を発展させた手法として、2次元グリッドを拡張し、環境を水平面に平行な複数の2次元グリッドによって表現する手法もある。異なる高さの平面を複数の2次元グリッドによって表現している。
更には、ステレオビジョンを用いて周囲の環境の3次元情報を計測し、周囲の環境を3次元格子で表現する技術もある(例えば、非特許文献1参照)。また、ステレオビジョンによって得られる3次元情報から2次元グリッドの各グリッドに対して高さ情報だけをアナログ値で割り当てて構築した2.5次元高さ地図(2.5D Height Map)によって、2次元グリッドの1マスに高さ情報をあてはめることで環境を表現する手法もある。(例えば、非特許文献2参照)
米国特許第5006988号公報 特開2003−269937号公報 H.Moravec.「確率的容積検出による強固な探索法(Robust Navigation by Probabilistic Volumetric Sensing)」,DARPA MARS program research progress,2002. Kagamiら(S.Kagami,K.Nishiwaki,J.J.Kuffner,K.Okada,M.Inaba,H.Inoue.)「人間型ロボットの移動のための視覚に基づいた2.5次元地形モデリング(Vision-based 2.5D terrain modeling for humanoid locomotion.)」,Int.Conf.on Robotics and Automation (ICRA),2003.
特許文献1及び特許文献2のような技術は、周囲の環境を2次元地図で表すため、移動体(移動型ロボット)の性能が向上し、段差、傾斜等、移動面の状態変化にある程度対応できるようになってくると不十分であり、垂直方向の情報が必要となってくる。
しかし、垂直方向の解像度を向上するために、高さ方向にもグリッドを積み上げた3次元グリッドを解析することによって環境を精度よく表現しようとした非特許文献3に代表される技術では、周囲の環境を2次元グリッドとして扱う場合に比べて観測が必要なグリッド数が多くなる。
例えば、4メートル四方、高さ1メートルの空間を、水平解像度4センチ及び垂直解像度1センチを1グリッド単位(場合によってはセルと記す。)とした3次元グリッドで表現しようとした場合、100×100×100=1,000,000個のセルが必要になる。1,000,000個のセルに対して障害物存在確率を統計的に処理する計算量、必要なメモリ容量等が増大するため、特に、搭載可能な情報処理装置、情報取得のための検出装置等に制限がある2足歩行ロボット(Humanoid Robot)に対してこの技術を適用することは困難である。そのうえ、2足歩行ロボットは、垂直方向に対して4cm以下の精度で解析することができないのでは、階段登行、段差越えといった動作の際に不都合なため、実際には、垂直方向に対して4mm程度の解像度が要求される。そうなると、グリッド数は、更に10倍となり、精度の高い環境認識を行うことによる計算量とメモリ容量の問題が回避できない。
3次元グリッドを用いる場合に比べて情報量を削減した2.5次元高さ地図(2.5D Height Map)を使用した非特許文献2の技術は、高さ方向の解像度がグリッド毎にアナログ値として保持されるために、3次元グリッドの場合よりも少ないデータ量で精度の高い表現が可能となる点では有益である。
ところが、3次元グリッドに比べて情報量が削減されていることに起因する問題が生じる場合がある。問題点の1つとして、2.5次元高さ地図では、以前に観測した平面が次の観測時になくなっていた場合、環境認識が不十分になることがある。図36及び図37を用いて、2.5次元高さ地図によって環境を表現する移動型ロボットが2.5次元高さ地図を更新できない場合について説明する。
図36には、移動型ロボット400の前方に平面A、平面Bがあるような環境の断面が示されている。移動型ロボット400は、ステレオビジョン401によって、視野領域SSにある平面Aと平面Bとを観測し2.5次元高さ地図を作成する。ここでは説明のために、作成される2.5次元高さ地図を実環境に対応させて、図示しない移動型ロボット装置の足底踏面に基準面をとって、グリッドG410として示す。グリッドG410の1つのセルSは、移動型ロボット周辺の環境を所定の解像度で分割表現したときの格子1つに対応する。一例として、4メートル四方の空間を水平解像度4センチで分割したとする。説明の便宜上、視野領域端に対応するセルから順番にS、S、・・・、Sと記す。
移動型ロボットは、決められた時間間隔でステレオビジョン401によって環境を観測し、その都度、グリッドG410を更新する。セルS〜Sには、高さ情報として平面Aの高さ100mmが代入される。このとき、図37に示すように、平面Aが移動してなくなったとする。移動型ロボット400は、次の観測で平面Aに隠れていた平面Bを検出する。平面Bに含まれるセルS〜S15に対しては、高さ情報が更新され、平面Bの高さ50mmが代入されるが、平面Aとして認識され平面Bに含まれないセルS〜Sは、図37の状況では、移動型ロボットからは見えない(観測されない)ため、依然として平面Aの高さ情報100mmを保持し続けることになる。
図36及び図37に示す例は、環境内の平面(障害物)の移動、消失等によって生じる特殊な環境変化であるが、ステレオビジョン401、或いはステレオビジョン401の観測データから平面検出を行う平面検出器等の観測ノイズによってもしばしば発生することがある。例えば、平面検出器が、実際には存在しない平面又は障害物を検出したかのような誤検出信号に近い観測ノイズを送った場合などに、実際には存在しない障害物がグリッドG410上の更新できない領域に残留してしまうという問題点があった。
本発明は、上述した従来の実情に鑑みてなされたものであり、観測ノイズに対して高い耐性を備え、且つ高さ方向に対して高い解像度をもって周囲の環境を表現することができる環境認識装置及び環境認識方法、並びに移動型ロボット装置を提供することを目的とする。また、観測ノイズに対して高い耐性を備え、且つ高さ方向に対して高い解像度をもって周囲の環境を表現することができる環境認識方法をコンピュータに実行させる環境認識プログラムを提供することを目的とする。
本発明に係る環境地図作成方法は、外部状態に基づいて3元地図を作成する環境地図作成方法であって、外部状態検出手段が、外部状態を検出する外部状態検出工程と、3次元地図作成手段が、外部状態検出工程により検出された外部状態に基づいて3次元グリッドの占有状態を表す3次元地図を作成する3次元地図作成工程と、対基準面高さ地図作成手段が、外部状態検出工程により検出された外部状態に基づいて2次元の基準面からの高さを表す対基準面高さ地図を作成する対基準面高さ地図作成工程と、高さ地図情報変更手段が、3次元地図の情報に基づいて対基準面高さ地図の情報を変更する高さ地図情報変更工程とを有することにより、対基準面高さ地図を3次元地図の情報を用いて補完する。
特に、高さ地図情報変更工程は、対基準面高さ地図における高さ情報を取得し、該高さ情報を3次元地図の高さ座標に対応させ、対応した3次元グリッドの1グリッド単位の占有確率が3次元グリッドにおいて障害物と認識するか否かを決めている閾値より大きいか否かを比較し、閾値より小さい場合、この1グリッド単位は障害物でないと判断し、閾値より大きい場合、この1グリッド単位は障害物であると判断し、対応する対基準面高さ地図の高さ情報を更新する。
また、平面検出工程は、3次元空間で同一平面上にあると推定される距離データ点群毎に線分を抽出する線分抽出工程と、線分抽出工程によって抽出された線分群から同一平面に属すると推定される複数の線分を抽出し該複数の線分から平面を算出する平面領域拡張工程とを有し、線分抽出工程は、距離データ点の分布に応じて適応的に線分を抽出することにより平面を検出する。
また、本発明に係る環境地図作成装置は、外部状態に基づいて3元地図を作成する環境地図作成装置であって、外部状態を検出する外部状態検出手段と、外部状態検出手段により検出された外部状態に基づいて3次元グリッドの占有状態を表す3次元地図を作成する3次元地図作成手段と、外部状態検出手段により検出された外部状態に基づいて2次元の基準面からの高さを表す対基準面高さ地図を作成する対基準面高さ地図作成手段と、3次元地図の情報に基づいて対基準面高さ地図の情報を変更する高さ地図情報変更手段とを有し、対基準面高さ地図を3次元地図の情報を用いて補完する。
また、本発明に係る移動型ロボット装置は、移動手段により移動可能なロボット装置であって、外部状態を検出する外部状態検出手段と、外部状態検出手段により検出された外部状態に基づいて3次元グリッドの占有状態を表す3次元地図を作成する3次元地図作成手段と、外部状態検出手段により検出された外部状態に基づいて2次元の基準面からの高さを表す対基準面高さ地図を作成する対基準面高さ地図作成手段と、3次元地図の情報に基づいて対基準面高さ地図の情報を変更する高さ地図情報変更手段と、高さ地図情報変更手段によって変更された地図情報を環境地図として自律的に行動経路を決定し移動動作を制御する移動制御手段とを備える。
本発明によれば、外部状態を検出し、検出された外部状態に基づいて3次元グリッドの占有状態を表す3次元障害物地図を作成し、検出された外部状態に基づいて2次元の基準面からの高さを表す対基準面高さ地図を作成し、更に3次元障害物地図の情報に基づいて、対基準面高さ地図の情報を変更することにより、同程度の解像度をもった3次元格子に比べて演算負荷を低減することができるとともに、観測ノイズに対して高い耐性を備え、且つ高さ方向に対して高い解像度をもって周囲の環境を表現することができる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。以下では、ステレオビジョンなどにより得られた距離情報(距離データ)から抽出した複数平面によって障害物や段差などといった環境を認識して環境地図として表現する環境地図作成装置と、この環境地図作成装置を移動型ロボット装置に適用した例について説明する。
図1は、環境地図作成装置の概略を示すブロック図である。図1に示すように、環境地図作成装置1には、2台のCCDカメラ10R,10Lが設けられ、このCCDカメラ10R,10Lの後段には、ステレオ画像処理装置12が設けられている(ただし、R及びLは、右及び左の各々を示す接尾辞である。以下において同じ。)。2台のCCDカメラにより撮像された右画像11R、左画像11Lは、ステレオ画像処理装置12に入力される。ステレオ画像処理装置12は、各画像11R,11Lの視差情報(disparity data)(距離情報)を計算し、カラー画像(YUV:輝度Y、UV色差)13及び視差画像(YDR:輝度Y、視差D、信頼度R)14をフレーム毎に左右交互に算出する。ここで、視差とは、空間中のある点が左側カメラ及び右側カメラに写像される点の違いを示し、そのカメラからの距離に応じて変化するものである。このカラー画像12及び視差画像13は、CPU(制御部)15に入力される。CPU15は、ステレオ画像処理装置12からのカラー画像13及び視差画像14が入力され、後述するソフトウェア構成によって環境地図の作成を実現する。
続いて、環境地図作成装置1がCCDカメラ10L、10Rにおいて取得したステレオデータに基づいて環境を環境地図として表現するまでの処理を実行するシステムを、図2に示す機能ブロックを用いて説明する。
図2に示すように、環境地図作成装置1は、3次元の距離データを取得する距離データ計測手段としてのステレオビジョンシステム(Stereo Vision System)2と、ステレオビジョンシステム2からステレオデータD1が入力され、このステレオデータD1から環境内の平面を検出する平面検出器(Plane Segmentation)3と、平面検出器3から出力される平面データD2から後述する環境地図を更新し、環境地図データD5を出力する環境地図作成部(Update GridMap & HeightMap)4とを備える。
更に、環境地図作成部4は、図3に示すように、検出された周囲の環境に基づいて3次元環境地図(以下、3次元グリッド)を作成する、又はこれを更新する3次元グリッド更新部(Update 3D Grid)41と、3次元グリッド更新部41から送られた障害物確率データD3に基づいて高さ地図を検証する高さ地図検証部(Verify Height Map)42と、検証結果に基づいて高さ地図における高さ情報を更新する高さ地図更新部(Update Height Map)43とを備えている。
3次元グリッド更新部41によって作成される3次元環境地図(3次元グリッド)は、周囲の環境を水平方向及び垂直方向に所定の大きさの格子(グリッド;Grid)に分割して表したものである。3次元グリッド更新部41は、ステレオビジョンシステム2からのステレオデータD1から、例えば、4メートル四方、高さ1メートルの空間を、水平解像度4センチ及び垂直解像度1センチの直方体空間を1グリッド単位(1セルと記す。)とし、その集合によって3次元環境地図を表現している。3次元グリッド更新部41は、各セルに物体によって占有されているか否かの確率を付与し、観測データに基づいて各セルの占有確率を変更させている。占有確率に閾値を設け、占有確率が閾値より大きいか否かによって環境の状態を地図として表現している。
本具体例では、高さ方向の解像度がセル分解能に依存しないため、垂直解像度は、1センチよりも粗くできる。また、3次元グリッド更新部41は、作成した3次元グリッドをステレオデータD1及び平面データD2によって更新し、高さ地図検証部42に出力している。
高さ地図検証部42は、ステレオデータD1から2次元の基準面からの高さを表す対基準面高さ地図を作成している。対基準面高さ地図は、検出される平面を2次元の基準面からの高さを表す情報によって区別することで環境を表現した地図であって、3次元グリッドのように垂直方向(Z軸)に平行な面(物体側面)に関する情報をもたないことから、本具体例では、2.5次元高さ地図(2.5D Height Map)と記している。また、本具体例では、2.5次元高さ地図の地図内領域を特定できるように座標系をあてはめ、3次元グリッドと同領域に関する地図とすることにより、3次元グリッド更新部41で作成される3次元グリッドに対応付けできるようにしている。高さ地図検証部42は、3次元グリッドのセルの高さ情報と2.5次元高さ地図のセルの高さ情報とを比較して検証する処理を行っている。
高さ地図更新部43は、3次元地図の情報に基づいて対基準面高さ地図の情報を変更している。すなわち、平面データD2と3次元グリッドの障害物確率データD3とから必要に応じて2.5次元高さ地図の高さ情報を更新する処理を行っている。
環境地図作成装置1は、まずステレオビジョンシステム2によって外界を観測し、ステレオ視カメラの視差画像によって算出される3次元距離情報であるステレオデータD1を画像として出力する。すなわち、人間の両眼に相当する左右2つのカメラからの画像入力を各画素近傍毎に比較し、その視差から対象までの距離を推定し、3次元距離情報を画像として出力(距離画像)する。環境地図作成装置1は、ステレオデータD1から平面検出器3によって平面を検出することによって環境内に存在する複数の平面を認識することができる。また、環境地図作成装置1は、環境地図作成部4によって平面データD2からステレオビジョンシステム2で取得された周辺の環境を水平方向及び垂直方向に所定の大きさの格子(Grid)に分割された環境地図を作成する。環境地図作成装置1は、環境地図をステレオデータD1及び平面データD2によって更新し、3次元グリッドの障害物存在確率を参照することによって2.5次元高さ地図を作成している。
上述した環境地図作成装置1の各ブロックの機能及び処理は、後段にて詳細に説明する。
ステレオビジョンシステムにより得られた距離情報(距離データ)から抽出した複数平面によって障害物や段差などといった環境を認識して環境地図として表現する環境地図作成装置1を移動型ロボット装置に適用した例について説明する。移動型ロボット装置の具体例として、2足歩行タイプのロボット装置をあげる。このロボット装置は、住環境そのほかの日常生活上の様々な場面における人的活動を支援する実用ロボットであり、内部状態(怒り、悲しみ、喜び、楽しみ等)に応じて行動できるほか、人間が行う基本的な動作を表出できるエンターテインメントロボット装置である。ロボット装置は、環境地図作成装置1によって作成された環境地図を利用することによって、行動経路を作成することができる。
図4は、本具体例におけるロボット装置の概観を示す斜視図である。図4に示すように、ロボット装置201は、体幹部ユニット202の所定の位置に頭部ユニット203が連結されるとともに、左右2つの腕部ユニット204R/Lと、左右2つの脚部ユニット205R/Lが連結されて構成されている。
このロボット装置201が具備する関節自由度構成を図5に模式的に示す。頭部ユニット203を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。
また、上肢を構成する各々の腕部ユニット204R/Lは、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール輪113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。ただし、手部114の動作は、ロボット装置201の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書では簡単のため、ゼロ自由度と仮定する。したがって、各腕部は7自由度を有するとする。
また、体幹部ユニット202は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。
また、下肢を構成する各々の脚部ユニット205R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足底121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置201の股関節位置を定義する。人体の足底121は、実際には多関節・多自由度の足底を含んだ構造体であるが、本明細書においては、簡単のためロボット装置201の足底は、ゼロ自由度とする。したがって、各脚部は、6自由度で構成される。
以上を総括すれば、ロボット装置201全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。ただし、エンターテインメント向けのロボット装置201が必ずしも32自由度に限定されるわけではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
上述したようなロボット装置201がもつ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うこと等の要請から、アクチュエータは小型かつ軽量であることが好ましい。
このようなロボット装置は、ロボット装置全体の動作を制御する制御システムを例えば体幹部ユニット202等に備える。図5は、ロボット装置201の制御システム構成を示す模式図である。図5に示すように、制御システムは、ユーザ入力等に動的に反応して情緒判断や感情表現を司る思考制御モジュール200と、アクチュエータ350の駆動等、ロボット装置201の全身協調運動を制御する運動制御モジュール300とで構成される。
思考制御モジュール200は、情緒判断や感情表現に関する演算処理を実行するCPU(Central Processing Unit)211や、RAM(Random Access Memory)212、ROM(Read Only Memory)213及び外部記憶装置(ハード・ディスク・ドライブ等)214等で構成され、モジュール内で自己完結した処理を行うことができる、独立駆動型の情報処理装置である。
この思考制御モジュール200は、画像入力装置251から入力される画像データや音声入力装置252から入力される音声データ等、外界からの刺激等にしたがって、ロボット装置201の現在の感情や意思を決定する。すなわち、上述したように、入力される画像データからユーザの表情を認識し、その情報をロボット装置201の感情や意思に反映させることで、ユーザの表情に応じた行動を発現することができる。ここで、画像入力装置251は、例えばCCD(Charge Coupled Device)カメラを複数備えており、これらのカメラにより撮像した画像から距離画像を得ることができる。また、音声入力装置252は、例えばマイクロホンを複数備えている。
思考制御モジュール200は、意思決定に基づいた動作又は行動シーケンス、すなわち四肢の運動を実行するように、運動制御モジュール300に対して指令を発行する。
一方の運動制御モジュール300は、ロボット装置201の全身協調運動を制御するCPU311や、RAM312、ROM313及び外部記憶装置(ハード・ディスク・ドライブ等)314等で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。また、外部記憶装置314には、例えば、オフラインで算出された歩行パターンや目標とするZMP軌道、その他の行動計画を蓄積することができる。
この運動制御モジュール300には、図4に示したロボット装置201の全身に分散するそれぞれの関節自由度を実現するアクチュエータ350、対象物との距離を測定する距離計測センサ(図示せず)、体幹部ユニット202の姿勢や傾斜を計測する姿勢センサ351、左右の足底の離床又は着床を検出する接地確認センサ352,353、足底121の足底121に設けられる荷重センサ、バッテリ等の電源を管理する電源制御装置354等の各種の装置が、バス・インターフェース(I/F)310経由で接続されている。ここで、姿勢センサ351は、例えば加速度センサとジャイロ・センサの組合せによって構成され、接地確認センサ352,353は、近接センサ又はマイクロ・スイッチ等で構成される。
思考制御モジュール200と運動制御モジュール300は、共通のプラットフォーム上で構築され、両者間はバス・インターフェース210,310を介して相互接続されている。
運動制御モジュール300では、思考制御モジュール200から指示された行動を体現すべく、各アクチュエータ350による全身協調運動を制御する。すなわち、CPU311は、思考制御モジュール200から指示された行動に応じた動作パターンを外部記憶装置314から取り出し、又は、内部的に動作パターンを生成する。そして、CPU311は、指定された動作パターンにしたがって、足部運動、ZMP軌道、体幹運動、上肢運動、腰部水平位置及び高さ等を設定するとともに、これらの設定内容に従った動作を指示する指令値を各アクチュエータ350に転送する。
また、CPU311は、姿勢センサ351の出力信号によりロボット装置201の体幹部ユニット202の姿勢や傾きを検出するとともに、各接地確認センサ352,353の出力信号により各脚部ユニット205R/Lが遊脚又は立脚のいずれの状態であるかを検出することによって、ロボット装置201の全身協調運動を適応的に制御することができる。更に、CPU311は、ZMP位置が常にZMP安定領域の中心に向かうように、ロボット装置201の姿勢や動作を制御する。
また、運動制御モジュール300は、思考制御モジュール200において決定された意思通りの行動がどの程度発現されたか、すなわち処理の状況を、思考制御モジュール200に返すようになっている。このようにしてロボット装置201は、制御プログラムに基づいて自己及び周囲の状況を判断し、自律的に行動することができる。
図1に示した環境地図作成装置1をロボット装置に適用した場合、周囲の環境を環境地図として認識するための構成の概略は、図7に示すようになる。すなわち、ロボット装置201では、図1に示す構成に加えて、アクチュエータ16、各種センサ17を備えている。ロボット装置201では、2台のCCDカメラ10R,10Lとして画像入力装置251が用いられ、思考制御モジュール200がステレオ画像処理装置12として機能する。ステレオ画像処理装置12は、各画像11R,11Lの視差情報(距離情報)を計算し、カラー画像13及び視差画像14をフレーム毎に左右交互に算出する。
カラー画像12及び視差画像13は、ロボット装置1の体幹部ユニット202に内蔵されたCPU(制御部)15に入力される。また、ロボット装置1の各関節にはアクチュエータ16が設けられており、CPU15からの指令となる制御信号18が供給されて、その指令値に応じてモータを駆動する。各関節(アクチュエータ)には、ポテンショメータが取り付けられ、そのときのモータの回転角がCPUに送られる。このアクチュエータに取り付けられたポテンショメータ、足底に取り付けられたタッチセンサ及び体幹部ユニットに取り付けられたジャイロ・センサ等の各センサ17は、現在の関節角度、接地情報、及び姿勢情報等の現在のロボット装置の状態を計測し、センサデータ19としてCPU15に出力する。CPU15は、ステレオ画像処理装置12からのカラー画像13及び視差画像14と、アクチュエータの全ての関節角度等のセンサデータ19とが入力され、ソフトウェアによって実行される環境表現処理を行っている。
ロボット装置201におけるソフトウェアは、オブジェクト単位で構成され、ロボット装置の位置、移動量、周囲の障害物、及び環境地図等を認識し、ロボット装置が最終的に取るべき行動についての行動列を出力する各種認識処理等を行うものである。なお、ロボット装置の位置を示す座標として、例えば、後述するランドマーク等の特定の物体等を座標の原点としたワールド基準系のカメラ座標系(以下、絶対座標ともいう。)と、ロボット装置自身を中心(座標の原点)としたロボット中心座標系(以下、相対座標ともいう。)との2つの座標を使用する。
図8は、ロボット装置201が画像入力装置251において取得したステレオデータに基づいて環境を環境地図として表現し、環境地図に基づいて行動経路を決定するまでの処理を実行するシステムを示す機能ブロック図である。図8に示すように、ロボット装置201は、ステレオビジョンシステム2、平面検出器3、環境地図作成部4に加え、視差情報及び視差画像からなるステレオデータD1及びセンサデータD6を入力としてステレオデータD1が撮像された時刻におけるセンサデータD6の関節角を割り出し関節角データD7を送出するキネマティックオドメトリ5と、キネマティックオドメトリ5からの関節各データD7によって、ロボット中心座標系をカメラ座標系に変換しロボット姿勢データD8を送出するロボット姿勢更新部(Update Robot Pose)6と、環境地図作成部4からの環境地図データD5と、ロボット姿勢更新部7からのロボット姿勢データからロボット装置201の行動経路決定等の動作指令を制御する経路決定部(Path Planner)7とを備えている。
ロボット装置201は、まず、ステレオビジョンシステム2によって外界を観測し、両眼の視差によって算出される3次元距離情報としてのステレオデータD1を画像として出力する。すなわち、人間の両眼に相当する左右2つのカメラからの画像入力を各画素近傍毎に比較し、その視差から対象までの距離を推定し、3次元距離情報を画像として出力(距離画像)する。この距離画像から平面検出器3によって平面を検出することで環境内に存在する複数の平面を認識することができる。更に、環境地図作成部4によって、ロボット装置の周囲の環境地図を作成する。そして、経路決定部7は、環境地図データD5及びロボット姿勢データD8を用いて環境内におけるロボット装置の移動動作を実現する。このようにロボット装置201に環境地図作成装置1を適用することによって、ロボット装置201は、自身の視野内にある階段、障害物、段差等の視野内情報を環境地図として認識することができ、環境地図を参照することによって自分の周辺の障害物、階段、段差等を含む環境を把握できるようになり、この認識結果としての環境地図を使用して、階段昇降動作、歩行動作、行動経路探索といった動作が可能になる。
図9には、環境地図作成装置1を備えるロボット装置201によって認識される環境の例が示されている。図9に示す実空間S500には、ロボット装置201が登行可能な平面PL501とPL502とを備える階段(Staircase)ST503と、ロボット装置が登行不可能な障害物(Obstacle)OB504,505とが示されている。
図10は、ロボット装置201が外界を撮影している様子を示す模式図である。ここでは、床面(基準面)をx−y平面とし、高さ方向をz軸としたとき、図10に示すように、画像入力部(ステレオカメラ)を頭部ユニット203に有するロボット装置201の視野範囲は、ロボット装置201の前方の所定範囲となる。ロボット装置201は、視野範囲にある環境を認識して環境地図を作成する。
続いて、ロボット装置201が図9の実空間S500を認識し環境地図を作成する処理について環境地図作成装置1の構成の説明とともに図面を参照して説明する。
ステレオビジョンシステム2は、3次元の距離データ、カラー画像及びステレオカメラによる視差画像などの画像データを取得し、計測された距離情報(ステレオデータD1)を平面検出器3に送出する。
平面検出器3は、ステレオビジョン等の距離計測器から出力される距離情報(ステレオデータD1)から環境内に存在する複数の平面を検出し、平面データD2を出力する。ここでの平面の検出方法としては、線分拡張法、ハフ変換等を利用した公知の平面検出技術を適用することができる。ノイズを含む距離データから階段のように複数平面を検出する代表例として、線分拡張法による平面検出を行うと正確に平面を検出することができる。
線分拡張法は、視野内において支配的な平面だけでなく、例えば階段など複数の平面が存在する場合であっても確実に複数平面を検出することができ、平面を検出する際に抽出する線分抽出において、距離データの点の分布に応じて適応的に線分をフィッティングさせることにより観測ノイズに対してロバストな平面検出結果を得ることができる。
平面検出器3は、図11に示すように、画像を構成する距離データ点から同一平面にあると推定される距離データ点群を選択し、この距離データ点群毎に線分を抽出する線分抽出部31と、画像内に含まれる、線分抽出部31よって抽出された全線分からなる線分群から、該画像内に存在する1又は複数の平面領域を検出する領域拡張部32とを有する。領域拡張部32は、線分群から同一平面上に存在すると推定される任意の3本の線分を選択し、これらから基準平面を求める。そして、選択した3本の線分に隣接する線分がこの基準平面と同一平面に属するか否かを判定し、同一平面に属すると判定した場合にはその領域拡張用線分としての線分により基準平面を更新するとともに基準平面の領域を拡張する。
線分抽出部31は、その距離画像における列又は行毎の各データ列において、3次元空間内で同一平面上にあると推定される距離データ点群を抽出し、この距離データ点群から距離データ点群の分布に応じて1以上の線分を生成する。すなわち、分布に偏りがあると判断された場合には、データ点群は同一平面上にないと判断し、データ点群を分割し、分割したデータ点群それぞれについて再度分布に偏りがあるかを判断する処理を繰り返し、分布に偏りがない場合にはそのデータ点群から線分を生成する。全てのデータ列について以上の処理を行い、生成した線分群D21を領域拡張部32に出力する。
領域拡張部32は、この線分群D21において、同一の平面に属すると推定される線分を3本選択し、これらから基準平面としての種となる平面を求める。この種となる平面の領域(領域種:seed region)に対して、該領域種と同一平面に属する線分を順次統合していくことで拡張していく領域拡張によって距離画像を複数の平面に分割し、平面群の平面データD2を出力する。
平面検出器3は、ハフ変換のように、取得した画像に含まれる支配的な平面を検出するのみならず、階段など複数平面が含まれている場合であっても平面を検出可能とするため、線分拡張法により平面を検出する。そして、この際、距離データ点の分布に応じて線分を生成することにより、計測ノイズに対してロバストな検出結果を得ることができるものである。
図12は、線分拡張法による平面検出方法を説明する図である。線分拡張法による平面検出では、図12に示すように、まず、焦点Fから撮影された画像20において、行方向又は列方向のデータ列における処理をする。画像内の例えば行方向の画素列(image row:イメージロウ)において、距離データ点が同一の平面に属するならば直線となることを利用し、同一平面に属すると推定される距離データ点からなる線分を生成する。そして、得られた複数の線分からなる線分群において、同一平面を構成するとされる線分群に基づき平面を推定、検出する方法である。
図13は、線分拡張法による平面検出処理を示すフローチャートである。図13に示すように、まず、距離画像を入力し(ステップS1)、距離画像の行方向(又は列方向)の各画素列において同一平面に属すると推定されるデータ点から線分を求める(ステップS2)。そして、これらの線分群のなかから同一平面に属すると推定される線分を抽出し、これらの線分からなる平面を求める(ステップS3)。このステップS3では、まず、平面の種となる領域(以下、領域種(seed region)という。)を選び、該当する領域種を選択する。この選択においては、上下隣接する行方向(又は左右隣接する列方向)の1ラインを含む3本の線分が同一平面にあることを条件とする。ここで、選択した3本の線分からなる領域種が属する平面を基準平面とし、3本の線分から平均して求まる平面を求めておく。また、3本の線分からなる領域を基準平面領域とする。
そして、選択した領域種に隣接する行方向(又は列方向)の画素列からなる直線と上記基準平面とが同じ平面であるかどうかを空間的な距離を比較することで判断し、同じ平面である場合には、その隣接する線分を基準平面領域に追加し(領域拡張処理)、追加した線分を含めたものとして上記基準平面を更新し(平面更新処理)、これを平面領域に隣接するデータ列に同一平面の線分が存在しなくなるまで繰り返し行う。そして、以上領域種を検索して平面更新及び領域拡張処理を、種となる領域(3本の線分)が存在しなくなるまで繰り返し実行する。最後に、得られた複数の領域群のなかから同一平面を構成するものを連結する。そして、本実施の形態においては、得られた平面に属する線分群のうち、平面から所定の閾値以上外れる線分を除いて再度平面を求める平面再算出処理をステップS4として更に設け、最終的な平面とするが、詳細は後述する。
ここで、3次元距離データから線分を検出し、これを同一平面毎にまとめた領域を1つの平面とする処理は従来の線分拡張法による平面検出処理であるが、本実施の形態においては、ステップS2における線分抽出方法が従来とは異なる。すなわち、上述したように、距離データ点から線分を求めて距離データ点にできるだけフィットするように線分を生成しようとしても、距離データの精度に応じて閾値を変更しなければ、over-segmentation又はunder-segmentationなどの問題が生じてしまう。そこで、本実施の形態においては、この線分抽出において、距離データの分布を解析することで、距離データの精度、ノイズに応じて適応的に閾値を変更する手法を導入するものとする。
上述した平面検出処理によって検出される平面について、図14、図15を用いて説明する。平面検出器3によって検出される平面が、例えば、図14、図15に示す階段STの場合について説明する。図14(a)、図15(a)は階段を正面からみた図であり、図14(b)、図15(b)は階段を側面からみた図であり、図14(c)、図15(c)は階段を斜めからみた図である。
本明細書においては、人間、ロボット装置などが階段を昇降するために使用する面(足又は可動脚部を載せる面)を踏面といい、一の踏面からその次の踏面までの高さ(1段の階段の高さ)を蹴り上げということとする。また、階段は、地面に近い方から1段目、2段目とカウントすることとする。
図14に示す階段ST1は、段数が3段の階段であり、蹴り上げ4cm、1,2段面の踏面の大きさは幅30cm、奥行き10cm、最上段である3段目の踏面のみ、幅30cm、奥行き21cmとなっている。また、図15に示す階段ST2も段数が3段の階段であり、蹴り上げ3cm、1,2段面の踏面の大きさは幅33cm、奥行き12cm、最上段である3段目の踏面のみ、幅33cm、奥行き32cmとなっている。
図16乃至図18における(a)は、図15に示す階段ST2をステレオビジョンシステムによってそれぞれ前方、側方、斜め前方から撮影した場合の画像を示す模式図、(b)乃至(c)は(a)に示す画像から取得した3次元の距離データを示す図である。
図16(a)に示すように、正面から階段ST2を撮影した場合、3次元の距離データは、図16(b)乃至図16(c)のようになる。図16(b)において、横軸をy方向、縦軸をx方向とし、z軸方向(高さ方向)の大きさは、ロボット装置201の接地面を0とし、高さが高くなるほど白に近づくような濃淡値で示している。すなわち、濃淡(濃淡値)が同様のデータ点は同一高さにあることを示し、図16(b)に示すように、階段ST2においても1段目より2段目、2段目より3段目の踏面にあたる領域のデータ点の濃淡が薄くなっている。また、距離データが図示されている略台形領域がロボット装置が撮影可能な範囲(視野範囲)を示す。また、同図において、距離データ点は略4段階の濃淡に分かれているが、z方向が最も小さい領域に対応する最も濃淡が濃い箇所は、床面を示している。また、図16(c)は、横軸をy方向、縦軸をz方向、x方向を色の濃淡で示すものである。この図では、x方向の距離が大きくなるほど濃淡が薄くなるように表現されている。図16(d)は、横軸をx方向、縦軸をz方向とし、y方向をその距離に応じて濃淡で表現している。
また、ロボット装置201が階段ST2の側面を撮影した場合は、図17に示すように、x軸が大きい上方側の領域に存在するデータ点が、高さが0と同様の濃淡を示しており、階段ST2の奥の床面を計測した結果であることを示している。また、図18に示す斜め方向からの撮像においても、床面及び1〜3段目の踏面を示す4つの領域が、高さの違いに応じて異なる濃淡で示され、はっきり区別できていることを示している。
ここで、このような3次元距離データをステレオカメラによって取得するためには、階段ST2の表面に模様(テクスチャ)が必要となる。すなわち、2台のカメラによる視差により得ることができるため、模様がないものは視差が算出できず、正確に距離を計測することができない。すなわち、ステレオビジョンシステムにおける距離データの計測精度は、計測対象のテクスチャに依存することになる。なお、視差とは、空間中のある点が左目及び右目に写像される点の違いを示し、そのカメラからの距離に応じて変化するものである。
そこで、図19に示すように、頭部ユニットなどに投射手段としての例えば赤外光などを出力する光源21を設ける。この光源21は、模様がない階段ST3、その他テクスチャがないか少ない物体、壁などの対象物に対してこれを投射(照射)し、ランダムなパターンPTを付与する模様付与手段として作用する。なお、ランダムパターンPTを形成して距離画像を取得できるものであれば、ランダムパターンPTを付与する手段は赤外光を投射する光源などには限らず、例えばロボット装置自ら対象物に模様を書いたりしてもよいが、赤外光であれば、人間の目にはみえないものの、ロボット装置に搭載されるCCDカメラなどにおいては観測可能なパターンを付与することができる。
環境地図作成部4における3次元グリッド更新部41は、ステレオビジョンシステム2によって取得された3次元情報であるステレオデータD1と、この3次元情報に対する平面検出器3による平面検出結果である平面データD2を受け取り3次元グリッドを作成する。また、3次元グリッドで表される実空間S500における全ての単位グリッド(以下、セルと記す。)p(x,y,z)に対して次の処理を行う。
3次元グリッド更新部41は、測定点と観測中心(ステレオカメラ中心)とを結ぶ直線上には障害物が存在しないというアルゴリズムに基づいて3次元グリッドを作成及び/又は更新している。図20は、3次元グリッドが観測結果に応じて更新される様子をy軸方向からの側面図として模式的に表したものである。ロボット装置201の視野領域(Field of View)にないセル(斜線のセル)は、まだ測定していないセルを表す。ロボット装置201によって測定されたセルは黒塗りで表され、測定点にあたるセルとの間のセルは、白塗りで表されている。ハッチング領域は、未確認領域であることを示している。
上述のアルゴリズムに基づいて、測定対象点であるセルpとロボット装置のステレオカメラ11L,11Rとを結ぶ線分の間に存在するセルに対して、エンプティ(Empty)処理を行う。続いて、測定点pにあたるセルに対してオキュパイド(Occupied)処理を行う。3次元グリッドは、セルCに対して障害物の存在確率(障害物によって占有されている確率)p(c)を保持しており、このエンプティ処理及びオキュパイド処理は、これら各セルに対して統計的な処理である。エンプティ処理は、障害物の存在確率を低下させる処理であり、オキュパイド処理は障害物の存在確率を増加させる処理である。本具体例では、エンプティ処理及びオキュパイド処理の存在確率を算出する手法の一例として、ベイズの更新則を用いる。
エンプティ処理のとき式(1)により占有確率を減少させ、オキュパイド処理のとき式(2)により占有確率を増加させる。式(1)は、セルCの占有確率を表すp(c)が“占有”という条件下にあるセルCの確率を表しており、式(1)又は式(2)においてセルCが占有されているか又は占有されていないかを表す確率p(occ|・・・)、p(empty|・・・)は、予め決められた閾値thである。
Figure 0004479372
Figure 0004479372
このように障害物の存在確率が与えられた3次元グリッドを図19に示す。本具体例では、3次元グリッドとして表される領域は、例えば、4メートル四方、水平解像度4センチ及び垂直解像度1センチを1セルとした3次元グリッドで表現されている。図21では、説明の便宜上、図9に示す実空間S500と同じ領域が3次元グリッドとして表されているが、実際のロボット装置201は、例えば1秒間に30回というように所定間隔毎に周囲の状態を取得していくため、ロボット装置201が移動している場合には、3次元グリッドとして表現される空間S500は、時々刻々と変化することになる。取得されたセルは、見えたところ1、見えないところ0.5とする。占有確率は、1秒間に30回測定するうちに徐々に更新されていく。
環境地図作成装置1における高さ地図検証部42は、2次元高さ地図(2D Height Map)のセルに対して高さ情報をアナログ情報としてあてはめた2.5次元高さ地図を作成し、3次元グリッドから得られるセルの占有確率データ(障害物存在確率データ)を用いて2.5次元高さ地図を検証する。
2.5次元高さ地図(2D Height Map)によって環境を認識する従来例では、図36及び図37を用いて説明したように、前回観測された平面が消えた場合や視野領域外部から視野領域内に障害物が移動する場合などにセルの障害物占有確率が更新されないという問題点が生じていたが、本具体例では、高さ地図検証部42で2.5次元高さ地図を3次元グリッドを用いて検証することによって、この問題を解決している。3次元グリッドは、幾何学的に測定点と観測中心(ステレオカメラ中心)とを結ぶ直線上には、障害物は存在しないというアルゴリズムに基づいて作成及び/又は更新される。高さ地図検証部42は、2.5次元高さ地図のセルの高さ情報を3次元グリッドのセルに対応付けしたときの占有確率を3次元グリッドのセルの占有確率を参照して更新する処理を行っている。
以下に、高さ地図検証部42における検証処理を説明する。図22は、2.5次元高さ地図を示す。2.5次元高さ地図は、矩形状格子で表される2次元グリッドの各セルに対して、高さ情報hの情報と無効フラグ(invalid Flag)とを保持している。図22では、図9における平面PL501に対応するセルに高さh=30が、平面PL502に対応するセルに高さh=60が与えられている。また、このセルがロボット装置201には登行不可能な高さ情報をもっている場合には、無効フラグ(inv)が与えられる。
2.5次元高さ地図も3次元グリッドと同様に、例えば、4メートル四方、水平解像度4センチを1セルとした2次元グリッドで表現される。25次元高さ地図では、垂直方向の解像度は、考慮されておらず、各セルに対して高さ情報が割り当てられている。無効フラグとは、ロボット装置201に対して、障害物にあたることを示しているが、無効フラグを用意する代わりに、例えば、−10000などのように空間を表現するに非現実的な値を与えることで無効、すなわちロボット装置201に対する障害物であることを表してもよい。
図23は、高さ地図検証部42による2.5次元高さ地図の検証処理を説明するフローチャートである。高さ地図検証部42は、対基準面高さ地図としての2.5次元高さ地図における高さ情報を取得し、この高さ情報を3次元グリッドの高さ座標に対応させ、対応した3次元グリッドのセルの占有確率が3次元グリッドにおいて障害物と認識するか否かを決めている閾値より大きいか否かを比較し、閾値より小さい場合、このセルは障害物でないと判断し、閾値より大きい場合、このセルは障害物であると判断し、対応する対基準面高さ地図の高さ情報を更新している。
高さ地図検証部42は、2.5次元高さ地図内の全セル(i,j)に対して2.5次元高さ地図を参照してグリッドの高さを取得する(ステップS11)。高さ情報hに無効フラグが立っていた場合、処理を終了する(ステップS12;yes)。
一方、高さ情報hが有効であった場合、すなわち高さ情報hがあてはめられていた場合、高さ情報hを3次元グリッドに対応させて3次元グリッドにおけるインデックスkを求める(ステップS13)。続いて、2.5次元高さ地図に対応する3次元グリッド内のセル(i,j,k)の障害物の存在確率p(Cijk)が3次元グリッドにおいて障害物と認識するか否かを決めている閾値thより大きいか否かを比較する(ステップS14)。
閾値より小さい場合(ステップS14;no)、このセルは障害物でないと判断する。このとき、後段に示す高さ地図更新部43において2.5次元高さ地図のセル(i,j)を3次元グリッドを作成するアルゴリズムに基づいて更新する。閾値より大きい場合(ステップS14;yes)、このセルは障害物であると判断し処理を終了する。すなわち、この場合には、2.5次元高さ地図の高さ情報hを更新しない。
以上の処理は、図20に示したように、グリッドのうち視野角領域に相当するセル領域にのみ適用することで計算量の削減が可能となる。図20では、この視野角領域に相当するセル領域をバウンディングボックス(Bounding Box)と記している。
高さ地図更新部43は、平面検出器3による平面データD2と3次元グリッドの障害物確率データD3とから2.5次元高さ地図を更新している。ロボット装置201の視野領域にある計測空間内に含まれる全ての計測点(セル)pに対して、計測点pが属する平面が水平面であって、且つ計測点pに対応する3次元グリッドのセルの障害物存在確率が閾値thよりも高い場合に、計測点pに対応する高さ情報を更新する。
高さ地図更新部43による高さ地図更新処理を図24に示す。まず、視野領域にある全計測点(セル)pに対して、計測点pが属する平面情報を取得する(ステップS21)。平面情報としては、平面検出器3による平面検出結果である平面データD2を用いる。具体的には、計測点pが検出されたどの平面に属するかを表した平面ID(p_id)を取得し、このp_idが有効である場合には(ステップS22;yes)、このpidをキーとして検出された平面群のなかから計測点pが属する平面情報を検索する(ステップS23)。
次に、計測点pが属する平面が水平面であるかどうかを検証し、水平面でない場合(ステップS24;no)には終了する。一方、水平面である場合(ステップS24;yes)、計測点pに対応する3次元グリッドのセルの障害物存在確率を参照する(ステップS25)。具体的には、2.5次元高さ地図における計測点pの位置情報(x,y,z)から3次元グリッドの位置情報としてのインデックス(i,j,k)を求め、このインデックスに基づいて3次元グリッドのセルを参照する。インデックス(i,j,k)を求める処理において、本実施例では、各計測点のノイズの影響を低減するため、高さ情報hとして、計測点pの実計測高さではなく、計測点pが属する平面の高さ(平均化された高さ;plane.m_z)を利用している。勿論、計測点pの高さをそのまま利用してもよい。
続いて、計測点pに対応する高さ情報hを更新するか否かを決定する(ステップS26)。ここでは、計測点pに対応する3次元グリッドの占有確率が障害物が存在することを示す閾値thよりも大きい場合(ステップS26;yes)、2.5次元高さ地図の対応するセル(i,j)を高さ情報hで更新する(ステップS27)。
2.5次元高さ地図におけるセル(i,j)の更新則としては、幾つかの方法があげられる。例えば、上書き更新とする場合、計測された最大値を保持する場合等があげられる。上書き更新とする場合には、セル(i,j)の高さを取得されたhによって常に上書きする。また、最大値を保持する場合には、セル(i,j)の高さが今までの高さ情報hより低いとき、又はセル(i,j)に無効フラグが立っている場合にのみ、新しい値hで更新する。このほかに、今までの高さ情報hと新しい値との平均をとってもよい。
図25は、この一連の処理によって作成された環境地図を表している。上述したように、2.5次元高さ地図を3次元グリッドによって補完することで、図36及び図37を用いて説明した不具合が解消できる。環境地図は、2次元グリッドのセルに対して高さ情報h又は障害物(obs)か否かがあてはめられたものになっている。
以下では、上述の環境地図作成方法によってロボット装置201が作成した環境地図において、ロボット装置201が一度認識した平面が消失した場合、また認識した平面が移動した場合について、2.5次元高さ地図だけによる環境表現結果と、3次元グリッドによって2.5次元高さ地図を補完したときの環境表現結果とを比較する。
1.平面が消失した場合
ロボット装置201が視野領域内の箱Zをみて認識する様子を図26に示す。また、図27は、図26において認識された箱Zがなくなった状態を示している。ロボット装置201が図26の状態から作成した環境地図が図28に示されている。セルの色分けは、高さ情報hが異なることを表している。図28では、ロボット装置201が目前の矩形の箱Zに対応する平面を検出していることが示されている。
図29は、2.5次元高さ地図のみにより作成された環境地図を表している。また、図30は、2.5次元高さ地図を3次元グリッドによって補完して作成された環境地図を表している。前者の場合、既に箱Zが取り除かれ、箱Zによる平面がなくなっているのにも関わらず、図36及び図37を用いて説明した不具合によって、箱Zがあるときには、認識されていたが取り除かれることによってロボット装置201からは見えなくなった領域のセルが更新されず、箱Zの一部が依然として平面として誤認識されてしまう。一方、本発明の具体例として示す環境地図作成方法によって作成された後者の環境地図は、3次元グリッド作成のアルゴリズムによって検証することで、この残留セルが正しく更新される。
2.平面が移動した場合
この例では最初、ロボット装置201の目前には何も置かず、暫くした後にロボット装置201の視野領域外から箱Zをゆっくり視野領域内に移動させている。このとき、ロボット装置201が視野領域内の箱Zをみて認識する様子を図31及び図32に示す。図32は、図31の状態ではなかった箱Zが視野領域内に移動される状態を示している。ロボット装置201が図31の状態から作成した環境地図が図33に示されている。セルの色分けは、高さ情報hが異なることを表している。
図34は、2.5次元高さ地図のみにより作成された環境地図を表している。また、図35は、2.5次元高さ地図を3次元グリッドによって補完して作成された環境地図を表している。前者の場合、移動されてきた箱Zの上面によって遮蔽されたロボット装置201からは見えなくなったセルが更新されることなく依然として平面として誤認識されている。一方、本発明の具体例として示す環境地図作成方法によって作成された後者の環境地図は、3次元グリッド作成のアルゴリズムによって検証することで、この残留セルが正しく更新される。
ロボット装置201は、上述した環境地図作成方法によって作成された環境地図に基づいて、経路決定部(Path Planner)7によって行動経路を決定することができる。行動経路の決定には、例えば、環境地図に基づいて認識した環境(空間S500)内を実際に移動することによって行動可能な領域を確認する手法のほか、従来の2次元グリッドを用いた経路探索手法を適用することができる。
以上説明したように、本発明の具体例として示す環境地図作成方法によれば、平面検出された平面だけが、2.5次元高さ地図として表現される。それ以外のセルは、障害物として表現される。セルには、高さ情報hがあてはめられる。また、ロボット装置201が登行不可能な高さ情報hに対しては、障害物(Obstacle)、階段(Staircase)のように表現してもよい。
本発明の具体例として示す環境地図作成方法によれば、観測ノイズに対して脆弱な2.5次元平面地図を、セル毎の障害物存在確率を統計的に処理することのできる3次元グリッドによって補完することにより、観測ノイズに対して高い耐性(robust)を有する環境地図作成が行える。また、3次元グリッドは、垂直方向の解像度がセルサイズに依存するため、検出精度を高めることが処理速度の低下に繋がっていたが、本発明の具体例として示す環境地図作成方法では、粗めの解像度で作成した3次元グリッドを使用して演算量を抑えつつ高さ情報hを2.5次元高さ地図のアナログ値として保持することができるために、少ないデータ量で高精度の高さ表現が可能となる。このように、本発明の具体例として示す環境地図作成方法は、観測ノイズに対する脆弱性を解決し、平面検出、登行可能な階段検出といった高さ方向の細かい解像度を必要とするものに対しては有利であるという2.5次元高さ地図の利点を生かすことができる。
本発明の具体例として示す環境地図作成装置の概略を説明するブロック図である。 上記環境地図作成装置が取得したステレオデータに基づいて環境を環境地図として表現するまでの処理を実行するシステムを説明する機能ブロック図である。 上記環境地図作成装置における環境地図作成部における環境地図作成処理を実行するシステムを説明する機能ブロック図である。 本発明の実施の形態におけるロボット装置の概観を示す斜視図である。 上記ロボット装置が具備する関節自由度構成を模式的に示す図である。 上記ロボット装置の制御システム構成を示す模式図である。 図1に示した環境地図作成装置をロボット装置に適用したとき周囲の環境を環境地図として認識するための構成を説明する概略図である。 ロボット装置が画像入力装置251において取得したステレオデータに基づいて環境を環境地図として表現し環境地図に基づいて行動経路を決定するまでの処理を実行するシステムを示す機能ブロック図である。 上記環境地図作成装置を備えるロボット装置によって認識される実空間を説明する模式図である。 上記ロボット装置が外界を撮影している様子を示す模式図である。 本実施の形態における平面検出装置を示す機能ブロック図である。 本実施の形態における線分拡張法による平面検出方法を説明する図である。 線分拡張法による平面検出処理を示すフローチャートである。 階段を示す模式図であって、(a)は階段を正面からみた図、(b)は階段を側面からみた図、(c)は階段を斜めからみた図である。 階段のほかの例を示す模式図であって、(a)は階段を正面からみた図、(b)は階段を側面からみた図、(c)は階段を斜めからみた図である。 (a)は図15に示す階段をステレオビジョンシステムによって前方から撮影した場合の画像を示す模式図、(b)乃至(c)は(a)に示す画像から取得した3次元の距離データを示す図である。 (a)は図15に示す階段をステレオビジョンシステムによって側方から撮影した場合の画像を示す模式図、(b)乃至(c)は(a)に示す画像から取得した3次元の距離データを示す図である。 (a)は図15に示す階段をステレオビジョンシステムによって斜め前方から撮影した場合の画像を示す模式図、(b)乃至(c)は(a)に示す画像から取得した3次元の距離データを示す図である。 テクスチャを付与する手段を有しているロボット装置を説明するための図である。 3次元グリッドが観測結果に応じて更新される様子をy軸方向からみた模式図の側面図である。 図9に示す実空間と同じ領域を表す3次元グリッドを説明する模式図である。 2.5次元高さ地図を示す模式図である。 高さ地図検証部による2.5次元高さ地図の検証処理を説明するフローチャートである。 高さ地図更新部による高さ地図更新処理を説明するフローチャートである。 上記環境地図作成部により作成された環境地図を説明する図である。 ロボット装置が視野領域内の箱Zをみて認識する様子を示す図である。 図26において認識された箱Zがなくなった状態を示す図である。 ロボット装置が図26の状態から作成した環境地図を表す図である。 2.5次元高さ地図のみにより作成された環境地図を表す図である。 2.5次元高さ地図を3次元グリッドによって補完して作成された環境地図を表す図である。 ロボット装置が視野領域内の箱Zをみて認識する様子を示す図である。 図31の状態ではなかった箱Zが視野領域内に移動された状態を示す図である。 ロボット装置が図31の状態から作成した環境地図を表す図である。 2.5次元高さ地図のみにより作成された環境地図を表す図である。 2.5次元高さ地図を3次元グリッドによって補完して作成された環境地図を表す図である。 従来の2.5次元高さ地図を用いた環境認識の問題点を説明する図である。 従来の2.5次元高さ地図を用いた環境認識の問題点を説明する図である。
符号の説明
1 環境地図作成装置、 2 ステレオビジョンシステム、 3 平面検出器、 4 環境地図作成部、 31 線分抽出部、 32 領域拡張部、 41 3次元グリッド更新部、 42 高さ地図検証部、 43 高さ地図更新部

Claims (15)

  1. 外部状態に基づいて3元地図を作成する環境地図作成方法であって、
    外部状態検出手段が、外部状態を検出する外部状態検出工程と、
    3次元地図作成手段が、上記外部状態検出工程により検出された外部状態に基づいて3次元グリッドの占有状態を表す3次元地図を作成する3次元地図作成工程と、
    対基準面高さ地図作成手段が、上記外部状態検出工程により検出された外部状態に基づいて2次元の基準面からの高さを表す対基準面高さ地図を作成する対基準面高さ地図作成工程と、
    高さ地図情報変更手段が、上記3次元地図の情報に基づいて上記対基準面高さ地図の情報を変更する高さ地図情報変更工程と
    を有する環境地図作成方法。
  2. 上記高さ地図情報変更工程は、上記高さ地図情報変更手段が、上記3次元地図作成工程により更新された3次元グリッドの占有状態に基づいて、上記対基準面高さ地図で表される高さ位置に対応する3次元グリッドの占有状態を判別し、判別結果に応じて上記対基準面高さ地図の情報を変更する請求項1記載の環境地図作成方法。
  3. 上記外部状態検出工程は、上記外部状態検出手段が、観測点から測定対象点までの3次元の距離データを計測する距離計測工程を有し、
    上記3次元地図作成工程は、上記3次元地図作成手段が、上記距離計測工程により計測された3次元距離データに基づいて上記3次元地図の3次元グリッドの占有状態を更新する請求項1記載の環境地図作成方法。
  4. 上記外部状態検出工程は、上記外部状態検出手段が、観測点から測定対象点までの3次元の距離データを計測する距離計測工程を有し、
    上記対基準面高さ地図作成工程は、平面検出手段が、上記距離計測工程により計測された3次元の距離データから環境内に含まれる1又は複数の平面を検出し、平面情報として出力する平面検出工程を有する請求項1記載の環境地図作成方法。
  5. 上記3次元地図作成工程は、上記3次元地図作成手段が、観測点と測定対象点とを結ぶ直線上に含まれる3次元グリッドの占有確率を低下させ、測定対象点にあたるグリッド単位の占有確率を増加させる請求項3記載の環境地図作成方法。
  6. 上記高さ地図情報変更工程は、上記高さ地図情報変更手段が、上記対基準面高さ地図における高さ情報を取得し、該高さ情報を上記3次元地図の高さ座標に対応させ、対応した3次元グリッドの1グリッド単位の占有確率が3次元グリッドにおいて障害物と認識するか否かを決めている閾値より大きいか否かを比較し、閾値より小さい場合、この1グリッド単位は障害物でないと判断し、閾値より大きい場合、この1グリッド単位は障害物であると判断し、対応する対基準面高さ地図の高さ情報を更新する請求項1記載の環境地図作成方法。
  7. 上記高さ地図情報変更工程は、上記高さ地図情報変更手段が、上記3次元地図及び上記対基準面高さ地図のうち上記外部状態検出工程において検出される実空間に相当する地図領域に対してのみ高さ地図情報を変更する請求項1記載の環境地図作成方法。
  8. 上記平面検出工程は、線分抽出手段が、3次元空間で同一平面上にあると推定される距離データ点群毎に線分を抽出する線分抽出工程と、
    平面領域拡張手段が、上記線分抽出工程によって抽出された線分群から同一平面に属すると推定される複数の線分を抽出し該複数の線分から平面を算出する平面領域拡張工程とを有し、
    上記線分抽出工程は、上記線分抽出手段が、距離データ点の分布に応じて適応的に線分を抽出することにより平面を検出する請求項4記載の環境地図作成方法。
  9. 上記3次元地図は、移動体が移動可能な領域を3次元的に判別するためのものである請求項1記載の環境地図作成方法。
  10. 外部状態に基づいて3元地図を作成する環境地図作成装置であって、
    外部状態を検出する外部状態検出手段と、
    上記外部状態検出手段により検出された外部状態に基づいて3次元グリッドの占有状態を表す3次元地図を作成する3次元地図作成手段と、
    上記外部状態検出手段により検出された外部状態に基づいて2次元の基準面からの高さを表す対基準面高さ地図を作成する対基準面高さ地図作成手段と、
    上記3次元地図の情報に基づいて上記対基準面高さ地図の情報を変更する高さ地図情報変更手段と
    を有する環境地図作成装置。
  11. 上記高さ地図情報変更手段は、上記3次元地図作成手段により更新された3次元グリッドの占有状態に基づいて、上記対基準面高さ地図で表される高さ位置に対応する3次元グリッドの占有状態を判別し、判別結果に応じて上記対基準面高さ地図の情報を変更する請求項10記載の環境地図作成装置。
  12. 上記外部状態検出手段は、観測点から測定対象点までの3次元の距離データを計測する距離計測手段を有し、
    上記3次元地図作成手段は、上記距離計測手段により計測された3次元距離データに基づいて上記3次元地図の3次元グリッドの占有状態を更新する請求項10記載の環境地図作成装置。
  13. 上記外部状態検出手段は、観測点から測定対象点までの3次元の距離データを計測する距離計測手段を有し、
    上記対基準面高さ地図作成手段は、上記距離計測手段により計測された3次元の距離データから環境内に含まれる1又は複数の平面を検出し、平面情報として出力する平面検出手段を有する請求項10記載の環境地図作成装置。
  14. 上記3次元地図は、移動体が移動可能な領域を3次元的に判別するためのものである請求項10記載の環境地図作成装置。
  15. 移動手段により移動可能なロボット装置において、
    外部状態を検出する外部状態検出手段と、
    上記外部状態検出手段により検出された外部状態に基づいて3次元グリッドの占有状態を表す3次元地図を作成する3次元地図作成手段と、
    上記外部状態検出手段により検出された外部状態に基づいて2次元の基準面からの高さを表す対基準面高さ地図を作成する対基準面高さ地図作成手段と、
    上記3次元地図の情報に基づいて上記対基準面高さ地図の情報を変更する高さ地図情報変更手段と、
    上記高さ地図情報変更手段によって変更された地図情報を環境地図として自律的に行動経路を決定し移動動作を制御する移動制御手段と
    を備える移動型ロボット装置。
JP2004188868A 2004-06-25 2004-06-25 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置 Active JP4479372B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004188868A JP4479372B2 (ja) 2004-06-25 2004-06-25 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置
US11/165,047 US7912583B2 (en) 2004-06-25 2005-06-24 Environment map building method, environment map building apparatus and mobile robot apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004188868A JP4479372B2 (ja) 2004-06-25 2004-06-25 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置

Publications (2)

Publication Number Publication Date
JP2006011880A JP2006011880A (ja) 2006-01-12
JP4479372B2 true JP4479372B2 (ja) 2010-06-09

Family

ID=35733420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004188868A Active JP4479372B2 (ja) 2004-06-25 2004-06-25 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置

Country Status (2)

Country Link
US (1) US7912583B2 (ja)
JP (1) JP4479372B2 (ja)

Families Citing this family (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040162637A1 (en) 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US7813836B2 (en) * 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
JP4148276B2 (ja) 2006-05-09 2008-09-10 ソニー株式会社 位置推定装置、位置推定方法及びプログラム記録媒体
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
KR100791386B1 (ko) * 2006-08-18 2008-01-07 삼성전자주식회사 이동 로봇의 영역 분리 방법 및 장치
US7916935B2 (en) * 2006-09-19 2011-03-29 Wisconsin Alumni Research Foundation Systems and methods for automatically determining 3-dimensional object information and for controlling a process based on automatically-determined 3-dimensional object information
KR100823739B1 (ko) * 2006-12-08 2008-04-21 한국전자통신연구원 주변 환경 변화에 신속하게 적응하여 환경 지도를 작성할수 있는 이동체의 환경 지도 작성 장치 및 그 방법
JP4143103B2 (ja) 2006-12-20 2008-09-03 本田技研工業株式会社 移動装置、ならびにその制御システム、制御プログラムおよび監督システム
JP4645601B2 (ja) 2007-02-13 2011-03-09 トヨタ自動車株式会社 環境地図の生成方法及び移動ロボット
JP4946535B2 (ja) * 2007-03-12 2012-06-06 トヨタ自動車株式会社 画像認識装置
JP2008225785A (ja) * 2007-03-12 2008-09-25 Toyota Motor Corp 画像認識装置
JP4929506B2 (ja) * 2007-03-29 2012-05-09 本田技研工業株式会社 脚式移動ロボット
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
KR100915527B1 (ko) * 2007-07-03 2009-09-04 한국전자통신연구원 경로 탐색 방법
KR101461185B1 (ko) * 2007-11-09 2014-11-14 삼성전자 주식회사 스트럭쳐드 라이트를 이용한 3차원 맵 생성 장치 및 방법
WO2009074607A1 (en) * 2007-12-12 2009-06-18 Glaxo Group Limited Combinations comprising 3-phenylsulfonyl-8-piperazinyl-1yl-quinoline
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
JP2009245884A (ja) * 2008-03-31 2009-10-22 Sanken Electric Co Ltd 面光源装置
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
JP4615038B2 (ja) * 2008-06-23 2011-01-19 日立オートモティブシステムズ株式会社 画像処理装置
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
KR100955483B1 (ko) * 2008-08-12 2010-04-30 삼성전자주식회사 3차원 격자 지도 작성 방법 및 이를 이용한 자동 주행 장치의 제어 방법
US8229228B2 (en) * 2008-09-16 2012-07-24 Robert Bosch Gmbh Image analysis using a pre-calibrated pattern of radiation
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8855819B2 (en) * 2008-10-09 2014-10-07 Samsung Electronics Co., Ltd. Method and apparatus for simultaneous localization and mapping of robot
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
KR101591471B1 (ko) * 2008-11-03 2016-02-04 삼성전자주식회사 물체의 특징 정보를 추출하기 위한 장치와 방법, 및 이를 이용한 특징 지도 생성 장치와 방법
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
JP2010170288A (ja) * 2009-01-22 2010-08-05 Hitachi Ltd 3次元モデリング装置
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US8108148B2 (en) 2009-02-27 2012-01-31 Toyota Motor Engineering & Manufacturing, North America, Inc. Method and system for mapping environments containing dynamic obstacles
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
US8392117B2 (en) 2009-05-22 2013-03-05 Toyota Motor Engineering & Manufacturing North America, Inc. Using topological structure for path planning in semi-structured environments
JP5216690B2 (ja) * 2009-06-01 2013-06-19 株式会社日立製作所 ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
US8532863B2 (en) * 2009-09-28 2013-09-10 Sri International Audio based robot control and navigation
JP5284923B2 (ja) * 2009-10-28 2013-09-11 本田技研工業株式会社 脚式移動ロボットの制御装置
JP5432688B2 (ja) * 2009-12-03 2014-03-05 株式会社日立製作所 移動ロボット及びその走行安定化方法
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
ITBO20100117A1 (it) * 2010-03-01 2011-09-01 Alma Mater Studiorum Creazione automatica di ambienti intelligenti
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US8655513B2 (en) * 2010-03-12 2014-02-18 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Methods of real time image enhancement of flash LIDAR data and navigating a vehicle using flash LIDAR data
JP5560794B2 (ja) 2010-03-16 2014-07-30 ソニー株式会社 制御装置、制御方法およびプログラム
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
US8751103B2 (en) 2010-11-22 2014-06-10 Caterpillar Inc. Object detection system having interference avoidance strategy
US8744693B2 (en) 2010-11-22 2014-06-03 Caterpillar Inc. Object detection system having adjustable focus
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
KR101306286B1 (ko) * 2010-12-17 2013-09-09 주식회사 팬택 X-레이 뷰 기반의 증강 현실 제공 장치 및 방법
KR20120069924A (ko) * 2010-12-21 2012-06-29 삼성전자주식회사 보행 로봇 및 그 제어 방법
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
EP2668008A4 (en) 2011-01-28 2018-01-24 Intouch Technologies, Inc. Interfacing with a mobile telepresence robot
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
US8799201B2 (en) 2011-07-25 2014-08-05 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for tracking objects
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US9156159B2 (en) * 2012-03-08 2015-10-13 Disney Enterprises Inc. Robot cyclic locomotion using a dynamic object
JP5959899B2 (ja) * 2012-03-30 2016-08-02 本田技研工業株式会社 接触状態推定装置
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9251313B2 (en) 2012-04-11 2016-02-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
EP2852881A4 (en) 2012-05-22 2016-03-23 Intouch Technologies Inc GRAPHIC USER INTERFACES CONTAINING TOUCH PAD TOUCH INTERFACES FOR TELEMEDICINE DEVICES
KR101490170B1 (ko) * 2013-03-05 2015-02-05 엘지전자 주식회사 로봇 청소기
US9888215B2 (en) 2013-04-26 2018-02-06 University Of Washington Indoor scene capture system
US9292786B2 (en) * 2014-02-03 2016-03-22 Disney Enterprises, Inc. Universal balancing controller for lateral stabilization of bipedal robots in dynamic unstable environments
DE102014208967A1 (de) * 2014-05-13 2015-11-19 Bayerische Motoren Werke Aktiengesellschaft Umfeldkarte für Fahrflächen mit beliebigem Höhenverlauf
EP3002550B1 (en) * 2014-10-03 2017-08-30 Ricoh Company, Ltd. Information processing system and information processing method for distance measurement
JP5980873B2 (ja) * 2014-10-17 2016-08-31 ファナック株式会社 ロボットの干渉領域設定装置
US20200409382A1 (en) * 2014-11-10 2020-12-31 Carnegie Mellon University Intelligent cleaning robot
KR102332752B1 (ko) * 2014-11-24 2021-11-30 삼성전자주식회사 지도 서비스를 제공하는 전자 장치 및 방법
US9594377B1 (en) * 2015-05-12 2017-03-14 Google Inc. Auto-height swing adjustment
WO2017023210A1 (en) * 2015-08-06 2017-02-09 Heptagon Micro Optics Pte. Ltd. Generating a merged, fused three-dimensional point cloud based on captured images of a scene
US9886035B1 (en) * 2015-08-17 2018-02-06 X Development Llc Ground plane detection to verify depth sensor status for robot navigation
US10093021B2 (en) * 2015-12-02 2018-10-09 Qualcomm Incorporated Simultaneous mapping and planning by a robot
US10196104B1 (en) 2016-05-04 2019-02-05 Schaft Inc. Terrain Evaluation for robot locomotion
US9996944B2 (en) * 2016-07-06 2018-06-12 Qualcomm Incorporated Systems and methods for mapping an environment
KR101949609B1 (ko) * 2016-12-20 2019-02-19 한국과학기술원 대표 광선 기반의 점유맵 업데이트 방법 및 시스템
JP6804991B2 (ja) * 2017-01-05 2020-12-23 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
JP2018163614A (ja) * 2017-03-27 2018-10-18 カシオ計算機株式会社 自律移動装置、自律移動方法およびプログラム
JP6924607B2 (ja) * 2017-04-21 2021-08-25 佐藤工業株式会社 三次元立体の表現方法及び評価方法
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters
KR101853127B1 (ko) * 2017-05-19 2018-04-27 주식회사 랜도르아키텍쳐 구동형 마킹 시스템, 구동형 마킹 장치의 제어방법 및 컴퓨터 판독 가능한 기록매체
US10483007B2 (en) 2017-07-25 2019-11-19 Intouch Technologies, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
US11341615B2 (en) 2017-09-01 2022-05-24 Sony Corporation Image processing apparatus, image processing method, and moving body to remove noise in a distance image
US11009359B2 (en) 2018-01-05 2021-05-18 Lacuna Technologies Inc. Transportation systems and related methods
US10617299B2 (en) 2018-04-27 2020-04-14 Intouch Technologies, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching
CN110457406A (zh) * 2018-05-02 2019-11-15 北京京东尚科信息技术有限公司 地图构建方法、装置和计算机可读存储介质
KR102067543B1 (ko) * 2018-05-31 2020-01-16 한국건설기술연구원 지반정보 업데이트 시스템 및 방법
CN110580737B (zh) * 2018-06-11 2023-04-14 深圳市优必选科技股份有限公司 图像处理方法、系统以及具有存储功能的装置
CN109164802A (zh) * 2018-08-23 2019-01-08 厦门理工学院 一种机器人迷宫行走方法、装置及机器人
US11287826B2 (en) * 2018-10-12 2022-03-29 Boston Dynamics, Inc. Terrain aware step planning system
US11747825B2 (en) 2018-10-12 2023-09-05 Boston Dynamics, Inc. Autonomous map traversal with waypoint matching
CN111047642B (zh) * 2018-10-15 2024-04-05 科沃斯机器人股份有限公司 环境地图的校正方法、设备及存储介质
JP7351079B2 (ja) 2018-11-30 2023-09-27 ソニーグループ株式会社 制御装置、制御方法及びプログラム
US20200182623A1 (en) * 2018-12-10 2020-06-11 Zebra Technologies Corporation Method, system and apparatus for dynamic target feature mapping
CN111307166B (zh) * 2018-12-11 2023-10-03 北京图森智途科技有限公司 一种构建占据栅格地图的方法及其装置、处理设备
CN116592872A (zh) * 2018-12-11 2023-08-15 北京图森智途科技有限公司 一种更新占据栅格地图的方法及其装置、相关设备
US11548151B2 (en) 2019-04-12 2023-01-10 Boston Dynamics, Inc. Robotically negotiating stairs
US11599128B2 (en) 2020-04-22 2023-03-07 Boston Dynamics, Inc. Perception and fitting for a stair tracker
EP4010659A1 (en) 2019-08-06 2022-06-15 Boston Dynamics, Inc. Intermediate waypoint generator
CN110705879B (zh) * 2019-09-30 2023-05-09 国网山东省电力公司滨州供电公司 一种高比例可再生能源接入下的电网脆弱性评估方法
JP7460415B2 (ja) * 2020-03-26 2024-04-02 株式会社タダノ ガイド表示システムおよびこれを備えたクレーン
US11609582B2 (en) 2020-10-08 2023-03-21 Ford Global Technologies, Llc Systems and methods for planning a travel route of a multifunctional robot
CA3210569A1 (en) * 2021-03-29 2022-10-06 Patrick Terry Stereoscopic imaging platform with continuous autofocusing mode
WO2023032334A1 (ja) * 2021-08-31 2023-03-09 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5006988A (en) 1989-04-28 1991-04-09 University Of Michigan Obstacle-avoiding navigation system
US5819016A (en) * 1993-10-05 1998-10-06 Kabushiki Kaisha Toshiba Apparatus for modeling three dimensional information
US5977979A (en) * 1995-10-31 1999-11-02 International Business Machines Corporation Simulated three-dimensional display using bit-mapped information
JP4529056B2 (ja) 2000-03-21 2010-08-25 ソニー株式会社 情報処理装置および方法、記録媒体、並びに情報処理システム
US6961055B2 (en) * 2001-05-09 2005-11-01 Free Radical Design Limited Methods and apparatus for constructing virtual environments
JP3968501B2 (ja) 2001-11-30 2007-08-29 ソニー株式会社 ロボットの自己位置同定システム及び自己位置同定方法
JP3945279B2 (ja) 2002-03-15 2007-07-18 ソニー株式会社 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
JP2004070475A (ja) 2002-08-02 2004-03-04 Hicom:Kk 地形観察システムおよびその方法
US20060064202A1 (en) 2002-08-26 2006-03-23 Sony Corporation Environment identification device, environment identification method, and robot device
AU2003300959A1 (en) * 2002-12-17 2004-07-22 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
JP3994950B2 (ja) 2003-09-19 2007-10-24 ソニー株式会社 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置

Also Published As

Publication number Publication date
US20060025888A1 (en) 2006-02-02
US7912583B2 (en) 2011-03-22
JP2006011880A (ja) 2006-01-12

Similar Documents

Publication Publication Date Title
JP4479372B2 (ja) 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置
JP4636016B2 (ja) 平面検出装置、平面検出方法、及び平面検出装置を搭載したロボット装置
KR101121763B1 (ko) 환경 인식 장치 및 방법
JP4618247B2 (ja) ロボット装置及びその動作制御方法
US7769491B2 (en) Obstacle avoiding apparatus, obstacle avoiding method, obstacle avoiding program, and mobile robot apparatus
CN110522359B (zh) 清洁机器人以及清洁机器人的控制方法
EP3347875B1 (en) Localization of a robot in an environment using detected edges of a camera image from a camera of the robot and detected edges derived from a three-dimensional model of the environment
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
EP1975046B1 (en) Legged locomotion robot
CN101657825B (zh) 根据深度图对人形进行建模
JP2007041656A (ja) 移動体制御方法および移動体
CN113168184A (zh) 地形感知步伐计划系统
CN109333534B (zh) 预规划的实时步态控制算法
EP1975878B1 (en) Projective transformation convergence calculation method
KR20190015315A (ko) 실시간 높이 매핑
JP2006205348A (ja) 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置
Wahrmann et al. Vision-based 3d modeling of unknown dynamic environments for real-time humanoid navigation
JP2007041657A (ja) 移動体制御方法および移動体
WO2019215997A1 (ja) 情報処理装置、情報処理方法、プログラム及び床面モデリングシステム
Belter et al. On-Board Perception and Motion Planning for Legged Locomotion over Rough Terrain.
Wong et al. Real time obstacle detection and navigation planning for a humanoid robot in an indoor environment
WO2023219058A1 (ja) 情報処理方法、情報処理装置及び情報処理システム
Lobo et al. Registration and segmentation for 3d map building-a solution based on stereo vision and inertial sensors
Mosed et al. Orientation Correction of Kinect’s 3D Depth Data for Mapping
CN117897665A (zh) 移动装置、移动装置控制方法和程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100223

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100308

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3