JP2005092820A - 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置 - Google Patents

環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置 Download PDF

Info

Publication number
JP2005092820A
JP2005092820A JP2003329129A JP2003329129A JP2005092820A JP 2005092820 A JP2005092820 A JP 2005092820A JP 2003329129 A JP2003329129 A JP 2003329129A JP 2003329129 A JP2003329129 A JP 2003329129A JP 2005092820 A JP2005092820 A JP 2005092820A
Authority
JP
Japan
Prior art keywords
plane
obstacle
environment
recognition
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003329129A
Other languages
English (en)
Other versions
JP3994950B2 (ja
Inventor
Kotaro Sabe
浩太郎 佐部
Steffen Gutmann
グットマン ステファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003329129A priority Critical patent/JP3994950B2/ja
Priority to US10/941,813 priority patent/US7865267B2/en
Priority to CNB2004101005189A priority patent/CN100339871C/zh
Priority to KR1020040074645A priority patent/KR101121763B1/ko
Publication of JP2005092820A publication Critical patent/JP2005092820A/ja
Application granted granted Critical
Publication of JP3994950B2 publication Critical patent/JP3994950B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】床面とは段差があるような領域であっても移動可能であるか否かを判定するための環境地図を作成することができる環境認識装置及び方法、そのような環境地図を用いて適切に移動経路を計画できる経路計画装置及び方法、並びに環境認識装置及び経路計画装置を搭載したロボット装置を提供する。
【解決手段】視差画像又は距離画像から平面パラメータを算出して床面を含む複数平面を抽出する複数平面抽出部401、床面を含む複数平面の障害物を認識する障害物認識部402、及び障害物認識部402の認識結果に基づき各平面毎の環境地図(障害物地図)を作成及び更新する環境地図更新部403からなる環境認識部と、これらの環境地図に基づき経路計画を行う経路計画部404とを有する。経路計画部404は、床面の環境地図上で障害物とされた場合であっても、他の平面における環境地図上で障害物ではないとされている場合は、移動経路の候補とする。
【選択図】図5

Description

本発明は、障害物が存在する環境下において視差又は距離画像等の3次元データから平面を抽出し、抽出された平面の障害物を認識する環境認識装置及び方法、この環境認識により得られた環境地図に基づき現在位置から目的位置まで移動するための経路を計画する経路計画装置及び方法、並びに、この環境認識装置又は経路計画装置を搭載したロボット装置に関する。
電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータ及び搬送ロボット等の産業用ロボット(Industrial Robot)であった。
最近では、人間のパートナーとして生活を支援する、即ち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬又は猫のように4足歩行の動物の身体メカニズム及びその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う人間等の身体メカニズム及びその動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等のロボット装置は、既に実用化されつつある。
これらのロボット装置は、産業用ロボットと比較して、例えばエンターテインメント性を重視した様々な動作等を行うことができるため、エンターテインメントロボットと呼称される場合もある。また、そのようなロボット装置には、外部からの情報及び内部の状態に応じて自律的に動作するものがある。
ところで、自律型ロボット装置において、自身の周りの環境を認識して経路計画を立て、それに応じて移動する能力は言うまでもなく重要である。環境を認識するためには、ロボット装置の周囲の障害物情報等が必要である。従って、ロボット装置は、距離画像又は視差画像等の3次元データから床となる平面を検出し、障害物を認識する必要がある。
なお、3次元データから平面を検出するためにハフ変換を利用した方法としては、例えば下記特許文献1に、平面上の距離データを精度よく測定することを目的とした平面推定方法が開示されている。この特許文献1に記載の技術においては、ステレオ画像を矩形小領域に分割してこの小領域毎に距離データを求め、この小領域毎を水平方向にグループ化した大領域毎に、これらの領域に含まれるM個の距離データからハフ変換により平面通過直線を当てはめ、これを全ての大領域について行うことにより撮像空間における平面を推定するものである。
特許第3340599号公報
しかしながら、移動型のロボット装置においては、このようにして平面を床面として検出した場合、例えば床面上にある物体等は障害物とし、これを回避するような経路計画が立てられていた。ここで、自律に移動するロボット装置においては、例えば床面より高さが高い物体等を障害物としてしまうと、階段等の本来移動可能である領域も障害物として移動不可能にと判断してしまうという問題点があった。例えば階段を登る機能を有するような移動型のロボット装置においては、予め階段の位置、形状及びそれが移動可能であるという情報を入力しておかなければ、障害物と認識してしまう。
本発明は、このような従来の実情に鑑みて提案されたものであり、床面とは段差があるような領域であっても移動可能であるか否かを判定するための環境地図を作成することができる環境認識装置及び方法、そのような環境地図を用いて適切に移動経路を計画できる経路計画装置及び方法、並びに環境認識装置及び経路計画装置を搭載したロボット装置を提供することを目的とする。
上述した目的を達成するために、本発明に係る環境認識装置は、障害物が存在する環境下において移動型のロボット装置が環境を認識するための環境認識装置において、入力画像に基づき平面パラメータを算出し、該平面パラメータに基づき平面を検出する平面検出手段と、上記平面検出手段により検出された平面上の障害物を認識する障害物認識手段と、上記障害物認識手段により認識された障害物情報に基づき環境地図を作成及び/又は更新する環境地図更新手段とを有し、上記平面検出手段は、基準となる基準平面と該基準平面と略平行な1以上の他の平面からなる平面群を検出し、上記環境地図更新手段は、上記平面群のうち、上記障害物認識手段により障害物が認識された平面の環境地図を作成及び/又は更新することを特徴とする。
本発明においては、例えば床面等の基準となる一の平面のみならず、基準平面に平行な複数の平面を検出し、各平面における環境地図を作成又は更新することで、移動型ロボット装置が3次元的に環境を認識するための環境地図を構築することができる。
また、上記基準平面は、床面又は上記ロボット装置が移動している移動面とすることができ、移動型ロボット装置が床面を移動しているときは、床面を基準とし、階段を登っている途中などにおいては、その移動中の移動面を基準とすることができる。
更に、上記各平面は、上記ロボット装置が移動可能な面積を有し、また、上記基準平面との高さの差が所定の値以下である平面としたり、上記他の平面は、上記ロボット装置の認識範囲内において上記基準平面と高さの差が最も小さい平面を含むようにすることで、例えばロボット装置の移動可能な範囲の高さの平面を抽出するようにすれば、この平面が移動経路となる可能性が高くなる。
本発明に係る環境認識方法は、障害物が存在する環境下において移動型のロボット装置が環境を認識するための環境認識方法において、入力画像に基づき平面パラメータを算出し、該平面パラメータに基づき平面を検出する平面検出工程と、上記平面検出工程にて検出された平面上の障害物を認識する障害物認識工程と、上記障害物認識工程にて認識された障害物情報に基づき環境地図を作成及び/又は更新する環境地図更新工程とを有し、上記平面検出工程では、基準となる基準平面と該基準平面と略平行な1以上の他の平面からなる平面群を検出し、上記環境地図更新工程では、上記平面群のうち、上記障害物認識手段により障害物が認識された平面の環境地図を作成及び/又は更新することを特徴とする。
本発明に係る経路計画装置は、障害物が存在する環境下において移動型のロボット装置が現在位置から目的位置まで移動するための経路を計画する経路計画装置において、入力画像に基づき平面パラメータを算出し、該平面パラメータに基づき基準となる基準平面と該基準平面と略平行な1以上の他の平面からなる平面群を検出する平面検出手段と、上記平面検出手段により検出された平面群における各平面上の障害物を認識する障害物認識手段と、上記障害物認識手段により認識された障害物情報に基づき上記平面群の各平面に対応する環境地図群を作成及び/又は更新する環境地図更新手段と、上記環境地図更新手段により作成及び/又は更新された上記環境地図群に基づき上記ロボット装置の移動経路を計画する経路計画手段とを有することを特徴とすることを特徴とする。
本発明においては、複数の平行な平面を抽出して各平面における障害物情報を取得し、これにより得られた3次元的な環境地図を示す環境地図群を保持しており、この複数の環境地図に基づき移動経路を計画するため、一の環境地図に基づき計画する経路計画に比して移動の範囲が広がる。
また、上記経路計画手段は、各環境地図を所定の領域に区切り、上記ロボット装置の現在位置から移動可能とされる各領域毎に該各領域に移動する際のコストを算出し、コスト算出結果に基づき移動経路を計画することができ、例えば最もコストが低い経路を選択して移動する等することができる。
更に、上記環境地図は、障害物が存在するとされる障害物領域と、移動可能であるとされる自由空間領域と、未観測である未観測領域とを有し、上記経路計画手段は、現在移動中の平面に対応する環境地図である第1の環境地図上に上記障害物領域が含まれる場合、上記移動中の平面とは異なる平面に対応する環境地図である第2の環境地図を参照し、当該障害物領域が該第2の環境地図上で自由空間領域である場合は、当該障害物領域を移動可能領域とみなすことができ、床面のみの環境地図では、移動不可とされていた領域も複数平面の環境地図を保持し、これらを参照することにより移動経路の候補することができる。
本発明に係る経路計画方法は、障害物が存在する環境下において移動型のロボット装置が現在位置から目的位置まで移動するための経路を計画する経路計画方法において、入力画像に基づき平面パラメータを算出し、該平面パラメータに基づき基準となる基準平面と該基準平面と略平行な1以上の他の平面からなる平面群を検出する平面検出工程と、上記平面検出工程にて検出された平面群における各平面上の障害物を認識する障害物認識工程と、上記障害物認識工程にて認識された障害物情報に基づき上記平面群の各平面に対応する環境地図群を作成及び/又は更新する環境地図更新工程と、上記環境地図更新工程にて作成及び/又は更新された上記環境地図群に基づき上記ロボット装置の移動経路を計画する経路計画工程とを有することを特徴とする。
本発明に係るロボット装置は、障害物が存在する環境下で自律的に移動可能なロボット装置において、上記環境を認識するための環境認識装置を有し、上記環境認識装置は、入力画像に基づき平面パラメータを算出し、該平面パラメータに基づき平面を検出する平面検出手段と、上記平面検出手段により検出された平面上の障害物を認識する障害物認識手段と、上記障害物認識手段からの障害物情報に基づき環境地図を作成及び/又は更新する環境地図更新手段とを有し、上記平面検出手段は、基準となる基準平面と該基準平面と略平行な1以上の他の平面からなる平面群を検出し、上記環境地図更新手段は、上記平面群のうち、上記障害物認識手段により障害物が認識された平面の環境地図を作成及び/又は更新することを特徴とする。
本発明に係るロボット装置は、障害物が存在する環境下にて現在位置から目的位置まで移動するための経路を自律的に計画して移動するロボット装置において、上記環境を認識して移動経路を計画する経路計画装置を有し、上記経路計画装置は、入力画像に基づき平面パラメータを算出し、該平面パラメータに基づき基準となる基準平面と該基準平面と略平行な1以上の他の平面からなる平面群を検出する平面検出手段と、上記平面検出手段により検出された平面群における各平面上の障害物を認識する障害物認識手段と、上記障害物認識手段により認識された障害物情報に基づき上記平面群の各平面に対応する環境地図群を作成及び/又は更新する環境地図更新手段と、上記環境地図更新手段により作成及び/又は更新された上記環境地図群に基づき上記ロボット装置の移動経路を計画する経路計画手段とを有することを特徴とする。
本発明の環境認識装置及び方法によれば、複数の平行平面からなる平面群を抽出し、各平面群の障害物を認識した障害物情報に基づき各平面の障害物占有率を有する環境地図群を構築することができ、障害物が存在する環境下で自律的に移動可能なロボット装置が、環境を3次元的に把握することができる。
また、本発明に係る経路計画装置及び方法によれば、そのような3次元的に環境を把握可能な環境地図群を参照して移動経路を立てることができ、現在位置から目的位置まで移動するための経路候補となり得る領域が広がり、例えば階段を登ったりする経路計画を立てることができる。
更に、本発明に係るロボット装置によれば、床面等の基準となる平面とこれに平行な複数の平面群から得られた環境地図群により、障害物が存在する環境を3次元的に把握することができ、更にこれを利用して移動経路を計画すれば、現在移動している面を基準とした環境地図のみでは障害物ありとされ移動不可とされている領域であっても、他の環境地図を参照して移動経路を計画することができ、外部からの指示がなくても階段等が移動経路となり得て自律的階段を登ったりする動作を発現することができる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、複数の平面を抽出してそれらの平面の障害物情報を有する環境地図を構築する環境認識装置、及びこの環境認識装置により構築された環境地図に基づき移動経路を計画する経路計画装置を搭載し、自律的に移動可能なロボット装置に適用したものである。
本実施の形態における環境認識装置は、例えばこれを搭載したロボット装置の脚部が接している面(on foot plane)等の基準となる基準平面を抽出し、この基準平面と例えば平行な複数の平行平面を抽出する。そして、この環境認識装置により、複数の平行平面における後述する障害物占有率等を算出して環境地図を構築することで、例えばこれを搭載した脚式移動型のロボット装置は、階段等の段差を障害物か又は移動可能かを判断し、段差のある領域等を障害物とせず、経路候補として移動経路の計画を行うことができるものである。
本実施の形態においては、そのような環境認識装置及び経路計画装置が搭載され自律移動が可能なロボット装置の一例として2足歩行型のロボット装置について説明する。図1は、本発明の実施の形態におけるロボット装置の概略を示すブロック図である。図1に示すように、ロボット装置1の頭部ユニット3には、2台のCCDカメラ200R,200Lが設けられ、このCCDカメラ200R,200Lの後段には、ステレオ画像処理装置210が設けられている。2台のCCDカメラ(以下、右目200R、左目200Lという。)により撮像された右目画像201R、左目画像201Lは、ステレオ画像処理装置210に入力される。ステレオ画像処理装置210は、各画像201R,201Lの視差情報(disparity data)(距離情報)を計算し、カラー画像(YUV:輝度Y、UV色差)D1及び視差画像(YDR:輝度Y、視差D、信頼度R)D2をフレーム毎に左右交互に算出する。ここで、視差とは、空間中のある点が左目及び右目に写像される点の違いを示し、そのカメラからの距離に応じて変化するものである。
このカラー画像D1及び視差画像D2はロボット装置1の体幹部260に内蔵されたCPU(制御部)220に入力される。また、ロボット装置1の各関節にはアクチュエータ230が設けられており、CPU220からの指令となる制御信号D3が供給されて、その指令値に応じてモータを駆動する。各関節(アクチュエータ)には、ポテンショメータが取り付けられ、その時のモータの回転角がCPU220へ送られる。このアクチュエータに取り付けられたポテンショメータ、足底に取り付けられたタッチセンサ及び体幹部に取り付けられたジャイロ・センサ等の各センサ240は、現在の関節角度、設置情報、及び姿勢情報等の現在のロボット装置の状態を計測し、センサデータD4としてCPU220へ出力する。CPU220は、ステレオ画像処理装置210からのカラー画像D1及び視差画像D2と、各アクチュエータ230の全ての関節角度等のセンサデータD4とが入力されてソフトウェア構成を実現する。
本実施の形態のロボット装置におけるソフトウェアは、オブジェクト単位で構成され、ロボット装置の位置、移動量、周囲の障害物、及び環境地図等を認識し、ロボット装置が最終的に取るべき行動についての行動列を出力する各種認識処理等を行うものである。なお、ロボット装置の位置を示す座標として、例えば、ランドマーク等の特定の物体等に基づく所定位置を座標の原点としたワールド基準系のカメラ座標系(以下、絶対座標ともいう。)と、ロボット装置自身を中心(座標の原点)としたロボット中心座標系(以下、相対座標ともいう。)との2つの座標を使用する。
図2は、本実施の形態におけるロボット装置のソフトウェアの構成を示す模式図である。同図において、丸で表されているのが、オブジェクト又はプロセスと呼ばれるエンティティである。オブジェクト同士が非同期に通信し合うことで、システム全体が動作する。各オブジェクトはメッセージ通信と共有メモリを使用したオブジェクト間通信方法によりデータの受け渡し及びプログラムの起動(Invoke)を行っている。
図2に示すように、ソフトウェア300は、キネマティックオドメトリ(Kinematics Odometry)KINE310、平面抽出部(Plane Extractor)PLEX320、グリッド占有率算出部(Occupancy Grid)OG330、ランドマーク位置検出部(Landmark Sensor)CLS340、絶対座標算出部(Localization)LZ350及び行動決定部(Situated behavior Layer)SBL360から構成され、各オブジェクト単位にて処理がなされる。
次に、図2に示すロボット装置1のソフトウェアの動作について説明する。図3は、図2に示すソフトウェア300の動作を示すフローチャートである。
図3に示すソフトウェア300のキネマティックオドメトリKINE310には、図2に示すように、画像データD5及びセンサデータD4が入力される。この画像データD5は、上述したように、カラー画像D1及びステレオカメラによる視差画像D2である。また、センサデータD4は、ロボット装置の関節角等のデータである。キネマティックオドメトリKINE310は、これらの入力データD5,D4を受け取り、メモリに格納されていたそれまでの画像及びセンサデータを更新する(ステップS1)。
次に、これら画像データD5とセンサデータD4との時間的な対応を取る(ステップS2)。即ち、画像データD5の画像が撮像された時間におけるセンサデータD4の関節角を割り出す。次いで、この関節角のデータを使用してロボット装置1が中心に固定されたロボット中心座標系を頭部ユニット2に設けられたカメラ200R/Lの座標系へ変換する(ステップS3)。この場合、本実施の形態においては、ロボット中心座標系からカメラ座標系の同次変換行列等を導出し、この同次変換行列D6とこれに対応する画像データとを画像認識を行うオブジェクトへ送信する。即ち、同次変換行列D6及びこれに対応する視差画像D2を複数平面抽出部PLEX320へ出力し、同次変換行列D6及びカラー画像D1をランドマーク位置検出部CLS340へ出力する。
また、センサデータD4から得られる歩行パラメータと、足底センサを使用した歩数のカウント数とからロボット装置1の移動量を算出し、ロボット装置1のロボット装置中心座標系における移動量を算出する。以下、ロボット装置中心座標系の移動量をオドメトリともいう。このオドメトリD7をグリッド占有率算出部OG330及び絶対座標算出部LZ350へ出力する。そして、複数平面抽出部PLEX320及びグリッド占有率算出部OG330にて障害物のグリッド占有率(環境地図)が算出、更新され、ランドマーク位置検出部CLS320及び絶対座標算出部LZ350では絶対座標が算出、更新される(ステップS4、5)。
以上のステップS4、5に示す複数平面抽出部PLEX320及びグリッド占有率算出部OG330の処理と、ランドマーク位置検出部CLS320及び絶対座標算出部LZ350の処理とは、同時並行的に行われるものである。
即ち、ステップS4のうち、障害物グリッドの算出は、図4(a)に示すように、先ず複数平面抽出部PLEX320に、キネマティックオドメトリKINE310にて算出されたキネマティックスデータである同次変換行列D6と、これに対応するステレオカメラから得られる視差画像D2とが入力されると、それまでメモリに格納されていたこれらのデータを更新する(ステップS11)。そして、ステレオカメラのキャリブレーションパラメータ等を使用して視差画像D2から3次元の位置データ(レンジデータ)を算出する(ステップS12)。次いで、このレンジデータからハフ変換等を使用して、例えば壁及びテーブル等の平面を除く平面を平面として抽出する。また、座標変換行列D6からロボット装置1の足底が接地している平面との対応を取り、床面を選択し、床面上にない点、例えば所定の閾値よりも高い位置にあるもの等を障害物として床面からの距離を算出し、この障害物情報(obstacle)D8をグリッド占有率算出部330に出力する(ステップS13)。
更に、本実施の形態における平面抽出部PLEX320は、後述する如く、床面のみならず、床面と、この床面に平行な複数の他の平面からなる平面群を抽出し、床面及び複数の各他の平面において、各他の平面上にない点、例えば所定の閾値よりも高い位置にあるものを同じく障害物として上記各平面からの距離を算出し、この障害物情報も合わせてグリッド占有率算出部330に出力する。ここで、ロボット装置が移動している例えば床面等の移動面を基準平面として、この基準平面と高さの差がなるべく小さい平面を他の平面として抽出するようにすることで、ロボット装置において移動候補の可能性を有するような有効な平面を抽出するようにする。即ち、例えば車輪により移動したり、脚部を有して2足歩行又は4足歩行をする移動型ロボット装置において、高さ方向に移動不可能な平面を抽出するより、高さ方向の差が小さく移動可能であるような平面を優先的に抽出することで、後述する環境地図等を作成し、これに基づき経路計画を実行する際に有効に利用することができる。なお、基準平面に距離的に近い平面を抽出するようにしてもよい。
こうして、基準平面と、これに平行な複数の平面からなる平面群を抽出し、各平面において障害物が認識された場合に、その障害物情報をグリッド占有率算出部330に出力する。なお、以下では、床面等の基準平面に平行な平面を抽出するものとして説明するが、平面群には、床面に平行な平面のみならず、坂道のように若干傾斜のあるような平面を含むようにしてもよい。
グリッド占有率算出部OG330では、上述したように、キネマティックオドメトリKINE310にて算出されたオドメトリ314と、平面抽出部PLEX320にて算出された障害物の観測情報(障害物情報)321とが入力されると、メモリに格納されていたそれまでのデータを更新する(ステップS14)。そして、床面上に障害物があるか否かの確率を保持する障害物のグリッド占有率を確率的手法により更新する(ステップS15)。
更に、床面の障害物のグリッド占有率と同様、床面以外の平面群に含まれる他の各平面の障害物のグリッド占有率を確率的手法により更新する。
このグリッド占有率算出部OG330は、ロボット装置1を中心とした例えば周囲4mの障害物情報(障害物のグリッド占有率)を示す環境地図と、ロボット装置1が向く方角を示す姿勢情報とを保持しており、上述の方法により、環境地図を更新し、この更新した認識結果(障害物情報D8)を出力することにより、上位レイヤ、即ち、本実施の形態においては、経路計画決定部SBL360にて障害物を回避する計画を作成することができる。ここで、グリッド占有率算出部OG330は、上述したように、平面抽出部PLEX320から複数平面及びその障害物情報を受け取っており、したがって各平面における環境地図を作成又は更新する。
一方、ステップ4のうち、絶対座標の算出は、図4(b)に示すように、先ず、ランドマーク位置検出部CLS340に、キネマティックオドメトリKINE310から、キネマティックスデータである同次変換行列D6及びカラー画像D1が入力されると、予めメモリ内に格納されていたこれらのデータを更新する(ステップS21)。そして、カラー画像D1の画像処理を行って、予め認識しているカラーランドマークを検出する。このカラーランドマークのカラー画像D1上での位置及び大きさをカメラ座標系での位置に変換する。更に、同次変換行列D6を使用し、カラーランドマークのカメラ座標系での位置をロボット中心位置座標系における位置に変換し、ロボット中心位置座標系におけるカラーランドマーク位置の情報(カラーランドマーク相対位置情報)D10を絶対座標算出部LZ350に出力する(ステップS22)。
即ち、ランドマーク位置検出部CLS340は、例えば、グリーン、ピンク、又はブルー等のカラーを有する人工的なカラーランドマークを含む環境において、ロボット装置1のセンサ情報と、ロボット装置1が行った動作情報によって、ロボット装置の自己位置(位置及び姿勢)を同定する。
絶対座標算出部LZ350は、キネマティックオドメトリKINE310からのオドメトリD7と、ランドマーク位置検出部CLS340からのカラーランドマーク相対位置情報D10とが入力されると、予めメモリ内に格納されていたこれらのデータが更新される(ステップS23)。そして、絶対座標算出部LZ350が予め認識しているカラーランドマークの絶対座標(ワールド座標系での位置)、カラーランドマーク相対位置情報D10、及びオドメトリD7を使用し、確率的手法によりロボット装置の絶対座標(ワールド座標系での位置)を算出する(ステップS24)。そして、この絶対座標位置D11を経路計画決定部SBL360に出力する。
図3に戻って、経路計画決定部SBL360は、グリッド占有率算出部OG330から上述した各平面毎の障害物情報D9が入力され、絶対座標算出部LZ350から絶対座標位置D11が入力されると、予めメモリに格納されていたこれらのデータが更新される(ステップS5)。そして、経路計画決定部SBL360グリッド占有率算出部OG330からの障害物情報D9により、ロボット装置1の周囲に存在する障害物に関する認識結果を取得し、絶対座標算出部LZ350から現在のロボット装置1の絶対座標を取得することにより、絶対座標系又はロボット装置中心のロボット中心座標系で与えられた目標地点に対して障害物に衝突せずに歩行可能な経路を生成し、経路に応じて経路を遂行する動作コマンドを発行する。即ち、入力データから状況に応じてロボット装置1が取るべき行動を決定し、その行動列を出力する(ステップS6)。
なお、人間によるナビゲーションを行う場合には、グリッド占有率算出部OG330からロボット装置の周囲に存在する障害物に関する認識結果及び絶対座標算出部LZ350からの現在のロボット装置の位置の絶対座標をユーザに提供し、このユーザからの入力に応じて動作コマンドを発行させる等してもよい。
ここで、本実施の形態におけるロボット装置は、平面抽出部PLEX320にて床面を含む複数の平行平面からなる平面群を検出し、これら複数の平面についての障害物占有率を示す環境地図を構築し、各平面に対応した複数枚の環境地図からなる環境地図群に基づき経路計画を行うことで、床面のみの環境地図を有する場合に比して行動可能範囲を広め、例えば階段等の段差を有する領域を移動経路に含めることで、移動を可能とするものである。すなわち、ロボット装置が経路計画を実行する際、現在移動している例えば床面に対応する環境地図のみならず、この床面に平行な平面に対応する環境地図を参照することを許すことで、3次元的に環境を把握し、したがって3次元的な移動経路を計画することができるものである。
以下、複数の平行平面を抽出して経路計画を実行可能な本実施の形態のロボット装置について詳細に説明する。このロボット装置における複数平面抽出から経路計画を行う処理を機能的に分類すると、図5に示すように、視差画像又は距離画像から平面パラメータを算出して床面を含む複数平面を抽出する複数平面抽出部401、床面を含む複数平面の障害物を認識する障害物認識部402、及び障害物認識部402の認識結果に基づき環境地図(障害物地図)を作成及び更新する環境地図更新部403からなる環境認識部と、環境地図に基づき経路計画を行う経路計画部404とを有する。なお、ここでは、機能毎のブロックとして示すが、以上の一連の処理は上述したように、図2に示す各オブジェクト単位で処理が行われる。
複数平面検出部401及び障害物認識部402は、同次変換行列と、これに対応する図6に示す左目画像201L及び右目画像201Rから得られた視差画像を受け取り、図7に示す処理手順に従って、平面パラメータを検出し、障害物を認識する。
平面パラメータの検出は、先ず複数平面検出部401が同次変換行列とこれに対応する視差画像を受け取る(ステップS31)。例えば、ステレオ視(ステレオカメラ)等による方法、又はレンジセンサ等の操作によって得られた視差画像312(又は距離画像)は、適切なキャリブレーションに基づく変換により、3次元データに容易に変換することができ、この3次元データの配列が生成される。即ち、視差画像からレンズ歪みとステレオの取り付け誤差を吸収したキャリブレーションパラメータを利用して、画素毎にカメラ座標から見た3次元の位置データ(x,y,z)を距離画像として生成する(ステップS32)。このとき各3次元データは、視差画像又は距離画像等の入力画像における信頼度等から得られる信頼度パラメータを個別に有し、この信頼度パラメータにより選別されて入力される。
この選別された3次元データ群からランダムにデータをサンプリングし、ハフ変換により平面を推定する。即ち、法線ベクトルの向きを(θ,φ)、原点からの距離をdとしたときの平面パラメータ(θ,φ,d)を算出し、平面パラメータを投票空間(θ,Ψ,d)=(θ,φcosθ,d)に直接投票して平面を推定する。これにより、画像中の支配的な平面のパラメータを検出する(ステップS33)。
ここで、ステップS33における平面パラメータを検出する方法について詳細に説明する。複数平面検出部401は、ロボット装置の脚部ユニットが接している又は移動している例えば床面等の移動面(以下、基準平面という。)のみならず、基準平面と平行な複数の平面を示す平面パラメータを抽出する。図8は、平面パラメータを検出する方法を示すフローチャートである。上述したように、各3次元パラメータは個別に信頼度パラメータが算出され、この信頼度パラメータにおいて信頼度が所定の閾値より低いデータは切り捨てる等して入力データの選別が行われる。そして、選別された3次元データ群(x,y,z)及び各データに付随する信頼度パラメータ(信頼度r)が出力され(ステップS41)、これらのデータ群から、平面パラメータを推定するためのサンプルを抽出するサンプリングを行い、平面パラメータを推定する(ステップS42)。
サンプリングの方法としては、3次元データ(x,y,z)から
1.全くランダムにサンプリングする方法
2.基準点となる1点を3次元データ全体からランダムにサンプリングし、残りのデータを基準点近傍点、例えば3次元空間内での距離が十分近いデータ群等からサンプリングする方法
3.3次元データを複数の解像度レベルに亘ってスキャンしながら各小近傍(例えば、3次元空間内での距離が十分近いデータ群等)のデータをひとまとまりにしてサブセットとする方法
等がある。
3次元空間内での距離が十分近いデータ群とは、例えば基準点との距離が閾値dmin乃至dmaxであるような任意の点とすることができる。
ここで、入力データ中には、支配的な単一の平面が存在することを仮定したとき、又は何らかの付加情報により支配的な平面が存在することを知ることができたとき等、平面領域が大きい場合には画面全体から高域にサンプリングすると効果的となる。また、小規模領域におけるデータをサンプリングする場合は、小さい段差等を多く含む画像に効果的となる。
次に、抽出したデータサブセットから平面パラメータを算出する。ここでは、例えば3種類の平面パラメータの算出方法から、必要に応じて最適な算出方法をとることができる。
即ち、第1のパラメータ算出方法は、同一直線にない3点の3次元データから直接解法を使用して、法線ベクトルの向き(θ,φ)と座標原点からの距離dという3つのパラメータ(θ,φ,d)により決定される平面αを求めることができる。
また、第2のパラメータ算出方法は、主成分分析による平面パラメータの推定方法である。即ち、画面全体を適当な分解粒度・解像度でスキャンして入力される3次元データを3次元空間内の近傍領域毎に分割する等して得られた各データ群に対し、主成分分析を行って平面パラメータを推定する方法である。
更に、第3のパラメータ算出方法は、最小二乗法を使用して平面パラメータを当てはめる方法である。例えば、上述と同様に、画面全体を適当な分割粒度・解像度でスキャンし、得られた距離画像等を例えば矩形小領域に分割する等して、3次元空間内の近傍領域毎に3次元データ群を分割し、線形最小二乗法を使用して平面パラメータを算出する方法である。
次に、このようにして得られた平面パラメータをパラメータ空間に投票する(ステップS43)。この際、平面を指定する平面パラメータは、元の3次元直交座標空間に対して極座標を形成することから、投票スロット(グリッド)が元の対応空間内で同一の大きさとなるように、例えば(θ,Ψ,d)=(θ,φcosθ,d)又は(θ,Ψ,d)=(2θsin(π/4−θ/2)cosφ,2sin(π/4−θ/2)sinφ,d)等として投票空間を設計することにより、更にロバストで精度が高いデータが得られ、従ってサンプリング数を減らすことができ、処理が高速化する。また、一般に、投票の際の1票の重みは同じである場合が多く、例えば一の投票に対しその投票値を1とする等とされるが、誤差の性質を考慮して一票の重みを定めるれば、ノイズに対するロバスト性を向上することができる。即ち、一の投票に対し、上述の信頼度パラメータ、投票先を計算するために使用した元の3次元データの誤差の標準偏差、又は計算元の3次元データの分布を視点中心の球面に投影したときの立体角等を使用した誤差の評価によって、その投票値を例えば0.5又は2等とするものである。
そして、投票総数が閾値Nmaxを超えたか、又は投票総数が閾値Nmaxを超え且つ投票値の分布が十分なピークを形成しているか否かを判定する(ステップS44)。十分なピークとは、ピーク位置のグリッドにおけるデータが例えば全ての投票の数(総投票数)の一定以上の割合を有するか、又はピーク位置のグリッドにおける投票数の合計(得票数)又は投票値の合計(得票値)が所定の閾値以上であるか否か等により判定することができる。ここで、十分であると判定された場合は、ピーク位置又はその近傍のグリッド内の平面パラメータを重み付き平均処理する。一方、十分でないと判定された場合は、ステップS42に戻り、3次元データ群からデータサブセットを抽出して平面パラメータを算出する。
この平面のパラメータは図9に示すパラメータ空間(θ,φ)(投票空間)のヒストグラムにより検出することができる。パラメータの投票が小さいいと障害物、大きいと平面と見なすことができる。
次にピーク値近傍における重み付け平均処理が行われる(ステップS45)。この重み付き平均処理により、ピークのより正確な位置を推定することができる。これにより、各グリッドの代表パラメータの量子化サイズよりも細かい粒度でのパラメータ推定が可能となる。
そして、重み付き平均処理により、得られた推定パラメータの初期値(初期パラメータ)(θ,φ,d)と3次元座標とからイタレーションを計算する(ステップS46)。このイタレーションにより、更に正確な平面パラメータを推定する。そして、イタレーションによるパラメータの変化量が収束するか、又は所定の回数以上繰り返すかして終了判定を行い、その結果の信頼度を判定し、終了判定された平面パラメータ(θ,φ,d)及びその信頼度を出力する。
また、3次元データをフィルタバンク(FBK)により、リアルタイムに多重解像度化することで、上述のハフ変換による初期パラメータ推定の際には低解像度の3次元データを使用して処理を高速化すると共に、このイタレーションにおいては、高解像度の3次元データを使用することにより、精度を更に高めることができる。即ち、イタレーションにおいては、初期パラメータから推定される推定平面の十分近傍にある点をサンプルとして抽出する。
以上説明したように、投票の際は、3次元データに付随する信頼度パラメータ又は平面パラメータの算出方法等により、1票の投票に対して異なる重み付けをして、投票値を異ならせると共に、投票値の分布から得られるピーク値を推定することで、ピーク値近傍における重み付き平均処理等をすることができ信頼度の高いデータを推定することができる。そして、この平面パラメータを初期パラメータとしてイタレーションを行い、平面を決定することで、更に信頼度が高い平面を決定することができる。更に、最終的に決定される平面を算出した3次元データに付随する信頼度パラメータ及びイタレーションにおける残差誤差等を使用して平面の信頼度を算出し、この平面信頼度を平面のデータと共に出力することにより、後段の処理が行い易くなる。このように、平面抽出は、投票、即ちヒストグラムに基づく確率密度関数の推定により3次元データから、その3次元データに含まれる支配的な平面のパラメータを決定する確率論的方法で行われる。こうして得られた平面のパラメータを使用すれば、元々画像から得られた距離の測定点が平面上からどれくらいの距離であるかが分かる。なお、以上は、平面抽出方法の一具体例であり、その他、装置の精度、性能等に応じて、他の公知の平面抽出方法にて平面抽出を行うようにしてもよい。
ここで、本実施の形態における複数平面検出部401は、上述したように、床面のみならず複数の平面を同時に抽出する。図10は、角度及びオフセット量に対応した複数平面検出部401が検出する平面パラメータ(θ,Φ)によるヒストグラムとこれに対応する複数平面を示す模式図である。
図10に示すように、上述のようにして投票により得られる平面パラメータのヒストグラムにおいて、ピークHに示す床面PLが対応する場合、ピークH、Hを有する床面PLに平行なそれぞれ平面PL、PLをを抽出することができる。
そして、後述する障害物認識部402にて、床面等の基準平面より所定の閾値以上高い部分は障害物として認識するが、これら基準平面に平行な複数の平面を抽出することで、床面より高さが高いか又は低い部分であって平面である領域を障害物ではなく、他の平面として認識することができる。更に、認識された他の平面毎に、障害物情報を有する環境地図を作成しておくことにより、後述する経路計画の際の移動経路の候補とすることができる。
即ち、図7に戻って、カメラ座標系の同次変換行列から図11に示すようにロボット装置の足底接地面への変換を求める(ステップS34)。これにより、カメラ座標系で表現される接地平面PLのパラメータの算出が行われる。そして、前記ステップS33での画像による平面の検出と、前記ステップS34での足底接地平面PLとの照合から、画像中の平面パラメータから床面と、これに平行な複数の平面を選択する(ステップS35)。本ロボット装置は、このような複数の平面を認識して、各平面毎に環境地図を保持することで、段差を有するような領域間の移動、例えば階段等を登ったり降りたりすることを可能とするものであり、このステップS35にて検出する床面とは、ロボット装置が現在、接地又は移動している平面を示すこととする。
次に、前記ステップS35にて選択された平面パラメータを使って、元の距離画像から各平面上に載っている点を選択する(ステップS36)。これは下記式(1)、式(2)を使用して、平面からの距離dがしきい値Dthより小さいことを使用して判断する。
Figure 2005092820
Figure 2005092820
図12には、複数選択された平面群のうち、床面において、しきい値Dthを1cmとした範囲で選択された測定点(×印)を示す例である。この図12にて、黒く抜かれている点が平面と判断されなかった点である。
したがって、前記ステップS36にて各平面上に載っている点以外の点、例えば、床面であれば、床面上に無い点を障害物としてステップS37にて認識することができる。これらの判断結果は床平面上の点(x、y)とその高さzで表現される。例えば、高さz<0は、平面より凹んでいる点を示す。これにより、高さがロボットより高い障害物点はそれをくぐることができるので障害物ではないという判断も可能とすることができる。
また、図13(a)に示すロボットビューから得た図13(b)に示す床面抽出画像の高さzを0(z=0)となるように座標変換すれば、図13(c)に示すように、平面上の2次元の位置で床か障害物かを表現することができる。
この障害物認識部402は、多数の測定点を使って平面の検出を行うために安定した平面を抽出できる。また、画像から得られる平面候補をロボット装置の姿勢から得られる床面パラメータと照合することで正しい平面を床面として選択でき、更にこれに平行な複数の平面を選択することができる。このことにより、後述するように、床面に平行な平面であれば、ロボット装置にとって、例えば移動可能な領域と判断することができる。即ち、床面のみの検出では、段差のある領域等を障害物と見なし、移動不可能の領域と判断されていたが、ロボット装置が現在接地している面(床面)を移動可能領域とした環境地図において移動不可能領域であっても、他の環境地図において平面(移動可能な領域)とされている場合には、当該移動不可能領域を移動可能な領域として移動経路の候補とすることでロボット装置の移動範囲を広くすることができる。
また、障害物を認識するのではなく、実質的には床面及びその他の平面を認識するので障害物の形状や大きさに因らない認識が可能である。また、床面からの距離で障害物を表現するので細かい段差や凹みまで検出することができる。またロボット装置の大きさを考慮して跨いだり、くぐったりする判断も容易である。さらに、2次元床面上の障害物表現となるので経路計画などに既存の移動ロボット装置で用いられる手法が適用可能であるし、3次元の表現より高速に演算できる。
環境地図更新部403は、所定の大きさのグリッドに分割されたロボット中心座標系の地図情報である環境地図と、例えば環境地図上においてx軸方向又はy軸方向等の所定の方角からロボット装置が向く方角を示す姿勢情報とを有している。ここで、環境地図は、複数平面抽出部401により抽出された床面等の基準平面と、これに平行な複数の平面に対応する複数枚の環境地図であり、例えば周囲4m四方の地図であり、これらが例えば4cm×4cm等の所定の大きさのグリッド毎に、障害物認識部402から入力される障害物情報により、障害物の占有率が算出される。
この環境地図更新部403は、ロボット装置1が移動すると、即ち、オドメトリD7が入力されると、予めメモリ内に格納されていた環境地図及び姿勢情報を、ロボット装置の姿勢の変化(差分移動角)及び移動距離(差分移動量)に伴って、予め認識している環境地図及び姿勢方向の情報を更新する。ここで、環境地図を所定の領域に区切っておくことで、例えば差分移動量が上記所定の領域サイズより小さければ環境地図を更新せず、移動量がグリッドの上記所定の領域サイズを超える場合は環境地図を更新するようにすると、環境地図更新の際の無駄な計算コスト及びメモリコピーコストを削減することができる。また、環境地図、及び障害物占有率を算出するためのグリッドの大きさを必要に応じて適宜変更する等することにより、計算量及びメモリコピーコスト等を低減してもよい。
この環境地図更新部403にて、障害物認識部402から供給される障害物情報により生成される環境地図上の点は、上述した各グリッドの障害物占有率に基づき図14に示すように以下の3つの種類(領域)に分類することができる。
第1の領域は、障害物の存在する領域(図中の黒色で表される領域、以下障害物領域という。)Aである。第2の領域は、自由空間(障害物が存在しない空間)上の領域(図中の白で表される領域、以下自由空間領域という。)Aである。そして、第3の領域は、まだ障害物の観測がなされていない未観測領域(図中の斜線で表される領域)Aである。
環境地図更新部403は、環境認識部402が認識した障害物情報に基づき、各平面毎に環境地図を作成し、又は更新する。例えば、図15(a)に示すように、ロボット装置1が、階段500を認識可能な範囲に位置している場合において、先ず、移動目的地等の所定の方向を観測する。これにより、平面検出部401にて床面PLと、これに平行な平面として、階段面PL、PLを検出することができる。障害物認識部402において、これら3つの面PL〜PL上の障害物情報を取得し、図15(b)に示すように、各面PL〜PLに対する環境地図501〜503をそれぞれ作成、又は更新する。
この場合、床面PLに対する環境地図501においては、階段500は床面より高さh又は高さhだけ高い平面であるため、障害物領域Aとされる。また、階段面PLに対する環境地図502においては、階段面PLは階段面PLから高さが(h−h)だけ高く、床面PLは階段面PLより高さがh低いため、いずれも障害物領域Aとされる。同様に、階段面PLに対する環境地図503においても、床面PL及び階段面PLは、階段面PLより低いため、障害物領域Aとされる。
次に、経路計画部404は、障害物認識部402からの障害物情報により、ロボット装置1の周囲に存在する障害物に関する認識結果を取得し、上述した図2に示す絶対座標算出部LZ350から現在のロボット装置1の絶対座標を取得することにより、絶対座標系又はロボット装置中心のロボット中心座標系で与えられた目標地点に対して障害物に衝突せずに歩行可能な経路を生成し、経路に応じて経路を遂行する動作コマンドを発行する。即ち、入力データから状況に応じてロボット装置1が取るべき行動を決定し、その行動列を出力する。
次に、この経路計画部404が採用する経路計画アルゴリズムを図16のフローチャートに示し、以下に詳細を説明する。
先ず、例えば図14に示す現在位置Pから目的位置Pまでを結ぶ直線経路の周辺の障害物地図(環境地図)が作成されるように、視線を目的地方向に向ける(ステップS51)。そして距離画像を観測し、距離計測を行い、環境地図を作成、又は更新する(ステップS52)。
次に、生成された環境地図に基づき経路計画を行う(ステップS53)。ここで、床面のみの環境地図しかもたないようなロボット装置の場合は、未観測領域A及び自由空間領域Aを移動可能領域とみなして経路計画を行うが、本実施の形態のロボット装置においては、上述したように、複数平面を検出して、これらの環境地図を作成、更新したものを保持している。例えば、ロボット装置が現在移動している平面を床面とする場合、床面より高さが高いような領域は全て障害物領域Aとされるが、現在位置Pから、途中経路位置Pに進んだ後、この障害物領域AU1が障害物であるか、又は他の平面として検出されているかの判断を行うことができる。
そして、床面環境地図において障害物領域AU1とされているものの、他の平面として検出されている場合、当該他の平面に対応する環境地図である他の環境地図を参照し、この他の環境地図において、その領域AU1が自由空間領域A又は未観測領域Aである場合には移動可能領域とみなす。ここで、移動可能領域と見なされた領域AU1方向に移動するか、又はこれを迂回するような経路計画を実行するかは、ロボット装置に依存する。すなわち、例えばロボット装置は、移動可能領域の全てに対して移動の際のコスト計算をし、最もコストが低くなるよう経路計画を立てることができる。
図17乃至図19は、ロボット装置1により実際に保持される環境地図を時系列で示すものである。図17乃至図19に示すように、ロボット装置1が移動すると共に新たな障害物情報が得られ、環境地図が更新されて移動経路が設定されていく。これらの環境地図は、上述したように、ロボット装置1を中心に、前方、後方、左右両方向が例えば各2mの大きさを有したものとなっており、例えば縦100×横100個に仕切ったグリッド毎にその障害物の占有率が算出されたものとなっている。ロボット装置1は、これらの環境地図に基づき、例えば図17乃至図19のそれぞれ410乃至412に示すような計画経路を立てることができる。
また、図14においては、障害物領域Aは黒、自由空間領域Aは白で示されるものとして説明したが、実際には、この図17乃至図19に示すように、周囲のハッチして示す領域が未観測領域Aであり、その他の領域が観測済みの領域であって、白く示す領域が平面とされロボット装置1が移動可能な自由空間領域Aであり、黒っぽくなるほど障害物の占有確率が高くなっていることを示す。すなわち、黒〜白の濃淡により、障害物の占有率の高さを示すものとなっている。このような濃淡で示された領域は、例えば所定の輝度未満であれば、自由空間領域Aとし、それ以外は障害物領域Aとしてもよく、又はこれらの濃淡の度合いに応じたコスト計算をするようにしてもよい。
ロボット装置1の実行する経路計画としては、このような環境地図において、現在の位置から移動可能な全てのグリッドに対して、移動するためのコストを個別に算出し、最もコストが小さいグリッドを移動経路として選択する等すればよい。
この経路計画としては、例えば経路全体のコストを最小化するA探索(Asearch)いう方法を用いることができる。このA探索は、評価関数としてfを用い、h関数が許容的であるような最良優先探索である。いかなるヒューリスティック関数に対しても効率最適という点を用いている。
ここで、移動可能か否かの評価は、ロボット装置に因るものであるが、例えばロボット装置が登ることができる限界の高さより高い場合には、領域Aが平面であっても、移動することができず、また、領域Aが上記限界の高さ未満であっても、領域Aがロボット装置が移動できるほど広くないような場合にも移動しないよう、最適なパラメータが設定されているものとする。また、他の全ての環境地図においても自由空間領域A又は未観測領域Aでもなく、完全な障害物領域Aであるとされた場合には、極めて高いコストが算出され、ロボット装置の移動経路の候補となり得ないようになされている。
このステップS53にて例えばA探索を適用することにより生成された経路が移動可能であるか否かをステップS54にてチェックし、障害物を回避することのできる経路が計画できなかった場合(NO)には、これ以上観測を続けても移動可能な経路が得られる可能性がないため、その旨を告げて経路計画を終了する(ステップS55)。
ステップS53にて移動可能経路が例えば前記A探索を適用して計画できた場合(YES)には、ステップS56に進み、出力された経路上に未観測領域が含まれるか否かを検索する。このステップS56にて経路上に未観測領域が含まれなかった場合(NO)には、ステップS57にて目的地までの経路計画として移動可能経路を出力する。ステップS56にて未観測領域が含まれる場合(YES)には、ステップS58に進んで現在位置から未観測領域までの歩数を計算し、その歩数が閾値を超えるか否かをチェックする。
ステップS58において歩数が閾値を超える場合(YES)には、ステップS59により未知領域までの移動可能経路を出力してから、ステップS51の処理に戻る。一方、ステップS58において未知観測領域までの歩数が閾値に満たない場合(NO)は、未観測領域が距離観測されるように視線方向の制御を行って再観測を行い(ステップS60)、再び障害物地図の更新を行う。
以上のような経路計画アルゴリズムを採用した経路計画部404は、未観測領域A及び自由空間領域Aのみならず、床面と平行な他の平面が存在する場合には、床面の環境地図における障害物領域Aであっても、他の平面の環境地図を参照して移動可能領域か否かを判断して経路計画を行うことで、床面のみの環境地図を有する場合に比して移動可能範囲を格段に広くすることができる。また、出力された経路上に含まれる未観測領域部Aのみを再観測することにより、目的地に移動する際に不必要な観測及び距離画像計算処理を行なわず、効率的で短時間に移動経路計画を生成することが可能となる。
また、ここでは、床面等の基準平面を抽出し、この基準平面と略平行な複数の平面を抽出するものとして説明したが、例えば坂道のような傾斜のある平面であっても、基準平面との傾きの度合いが小さくロボット装置が移動可能である場合には同様に平面として抽出し、障害物情報を獲得し、環境地図を作成、更新するようにしてもよい。
以上のようなコスト計算に基づき階段を登る脚式移動型のロボット装置について説明する。図20は、階段を登る動作を行うロボット装置を示す模式図である。また、図21は、図20に示すような階段を登る動作を行うロボット装置の環境地図を示す図である。以下の説明においては、ロボット装置が移動している現在の移動面(ロボット装置の脚部が載っている平面:on foot plane)を基準平面PLとする。また、床面PL上には、床面PLからの高さ(段差)がh〜hのそれぞれ階段面PL〜PLが形成されているものとする(0<h<h<h<h)。
ロボット装置1は、基準平面PL=床面PLに接地しているものとし、この床面PLから階段面PL〜PLを登る動作を行うこととする。先ず、ロボット装置1の平面検出部401は、床面PLから周囲を観察して、床面PLを検出し、この床面PLに平行な平面があればこれを抽出する。ここで、認識可能な全範囲に含まれる床面PLに平行な平面全てを抽出してもよいが、例えば床面PLからの高さ方向の差が小さいものから2つを選択することで、メモリ容量が限られたロボット装置の記憶する環境地図の数を制限することができる。図20に示す場合においては、床面PLからの高さがh、hの階段面PL、PLを選択するものとする。これにより、演算量を低減することができ、また、例え床面PLに平行であっても、段差が大きすぎて登れない可能性があるような平面を抽出しないようにすることができる。
そして、抽出した床面PL〜PLにおいて、障害物認識部402により障害物が認識され、環境地図更新部403が認識された障害物情報に基づき、各平面における障害物占有グリッドが算出され、図14に示すような環境地図を各平面PL〜PLについて作成する。即ち、図21に示す環境地図511〜513が作成される。
床面PLを移動しているロボット装置1では、先ず図21に示す床面PLの環境地図511に基づき経路計画がなされる。ここで、床面PLの環境地図511においては、段差を有する階段面PL等は障害物領域Aとされるが、階段面PLの環境地図512においては、環境地図511の障害物領域Aのうち一部が平面PLであり、したがって自由空間領域Aとされている。ロボット装置1は、この他の平面として検出されている階段面PLの環境地図512を参照して、環境地図511では障害物領域Aとされている階段面PLへ移動可能と判断することができる。ここで、ロボット装置1は、上述したように、現在ロボット装置が位置する領域(グリッド)から隣接する領域(グリッド)へ移動する際のコストを算出する。床面PLの環境地図のみの場合は、環境地図512にて自由空間領域Aとされる領域は障害物領域Aとされるため、この領域への移動コストが非常に高くなり、ロボット装置1は移動不可と判断してしまうが、このように、環境地図を3次元的に保持しておくことにより、上記領域への移動コストが小さくなり、移動経路となり得る。
なお、階段面PLへ移動可能であると判断する場合には、この階段面PLの床面PLからの高さhを例えば障害物認識部402から受け取り、更に階段面PLがロボット装置1が登ることができる広さを有しているか否かを環境地図512により認識し、これらの情報から、階段面PLへ移動可能であるか否かを判断するものとする。また、ここでは、床面PLより高い平面である階段面PL、PLのみを抽出しているが、基準平面PLより低い平面を抽出した場合には、その段差と、登る動作及び降りる動作に基づいたコスト計算がなされるものとする。また、平面内を移動するコストと、平面間を移動するコストとは異なる値を設定しておくことができる。なお、他の平面における環境地図においても、障害物領域Aである場合は、環境地図を1枚のみ保持している場合と同様、高いコストを設定し、移動不可能と判断させるようにするものとする。
そして、ロボット装置1が階段面PLへ移動可能と判断し、且つ階段面PLを移動経路として選択した場合、この階段面PLへ移動する。ロボット装置1が階段を登るとロボット装置1の脚部が接地している基準平面が階段面PLに移動する。ここで、ロボット装置1は、再び、基準平面PLを抽出し、これに高さ方向が近い2つの平面を抽出する。
基準平面PL=階段面PLの場合には、抽出する平面が階段面PLと、床面PL及び階段面PLとなり、床面PLにて作成した環境地図をそのまま使用することができる。この際、新しく認識された障害物情報等がある場合は、各環境地図511〜513を更新するものとする。
以上の処理を繰り返すことで、ロボット装置1は、階段面PLから順次階段を登り階段面PLへ到達することができる。ロボット装置1が移動可能として選択する基準平面に高さが近い平面(階段面)を、本例の場合は2つの平面を選択するものとしたが、ロボット装置1が階段を登る毎又は降りる毎に変化する。即ち、基準平面が変化する毎に抽出する他の平面も変化する。以下、このことを平面のトラッキングともいう。
こうして階段面PL上に登ったロボット装置1の環境地図更新部403には、図20に示すように、床面PL〜階段面PLまでの環境地図群510が生成されることになる。なお、本例においては、基準平面と、基準平面との高さの差が小さい他の2平面の合計3平面を抽出し、環境地図を構築していくものとしたが、ロボット装置1の移動可能な高さ以内の平面が2以上観測された場合には、これを抽出し、環境地図を構築しておいてもよい。
このように、3次元的に環境地図を保持することにより、平面内のみならず、平面間のコストを算出することができ、これらの値を使用して目的位置までの最小コスト経路を選択することができる。
次に、ロボット装置1が平面間を移動する他の例について説明する。図22(a)及び図22(b)は、ロボット装置が平面間を移動する他の例を示す模式図であって、図22(a)は、段差を有する異なる部屋を移動するロボット装置を示す図、図22(b)は、各部屋の環境地図を示す図である。この例においては、部屋Rは部屋Rに隣接しているものとし、部屋Rは部屋Rの床面PLより高さHだけ高い床面PLを有するものとする。
ロボット装置1は、部屋Rを移動している場合、現在の基準平面は、部屋Rの床面PLとなり、図22(b)に示すように、その環境地図521を有する。ここで、部屋Rの床面PLは、部屋Rの床面PLより高いため、障害物領域Aとされている。そして、部屋Rがロボット装置1の観測範囲内に移動すると、部屋Rの床面PLは、部屋Rの床面PLと平行な平面であるため抽出され環境地図522が作成される。
この部屋Rの床面PLの環境地図522が作成されると、床面PLの環境地図521において障害物領域Aとされ、非常に大きいコストが付されていた床面PLが、環境地図522においては、移動可能な自由空間領域Aとされ、コストが小さくなり、部屋Rへ移動するという新たな経路が生まれる。
このように、環境地図521の1枚のみでは、ロボット装置1は、部屋R内のみしか移動できなかったのに対し、部屋Rの床面PLと平行な平面の床面PLを自動的に認識して環境地図522を作成することで、床面PLから床面PLへの平面間の自律的な移動を可能とし、ロボット装置1の移動可能な範囲を拡大することができる。
以下、本発明の実施の形態における上述したように環境内の複数平面を抽出して3次元的な環境を認識し、平面トラッキングを行って経路計画を実行可能な2足歩行タイプのロボット装置について詳細に説明する。この人間型のロボット装置は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、内部状態(怒り、悲しみ、喜び、楽しみ等)に応じて行動できるほか、人間が行う基本的な動作を表出できるエンターテインメントロボットである。
図23に示すように、ロボット装置1は、体幹部ユニット2の所定の位置に頭部ユニット3が連結されると共に、左右2つの腕部ユニット4R/Lと、左右2つの脚部ユニット5R/Lが連結されて構成されている(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。
このロボット装置1が具備する関節自由度構成を図24に模式的に示す。頭部ユニット3を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。
また、上肢を構成する各々の腕部ユニット4R/Lは、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール軸113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。ただし、手部114の動作は、ロボット装置1の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部は7自由度を有するとする。
また、体幹部ユニット2は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。
また、下肢を構成する各々の脚部ユニット5R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足部121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足部121は、実際には多関節・多自由度の足底を含んだ構造体であるが、ロボット装置1の足底は、ゼロ自由度とする。したがって、各脚部は、6自由度で構成される。
以上を総括すれば、ロボット装置1全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。ただし、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定されるわけではない。設計・制作上の制約条件や要求仕様等に応じて、自由度、即ち関節数を適宜増減することができることはいうまでもない。
上述したようなロボット装置1がもつ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。
図25には、ロボット装置1の制御システム構成を模式的に示している。同図に示すように、ロボット装置1は、ヒトの四肢を表現した体幹部ユニット2,頭部ユニット3,腕部ユニット4R/L,脚部ユニット5R/Lと、各ユニット間の協調動作を実現するための適応制御を行う制御ユニット10とで構成される。
ロボット装置1全体の動作は、制御ユニット10によって統括的に制御される。制御ユニット10は、CPU(Central Processing Unit)や、DRAM、フラッシュROM等の主要回路コンポーネント(図示しない)で構成される主制御部11と、電源回路やロボット装置1の各構成要素とのデータやコマンドの授受を行うインターフェイス(何れも図示しない)などを含んだ周辺回路12とで構成される。
本発明を実現するうえで、この制御ユニット10の設置場所は、特に限定されない。図25では体幹部ユニット2に搭載されているが、頭部ユニット3に搭載してもよい。あるいは、ロボット装置1外に制御ユニット10を配備して、ロボット装置1の機体とは有線又は無線で交信するようにしてもよい。
図24に示したロボット装置1内の各関節自由度は、それぞれに対応するアクチュエータによって実現される。即ち、頭部ユニット3には、首関節ヨー軸101、首関節ピッチ軸102、首関節ロール軸103の各々を表現する首関節ヨー軸アクチュエータA、首関節ピッチ軸アクチュエータA、首関節ロール軸アクチュエータAが配設されている。
また、頭部ユニット3には、外部の状況を撮像するためのCCD(Charge Coupled Device)カメラが設けられているほか、前方に位置する物体までの距離を測定するための距離センサ、外部音を集音するためのマイク、音声を出力するためのスピーカ、使用者からの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するためのタッチセンサ等が配設されている。
また、体幹部ユニット2には、体幹ピッチ軸104、体幹ロール軸105、体幹ヨー軸106の各々を表現する体幹ピッチ軸アクチュエータA、体幹ロール軸アクチュエータA、体幹ヨー軸アクチュエータAが配設されている。また、体幹部ユニット2には、このロボット装置1の起動電源となるバッテリを備えている。このバッテリは、充放電可能な電池によって構成されている。
また、腕部ユニット4R/Lは、上腕ユニット4R/Lと、肘関節ユニット4R/Lと、前腕ユニット4R/Lに細分化されるが、肩関節ピッチ軸107、肩関節ロール軸108、上腕ヨー軸109、肘関節ピッチ軸110、前腕ヨー軸111、手首関節ピッチ軸112、手首関節ロール軸113の各々表現する肩関節ピッチ軸アクチュエータA、肩関節ロール軸アクチュエータA、上腕ヨー軸アクチュエータA10、肘関節ピッチ軸アクチュエータA11、肘関節ロール軸アクチュエータA12、手首関節ピッチ軸アクチュエータA13、手首関節ロール軸アクチュエータA14が配備されている。
また、脚部ユニット5R/Lは、大腿部ユニット5R/Lと、膝ユニット5R/Lと、脛部ユニット5R/Lに細分化されるが、股関節ヨー軸115、股関節ピッチ軸116、股関節ロール軸117、膝関節ピッチ軸118、足首関節ピッチ軸119、足首関節ロール軸120の各々を表現する股関節ヨー軸アクチュエータA16、股関節ピッチ軸アクチュエータA17、股関節ロール軸アクチュエータA18、膝関節ピッチ軸アクチュエータA19、足首関節ピッチ軸アクチュエータA20、足首関節ロール軸アクチュエータA21が配備されている。各関節に用いられるアクチュエータA,A・・・り好ましくは、ギア直結型で旦つサーボ制御系をワンチップ化してモータ・ユニット内に搭載したタイプの小型ACサーボ・アクチュエータで構成することができる。
体幹部ユニット2、頭部ユニット3、各腕部ユニット4R/L、各脚部ユニット5R/Lなどの各機構ユニット毎に、アクチュエータ駆動制御部の副制御部20,21,22R/L,23R/Lが配備されている。さらに、各脚部ユニット5R/Lの足底が着床したか否かを検出する接地確認センサ30R/Lを装着するとともに、体幹部ユニット2内には、姿勢を計測する姿勢センサ31を装備している。
接地確認センサ30R/Lは、例えば足底に設置された近接センサ又はマイクロ・スイッチなどで構成される。また、姿勢センサ31は、例えば、加速度センサとジャイロ・センサの組み合わせによって構成される。
接地確認センサ30R/Lの出力によって、歩行・走行などの動作期間中において、左右の各脚部が現在立脚又は遊脚何れの状態であるかを判別することができる。また、姿勢センサ31の出力により、体幹部分の傾きや姿勢を検出することができる。
主制御部11は、各センサ30R/L,31の出力に応答して制御目標をダイナミックに補正することができる。より具体的には、副制御部20,21,22R/L,23R/Lの各々に対して適応的な制御を行い、ロボット装置1の上肢、体幹、及び下肢が協調して駆動する全身運動パターンを実現できる。
ロボット装置1の機体上での全身運動は、足部運動、ZMP(Zero Moment Point)軌道、体幹運動、上肢運動、腰部高さなどを設定するとともに、これらの設定内容にしたがった動作を指示するコマンドを各副制御部20,21,22R/L,23R/Lに転送する。そして、各々の副制御部20,21,・・・等では、主制御部11からの受信コマンドを解釈して、各アクチュエータA,A・・・等に対して駆動制御信号を出力する。ここでいう「ZMP」とは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、「ZMP軌道」とは、例えばロボット装置1の歩行動作期間中にZMPが動く軌跡を意味する。なお、ZMPの概念並びにZMPを歩行ロボットの安定度判別規範に適用する点については、Miomir Vukobratovic著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩行ロボットと人工の足』(日刊工業新聞社))に記載されている。
以上のように、ロボット装置1は、各々の副制御部20,21,・・・等が、主制御部11からの受信コマンドを解釈して、各アクチュエータA,A・・・に対して駆動制御信号を出力し、各ユニットの駆動を制御している。これにより、ロボット装置1は、目標の姿勢に安定して遷移し、安定した姿勢で歩行できる。
また、ロボット装置1における制御ユニット10では、上述したような姿勢制御のほかに、加速度センサ、タッチセンサ、接地確認センサ等の各種センサ、及びCCDカメラからの画像情報、マイクからの音声情報等を統括して処理している。制御ユニット10では、図示しないが加速度センサ、ジャイロ・センサ、タッチセンサ、距離センサ、マイク、スピーカなどの各種センサ、各アクチュエータ、CCDカメラ及びバッテリが各々対応するハブを介して主制御部11と接続されている。
主制御部11は、上述の各センサから供給されるセンサデータや画像データ及び音声データを順次取り込み、これらをそれぞれ内部インターフェイスを介してDRAM内の所定位置に順次格納する。また、主制御部11は、バッテリから供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM内の所定位置に格納する。DRAMに格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、主制御部11がこのロボット装置1の動作制御を行う際に利用される。
主制御部11は、ロボット装置1の電源が投入された初期時、制御プログラムを読み出し、これをDRAMに格納する。また、主制御部11は、上述のように主制御部11よりDRAMに順次格納される各センサデータ、画像データ、音声データ及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無などを判断する。
さらに、主制御部11は、この判断結果及びDRAMに格納した制御プログラムに基づいて自己の状況に応じて行動を決定するとともに、当該決定結果に基づいて必要なアクチュエータを駆動させることによりロボット装置1に、いわゆる「身振り」、「手振り」といった行動をとらせる。
このようにしてロボット装置1は、制御プログラムに基づいて自己及び周囲の状況を判断し、使用者からの指示及び働きかけに応じて自律的に行動できる。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
本発明の実施の形態におけるロボット装置の概略を示すブロック図である 同ロボット装置のソフトウェアの構成を示す模式図である。 同ロボット装置のソフトウェアの動作を示すフローチャートである。 (a)及び(b)は、それぞれ障害物グリッドの算出方法及び絶対座標の算出方法を示すフローチャートである。 同ロボット装置における複数平面抽出から経路計画を行う処理を機能的に分類した図である。 同ロボット装置が平面抽出する際に使用する視差画像の生成を説明するための図である。 同ロボット装置が入力画像から障害物を認識する方法を示すフローチャートである。 同ロボット装置が平面パラメータを検出する方法を示すフローチャートである。 同ロボット装置が平面パラメータを検出する際のパラメータ空間(θ,φ)(投票空間)のヒストグラムを示すグラフ図である。 (a)は、複数平面検出部が検出する平面パラメータ(θ,Φ)によるヒストグラムを示す模式図、(b)は、検出された平面パラメータが示す複数平面を模式的に示す斜視図である。 同ロボット装置におけるカメラ座標系から足底接地平面座標系への変換処理を説明するための図である。 検出された平面上の測定点を示す図である。 (a)は、同ロボット装置からのロボットビューを示す模式図、(b)は、床面抽出画像を示す模式図、(c)は、(b)を座標変換して平面(2次元)上に障害物かを表現した模式図である。 障害物情報により生成された環境地図上でロボット装置の現在位置から目的位置までの経路を示す模式図である。 (a)は、同ロボット装置が階段を登る様子を示す模式図、(b)はその際生成される環境地図を示す図である。 同ロボット装置における経路計画アルゴリズムを示すフローチャートである。 同ロボット装置において実際に観測された環境地図の一例を示す図である。 同じく、同ロボット装置において実際に観測された環境地図の一例を示す図である。 同じく、同ロボット装置において実際に観測された環境地図の一例を示す図である。 階段を登る動作を行うロボット装置を示す模式図である。 図20に示す階段を登る動作を行うロボット装置が生成する環境地図を示す図である。 (a)及び(b)は、ロボット装置が平面間を移動する他の例を示す模式図であって、(a)は、段差を有する異なる部屋を移動するロボット装置を示す図、(b)は、各部屋の環境地図を示す図である。 本発明の実施の形態におけるロボット装置の概観を示す斜視図である。 同ロボット装置が具備する関節自由度構成を模式的に示す図である。 同ロボット装置の制御システム構成を示す模式図である。
符号の説明
1 ロボット装置、401 複数平面検出部、402 障害物認識部、403 環境地図更新部、404 経路計画部、 A 障害物領域、A 自由空間領域、A 未観測領域、PL,PL〜PL 平面

Claims (24)

  1. 障害物が存在する環境下において移動型のロボット装置が環境を認識するための環境認識装置において、
    入力画像に基づき平面パラメータを算出し、該平面パラメータに基づき平面を検出する平面検出手段と、
    上記平面検出手段により検出された平面上の障害物を認識する障害物認識手段と、
    上記障害物認識手段により認識された障害物情報に基づき環境地図を作成及び/又は更新する環境地図更新手段とを有し、
    上記平面検出手段は、基準となる基準平面と該基準平面と略平行な1以上の他の平面からなる平面群を検出し、
    上記環境地図更新手段は、上記平面群のうち、上記障害物認識手段により障害物が認識された平面の環境地図を作成及び/又は更新する
    ことを特徴とする環境認識装置。
  2. 上記基準平面は、床面である
    ことを特徴とする請求項1記載の環境認識装置。
  3. 上記基準平面は、上記ロボット装置が移動している移動面である
    ことを特徴とする請求項1記載の環境認識装置。
  4. 上記各平面は、上記ロボット装置が移動可能な面積を有する
    ことを特徴とする請求項1記載の環境認識装置。
  5. 上記他の平面は、上記基準平面との高さの差が所定の値以下である平面である
    ことを特徴とする請求項1記載の環境認識装置。
  6. 上記他の平面は、上記ロボット装置の認識範囲内において上記基準平面と高さの差が最も小さい平面を含む
    ことを特徴とする請求項1記載の環境認識装置。
  7. 上記環境地図は、障害物が存在するとされる障害物領域と、移動可能であるとされる自由空間領域と、未観測である未観測領域とを有する
    ことを特徴とする請求項1記載の環境認識装置。
  8. 上記平面検出手段は、上記入力画像として入力される視差画像又は距離画像から変換された3次元データ群から3点以上の3次元データをサンプリングし、上記3次元データによって決まる1つの平面を示す平面パラメータを複数算出する平面算出手段と、上記平面算出手段から得られた複数の平面パラメータを投票空間に投票し該投票結果に基づき上記平面群を決定する平面決定手段とを有する
    ことを特徴とする請求項1記載の環境認識装置。
  9. 上記ロボット装置に設けた複数の撮像手段から得られた画像データに基づき算出された視差画像と、該複数の撮像手段が配設された位置における上記視差画像に対応する同次変換行列と、を用いて距離画像を生成する距離画像生成手段を有し、
    上記平面検出手段は、上記距離画像に基づき上記平面パラメータを算出する
    ことを特徴とする請求項1記載の環境認識装置。
  10. 上記障害物認識手段は、上記平面群のうち、少なくとも上記移動面上の障害物を認識し、
    上記環境地図更新手段は、上記移動面の環境地図を作成及び/又は更新する
    ことを特徴とする請求項2記載の環境認識装置。
  11. 障害物が存在する環境下において移動型のロボット装置が環境を認識するための環境認識方法において、
    入力画像に基づき平面パラメータを算出し、該平面パラメータに基づき平面を検出する平面検出工程と、
    上記平面検出工程にて検出された平面上の障害物を認識する障害物認識工程と、
    上記障害物認識工程にて認識された障害物情報に基づき環境地図を作成及び/又は更新する環境地図更新工程とを有し、
    上記平面検出工程では、基準となる基準平面と該基準平面と略平行な1以上の他の平面からなる平面群を検出し、
    上記環境地図更新工程では、上記平面群のうち、上記障害物認識工程にて障害物が認識された平面の環境地図を作成及び/又は更新する
    ことを特徴とする環境認識方法。
  12. 上記基準平面は、床面である
    ことを特徴とする請求項11記載の環境認識方法。
  13. 上記基準平面は、上記ロボット装置が移動している移動面である
    ことを特徴とする請求項11記載の環境認識方法。
  14. 上記各平面は、上記ロボット装置が移動可能な面積を有する
    ことを特徴とする請求項11記載の環境認識方法。
  15. 上記他の平面は、上記基準平面との高さの差が所定の値以下である平面である
    ことを特徴とする請求項10記載の環境認識方法。
  16. 上記他の平面は、上記ロボット装置の認識範囲内において上記基準平面と高さの差が最も小さい平面を含む
    ことを特徴とする請求項11記載の環境認識方法。
  17. 障害物が存在する環境下において移動型のロボット装置が現在位置から目的位置まで移動するための経路を計画する経路計画装置において、
    入力画像に基づき平面パラメータを算出し、該平面パラメータに基づき基準となる基準平面と該基準平面と略平行な1以上の他の平面からなる平面群を検出する平面検出手段と、
    上記平面検出手段により検出された平面群における各平面上の障害物を認識する障害物認識手段と、
    上記障害物認識手段により認識された障害物情報に基づき上記平面群の各平面に対応する環境地図群を作成及び/又は更新する環境地図更新手段と、
    上記環境地図更新手段により作成及び/又は更新された上記環境地図群に基づき上記ロボット装置の移動経路を計画する経路計画手段とを有する
    ことを特徴とする経路計画装置。
  18. 上記経路計画手段は、各環境地図を所定の領域に区切り、上記ロボット装置の現在位置から移動可能とされる各領域毎に該各領域に移動する際のコストを算出し、コスト算出結果に基づき移動経路を計画する
    ことを特徴とする請求項17記載の経路計画装置。
  19. 上記環境地図は、障害物が存在するとされる障害物領域と、移動可能であるとされる自由空間領域と、未観測である未観測領域とを有し、
    上記経路計画手段は、現在移動中の平面に対応する環境地図である第1の環境地図上に上記障害物領域が含まれる場合、上記現在移動中の平面とは異なる平面に対応する環境地図である第2の環境地図を参照し、当該障害物領域が該第2の環境地図上で自由空間領域である場合は、当該障害物領域を移動可能領域とみなす
    ことを特徴とする請求項17記載の経路計画装置。
  20. 障害物が存在する環境下において移動型のロボット装置が現在位置から目的位置まで移動するための経路を計画する経路計画方法において、
    入力画像に基づき平面パラメータを算出し、該平面パラメータに基づき基準となる基準平面と該基準平面と略平行な1以上の他の平面からなる平面群を検出する平面検出工程と、
    上記平面検出工程にて検出された平面群における各平面上の障害物を認識する障害物認識工程と、
    上記障害物認識工程にて認識された障害物情報に基づき上記平面群の各平面に対応する環境地図群を作成及び/又は更新する環境地図更新工程と、
    上記環境地図更新工程にて作成及び/又は更新された上記環境地図群に基づき上記ロボット装置の移動経路を計画する経路計画工程とを有する
    ことを特徴とする経路計画方法。
  21. 上記経路計画工程では、各環境地図を所定の領域に区切り、上記ロボット装置の現在位置から移動可能とされる各領域毎に該各領域に移動する際のコストを算出し、コスト算出結果に基づき移動経路を計画する
    ことを特徴とする請求項20記載の経路計画方法。
  22. 上記環境地図は、障害物が存在するとされる障害物領域と、移動可能であるとされる自由空間領域と、未観測である未観測領域とを有し、
    上記経路計画工程では、現在移動中の平面に対応する環境地図である第1の環境地図上に上記障害物領域が含まれる場合、上記現在移動中の平面とは異なる平面に対応する環境地図である第2の環境地図を参照し、当該障害物領域が該第2の環境地図上で自由空間領域である場合は、当該障害物領域を移動可能領域とみなす
    ことを特徴とする請求項20記載の経路計画方法。
  23. 障害物が存在する環境下で自律的に移動可能なロボット装置において、
    上記環境を認識するための環境認識装置を有し、
    上記環境認識装置は、
    入力画像に基づき平面パラメータを算出し、該平面パラメータに基づき平面を検出する平面検出手段と、
    上記平面検出手段により検出された平面上の障害物を認識する障害物認識手段と、
    上記障害物認識手段からの障害物情報に基づき環境地図を作成及び/又は更新する環境地図更新手段とを有し、
    上記平面検出手段は、基準となる基準平面と該基準平面と略平行な1以上の他の平面からなる平面群を検出し、
    上記環境地図更新手段は、上記平面群のうち、上記障害物認識手段により障害物が認識された平面の環境地図を作成及び/又は更新する
    ことを特徴とするロボット装置。
  24. 障害物が存在する環境下にて現在位置から目的位置まで移動するための経路を自律的に計画して移動するロボット装置において、
    上記環境を認識して移動経路を計画する経路計画装置を有し、
    上記経路計画装置は、
    入力画像に基づき平面パラメータを算出し、該平面パラメータに基づき基準となる基準平面と該基準平面と略平行な1以上の他の平面からなる平面群を検出する平面検出手段と、
    上記平面検出手段により検出された平面群における各平面上の障害物を認識する障害物認識手段と、
    上記障害物認識手段により認識された障害物情報に基づき上記平面群の各平面に対応する環境地図群を作成及び/又は更新する環境地図更新手段と、
    上記環境地図更新手段により作成及び/又は更新された上記環境地図群に基づき上記ロボット装置の移動経路を計画する経路計画手段とを有する
    ことを特徴とするロボット装置。
JP2003329129A 2003-09-19 2003-09-19 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置 Expired - Fee Related JP3994950B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2003329129A JP3994950B2 (ja) 2003-09-19 2003-09-19 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
US10/941,813 US7865267B2 (en) 2003-09-19 2004-09-16 Environment recognizing device, environment recognizing method, route planning device, route planning method and robot
CNB2004101005189A CN100339871C (zh) 2003-09-19 2004-09-17 环境识别设备及方法、路径规划设备及方法以及机器人
KR1020040074645A KR101121763B1 (ko) 2003-09-19 2004-09-17 환경 인식 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003329129A JP3994950B2 (ja) 2003-09-19 2003-09-19 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置

Publications (2)

Publication Number Publication Date
JP2005092820A true JP2005092820A (ja) 2005-04-07
JP3994950B2 JP3994950B2 (ja) 2007-10-24

Family

ID=34458461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003329129A Expired - Fee Related JP3994950B2 (ja) 2003-09-19 2003-09-19 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置

Country Status (4)

Country Link
US (1) US7865267B2 (ja)
JP (1) JP3994950B2 (ja)
KR (1) KR101121763B1 (ja)
CN (1) CN100339871C (ja)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005326944A (ja) * 2004-05-12 2005-11-24 Hitachi Ltd レーザー計測により地図画像を生成する装置及び方法
JP2007199965A (ja) * 2006-01-25 2007-08-09 Matsushita Electric Works Ltd 自律移動装置
WO2008099652A1 (ja) 2007-02-13 2008-08-21 Toyota Jidosha Kabushiki Kaisha 環境地図の生成方法及び移動ロボット
JP2009223628A (ja) * 2008-03-17 2009-10-01 Toyota Motor Corp 移動ロボット及び環境地図生成方法
JP2010044393A (ja) * 2008-07-25 2010-02-25 Navteq North America Llc コストベースの公開エリア地図
DE112008001884T5 (de) 2007-07-17 2010-06-10 Toyota Jidosha Kabushiki Kaisha Bahnplanungsvorrichtung, Bahnplanungsverfahren und sich bewegender Körper
JP2010131751A (ja) * 2010-03-15 2010-06-17 Toyota Motor Corp 移動型ロボット
JP2010160785A (ja) * 2008-12-12 2010-07-22 Panasonic Corp 画像処理装置及び画像処理方法
CN101852609A (zh) * 2010-06-02 2010-10-06 北京理工大学 一种基于机器人双目立体视觉的地面障碍物检测方法
CN101387888B (zh) * 2008-09-27 2010-12-15 江南大学 基于二进制量子粒子群算法的移动机器人路径规划方法
EP2314428A1 (en) 2006-02-17 2011-04-27 Toyota Jidosha Kabushiki Kaisha Movable robot
JP2011530706A (ja) * 2008-08-12 2011-12-22 アイイーイー インターナショナル エレクトロニクス アンド エンジニアリング エス.エイ. 3d−tofカメラ装置及びそのための位置・向き較正方法
KR101121763B1 (ko) * 2003-09-19 2012-03-23 소니 주식회사 환경 인식 장치 및 방법
CN102929279A (zh) * 2012-11-07 2013-02-13 无锡普智联科高新技术有限公司 基于三维空间密集存储区域的多机器人路径规划方法
WO2013024882A1 (en) * 2011-08-18 2013-02-21 Ricoh Company, Ltd. Image processing apparatus, projector and projector system including image processing apparatus, image processing method
JP2013041167A (ja) * 2011-08-18 2013-02-28 Ricoh Co Ltd 画像処理装置、プロジェクタ、プロジェクタシステム、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
US8594930B2 (en) 2008-07-25 2013-11-26 Navteq B.V. Open area maps
US8825387B2 (en) 2008-07-25 2014-09-02 Navteq B.V. Positioning open area maps
CN104516350A (zh) * 2013-09-26 2015-04-15 沈阳工业大学 一种复杂环境中的移动机器人路径规划方法
JP2015093188A (ja) * 2013-11-08 2015-05-18 三星電子株式会社Samsung Electronics Co.,Ltd. 歩行補助ロボット及び歩行補助ロボットの制御方法
CN104685432A (zh) * 2012-05-01 2015-06-03 5D机器人公司 分布式定位和协作行为测定
JP2015170127A (ja) * 2014-03-06 2015-09-28 トヨタ自動車株式会社 自律移動ロボット、及びその制御方法
WO2016013095A1 (ja) * 2014-07-25 2016-01-28 株式会社日立製作所 自律移動装置
CN105303949A (zh) * 2015-11-30 2016-02-03 中国矿业大学 一种基于煤矿巷道的机器人视觉实验环境系统
WO2017029886A1 (ja) * 2015-08-20 2017-02-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US9655805B2 (en) 2014-01-15 2017-05-23 Samsung Electronics Co., Ltd. Walking assist robot and control method thereof
WO2018179659A1 (ja) * 2017-03-28 2018-10-04 株式会社日立産機システム 地図作成システム
JP2018163614A (ja) * 2017-03-27 2018-10-18 カシオ計算機株式会社 自律移動装置、自律移動方法およびプログラム
WO2019092937A1 (ja) * 2017-11-13 2019-05-16 株式会社日立産機システム クレーンシステム、および、クレーンの制御方法
WO2019215997A1 (ja) 2018-05-10 2019-11-14 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び床面モデリングシステム
JPWO2019171916A1 (ja) * 2018-03-05 2021-02-04 日本電気株式会社 ロボット管理システム、ロボット管理方法、情報処理装置、情報処理方法および情報処理プログラム
WO2021079794A1 (ja) * 2019-10-25 2021-04-29 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよび飛行体
DE112020004872T5 (de) 2019-10-10 2022-08-04 Sony Group Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
WO2022202056A1 (ja) * 2021-03-22 2022-09-29 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP2022548743A (ja) * 2019-09-20 2022-11-21 杭州海康机器人股▲ふん▼有限公司 移動ロボットの障害物情報感知方法、装置
WO2023157235A1 (ja) * 2022-02-18 2023-08-24 日本電気株式会社 計算装置

Families Citing this family (128)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3945279B2 (ja) * 2002-03-15 2007-07-18 ソニー株式会社 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
WO2005088244A1 (ja) * 2004-03-17 2005-09-22 Sony Corporation 平面検出装置、平面検出方法、及び平面検出装置を搭載したロボット装置
JP4479372B2 (ja) * 2004-06-25 2010-06-09 ソニー株式会社 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置
JP3752251B2 (ja) * 2004-07-01 2006-03-08 シャープ株式会社 自走式移動車
US11835343B1 (en) * 2004-08-06 2023-12-05 AI Incorporated Method for constructing a map while performing work
KR100673087B1 (ko) * 2005-01-21 2007-01-22 (주) 시리우스 로봇용 사물인식시스템
JP2006239844A (ja) * 2005-03-04 2006-09-14 Sony Corp 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置
US7627423B2 (en) * 2005-03-10 2009-12-01 Wright Ventures, Llc Route based on distance
US7266477B2 (en) 2005-06-22 2007-09-04 Deere & Company Method and system for sensor signal fusion
KR100843085B1 (ko) * 2006-06-20 2008-07-02 삼성전자주식회사 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치
JP4961860B2 (ja) * 2006-06-27 2012-06-27 トヨタ自動車株式会社 ロボット装置及びロボット装置の制御方法
CN100449444C (zh) * 2006-09-29 2009-01-07 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
GB2442776A (en) * 2006-10-11 2008-04-16 Autoliv Dev Object detection arrangement and positioning system for analysing the surroundings of a vehicle
KR100823739B1 (ko) 2006-12-08 2008-04-21 한국전자통신연구원 주변 환경 변화에 신속하게 적응하여 환경 지도를 작성할수 있는 이동체의 환경 지도 작성 장치 및 그 방법
US7974460B2 (en) * 2007-02-06 2011-07-05 Honeywell International Inc. Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles
CN101033971B (zh) * 2007-02-09 2011-02-16 中国科学院合肥物质科学研究院 一种移动机器人地图创建系统及地图创建方法
DE102007008903A1 (de) * 2007-02-23 2008-08-28 Abb Technology Ag Einrichtung zum Steuern eines Roboters
US8116519B2 (en) * 2007-09-26 2012-02-14 Honda Motor Co., Ltd. 3D beverage container localizer
US9651388B1 (en) * 2007-10-25 2017-05-16 Rockwell Collins, Inc. System and method for improved simultaneous localization and mapping
WO2009067458A1 (en) * 2007-11-21 2009-05-28 Honda Motor Co., Ltd. Learning capture points for humanoid push recovery
KR100934904B1 (ko) * 2007-12-28 2010-01-06 재단법인대구경북과학기술원 거리 추정 장치 및 추정 방법
CN101581936B (zh) * 2008-05-16 2012-01-25 深圳富泰宏精密工业有限公司 利用手机控制两足式机器人的系统及方法
US8265425B2 (en) * 2008-05-20 2012-09-11 Honda Motor Co., Ltd. Rectangular table detection using hybrid RGB and depth camera sensors
KR101009940B1 (ko) * 2008-05-30 2011-01-20 최진원 지능형 공간인지 방법 및 시스템
JP4615038B2 (ja) * 2008-06-23 2011-01-19 日立オートモティブシステムズ株式会社 画像処理装置
KR101495333B1 (ko) * 2008-07-02 2015-02-25 삼성전자 주식회사 장애물 검출 장치 및 방법
US8374780B2 (en) * 2008-07-25 2013-02-12 Navteq B.V. Open area maps with restriction content
US8417446B2 (en) * 2008-07-25 2013-04-09 Navteq B.V. Link-node maps based on open area maps
US20100021013A1 (en) * 2008-07-25 2010-01-28 Gale William N Open area maps with guidance
US8229176B2 (en) * 2008-07-25 2012-07-24 Navteq B.V. End user image open area maps
US8339417B2 (en) * 2008-07-25 2012-12-25 Navteq B.V. Open area maps based on vector graphics format images
US8705792B2 (en) * 2008-08-06 2014-04-22 Toyota Motor Engineering & Manufacturing North America, Inc. Object tracking using linear features
CN101650189B (zh) * 2008-08-14 2012-07-04 恩斯迈电子(深圳)有限公司 行走路径规划方法与避开动态障碍物的导航方法
WO2010038353A1 (ja) * 2008-10-01 2010-04-08 村田機械株式会社 自律移動装置
CN101436300B (zh) * 2008-12-10 2012-10-31 东软集团股份有限公司 障碍物分割方法及装置
US8108148B2 (en) * 2009-02-27 2012-01-31 Toyota Motor Engineering & Manufacturing, North America, Inc. Method and system for mapping environments containing dynamic obstacles
JP5216690B2 (ja) * 2009-06-01 2013-06-19 株式会社日立製作所 ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム
KR101619076B1 (ko) * 2009-08-25 2016-05-10 삼성전자 주식회사 모바일 플랫폼의 동적 물체 검출 및 추적 방법
KR101123836B1 (ko) * 2009-09-28 2012-03-16 버츄얼빌더스 주식회사 어반 컴퓨팅 방법, 어반 컴퓨팅에서의 경로 탐색 방법, 및 어반 컴퓨팅 장치
JP2011209019A (ja) * 2010-03-29 2011-10-20 Sony Corp ロボット装置及びロボット装置の制御方法
KR101145820B1 (ko) * 2010-04-08 2012-05-16 버츄얼빌더스 주식회사 공간분석 방법 및 그 시스템
DE102010017689A1 (de) * 2010-07-01 2012-01-05 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Gerät sowie Verfahren zur Orientierung eines solchen Gerätes
CN101968357B (zh) * 2010-09-21 2012-02-22 北京交通大学 一种从二维图像序列检测平面区域的方法
KR101706092B1 (ko) * 2010-09-29 2017-02-14 삼성전자주식회사 3차원 물체 추적 방법 및 장치
JP5452442B2 (ja) * 2010-10-25 2014-03-26 株式会社日立製作所 ロボットシステム及び地図更新方法
TWI421707B (zh) * 2010-11-10 2014-01-01 Univ Nat Taiwan 行人空間行為學習系統及其方法
CN102802884B (zh) * 2010-11-12 2015-04-08 松下电器产业株式会社 移动路径搜索装置及移动路径搜索方法
CN101996516A (zh) * 2010-11-22 2011-03-30 南京信息工程大学 基于矢量法的路径规划预处理方法
KR101761313B1 (ko) * 2010-12-06 2017-07-25 삼성전자주식회사 로봇 및 로봇의 경로생성방법
KR101306286B1 (ko) * 2010-12-17 2013-09-09 주식회사 팬택 X-레이 뷰 기반의 증강 현실 제공 장치 및 방법
US9429438B2 (en) * 2010-12-23 2016-08-30 Blackberry Limited Updating map data from camera images
DE102011003064A1 (de) * 2010-12-29 2012-07-05 Robert Bosch Gmbh Verfahren zur Bearbeitung einer Fläche mittels eines Roboter-Fahrzeugs
JP2013022705A (ja) * 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
US8799201B2 (en) 2011-07-25 2014-08-05 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for tracking objects
US20130060461A1 (en) * 2011-09-07 2013-03-07 INRO Technologies Limited Method and apparatus for using pre-positioned objects to localize an industrial vehicle
JP5959899B2 (ja) * 2012-03-30 2016-08-02 本田技研工業株式会社 接触状態推定装置
CN102785244A (zh) * 2012-07-20 2012-11-21 浙江工业大学 一种多轴伺服机械手空间圆弧规划控制方法
TWI496090B (zh) * 2012-09-05 2015-08-11 Ind Tech Res Inst 使用深度影像的物件定位方法與裝置
WO2014084832A2 (en) * 2012-11-29 2014-06-05 United Technologies Corporation Comfort estimation and incentive design for energy efficiency
WO2015024407A1 (zh) * 2013-08-19 2015-02-26 国家电网公司 基于电力机器人的双目视觉导航系统及方法
CN104423381B (zh) * 2013-08-30 2017-09-29 联想(北京)有限公司 一种电子设备及其保护方法
CN103699136B (zh) * 2014-01-14 2016-08-31 河海大学常州校区 基于蛙跳算法的智能家庭服务机器人系统及服务方法
CN103815826B (zh) * 2014-01-28 2017-02-15 广西科技大学鹿山学院 智能玻璃清洁器及其控制方法
US9358685B2 (en) * 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
EP2952993B1 (en) * 2014-06-05 2018-04-25 Softbank Robotics Europe Method for building a map of probability of one of absence and presence of obstacles for an autonomous robot
CN104063541B (zh) * 2014-06-18 2017-12-01 南京邮电大学 基于分层决策机制的多机器人协作方法
CN104331884B (zh) * 2014-10-29 2017-03-29 上海大学 四触角履带机器人的爬楼梯参数获取系统
CN104552293B (zh) * 2014-11-11 2016-07-06 Abb技术有限公司 用于调节机器人路径的方法和系统
DE102015105211A1 (de) * 2015-04-07 2016-10-13 Vorwerk & Co. Interholding Gmbh Verfahren zur Bearbeitung eines Bodens
US9594377B1 (en) * 2015-05-12 2017-03-14 Google Inc. Auto-height swing adjustment
CN106292654B (zh) * 2015-06-03 2021-05-25 北京京东尚科信息技术有限公司 一种绘制区域地图的方法和装置
KR101734654B1 (ko) * 2015-06-25 2017-05-11 현대자동차주식회사 레이저 스캐너를 이용한 센서 중심 좌표계의 점유 격자 지도를 작성하는 시스템 및 방법
US9886035B1 (en) * 2015-08-17 2018-02-06 X Development Llc Ground plane detection to verify depth sensor status for robot navigation
WO2017045116A1 (en) * 2015-09-15 2017-03-23 SZ DJI Technology Co., Ltd. System and method for supporting smooth target following
WO2017071143A1 (en) * 2015-10-30 2017-05-04 SZ DJI Technology Co., Ltd. Systems and methods for uav path planning and control
JP6703820B2 (ja) * 2015-11-11 2020-06-03 シャープ株式会社 自走式電子機器
JP6558239B2 (ja) * 2015-12-22 2019-08-14 アイシン・エィ・ダブリュ株式会社 自動運転支援システム、自動運転支援方法及びコンピュータプログラム
US9798327B2 (en) 2016-01-08 2017-10-24 King Fahd University Of Petroleum And Minerals Apparatus and method for deploying sensors
US11037320B1 (en) 2016-03-01 2021-06-15 AI Incorporated Method for estimating distance using point measurement and color depth
US10311590B1 (en) * 2016-03-01 2019-06-04 Al Incorporated Method for estimating distance using point measurement and color depth
CN105739500B (zh) * 2016-03-29 2020-06-30 海尔优家智能科技(北京)有限公司 一种智能扫地机器人的交互控制方法及装置
JP6660242B2 (ja) * 2016-04-25 2020-03-11 本田技研工業株式会社 ロボットの制御信号を伝送するための光ファイバ配線構造
US10196104B1 (en) 2016-05-04 2019-02-05 Schaft Inc. Terrain Evaluation for robot locomotion
CN107728609A (zh) * 2016-08-10 2018-02-23 鸿富锦精密电子(天津)有限公司 智能运动控制系统及智能运动控制方法
CN106426190A (zh) * 2016-10-18 2017-02-22 河池学院 一种防碰撞机器人
CN106774301B (zh) * 2016-10-25 2020-04-24 纳恩博(北京)科技有限公司 一种避障跟随方法和电子设备
JP6457469B2 (ja) * 2016-12-08 2019-01-23 ファナック株式会社 移動ロボットの干渉領域設定装置
WO2018108832A1 (en) * 2016-12-14 2018-06-21 Starship Technologies Oü Robot, system and method detecting and/or responding to transitions in height
US10274327B2 (en) 2016-12-29 2019-04-30 Fastzach, Llc Configurable routes
CN108318046B (zh) * 2017-01-18 2020-12-15 华为技术有限公司 路径规划方法和装置
CN106909149B (zh) * 2017-03-14 2020-09-22 深圳蓝因机器人科技有限公司 一种深度摄像头避障的方法及装置
US10293485B2 (en) * 2017-03-30 2019-05-21 Brain Corporation Systems and methods for robotic path planning
CN108931977A (zh) * 2017-06-06 2018-12-04 北京猎户星空科技有限公司 机器人环境建图方法、装置及机器人
CN109425352A (zh) * 2017-08-25 2019-03-05 科沃斯机器人股份有限公司 自移动机器人路径规划方法
CN108733065B (zh) * 2017-09-29 2021-06-04 北京猎户星空科技有限公司 一种机器人的避障方法、装置及机器人
JP7136114B2 (ja) * 2017-10-02 2022-09-13 ソニーグループ株式会社 環境情報更新装置、環境情報更新方法及びプログラム
US10422648B2 (en) * 2017-10-17 2019-09-24 AI Incorporated Methods for finding the perimeter of a place using observed coordinates
US11274929B1 (en) * 2017-10-17 2022-03-15 AI Incorporated Method for constructing a map while performing work
CN107877518B (zh) * 2017-11-27 2020-04-28 国网智能科技股份有限公司 一种巡检机器人及其防坠落方法和装置
CN109895088B (zh) * 2017-12-10 2022-05-31 湖南特辉电力科技有限公司 一种机器人驱动装置
US10638906B2 (en) * 2017-12-15 2020-05-05 Neato Robotics, Inc. Conversion of cleaning robot camera images to floorplan for user interaction
CN108154516B (zh) * 2018-01-30 2020-06-09 北京进化者机器人科技有限公司 面向封闭空间的点云拓扑分割方法及装置
CN108334111A (zh) * 2018-02-11 2018-07-27 中国联合网络通信集团有限公司 搬运机器人的控制装置、系统和方法
CN108582073B (zh) * 2018-05-02 2020-09-15 北京邮电大学 一种基于改进的随机路标地图法的机械臂快速避障方法
CN108692736B (zh) * 2018-05-28 2020-07-07 暗物智能科技(广州)有限公司 一种基于深度学习的智能学步方法及其系统
US11407111B2 (en) 2018-06-27 2022-08-09 Abb Schweiz Ag Method and system to generate a 3D model for a robot scene
CN109015643A (zh) * 2018-08-17 2018-12-18 徐润秋 一种行走机器人行走线路控制方法
US11110603B2 (en) 2018-10-02 2021-09-07 Toyota Research Institute, Inc. Systems and methods for naïve physics for contact and contact-awareness in robotic teleoperation
US11747825B2 (en) 2018-10-12 2023-09-05 Boston Dynamics, Inc. Autonomous map traversal with waypoint matching
US11287826B2 (en) * 2018-10-12 2022-03-29 Boston Dynamics, Inc. Terrain aware step planning system
US11256261B1 (en) * 2018-10-16 2022-02-22 Amazon Technologies, Inc. System for movement of autonomous mobile device
CN109506654B (zh) * 2018-11-14 2020-10-20 飞牛智能科技(南京)有限公司 低空航路规划方法及装置、飞行器
TWI665609B (zh) * 2018-11-14 2019-07-11 財團法人工業技術研究院 住戶行為辨識系統與住戶行為辨識方法
CN109445438B (zh) * 2018-12-05 2022-03-04 英华达(上海)科技有限公司 基于地图分享的巡航装置的巡航控制方法及系统
CN109814564A (zh) * 2019-01-29 2019-05-28 炬星科技(深圳)有限公司 目标对象的检测、避障方法、电子设备及存储介质
CN111568309B (zh) * 2019-02-19 2023-12-05 北京奇虎科技有限公司 防跌落方法、装置、扫地设备及计算机可读存储介质
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
JP2022542807A (ja) 2019-08-06 2022-10-07 ボストン ダイナミクス,インコーポレイテッド 中間ウェイポイント生成器
US11958183B2 (en) 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
CN110812841B (zh) * 2019-11-08 2021-11-02 腾讯科技(深圳)有限公司 虚拟世界中的虚拟表面判断方法、装置、设备及介质
CN110727272B (zh) * 2019-11-11 2023-04-18 广州赛特智能科技有限公司 一种多台机器人的路径规划调度系统及方法
CN111006666B (zh) * 2019-11-21 2021-10-29 深圳市优必选科技股份有限公司 机器人路径规划方法、装置、存储介质和机器人
CN111693421B (zh) * 2020-06-24 2023-02-24 新乡市食品药品检验所 一种无菌室环境检测机器人及检测方法
CN111752279B (zh) * 2020-07-09 2023-09-08 上海有个机器人有限公司 一种机器人多传感器融合自检方法和系统
CN112558599B (zh) * 2020-11-06 2024-04-02 深圳拓邦股份有限公司 机器人工作控制方法、装置及机器人
CN112587378B (zh) * 2020-12-11 2022-06-07 中国科学院深圳先进技术研究院 基于视觉的外骨骼机器人足迹规划系统、方法及存储介质
CN114063614B (zh) * 2021-10-27 2023-07-25 山东科技大学 基于机载单目视觉感知的多小型机器人系统混合队形快速收敛方法
CN114348579A (zh) * 2021-12-31 2022-04-15 深圳云天励飞技术股份有限公司 搬运机器人的控制方法及相关设备

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5979377A (ja) * 1982-10-29 1984-05-08 Hitachi Ltd 階段認識方法およびその装置
JPS60200314A (ja) 1984-03-26 1985-10-09 Hitachi Ltd 移動ロボット誘導方法
JPS60217412A (ja) 1984-04-13 1985-10-31 Hitachi Ltd 移動ロボツトの移動制御装置
US5377106A (en) * 1987-03-24 1994-12-27 Fraunhofer Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Process for navigating an unmanned vehicle and a vehicle for the same
JPH04365104A (ja) 1991-06-13 1992-12-17 Toshiba Corp 最適化経路計画装置及び自律移動ロボット
JP3192736B2 (ja) 1992-02-10 2001-07-30 本田技研工業株式会社 移動体の階段などの認識方法
JP3176701B2 (ja) * 1992-04-15 2001-06-18 本田技研工業株式会社 移動体の現在位置認識処理装置
CN1055772C (zh) * 1995-12-01 2000-08-23 三星电子株式会社 机器人的环境识别装置及其控制方法
US5748199A (en) * 1995-12-20 1998-05-05 Synthonics Incorporated Method and apparatus for converting a two dimensional motion picture into a three dimensional motion picture
KR100242447B1 (ko) * 1997-12-31 2000-04-01 윤종용 로봇 제어를 위한 경로 계획 장치 및 경로 계획 방법
JP4114107B2 (ja) 1998-03-18 2008-07-09 ソニー株式会社 画像処理装置および方法、並びに記録媒体
EP2302594A3 (en) * 1998-11-25 2011-04-06 Wake Forest University Virtual endoscopy with improved image segmentation and lesion detection
JP4409035B2 (ja) 2000-03-22 2010-02-03 本田技研工業株式会社 画像処理装置、特異箇所検出方法、及び特異箇所検出プログラムを記録した記録媒体
WO2002040226A1 (en) * 2000-11-17 2002-05-23 Honda Giken Kogyo Kabushiki Kaisha Biped robot
CN100503179C (zh) * 2001-08-01 2009-06-24 索尼公司 以腿行走的机器人与对其动作的控制方法
KR100941209B1 (ko) * 2001-08-23 2010-02-10 소니 주식회사 로봇 장치, 얼굴 인식 방법 및 얼굴 인식 장치
US6850818B2 (en) * 2001-10-22 2005-02-01 Sony Corporation Robot apparatus and control method thereof
JP3968501B2 (ja) * 2001-11-30 2007-08-29 ソニー株式会社 ロボットの自己位置同定システム及び自己位置同定方法
JP2003256811A (ja) 2002-03-01 2003-09-12 Nippon Telegr & Teleph Corp <Ntt> 3次元情報復元装置、3次元情報復元方法、3次元情報復元方法のプログラムおよびこのプログラムを記録した記録媒体
US6732015B2 (en) * 2002-03-14 2004-05-04 Kabushiki Kaisha Toshiba Robot system
JP3945279B2 (ja) * 2002-03-15 2007-07-18 ソニー株式会社 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
US6999851B2 (en) * 2002-08-30 2006-02-14 Sony Corporation Robot apparatus and motion controlling method therefor
US7072740B2 (en) * 2002-12-16 2006-07-04 Sony Corporation Legged mobile robot
JP3994950B2 (ja) * 2003-09-19 2007-10-24 ソニー株式会社 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101121763B1 (ko) * 2003-09-19 2012-03-23 소니 주식회사 환경 인식 장치 및 방법
JP4533659B2 (ja) * 2004-05-12 2010-09-01 株式会社日立製作所 レーザー計測により地図画像を生成する装置及び方法
JP2005326944A (ja) * 2004-05-12 2005-11-24 Hitachi Ltd レーザー計測により地図画像を生成する装置及び方法
JP2007199965A (ja) * 2006-01-25 2007-08-09 Matsushita Electric Works Ltd 自律移動装置
EP2314428A1 (en) 2006-02-17 2011-04-27 Toyota Jidosha Kabushiki Kaisha Movable robot
EP2314429A1 (en) 2006-02-17 2011-04-27 Toyota Jidosha Kabushiki Kaisha Movable robot
US8010232B2 (en) 2006-02-17 2011-08-30 Toyota Jidosha Kabushiki Kaisha Movable robot
US8234011B2 (en) 2006-02-17 2012-07-31 Toyota Jidosha Kabushiki Kaisha Movable robot
JP2008197884A (ja) * 2007-02-13 2008-08-28 Toyota Motor Corp 環境地図の生成方法及び移動ロボット
US7987021B2 (en) 2007-02-13 2011-07-26 Toyota Jidosha Kabushiki Kaisha Environment map generating method and mobile robot
JP4645601B2 (ja) * 2007-02-13 2011-03-09 トヨタ自動車株式会社 環境地図の生成方法及び移動ロボット
WO2008099652A1 (ja) 2007-02-13 2008-08-21 Toyota Jidosha Kabushiki Kaisha 環境地図の生成方法及び移動ロボット
DE112008001884T5 (de) 2007-07-17 2010-06-10 Toyota Jidosha Kabushiki Kaisha Bahnplanungsvorrichtung, Bahnplanungsverfahren und sich bewegender Körper
JP2009223628A (ja) * 2008-03-17 2009-10-01 Toyota Motor Corp 移動ロボット及び環境地図生成方法
JP2010044393A (ja) * 2008-07-25 2010-02-25 Navteq North America Llc コストベースの公開エリア地図
US8825387B2 (en) 2008-07-25 2014-09-02 Navteq B.V. Positioning open area maps
US8594930B2 (en) 2008-07-25 2013-11-26 Navteq B.V. Open area maps
JP2011530706A (ja) * 2008-08-12 2011-12-22 アイイーイー インターナショナル エレクトロニクス アンド エンジニアリング エス.エイ. 3d−tofカメラ装置及びそのための位置・向き較正方法
CN101387888B (zh) * 2008-09-27 2010-12-15 江南大学 基于二进制量子粒子群算法的移动机器人路径规划方法
JP2010160785A (ja) * 2008-12-12 2010-07-22 Panasonic Corp 画像処理装置及び画像処理方法
JP2010131751A (ja) * 2010-03-15 2010-06-17 Toyota Motor Corp 移動型ロボット
CN101852609A (zh) * 2010-06-02 2010-10-06 北京理工大学 一种基于机器人双目立体视觉的地面障碍物检测方法
WO2013024882A1 (en) * 2011-08-18 2013-02-21 Ricoh Company, Ltd. Image processing apparatus, projector and projector system including image processing apparatus, image processing method
JP2013041167A (ja) * 2011-08-18 2013-02-28 Ricoh Co Ltd 画像処理装置、プロジェクタ、プロジェクタシステム、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
JP2013042411A (ja) * 2011-08-18 2013-02-28 Ricoh Co Ltd 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
US9759548B2 (en) 2011-08-18 2017-09-12 Ricoh Company, Ltd. Image processing apparatus, projector and projector system including image processing apparatus, image processing method
CN104685432A (zh) * 2012-05-01 2015-06-03 5D机器人公司 分布式定位和协作行为测定
CN102929279A (zh) * 2012-11-07 2013-02-13 无锡普智联科高新技术有限公司 基于三维空间密集存储区域的多机器人路径规划方法
CN104516350A (zh) * 2013-09-26 2015-04-15 沈阳工业大学 一种复杂环境中的移动机器人路径规划方法
CN104516350B (zh) * 2013-09-26 2017-03-22 沈阳工业大学 一种复杂环境中的移动机器人路径规划方法
KR102172954B1 (ko) * 2013-11-08 2020-11-02 삼성전자주식회사 보행 보조 로봇 및 보행 보조 로봇의 제어 방법
JP2015093188A (ja) * 2013-11-08 2015-05-18 三星電子株式会社Samsung Electronics Co.,Ltd. 歩行補助ロボット及び歩行補助ロボットの制御方法
KR20150053854A (ko) * 2013-11-08 2015-05-19 삼성전자주식회사 보행 보조 로봇 및 보행 보조 로봇의 제어 방법
US9655805B2 (en) 2014-01-15 2017-05-23 Samsung Electronics Co., Ltd. Walking assist robot and control method thereof
JP2015170127A (ja) * 2014-03-06 2015-09-28 トヨタ自動車株式会社 自律移動ロボット、及びその制御方法
US10156847B2 (en) 2014-07-25 2018-12-18 Hitachi, Ltd. Autonomous moving device
WO2016013095A1 (ja) * 2014-07-25 2016-01-28 株式会社日立製作所 自律移動装置
JPWO2016013095A1 (ja) * 2014-07-25 2017-04-27 株式会社日立製作所 自律移動装置
WO2017029886A1 (ja) * 2015-08-20 2017-02-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN105303949A (zh) * 2015-11-30 2016-02-03 中国矿业大学 一种基于煤矿巷道的机器人视觉实验环境系统
JP2018163614A (ja) * 2017-03-27 2018-10-18 カシオ計算機株式会社 自律移動装置、自律移動方法およびプログラム
WO2018179659A1 (ja) * 2017-03-28 2018-10-04 株式会社日立産機システム 地図作成システム
WO2019092937A1 (ja) * 2017-11-13 2019-05-16 株式会社日立産機システム クレーンシステム、および、クレーンの制御方法
JP2019089612A (ja) * 2017-11-13 2019-06-13 株式会社日立産機システム クレーンシステム、および、クレーンの制御方法
JP7025896B2 (ja) 2017-11-13 2022-02-25 株式会社日立産機システム クレーンシステム、および、クレーンの制御方法
JPWO2019171916A1 (ja) * 2018-03-05 2021-02-04 日本電気株式会社 ロボット管理システム、ロボット管理方法、情報処理装置、情報処理方法および情報処理プログラム
WO2019215997A1 (ja) 2018-05-10 2019-11-14 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び床面モデリングシステム
US11372475B2 (en) 2018-05-10 2022-06-28 Sony Corporation Information processing apparatus, information processing method, and floor modeling system
JP2022548743A (ja) * 2019-09-20 2022-11-21 杭州海康机器人股▲ふん▼有限公司 移動ロボットの障害物情報感知方法、装置
JP7314411B2 (ja) 2019-09-20 2023-07-25 杭州海康机器人股▲ふん▼有限公司 移動ロボットの障害物情報感知方法、装置
DE112020004872T5 (de) 2019-10-10 2022-08-04 Sony Group Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
WO2021079794A1 (ja) * 2019-10-25 2021-04-29 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよび飛行体
US11854210B2 (en) 2019-10-25 2023-12-26 Sony Group Corporation Information processing apparatus, information processing method, program, and flight object
WO2022202056A1 (ja) * 2021-03-22 2022-09-29 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2023157235A1 (ja) * 2022-02-18 2023-08-24 日本電気株式会社 計算装置

Also Published As

Publication number Publication date
KR20050028859A (ko) 2005-03-23
US20050131581A1 (en) 2005-06-16
JP3994950B2 (ja) 2007-10-24
CN1617170A (zh) 2005-05-18
CN100339871C (zh) 2007-09-26
KR101121763B1 (ko) 2012-03-23
US7865267B2 (en) 2011-01-04

Similar Documents

Publication Publication Date Title
JP3994950B2 (ja) 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
US7386163B2 (en) Obstacle recognition apparatus and method, obstacle recognition program, and mobile robot apparatus
KR101913332B1 (ko) 이동 장치 및 이동 장치의 위치 인식 방법
JP4636016B2 (ja) 平面検出装置、平面検出方法、及び平面検出装置を搭載したロボット装置
WO2019138836A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP4479372B2 (ja) 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置
US7769491B2 (en) Obstacle avoiding apparatus, obstacle avoiding method, obstacle avoiding program, and mobile robot apparatus
US20040230340A1 (en) Behavior controlling apparatus, behavior control method, behavior control program and mobile robot apparatus
EP1541295A1 (en) Environment identification device, environment identification method, and robot device
JP4016180B2 (ja) 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置
JP2003266345A (ja) 経路計画装置、経路計画方法及び経路計画プログラム並びに移動型ロボット装置
EP2590042A1 (en) Mobile apparatus performing position recognition using several local filters and a fusion filter
JP4535096B2 (ja) 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置
JP2007041656A (ja) 移動体制御方法および移動体
JP2004110802A (ja) 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置
Zhang et al. An indoor navigation aid for the visually impaired
Wahrmann et al. Vision-based 3d modeling of unknown dynamic environments for real-time humanoid navigation
JP2003266349A (ja) 位置認識方法、その装置、そのプログラム、その記録媒体及び位置認識装置搭載型ロボット装置
Chignoli et al. Rapid and reliable quadruped motion planning with omnidirectional jumping
JP2007041657A (ja) 移動体制御方法および移動体
JP4449410B2 (ja) ロボット装置及びその物体学習方法
JP2007219645A (ja) データ処理方法、データ処理装置およびプログラム
JP7354528B2 (ja) 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム
JP2003346150A (ja) 床面認識装置及び床面認識方法並びにロボット装置
Belter et al. On-Board Perception and Motion Planning for Legged Locomotion over Rough Terrain.

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070723

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 3994950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130810

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees