JP2004326264A - 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム - Google Patents
障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム Download PDFInfo
- Publication number
- JP2004326264A JP2004326264A JP2003117480A JP2003117480A JP2004326264A JP 2004326264 A JP2004326264 A JP 2004326264A JP 2003117480 A JP2003117480 A JP 2003117480A JP 2003117480 A JP2003117480 A JP 2003117480A JP 2004326264 A JP2004326264 A JP 2004326264A
- Authority
- JP
- Japan
- Prior art keywords
- obstacle
- environment
- data
- candidate
- fixed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000012545 processing Methods 0.000 claims abstract description 49
- 238000001514 detection method Methods 0.000 claims description 80
- 238000005259 measurement Methods 0.000 claims description 62
- 238000012544 monitoring process Methods 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 4
- 230000001502 supplementing effect Effects 0.000 claims description 2
- 230000007613 environmental effect Effects 0.000 abstract description 8
- 210000002414 leg Anatomy 0.000 description 20
- 239000010410 layer Substances 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 238000013517 stratification Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 210000003127 knee Anatomy 0.000 description 7
- 210000000689 upper leg Anatomy 0.000 description 7
- 230000007423 decrease Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000037237 body shape Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011295 pitch Substances 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
【解決手段】3次元座標計測手段3により計測した障害物物体表面の3次元座標から、環境固定障害物識別手段18により鉛直方向に所定の大きさ以上に連続した面を環境固定障害物の面に対応づけて認識した環境固定障害物を除いて識別対象を単純化し、その後、障害物候補抽出手段12により個別の障害物候補を抽出する。障害物識別手段14において、障害物候補の3次元座標データを鉛直高さ方向に層別して特徴量組合せデータを形成し、基準データ記憶部16に記憶している障害物モデルの組合せ基準データと比較して障害物の識別を行う。障害物認識処理を、環境固定物とその他の物体とに分けて、段階的に、かつ対象データの単純化をしながら行うことができ、効率よく的確に障害物を識別できる。
【選択図】 図19
Description
【発明の属する技術分野】
本発明は、例えば廊下などを自律して移動する移動体において、人や壁などの障害物回避や移動速度調整などの移動体の走行制御、走行経路周辺の走行環境地図の生成を可能とするための障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラムに関する。
【0002】
【従来の技術】
従来、自ら走行経路の環境を把握して目的地へと移動する自律搬送車や自律移動ロボットなどの移動体が知られている。これらの移動体が移動する場合、走行環境周辺を計測して障害物を検出することが必要であり、より詳細に移動体の走行制御や走行環境地図の生成を行うためには、検出した障害物の種類を識別することが必要である。障害物識別処理は移動中にリアルタイムで行われるので、高速に実行される必要がある。走行環境の状態と進路が決まっている場合は、進路内にある障害物を高速に信頼性高く認識することが課題となり、走行環境の状態と進路が決まっていない場合は、建物部分などの固定的環境物を認識するとともに、進路内の障害物を高速に信頼性高く認識して進路を決定することが課題となる。
【0003】
走行経路上の障害物を検出する方法として、前方視野内の物体表面の3次元計測データを走行平面に投影して得たヒストグラムから、障害物を検出して障害物マップを生成する障害物検出方法が知られている(例えば、特許文献1参照)。また、障害物の識別を行う方法として、3次元計測データから求めた形状を用いて移動車両の前方に存在する物体が車両であるか否かを識別する車両用障害物認識装置が知られている(例えば、特許文献2参照)。
【0004】
【特許文献1】
特開2001−242934号公報
【特許文献2】
特開平11−38142号公報
【0005】
【発明が解決しようとする課題】
しかしながら、上述した特許文献1に示されるような障害物検出方法においては、障害物の存在を検出するのみにとどまっており、障害物の種別を識別するには至っていない。そのため、移動体は障害物を回避することはできるが、例えば人のように動きの予測が難しい障害物であるか、環境に固定された障害物であるかなどの障害物の種別に応じて、きめ細かい走行制御を行うことができない。また、上述した特許文献2に示されるような車両用障害物認識装置においては、車両を認識対象としているため、車両以外の物体の識別を行うには十分とは言えない。この装置においても、移動体は障害物を回避することはできるが、障害物の種別に応じたきめ細かい走行制御を行うことができない。
【0006】
本発明は、上記課題を解消するものであって、建物内を移動する移動体において、人を含む障害物の回避や移動速度調整などの移動体の走行制御、走行経路周辺の走行環境地図の生成を可能とするため、人や壁などの障害物の識別を実現できる障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラムを提供することを目的とする。
【0007】
【課題を解決するための手段及び発明の効果】
上記課題を達成するために、請求項1の発明は、建物内の監視空間に存在する物体の表面の3次元座標を鉛直高さ方向をY方向、走行方向をZ方向として定義されるXYZ直交座標系において計測する3次元座標計測手段と、計測した物体表面の3次元座標より個別の障害物候補を抽出する障害物候補抽出手段と、抽出した障害物候補が存在する空間の3次元座標データを切り出して、Y方向に層別し、障害物候補のY方向層別形状特徴量から特徴量組合せデータを形成し、予め設定された障害物モデルのY方向層別形状特徴量からなる組合せ基準データと比較し、類似度が規定範囲にあれば障害物候補をこの障害物モデルに対応づけて識別する障害物識別手段とを備えた障害物検出装置である。
【0008】
上記構成においては、3次元座標計測手段により計測した障害物物体表面の3次元座標から、障害物候補抽出手段により個別の障害物候補を抽出し、障害物識別手段により、障害物候補の3次元座標データを鉛直高さ方向に層別して特徴量組合せデータを形成し、予め設定された障害物モデルの組合せ基準データと比較するので、障害物モデルに基づいて障害物候補の識別を確実に行うことができる。また、移動する障害物は主に床平面(上記XZ平面)に沿って移動するため鉛直方向(Y方向)にはほとんど動かないので、Y方向に層別して得たデータの比較により効率よく的確に障害物を識別できる。
【0009】
請求項2の発明は、建物内の監視空間に存在する物体の表面の3次元座標を鉛直高さ方向をY方向、走行方向をZ方向として定義されるXYZ直交座標系において計測する3次元座標計測手段と、計測した物体表面が鉛直方向に所定の大きさ以上に連続した面を含む場合に該連続した面を柱、壁、ドアなどの環境に固定された障害物である環境固定障害物の面に対応づけて識別する環境固定障害物識別手段を備えた障害物検出装置である。
【0010】
上記構成においては、3次元座標計測手段により計測した障害物物体表面の3次元座標から、環境固定障害物識別手段により鉛直方向に所定の大きさ以上に連続した面を環境固定障害物の面に対応づけるので、環境固定障害物の識別を確実に行うことができる。屋内環境における主な障害物は、柱や壁、ドアであり、これらは、鉛直方向に連続する面で構成されることが常であるので、その特徴を用いて認識することにより、効率よく的確に障害物を識別できる。
【0011】
請求項3の発明は、建物内の監視空間に存在する物体の表面の3次元座標を鉛直高さ方向をY方向、走行方向をZ方向として定義されるXYZ直交座標系において計測する3次元座標計測手段と、計測した物体表面が鉛直方向に所定の大きさ以上に連続した面を含む場合に該連続した面を柱、壁、ドアなどの環境に固定された障害物である環境固定障害物の面に対応づけて識別する環境固定障害物識別手段と、前記環境固定障害物に対応づけて識別された物体の表面を除いた物体表面の3次元座標より個別の障害物候補を抽出する障害物候補抽出手段と、抽出した障害物候補が存在する空間の3次元座標データを切り出して、Y方向に層別し、障害物候補のY方向層別形状特徴量から特徴量組合せデータを形成し、予め設定された障害物モデルのY方向層別形状特徴量からなる組合せ基準データと比較し、類似度が規定範囲にあれば障害物候補をこの障害物モデルに対応づけて識別する障害物識別手段とを備えた障害物検出装置である。
【0012】
上記構成においては、3次元座標計測手段により計測した障害物物体表面の3次元座標から、環境固定障害物識別手段により鉛直方向に所定の大きさ以上に連続した面を環境固定障害物の面に対応づけて認識した環境固定障害物を除き、その後、障害物候補抽出手段により個別の障害物候補を抽出し、障害物識別手段により、障害物候補の3次元座標データを鉛直高さ方向に層別して特徴量組合せデータを形成し、予め設定された障害物モデルの組合せ基準データと比較するので、障害物認識処理を段階的に、かつ対象データの単純化をしながら行うことができ、効率よく的確に障害物を識別できる。
【0013】
請求項4の発明は、請求項1又は請求項3に記載の障害物検出装置において、前記障害物識別手段は、3次元座標データをY方向及びZ方向に層別して形成される各X方向柱体の形状特徴量から特徴量組合せデータを形成し、予め設定された障害物モデルをY方向及びZ方向に層別して得た各X方向柱体の形状特徴量からなる組合せ基準データと比較して識別するものである。
【0014】
上記構成においては、鉛直方向(Y方向)だけでなく奥行き方向(走行方向、Z方向)についても層別化するので、各X方向柱体について代表的な形状特徴量、例えば、X方向モデル幅の平均値、モデルのX方向両端における各座標値の平均値などを割り当て、その特徴量により障害物識別のためのデータ比較を行えばよく、モデルの凹凸形状を各X方向柱体毎のデータに圧縮した特徴量を用いた効率的な障害物識別ができる。
【0015】
請求項5の発明は、請求項2又は請求項3に記載の障害物検出装置において、前記環境固定障害物識別手段は、計測した物体表面が所定の高さ以上において鉛直方向に所定の大きさ以上に連続した面を含む場合、その物体表面を環境固定障害物の面に対応づけて識別するものである。
【0016】
上記構成においては、所定の高さ以上において環境固定障害物の識別を行うので、床面近傍を含める場合よりもより確実に環境固定障害物の識別を行うことができる。通常、床面付近には、環境固定障害物以外にも多数の固定物及び移動物からなる障害物が混在して計測されるが、天井に近い部分では、環境固定障害物のみが計測される。また、建物の構造は、天井から床まで同一形状のことが多い。これらの観点より、所定の高さ以上、つまり天井に近い部分の特徴に着目して環境固定障害物を確実に認識することにより、その下方にも環境固定障害物が存在すると推定することができるので、環境固定障害物の情報に基づいて環境固定障害物以外についても効率よく的確に障害物の識別ができる。
【0017】
請求項6の発明は、請求項2又は請求項3に記載の障害物検出装置において、環境固定障害物識別手段は、計測した物体表面が天井部に相当する高さ位置から下方に向かう所定の範囲において鉛直方向に所定の長さ以上に連続した面を含む場合、その物体表面を環境固定障害物の面に対応づけて識別するものである。
【0018】
上記構成においては、天井部に相当する物体表面の位置に基づいて環境固定障害物の識別を行うので、柱や壁、ドアなどの環境固定障害物の認識をより確実に行うことができる。天井面は一様な状態の部分が広く、安定して計測される環境固定障害物といえる(床面はもともと平坦で一様であるが各種の介在物が存在する)。このように、天井面から障害物の探索を開始することにより、的確に環境固定障害物の識別ができ、ひいては上述したように、環境固定障害物以外の障害物の識別も容易となる。
【0019】
請求項7の発明は、請求項1、請求項3、又は請求項4のいずれかに記載の障害物検出装置において、前記障害物識別手段によって前記障害物候補が人を含む可能性があると判断されたとき、前記障害物モデルに付帯された人判別データに従い前記障害物候補の3次元座標データを読み出し、その障害物候補が人を含むかどうかを判別する人判別手段をさらに備えたものである。
【0020】
上記構成においては、例えば、予備的な事前の障害物認識処理の結果、障害物候補が人を含む可能性があるとき、人判別手段により人判別データに従い人を含むかどうかを判別するようにしたので、人を含む障害物モデルと照合し、そのモデルに最適な方法で人の存在を判別でき、的確な障害物の識別ができる。
【0021】
請求項8の発明は、請求項1、請求項3、又は請求項4のいずれかに記載の障害物検出装置において、前記組合せ基準データは前記障害物モデルに設定した人の特定部分についての特徴量データを有しており、前記障害物識別手段によって前記障害物候補が人を含む可能性があると判断されたとき、人の特定部分についての特徴量データと障害物候補の特徴量組合せデータを比較し、類似度が規定範囲にあって最も類似する部分を、人の特定部分として抽出するものである。
【0022】
上記構成においては、人の特定部分についての特徴量データに基づいて人の特定部分を抽出するので、人の特徴を表す特定部分に限定して照合することにより、人を含むかどうかの判定を効率よく行うことができる。
【0023】
請求項9の発明は、請求項8に記載の障害物検出装置において、人の特定部分を頭部とするものである。
【0024】
上記構成においては、人の特定部分を頭部としており、頭部は、手・腕等と異なり関節がなく位置・形状の変化がないので、頭部を人を特定する部分とすることにより、人かどうかの識別を効率よく的確にできる。
【0025】
請求項10の発明は、請求項8に記載の障害物検出装置において、人の特定部分を脚部とするものである。
【0026】
上記構成においては、人の特定部分を脚部としており、脚部は、床面に接触またはその近傍にあるので、その位置を特定することが容易である。また、人の姿勢(前向き・後向き)に依らず、形状が変化しないため、脚部を人を特定する部分とすることにより、人かどうかの識別を効率よく的確にできる。
【0027】
請求項11の発明は、請求項3に記載の障害物検出装置を備えた自律移動ロボットであって、前記識別された環境固定障害物の種別と位置に基づいて、ロボットが進行可能な進路候補を決定する進路候補決定手段をさらに備え、前記障害物候補抽出手段は、前記進路候補決定手段により決定された進路候補内に限定して障害物候補を抽出するものである。
【0028】
上記構成においては、進路候補決定手段が環境固定障害物の種別と位置に基づいて進路候補を決定し、障害物候補抽出手段がその決定された進路候補内に限定して障害物候補を抽出するので、進路候補外の障害物について識別処理をする手間を省いて、効率よく的確に障害物の識別ができる。
【0029】
請求項12の発明は、請求項2又は請求項3に記載の障害物検出装置を備えた自律移動ロボットであって、環境固定障害物であると識別された物体の位置データをマッピングすることにより進路決定の判断基準となる走行環境地図を新規に生成又は補充・更新する環境地図生成・更新手段をさらに備えたものである。
【0030】
上記構成においては、環境地図生成・更新手段を備えたので、走行環境地図を持たない場合は自動的に作成でき、また、走行環境地図を持つ場合は、繰り返し走行等で計測された異なる位置や時間における計測データを用いて、死角などによる欠落データを補充し、走行環境地図の完成度を学習的に向上できる。この環境地図生成・更新手段により、特定の位置や時間において計測できなかった障害物に関する環境情報を統合して補充することができ、識別結果の精度を向上することができる。
【0031】
請求項13の発明は、請求項12に記載の自律移動ロボットにおいて、前記環境固定障害物識別手段は、前記走行環境地図のデータと現在計測された3次元座標データとに基づき、環境固定障害物を識別するものである。
【0032】
上記構成においては、現在計測された3次元座標データと走行環境地図とを照合して、壁やドアなどの環境固定障害物を効率的、かつ信頼性高く識別することができ、既知の障害物のデータとの照合を省くことができるので、障害物の識別時間が短縮でき、障害物認識の精度・信頼性が向上する。
【0033】
請求項14の発明は、建物内の監視空間に存在する物体表面の3次元座標を計測する3次元計測過程と、計測した物体表面が鉛直方向に所定の大きさ以上に連続した面を含む場合に該連続した面を含む物体を柱、壁、ドアなどの環境に固定された障害物である環境固定障害物として識別する環境固定障害物識別過程と、前記環境固定障害物を除いた物体表面の3次元座標より個別の障害物候補を抽出する障害物候補抽出過程と、抽出した障害物候補が存在する空間の3次元座標データを切り出して、切り出した空間を鉛直方向に層別し、障害物候補の鉛直方向層別形状の特徴量を求めて組合せた特徴量組合せデータを形成し、予め設定された障害物モデルの鉛直方向の層別形状の特徴量からなる組合せ基準データと比較し、類似度が規定範囲にあれば障害物候補をこの障害物モデルに対応づけて識別する障害物識別過程とを備える障害物検出方法である。
【0034】
上記方法においては、3次元計測過程により計測した障害物物体表面の3次元座標から、環境固定障害物識別過程により鉛直方向に所定の大きさ以上に連続した面を環境固定障害物の面に対応づけて認識した環境固定障害物を除き、その後、障害物候補抽出過程により個別の障害物候補を抽出し、障害物識別過程により、障害物候補の3次元座標データを鉛直高さ方向に層別して特徴量組合せデータを形成し、予め設定された障害物モデルの組合せ基準データと比較するので、障害物認識処理を段階的に、かつ対象データの単純化をしながら行うことができ、効率よく的確に障害物を識別できる。
【0035】
請求項15の発明は、建物内の監視空間に存在する障害物を検出する、コンピュータ読み取り可能な障害物検出プログラムであって、3次元距離計測手段により計測して建物内の監視空間に存在する物体表面の3次元座標を得る3次元計測処理と、計測した物体表面の3次元座標より個別の障害物候補を抽出する障害物候補抽出処理と、抽出した障害物候補が存在する空間の3次元座標データを切り出して、切り出した空間を鉛直方向に層別し、障害物候補の鉛直方向層別形状の特徴量を求めて組合せた特徴量組合せデータを形成し、予め設定された障害物モデルの鉛直方向の層別形状の特徴量からなる組合せ基準データと比較し、類似度が規定範囲にあれば障害物候補をこの障害物モデルに対応づけて識別する障害物識別処理とをコンピュータに実行させるためのプログラムである。
【0036】
上記プログラムにおいては、3次元計測処理により計測した障害物物体表面の3次元座標から、障害物候補抽出処理により個別の障害物候補を抽出し、障害物識別処理により、障害物候補の3次元座標データを鉛直高さ方向に層別して特徴量組合せデータを形成し、予め設定された障害物モデルの組合せ基準データと比較するので、障害物モデルに基づいて障害物候補の識別を確実に行うことができる。また、移動する障害物は主に床平面に沿って移動するため鉛直方向にはほとんど動かないので、鉛直方向に層別して得たデータの比較により効率よく的確に障害物を識別できる。
【0037】
請求項16の発明は、建物内の監視空間に存在する障害物を検出する、コンピュータ読み取り可能な障害物検出プログラムであって、3次元距離計測手段により計測して建物内の監視空間に存在する物体表面の3次元座標を得る3次元計測処理と、計測した物体表面が鉛直方向に所定の大きさ以上に連続した面を含む場合に該連続した面を含む物体を柱、壁、ドアなどの環境に固定された障害物である環境固定障害物として識別する環境固定障害物識別処理と、前記環境固定障害物を除いた物体表面の3次元座標より個別の障害物候補を抽出する障害物候補抽出処理と、抽出した障害物候補が存在する空間の3次元座標データを切り出して、切り出した空間を鉛直方向に層別し、障害物候補の鉛直方向層別形状の特徴量を求めて組合せた特徴量組合せデータを形成し、予め設定された障害物モデルの鉛直方向の層別形状の特徴量からなる組合せ基準データと比較し、類似度が規定範囲にあれば障害物候補をこの障害物モデルに対応づけて識別する障害物識別処理とをコンピュータに実行させるためのプログラムである。
【0038】
上記プログラムにおいては、3次元計測処理により計測した障害物物体表面の3次元座標から、環境固定障害物識別処理により鉛直方向に所定の大きさ以上に連続した面を環境固定障害物の面に対応づけて認識した環境固定障害物を除き、その後、障害物候補抽出処理により個別の障害物候補を抽出し、障害物識別処理により、障害物候補の3次元座標データを鉛直高さ方向に層別して特徴量組合せデータを形成し、予め設定された障害物モデルの組合せ基準データと比較するので、障害物認識処理を段階的に、かつ対象データの単純化をしながら行うことができ、効率よく的確に障害物を識別できる。
【0039】
【発明の実施の形態】
以下、本発明の一実施形態に係る障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラムについて、図面を参照して説明する。図1は本発明の一実施形態に係る自律移動ロボット1が走行する状況を示し、図2はその自律移動ロボット1の側面を示す。自律移動ロボット1は、走行環境における人6、柱7、壁8、固定物体9などの障害物を検出するとともにその障害物が何であるかを識別し、自ら適正経路を発見して目的地に向かって移動する装置である。自律移動ロボット1は、ロボット本体2に障害物検出処理手段5を備え、障害物検出処理手段5は、3次元座標計測手段3と障害物検出処理手段4とを備えて構成されている。
【0040】
3次元座標計測手段3は、例えばロボット本体2の頭部前方に備えられており、建物内の監視空間に存在する物体の表面の3次元座標を計測する。計測に用いられる座標系は、ロボット本体2に固定された相対座標系であり、鉛直高さ方向をY方向、走行方向をZ方向として定義されるXYZ直交座標系である。3次元座標計測手段3は、複数のカメラを用いたものや、レーダ、レーザレーダ等のセンサ、又はこれらの組合せで構成される。3次元座標計測手段3で得られた計測データは、障害物検出処理手段4において、障害物の検出処理が行われる。障害物検出処理手段4には、CPUが搭載されており、CPUによって障害物検出プログラムが実行され、障害物の検出処理や走行経路決定が行われる。
【0041】
図3(a)は同自律移動ロボット1が走行する監視空間の画像を示し、図3(b)は同監視空間に存在する物体表面の距離画像を示す。距離画像データは、複数のカメラを用いて構成された、いわゆる両眼立体視(ステレオ視)による3次元座標計測手段3により得られた3次元空間における物体表面までの距離データであり、その画素に付随するデータとして、物体表面のXYZ座標値を保有している。距離画像は、各画素の濃淡値として、3次元座標計測手段3により得られた距離に応じた濃淡値が入力されており、例えば、近いほど明るく、また遠くになるほど暗く表示される。
【0042】
(実施例1)
次に、障害物検出装置による障害物識別について説明する。図4は障害物検出装置11と同装置を用いた自律移動ロボット10のブロック構成例を示し、図5は障害物検出処理フローの概要を示す。障害物検出装置11の障害物検出処理手段4は、3次元座標計測手段3により計測(検出)した物体表面の3次元座標より個別の障害物候補を抽出する障害物候補抽出手段12と、各障害物候補が何であるかを所定の障害物モデル(後述)に対応づけて識別する障害物識別手段14とを備えている。
【0043】
障害物検出処理手段4で行われる処理フローの概要を説明する。まず、3次元座標計測手段3によって計測された3次元座標計測データが読み込まれ(S1)、ラベリング処理、パターンマッチング、グルーピング処理などによって、障害物候補が抽出される(S2)。各障害物候補について、予め準備した複数の障害物モデルとの立体的なデータ比較による識別が行われ(S3)、全ての障害物候補について識別が行われて処理が終了する(S4)。
【0044】
障害物モデルと立体的なデータ比較に用いる基準データについて説明する。図6は障害物モデルのデータ空間を示す。図7(a)〜(c)はそれぞれ障害物モデルの正面図、側面図、平面図を示し、図8(a)は同モデルの斜視図、図8(b)(c)は同モデルの水平断面図を示す。また、図9(a)〜(c)は同モデルが垂直軸回りに回転した状態の正面図、側面図、平面図を示し、図10(a)(b)は同モデルの水平断面図を示す。
【0045】
障害物モデルは、走行経路上に存在すると思われる、人、椅子、車椅子、台、移動台車、植木鉢、置物など、又は、それらの要部、例えば人の顔、脚部などを識別するために準備するものである。これらの障害物モデルは、その表面座標データや形状特徴量が計測されて組合せ基準データとして記憶される。表面座標データは、図6に示されるような、障害物モデルを包含するXYZデータ空間である障害物モデル空間23において計測される。また、Y方向とZ方向に層別化されて形成された各X方向柱体についてのデータとして記憶される。
【0046】
例えば、図7、図8に示されるように、椅子に腰掛けた状態の人について、その人の部分だけの障害物モデルについて組合せ基準データを求める場合、モデルの方向角が決められ、Y及びZ方向に層別化される。この図の場合、−Z方向、つまり3次元座標計測手段3に対面した(正面を向いた)状態になっている。この状態で、Y=y1,及びY=y2断面を見ると、図8(b)(c)のようになる。3次元座標計測手段3によって計測される座標は、3次元座標計測手段3に対面した表面の座標だけである。従って、実際に計測されるデータと比較する障害物モデルの形状特徴量として、層別した断面における各層を(Y層、Z層)と表現すると、例えば(i2,j2)層ではa1,a2、(i2,j3)層ではb、(i1,j1)層ではc1,c2によって表されるX方向の線分を用いることができる。障害物モデルの組合せ基準データとして、これらのX方向の線分に関する値、例えば、線分長の和、各線分の両端の座標値、などを記憶する。
【0047】
また、障害物モデルの見え方は、3次元座標計測手段3と向き合う相対角度によって異なるので、モデルの方向角毎に基準データを生成記憶する必要がある。モデルの方向角θ=45゜の例が、図9、図10に示されている。モデルの方向角θとして、例えばΔθ=15゜毎に変化させる。また、層別化のピッチPy、Pzは、対象物により異なるが、例えば、Y方向にはPy=5cm単位で層別し、Z方向にはPz=2.5cm単位で層別する。
【0048】
上述の障害物モデルの基準データ生成・記憶処理のフローを、図11に従って説明する。まず、障害物モデルの3次元データを設定する(S101)。このデータは、実モデルの3次元計測結果データや3D−CADにより生成したデータを用いることができる。次に、モデルの最大幅から層別数Ny,Nzを決定し、また、モデルの方向角度の分割数Ntを決定する(S102)。モデルの方向角度設定(S103)、モデル層別化(S104)を行い、モデルの形状特徴量F(i,j;k)を求めて記憶する(S105)。モデルの形状特徴量としては、前述のように各層におけるX方向断面長(X方向幅)を用いることができ、X方向断面が不連続の場合は、そのまま複数の値を、又は積算した値を用いることができる。モデル識別引数kは、障害物モデルの違い、及びその方向角度の違いまで識別する引数である。このような処理を、1つのモデルの全角度について(S106)、また、他モデルについて行って終了する(S107)。
【0049】
障害物識別処理の詳細について説明する。図12(a)〜(d)は、抽出された障害物候補について、それぞれある水平面における3次元座標計測点の例を示す。3次元座標計測手段によって得られた3次元計測データは、障害物候補抽出手段12の障害物候補抽出部13によって、3次元距離が近いものがグルーピングされ、個別の障害物候補として抽出される。3次元座標計測手段3で計測されたデータは、前述のように、3次元座標計測手段3に対面する表面の点、例えば点e等だけである。障害物候補のデータ空間は、これらの測定点から形成される表面により、その前面部Aとその背面部Bとに2分される。
【0050】
このようなデータ特性をもつ障害物候補について行われる障害物識別処理について説明する。図13は障害物識別処理フローを示す。まず、上述のようにして抽出された障害物候補の3次元データを切り出し(作業メモリに記憶する、S201)、データ空間のY方向層別(S202)と,Z方向層別(S203)を行う。これらの層別化、及び障害物候補空間の概念は、障害物モデルについて説明した図6に示す障害物モデル空間におけるのと同じである。次に、障害物モデルから組合せ基準データF(i,j;k)を生成したのと同様に、層別化して形成された各X方向柱体から特徴量組合せデータW(i,j)を取得する(S204)。次に、次の式(1)で定義される障害物候補と障害物モデルkとの類似度Skを算出する。
【0051】
【式1】
【0052】
この類似度Skは小さいほど類似が良いことを表す。予め準備した障害物モデルの全てについて類似度を算出し(S206でYes)、その後、類似度Skの最小値Sと、そのときの障害物モデルの識別引数、例えばpを求める(S207)。次に、最小値Sと所定の既定値t1と比較し、最小値Sが既定値t1以下であれば(S208でYes)、抽出された障害物候補は、障害物モデルとの類似度が規定範囲にあるとされ、「障害物モデルpに対応する」として識別される。既定値t1以下となる最小値Sがない場合は(S208でNo)、「該当モデルなし」とされる。この判定結果は、ロボット本体に渡され、検出された障害物の種別に応じて、進路や移動速度が変更される。
【0053】
上述において、Z方向の層別を複数の層で行っているが、処理を簡略化するために1層としてもよい。なお、類似度は、以下の式(2)に示すように、正規化したものを用いてもよく、式(2)の場合は、類似度Skが大きいほど類似が良いことになる。また、分母及び分子においてi,jに関する和を求める場合、各項を二乗して和を求めたものを用いてもよく、類似度として適宜定義して用いることができる。
【0054】
【式2】
【0055】
(実施例2)
次に、他の障害物検出装置について説明する。図14は他の障害物検出装置21と同装置を用いた自律移動ロボット20のブロック構成を示す。この障害物検出装置20は、前述同様に、自律移動ロボット20の進行方向の情景を計測する3次元座標計測手段3を備えている。また、障害物検出処理手段4には、環境固定障害物識別手段18を備えている。この環境固定障害物識別手段18の環境固定識別部19では、3次元座標計測手段3により得られた3次元データを処理して、鉛直方向に連続してデータが存在する部分を検出することにより、その鉛直方向に所定の大きさ以上に連続した面を、柱や壁、ドアなどの環境固定障害物の面に対応づけて検出物体を環境固定障害物として識別する。
【0056】
例えば、屋内環境における主な障害物は、柱や壁、ドアであり、これらは、鉛直方向に連続する面で構成されることが常であるので、その特徴を用いて認識することにより、効率よく的確に障害物を識別できる。この判定結果は、ロボット本体2に渡され、検出された障害物の種別に応じて、進路や移動速度が変更される。
【0057】
環境固定障害物識別部19で行われる処理について説明する。図15は環境固定障害物識別処理フローを示し、図16はこの処理において用いられる2次元ヒストグラムを示す。まず3次元座標計測データから既定下限値Yb以下、及び既定上限値Yc以上のY座標値を有する測定点を除いたデータ点集合D(x、y、z)が求められる(S301)。ここで、既定下限値Ybは、環境固定障害物以外の障害物がほぼ存在しない領域の下限高さであり、既定上限値Ycは、例えば3次元座標計測手段3のロボット本体2への取り付け位置の情報と天井高さ情報から求めた天井の位置である。既定下限値Ybは人間の身長以上とする必要があり、床面から200cm程度に設定するのが適切である。
【0058】
このようにして求めた3次元データ点集合D(x、y、z)を、図16に示すようにグリッド幅gx、gzのセルで分割したXZ平面に投影し、その2次元ヒストグラムを作成する(S302)。その際、Y方向の計測分解能に応じた重みを付与して投票(度数積算)する。その後、規定値t2以上の投票値を持つセルCxzを抽出し(S303)、そのセルCxzに対応した位置のX座標とZ座標を求めて、その位置を環境固定障害物が存在する位置として識別する(S304)。その位置情報X、Zをロボット本体に渡す。セルのグリッド幅gx、gzは、そのセルの位置での計測分解能に応じて、場所ごとに変化させて設定することにより、適切に環境固定障害物の識別ができる。なお、計測距離(計測する位置)によって計測分解能が異なり、遠いほど計測精度が低下するため、セルのグリッド幅gx、gzは、そのセルの位置でのX方向及びZ方向の計測分解能に応じて、場所ごとに変化させて設定してもよく、この場合にセル数を少なくして、適切に環境固定障害物の識別ができる。
【0059】
(実施例3)
次に、同上障害物検出装置21の環境固定障害物識別部19で行われる他の環境固定障害物識別処理の例について説明する。図17(a)は距離画像を示し、図17(b)は同距離画像と実空間との関係を示す。この距離画像は、3次元座標計測データD(x、y、z)を透視変換してえられたものである。距離画像の各画素は、計測データ点のx、y、z座標値を保有している。水平な天井45及び床43を有し、垂直な壁44を有する室内環境の場合、距離画像は以下の性質を有する。この距離画像において、矢印u1で示されるように、画像の上方から下方に向けて走査する場合の座標の変化について説明する。上端から点Mに至るまでは、天井45部分であり、Y座標が一定である。距離画像における点Mは、図17(b)に示す実空間における点M1に相当する。また、点Mから下方の点Nに至る線上は、Y座標が天井45から床43に向かって減少しており、他方、X、Z座標は一定である。距離画像における点Nは、実空間における点N1に相当する。
【0060】
このような性質を持つ距離画像を用いた環境固定障害物識別処理を説明する。図18はその処理フローを示す。まず、3次元座標計測データD(x、y、z)を透視変換して距離画像I(u、v)を作成する(S401)。次に、u座標を左端に設定し(S402)、v座標軸に沿って上方から下方に向けて走査する(S403)。このとき、天井と壁の境界点画素Pを1画素決定する(S404)。画素Pに対応する測定点P1のY座標値yは、Yc−ΔY<y≦Yc+ΔYを満たすものとする。Ycは天井の高さであり、ΔYは測定精度等から決められる共用範囲である。このとき、P1の座標は(xp、yp、zp)であるとする。
【0061】
続いて、上記同様に、天井近傍の壁の点の画素Qを1画素決定する(S405)。画素Qに対応する測定点Q1のY座標値yは、y<Yc−ΔYを満たすものとする。このとき、Q1の座標は(xq、yq、zq)であるとする。
【0062】
この後、画素Qより下方のv座標において、略鉛直な壁の略鉛直線上の点に対応する画素Wを探索する(S406)。このとき、床のY座標をYfとすると、画素Wに対応する測定点のY座標値yは、Yf<y≦yq(天井/床間の点)を満たし、X、Z座標値は、ある既定値βに対して|x−xq|≦β、|z−zq|≦β(測定点Q1の略鉛直下方)を満たすものとする。これらの条件を満たす画素Wを画素集合Rに登録する。
【0063】
続いて、画素集合R内の画素数nを求め(S407)、画素数から実空間における実際の上下方向の長さLyを、Ly=n×αによって求める(S408)。ここで乗数αは、画素に対するY方向長さ換算係数である。
【0064】
続いて、長さLyを既定長γと比較し、既定長γより大きければ(S409でYes)、前出の点Q1の座標(xq、zq)を環境固定障害物の存在する座標とする(S410)。また、長さLyが既定長γより小さければ(S409でNo)、環境固定障害物はないとする(S411)。このような一連の処理を、次のu座標を設定して行い(S414)、u座標が右端にくると、抽出した画素に対応する位置情報(X座標とZ座標)を移動ロボットに渡して終了する(S412でYes)。
【0065】
(実施例4)
次に、さらに他の障害物検出装置について説明する。図19は他の障害物検出装置31と同装置を用いた自律移動ロボット30のブロック構成を示す。この障害物検出装置31及び自律移動ロボット30は、図4及び図14に示される障害物検出装置の構成機能を併せ持つものであり、両方の機能を備えることでより高度な障害物検出及び識別処理をすることができる。環境固定障害物識別手段18の環境固定障害物識別部19では、3次元座標計測手段3から得られた3次元座標計測データを処理して、鉛直方向に連続してデータが存在する部分を検出することにより、検出物体を環境固定障害物として識別する。
【0066】
また、障害物候補抽出手段12の障害物候補抽出部13では、3次元座標計測手段3から得られた3次元座標計測データから、上記環境固定障害物識別部19において環境固定障害物として認識された物体の3次元座標計測データを除外する。次に、その3次元座標計測データを処理して、3次元空間における距離が近いものをグルーピングすることにより個別の障害物候補を抽出する。
【0067】
障害物識別手段14の部障害物識別部15では、抽出された各々の障害物候補と基準データ記憶部16に予め記憶している基準データ(障害物モデル)との照合を行い、類似度が規定範囲にある場合に、その障害物候補は当該の障害物モデルであると判定する。この判定結果は、ロボット本体2に渡され、検出された障害物の種別に応じて、進路や移動速度が変更される。
【0068】
(実施例5)
次に、さらに他の障害物検出装置について説明する。図20は他の障害物検出装置41と同装置を用いた自律移動ロボット40のブロック構成を示す。この障害物検出装置41及び自律移動ロボット40は、前出の図4に示される障害物検出装置11の構成機能に、さらに人判別手段32、及び人判別部33を備えたものである。以下において、人判別部33における人判別処理について説明する。この人判別処理によると、障害物候補を人を含む障害物モデルと照合し、そのモデルに最適な方法で人の存在を判別でき、的確な障害物の識別ができる。
【0069】
人判別処理は2段階で行われる。例えば、障害物認識部15において、Z方向の層別数を1層で行い、また、Y方向の層間隔を大きくするなどの方法で、大まかな特徴で障害物識別を行い、その後、人が存在しそうな障害物候補についてだけ、人判別部33において詳細に人判定が行われる。
【0070】
椅子に座っている人の判別について説明する。図21は椅子に座っている状態の人の部分だけの障害物モデルを示し、図22は椅子に座る正面向きの人の判別処理フローを示す。椅子に座った状態の人の特徴量として、下腿長Ld、頭長Lh、膝部相当長(大腿長)Luなどが上げられる。例えば、これらの特徴量により人判別が行われる。椅子に座る正面向きの人の判別処理として、まず、椅子に座る正面向きの人を含むと思われる障害物候補の3次元座標点データがデータ空間Dとして抽出される(S501)。以下このデータ空間Dについて処理が行われる。「椅子に座る正面向きの人間」は、上半身の代表部位としての頭部の位置と足の位置とが大腿部の長さに相当する距離だけ離れているという知識に基いて検証される。つまり、この場合の人判定は、脚部のZ座標と頭部のZ座標から膝部奥行き長を算出して、大腿長の既定値と比較することで行われる。
【0071】
上述のデータ空間Dから脚部データが抽出されてデータ集合Diとされる(S502)。データ集合Diのデータは、Y座標が、Yf≦y≦Yf+Ldを満たす3次元座標計測点データである。ここで、Yfは床面座標、Ldは既定の下腿長である。次に、データ集合Diの測定点のZ座標の平均値が、脚部の代表点として求められる(S503)。また、頭部について、脚部と同様に、データ空間Dから頭部データが抽出されてデータ集合Djとされる(S504)。データ集合Djのデータは、Y座標が、Ym−Lh≦y≦Ymを満たす3次元座標計測点データである。ここで、Ymは頭部位置、Lhは既定の頭長である。次に、データ集合Dhの測定点のZ座標の平均値が、頭部の代表点として求められる(S505)。
【0072】
続いて、脚部代表点Zfと頭部代表点Zhの差として膝部相当長L=|Zh−Zf|が求められる(S506)。この膝部相当長Lが、所定の範囲にあるかどうか、即ち、Lu−t≦L≦Lu+tを満たすかどうか調べられる(S507)。ここで、Luは既定の大腿長であり、tは計測誤差許容値である。膝部相当長Lが、上記の範囲内にあれば(S507でYes)、障害物候補は「椅子に座る正面向きの人」であると判定され(S508)、範囲内になければ(S507でNo)、正面向きの人でないとされる(S509)。この判定結果は、ロボット本体に渡され、進路や移動速度が変更される。
【0073】
(実施例6)
次に、上記の障害物検出装置41における人の頭部モデルを用いた人存在判別処理について説明する。図23(a)は人の障害物モデルを示し、図23(b)はその顔部データを層別したもの、図23(c)は頭部の水平断面における外形を示す。基準データ記憶部16には、障害物モデルとして、人の特定部分のモデルも記憶されており、人が存在しそうな場合に人の特定部分のモデルを用いて人の存在判定が行われる。例えば、頭部モデルを層別化したX方向柱体内における顔の断面長に相当する量が頭部の組合せ基準データF(i,j)として記憶されている。
【0074】
人の頭部モデルを用いた人存在判別処理フローを、図24により説明する。まず、人を含むと思われる障害物候補の3次元座標点データがデータ空間Dとして抽出される(S601)。以下このデータ空間Dについて、前出の図13障害物識別処理フローと略同様の手順で処理が行われる。このデータ空間Dから頭部データが抽出されてデータ集合Dhとされる(S602)。データ集合Dhのデータは、Y座標が、Ym−Lh≦y≦Ymを満たす3次元座標計測点データである。ここで、Ymは頭部位置、Lhは既定の頭長である。次に、データ集合DhがY方向(S603)と、Z方向(S604)に層別される。
【0075】
この層別化して形成された各X方向柱体から、図23(c)に示すように、顔の特徴量である特徴量組合せデータW(i,j)を取得する(S605)。次に、顔の正面候補と頭部モデルとの類似度Sを次の式(3)により算出する(S606)。
【0076】
【式3】
【0077】
この類似度Sは小さいほど類似が良いことを表す。次に、類似度Sと、所定の既定値t3と比較し、類似度Sが既定値t3以下であれば(S607でYes)、抽出された障害物候補は、頭部モデルとの類似度が規定範囲にあるとされ、「正面向きの人」として識別され(S608)、既定値t3以下でない場合(S607でNo)、「正面向きの人」でないとされる(S609)。この判定結果は、ロボット本体に渡され、検出された障害物の種別に応じて、進路や移動速度が変更される。なお、類似度は、以下の式(4)に示すように、正規化したものを用いてもよく、式(4)の場合は、類似度Sが大きいほど類似が良いことになる。また、分母及び分子においてi,jに関する和を求める場合、各項を二乗して和を求めたものを用いてもよく、類似度として適宜定義して用いることができる。
【0078】
【式4】
【0079】
ここで、頭部モデルは、個人が特定できる場合はその人物の頭部形状データを用いる。個人が特定できない場合は、例えば、人の顔の形、鼻高などの平均値を用いた平均頭部形状データを用いる。このように、人の特定部分を頭部として人の存在を判定する場合、頭部は、手・腕等と異なり関節がなく位置・形状の変化がないので、人かどうかの識別を効率よく的確にできる。
【0080】
また、3次元座標計測手段3としてカメラを用いており、輝度(カラー)情報が3次元座標とともに得られる場合には、層別した各層を代表する特徴量として頭部幅W(i、j)に加えて、各層内の平均輝度値(カラーの場合はRGB各成分の平均輝度値)を用いることもできる。また、平均値に限定するのではなく、輝度(カラー)情報そのものも用いることができる。なお、カラー情報を特徴量に用いた場合は、肌の色や髪の色が所定部位に存在するかどうかを判別して、人の検出の精度や信頼性を高めることができる。
【0081】
(実施例7)
次に、上記の障害物検出装置41における人の脚部モデルを用いた人存在判別処理について説明する。図25は人の脚部モデルを用いた人の存在判別処理フローを示す。上述したように、障害物識別部15において判定された障害物モデルが、例えば椅子や車椅子に座る人間のように、人を含む可能性がある場合は、人の特定部分のモデルを用いて人の存在が判定される。人の特定部分のモデルとして、脚部のモデルを用いた場合が、本例である。3次元座標計測手段3のロボット本体2への取り付け位置の情報から、3次元座標計測手段3から観測した床面の位置(Y=Yf)を事前に求めておく。また、下腿(膝下部)の既定の長さをLdとする。
【0082】
まず、3次元座標計測データのうち、脚部データに相当する部分を抽出してデータ集合Dfとする(S701)。データ集合Dfのデータは、Y座標が、Yf≦y≦Yf+Ldを満たす3次元座標計測点データである。ここで、Yfは床面位置、Ldは既定下腿長である。次に、データ集合Dfのデータ点をXY平面に投影し、脚部投影画像Ifを作成する(S702)。脚部投影画像Ifから領域抽出処理(例えば、画像処理におけるラベリング処理)を行い、物体領域Aoを抽出する(S703)。物体領域Aoの面積が脚の大きさに相当する領域を抽出して足部領域Afに登録する(S704)。ここで、足部領域Afは、Sf−t4≦(Aoの面積)≦Sf+t4を満たす領域aoであり、Sfは既定面積、t4は許容しきい値である。次に、足部領域Afの中で、人間の右足と左足の位置関係にその組合せが合っている組を見つける。その組があれば(S705でYes)、その組の足部領域Afに人が存在すると判定し(S706)、無ければ人は存在しないと判定する(S707)。
【0083】
このように、人の特定部分を脚部として人の存在を判定する場合、脚部は、床面に接触またはその近傍にあるので、その位置を特定することが容易である。また、人の姿勢(前向き・後向き)に依らず、形状が変化しないため、人かどうかの識別を効率よく的確にできる。
【0084】
上述では「椅子に座る人間」を例としていたので、膝下に相当する部分の3次元データのみを利用したが、「立っている人間」の場合には、大腿部も含めた部分の3次元データを利用し、左右の大腿部と左右の下腿部の4つの部分の組合せをもって判定を行うことができる。
【0085】
(実施例8)
次に、さらに他の障害物検出装置について説明する。図26は他の障害物検出装置51と同装置を用いた自律移動ロボット50のブロック構成を示す。この障害物検出装置51及び自律移動ロボット50は、前出の図19に示される障害物検出装置31の構成機能に、さらに進路候補決定手段34、及び進路候補決定部35を備えたものである。
【0086】
この障害物検出装置51の環境固定障害物識別部19では、前述のように、3次元座標計測手段3から得られた3次元座標計測データを処理して、鉛直方向に連続してデータが存在する部分を検出することにより、検出物体を環境固定障害物として識別する。続いて、進路候補決定部35では、検出された環境固定障害物の位置情報と目的地の位置情報を基に、移動可能な進路候補が決定される。また、障害物候補抽出部13では、上記進路候補決定部35で決定された進路候補上の物体の3次元座標計測データに限定した上で、3次元距離が近いものをグルーピングすることにより個別の障害物候補を抽出する処理が行われる。障害物識別部15では、上述の何れかと同様の処理が行われる。
【0087】
上述の進路候補決定部35における進路候補決定の処理について説明する。図27は進路候補決定処理フローを示す。まず、環境固定障害物の位置データ列EをXZ平面に投影することにより、環境固定障害物マップMが作成される(S801)。この環境固定障害物マップ上で、ロボット本体2の位置から環境固定障害物上の点を結んだ延長線上であってロボット本体とは反対側となる部分、つまり死角部分を、全て環境固定障害物として拡張する(S802)。その後、マップ上で環境固定障害物でない領域に対して、ボロノイ線図(障害物領域間の隙間の中点を結ぶ線からなる図)を作成し(S803)、そのボロノイ線図の中から、進路候補を選択して決定する(S804)。
【0088】
(実施例9)
次に、さらに他の障害物検出装置について説明する。図28は他の障害物検出装置61と同装置を用いた自律移動ロボット60のブロック構成を示す。この障害物検出装置61及び自律移動ロボット60は、前出の図14に示される障害物検出装置21の構成機能に、さらに環境地図生成・更新手段36、及び環境地図生成・更新部37、環境地図記憶部38を備えたものである。
【0089】
この障害物検出装置61では、環境固定障害物識別部19において、前出同様に、検出物体を環境固定障害物と識別する。そして、環境地図生成・更新部37では、環境固定障害物であると識別された物体の位置データをマッピングすることにより、環境地図記憶部38が走行環境地図を有さない場合は走行環境地図を新規に生成し、また、有する場合は走行環境地図を補充・更新する。
【0090】
環境地図生成・更新部における処理を、図29の処理フローにより説明する。まず、3次元座標計測点データの絶対座標表示化が行われる(S901)。ロボット本体2に固定されたXYZ座標系は相対座標であり、これにより表示されている環境固定障害物データEを、例えば建物に固定した座標系による、絶対座標表示の環境固定障害物データGに変換する。この場合、ロボット本体は、例えば、走行記録機能、ジャイロ、GPS等により絶対座標系における自己位置認識機能を備えたものである。
【0091】
続いて、環境地図記憶部38が走行環境地図を有さない場合(S902でNo)、環境固定障害物データGをXZ平面に投影し、走行環境地図が作成される(S903)。また、環境地図記憶部38が走行環境地図を有する場合(S902でYes)、環境固定障害物データGを、既に有する走行環境地図上へマッピングし、走行環境地図を更新する(S904)。それと同時に、走行環境地図上の各点に対して計測回数を記録し(S905)、計測回数がしきい値以下である点のデータは、計測誤差によるか、移動した物体である可能性が高いので、削除する(S906)。このような処理が、例えば、3次元座標計測が行われる毎に繰り返される。
【0092】
このように、繰り返し走行等で計測された異なる位置や時間における計測データを用いて、死角などによる欠落データを補充し、走行環境地図の完成度を学習的に向上できる。この環境地図生成・更新手段により、特定の位置や時間において計測できなかった障害物に関する環境情報を統合して補充し、識別結果の精度を向上することができる。
【0093】
(実施例10)
次に、さらに他の障害物検出装置について説明する。図30は他の障害物検出装置71と同装置を用いた自律移動ロボット70のブロック構成を示す。この障害物検出装置71及び自律移動ロボット70は、前出の図28に示される障害物検出装置61のブロック構成において、環境地図記憶部38からの環境地図情報を環境固定障害物識別部19にフィードバックする構成になったものである。
【0094】
環境固定障害物識別部19において、3次元座標計測手段3から得られた3次元データのうち、走行環境地図上の環境固定障害物に対応するものは、予め環境固定障害物と識別し、それ以外のデータに関して、上述のいずれかに示すような方法で、環境固定障害物を識別する。このように、走行環境地図のデータと現在計測された3次元座標データとに基づき、壁やドアなどの環境固定障害物を効率的、かつ信頼性高く識別することができ、既知の障害物のデータとの照合を省くことができるので、障害物の識別時間が短縮でき、障害物認識の精度・信頼性が向上する。
【0095】
なお、本発明は、上記構成に限られることなく種々の変形が可能である。また、上述した本発明に係る障害物検出の方法、及びその障害物検出処理を記述したコンピュータ読み取り可能なプログラムは、例えば、工場、病院、事務所などの室内で移動する移動体の自律移動の制御に用いることができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る自律移動ロボットが走行する状況を示す斜視図。
【図2】同上自律移動ロボットの側面図。
【図3】(a)は同上自律移動ロボットが走行する監視空間を示す画像、(b)は同監視空間に存在する物体の表面の距離画像。
【図4】本発明の一実施形態に係る障害物検出装置と同装置を用いた自律移動ロボットのブロック構成図。
【図5】本発明の一実施形態に係る障害物検出処理フロー図。
【図6】同上障害物検出装置で用いられる障害物候補空間及び障害物モデル空間の概念図。
【図7】(a)は本発明の一実施形態に係る障害物モデルの例を示す正面図、(b)は同側面図、(c)は同平面図。
【図8】(a)は同上障害物モデルの斜視図、(b)(c)は同水平断面図。
【図9】(a)は同上障害物モデルの回転した例を示す正面図、(b)は同側面図、(c)は同平面図。
【図10】(a)(b)は同上障害物モデルの水平断面図。
【図11】本発明の一実施形態に係る基準データ生成・記憶処理のフロー図。
【図12】(a)〜(d)は本発明の一実施形態に係る水平面における3次元座標計測データの例を示す概念図。
【図13】本発明の一実施形態に係る障害物識別処理フロー図。
【図14】本発明の一実施形態に係る障害物検出装置と同装置を用いた他の例を示す自律移動ロボットのブロック構成図。
【図15】本発明の一実施形態に係る環境固定障害物識別処理フロー図。
【図16】同上環境固定障害物識別処理に用いられる2次元ヒストグラム図。
【図17】(a)は同上環境固定障害物識別処理における距離画像の例、(b)は同距離画像と実空間との関係を説明する図。
【図18】本発明の一実施形態に係る距離画像を用いた環境固定障害物識別処理フロー図。
【図19】本発明の一実施形態に係る障害物検出装置と同装置を用いたさらに他の例を示す自律移動ロボットのブロック構成図。
【図20】本発明の一実施形態に係る障害物検出装置と同装置を用いたさらに他の例を示す自律移動ロボットのブロック構成図。
【図21】本発明の一実施形態に係る障害物モデルの例を示す側面図。
【図22】本発明の一実施形態に係る椅子に座る正面向きの人の判別処理フロー図。
【図23】(a)は本発明の一実施形態に係る障害物モデルの例を示す正面図、(b)は同モデルの頭部の斜視図、(c)は同頭部の水平断面外形図。
【図24】本発明の一実施形態に係る人の頭部モデルを用いた人存在判別処理フロー図。
【図25】本発明の一実施形態に係る人の脚部モデルを用いた人存在判別処理フロー図。
【図26】本発明の一実施形態に係る障害物検出装置と同装置を用いたさらに他の例を示す自律移動ロボットのブロック構成図。
【図27】本発明の一実施形態に係る進路候補決定処理フロー図。
【図28】本発明の一実施形態に係る障害物検出装置と同装置を用いたさらに他の例を示す自律移動ロボットのブロック構成図。
【図29】本発明の一実施形態に係る環境地図生成・更新処理フロー図。
【図30】本発明の一実施形態に係る障害物検出装置と同装置を用いたさらに他の例を示す自律移動ロボットのブロック構成図。
【符号の説明】
1、10,20,30,40,50,60,70 自律移動ロボット
2 ロボット本体
3 3次元座標計測手段
4 障害物検出処理手段
5,11,21,31,41,51,61,71 障害物検出装置
7 柱
12 障害物候補抽出手段
14 障害物識別手段
18 環境固定障害物識別手段
24 X方向柱体
25 障害物モデル
32 人判別手段
36 環境地図生成・更新手段
44 壁
45 天井
Claims (16)
- 建物内の監視空間に存在する物体の表面の3次元座標を鉛直高さ方向をY方向、走行方向をZ方向として定義されるXYZ直交座標系において計測する3次元座標計測手段と、
計測した物体表面の3次元座標より個別の障害物候補を抽出する障害物候補抽出手段と、
抽出した障害物候補が存在する空間の3次元座標データを切り出して、Y方向に層別し、障害物候補のY方向層別形状特徴量から特徴量組合せデータを形成し、予め設定された障害物モデルのY方向層別形状特徴量からなる組合せ基準データと比較し、類似度が規定範囲にあれば障害物候補をこの障害物モデルに対応づけて識別する障害物識別手段とを備えたことを特徴とする障害物検出装置。 - 建物内の監視空間に存在する物体の表面の3次元座標を鉛直高さ方向をY方向、走行方向をZ方向として定義されるXYZ直交座標系において計測する3次元座標計測手段と、
計測した物体表面が鉛直方向に所定の大きさ以上に連続した面を含む場合に該連続した面を柱、壁、ドアなどの環境に固定された障害物である環境固定障害物の面に対応づけて識別する環境固定障害物識別手段を備えたことを特徴とする障害物検出装置。 - 建物内の監視空間に存在する物体の表面の3次元座標を鉛直高さ方向をY方向、走行方向をZ方向として定義されるXYZ直交座標系において計測する3次元座標計測手段と、
計測した物体表面が鉛直方向に所定の大きさ以上に連続した面を含む場合に該連続した面を柱、壁、ドアなどの環境に固定された障害物である環境固定障害物の面に対応づけて識別する環境固定障害物識別手段と、
前記環境固定障害物に対応づけて識別された物体の表面を除いた物体表面の3次元座標より個別の障害物候補を抽出する障害物候補抽出手段と、
抽出した障害物候補が存在する空間の3次元座標データを切り出して、Y方向に層別し、障害物候補のY方向層別形状特徴量から特徴量組合せデータを形成し、予め設定された障害物モデルのY方向層別形状特徴量からなる組合せ基準データと比較し、類似度が規定範囲にあれば障害物候補をこの障害物モデルに対応づけて識別する障害物識別手段とを備えたことを特徴とする障害物検出装置。 - 前記障害物識別手段は、3次元座標データをY方向及びZ方向に層別して形成される各X方向柱体の形状特徴量から特徴量組合せデータを形成し、予め設定された障害物モデルをY方向及びZ方向に層別して得た各X方向柱体の形状特徴量からなる組合せ基準データと比較して識別することを特徴とする請求項1又は請求項3に記載の障害物検出装置。
- 前記環境固定障害物識別手段は、計測した物体表面が所定の高さ以上において鉛直方向に所定の大きさ以上に連続した面を含む場合、その物体表面を環境固定障害物の面に対応づけて識別することを特徴とする請求項2又は請求項3に記載の障害物検出装置。
- 前記環境固定障害物識別手段は、計測した物体表面が天井部に相当する高さ位置から下方に向かう所定の範囲において鉛直方向に所定の長さ以上に連続した面を含む場合、その物体表面を環境固定障害物の面に対応づけて識別することを特徴とする請求項2又は請求項3に記載の障害物検出装置。
- 前記障害物識別手段によって前記障害物候補が人を含む可能性があると判断されたとき、前記障害物モデルに付帯された人判別データに従い前記障害物候補の3次元座標データを読み出し、その障害物候補が人を含むかどうかを判別する人判別手段をさらに備えたことを特徴とする請求項1、請求項3、又は請求項4のいずれかに記載の障害物検出装置。
- 前記組合せ基準データは前記障害物モデルに設定した人の特定部分についての特徴量データを有しており、前記障害物識別手段によって前記障害物候補が人を含む可能性があると判断されたとき、人の特定部分についての特徴量データと障害物候補の特徴量組合せデータを比較し、類似度が規定範囲にあって最も類似する部分を、人の特定部分として抽出することを特徴とする請求項1、請求項3、又は請求項4のいずれかに記載の障害物検出装置。
- 前記人の特定部分を頭部とすることを特徴とする請求項8に記載の障害物検出装置。
- 前記人の特定部分を脚部とすることを特徴とする請求項8に記載の障害物検出装置。
- 請求項3に記載の障害物検出装置を備えた自律移動ロボットであって、前記識別された環境固定障害物の種別と位置に基づいて、ロボットが進行可能な進路候補を決定する進路候補決定手段をさらに備え、
前記障害物候補抽出手段は、前記進路候補決定手段により決定された進路候補内に限定して障害物候補を抽出することを特徴とする自律移動ロボット。 - 請求項2又は請求項3に記載の障害物検出装置を備えた自律移動ロボットであって、環境固定障害物であると識別された物体の位置データをマッピングすることにより進路決定の判断基準となる走行環境地図を新規に生成又は補充・更新する環境地図生成・更新手段をさらに備えたことを特徴とする自律移動ロボット。
- 前記環境固定障害物識別手段は、前記走行環境地図のデータと現在計測された3次元座標データとに基づき、環境固定障害物を識別することを特徴とする請求項12に記載の自律移動ロボット。
- 建物内の監視空間に存在する物体表面の3次元座標を計測する3次元計測過程と、
計測した物体表面が鉛直方向に所定の大きさ以上に連続した面を含む場合に該連続した面を含む物体を柱、壁、ドアなどの環境に固定された障害物である環境固定障害物として識別する環境固定障害物識別過程と、
前記環境固定障害物を除いた物体表面の3次元座標より個別の障害物候補を抽出する障害物候補抽出過程と、
抽出した障害物候補が存在する空間の3次元座標データを切り出して、切り出した空間を鉛直方向に層別し、障害物候補の鉛直方向層別形状の特徴量を求めて組合せた特徴量組合せデータを形成し、予め設定された障害物モデルの鉛直方向の層別形状の特徴量からなる組合せ基準データと比較し、類似度が規定範囲にあれば障害物候補をこの障害物モデルに対応づけて識別する障害物識別過程とを備えることを特徴とする障害物検出方法。 - 建物内の監視空間に存在する障害物を検出する、コンピュータ読み取り可能な障害物検出プログラムであって、
3次元距離計測手段により計測して建物内の監視空間に存在する物体表面の3次元座標を得る3次元計測処理と、
計測した物体表面の3次元座標より個別の障害物候補を抽出する障害物候補抽出処理と、
抽出した障害物候補が存在する空間の3次元座標データを切り出して、切り出した空間を鉛直方向に層別し、障害物候補の鉛直方向層別形状の特徴量を求めて組合せた特徴量組合せデータを形成し、予め設定された障害物モデルの鉛直方向の層別形状の特徴量からなる組合せ基準データと比較し、類似度が規定範囲にあれば障害物候補をこの障害物モデルに対応づけて識別する障害物識別処理とをコンピュータに実行させるためのプログラム。 - 建物内の監視空間に存在する障害物を検出する、コンピュータ読み取り可能な障害物検出プログラムであって、
3次元距離計測手段により計測して建物内の監視空間に存在する物体表面の3次元座標を得る3次元計測処理と、
計測した物体表面が鉛直方向に所定の大きさ以上に連続した面を含む場合に該連続した面を含む物体を柱、壁、ドアなどの環境に固定された障害物である環境固定障害物として識別する環境固定障害物識別処理と、
前記環境固定障害物を除いた物体表面の3次元座標より個別の障害物候補を抽出する障害物候補抽出処理と、
抽出した障害物候補が存在する空間の3次元座標データを切り出して、切り出した空間を鉛直方向に層別し、障害物候補の鉛直方向層別形状の特徴量を求めて組合せた特徴量組合せデータを形成し、予め設定された障害物モデルの鉛直方向の層別形状の特徴量からなる組合せ基準データと比較し、類似度が規定範囲にあれば障害物候補をこの障害物モデルに対応づけて識別する障害物識別処理とをコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003117480A JP4100239B2 (ja) | 2003-04-22 | 2003-04-22 | 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003117480A JP4100239B2 (ja) | 2003-04-22 | 2003-04-22 | 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004326264A true JP2004326264A (ja) | 2004-11-18 |
JP4100239B2 JP4100239B2 (ja) | 2008-06-11 |
Family
ID=33497350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003117480A Expired - Fee Related JP4100239B2 (ja) | 2003-04-22 | 2003-04-22 | 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4100239B2 (ja) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006141669A (ja) * | 2004-11-19 | 2006-06-08 | Shimadzu Corp | 移動式x線撮影装置 |
JP2007199965A (ja) * | 2006-01-25 | 2007-08-09 | Matsushita Electric Works Ltd | 自律移動装置 |
JP2009190164A (ja) * | 2008-02-15 | 2009-08-27 | Korea Inst Of Scinence & Technology | 物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法 |
JP2009217363A (ja) * | 2008-03-07 | 2009-09-24 | Hitachi Ltd | 環境地図生成装置、方法及びプログラム |
JP2010170288A (ja) * | 2009-01-22 | 2010-08-05 | Hitachi Ltd | 3次元モデリング装置 |
JP2011150473A (ja) * | 2010-01-20 | 2011-08-04 | Ihi Aerospace Co Ltd | 自律型移動体 |
JP2011197963A (ja) * | 2010-03-18 | 2011-10-06 | Fujitsu Ltd | 人物検出装置、人物検出方法及びプログラム |
JP2012073683A (ja) * | 2010-09-27 | 2012-04-12 | Fujitsu Ltd | 人物検出装置、人物検出方法及びプログラム |
US8209074B2 (en) | 2007-02-16 | 2012-06-26 | Kabushiki Kaisha Toshiba | Robot and method for controlling the same |
JP2012215555A (ja) * | 2011-03-30 | 2012-11-08 | Advanced Telecommunication Research Institute International | 計測装置,計測方法および計測プログラム |
KR101209573B1 (ko) * | 2010-11-16 | 2012-12-07 | 한국과학기술연구원 | 거리 센서를 이용한 연석 탐지 방법 및 이를 이용한 무인 자율 주행 차량 |
JP2013200604A (ja) * | 2012-03-23 | 2013-10-03 | Toyota Motor Corp | 移動ロボット |
WO2013176482A1 (ko) * | 2012-05-22 | 2013-11-28 | 주식회사 고영테크놀러지 | 3차원 형상 측정장치의 높이 측정 방법 |
JP2014056506A (ja) * | 2012-09-13 | 2014-03-27 | Toyota Central R&D Labs Inc | 障害物検出装置及びそれを備えた移動体 |
JP2015114261A (ja) * | 2013-12-13 | 2015-06-22 | 株式会社デンソーアイティーラボラトリ | 対象物検出装置、対象物検出方法およびプログラム |
WO2016067467A1 (ja) * | 2014-10-31 | 2016-05-06 | 三菱電機株式会社 | ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラム |
JP2017050018A (ja) * | 2010-12-30 | 2017-03-09 | アイロボット コーポレイション | 可動式ロボットシステム |
CN107518833A (zh) * | 2017-10-12 | 2017-12-29 | 南京中高知识产权股份有限公司 | 一种扫地机器人的障碍物识别方法 |
US9902069B2 (en) | 2010-05-20 | 2018-02-27 | Irobot Corporation | Mobile robot system |
US10215852B1 (en) * | 2015-10-05 | 2019-02-26 | Google Llc | Robotic radar assistance |
WO2019187654A1 (ja) * | 2018-03-30 | 2019-10-03 | 株式会社小松製作所 | 作業機械の制御システム、作業機械、及び作業機械の制御方法 |
JP2020085547A (ja) * | 2018-11-19 | 2020-06-04 | 株式会社日建設計総合研究所 | データ計測システム及び建物設備制御システム |
CN111590590A (zh) * | 2020-06-04 | 2020-08-28 | 广东电网有限责任公司 | 一种变电站挂轨机器人防碰撞系统及方法 |
CN112256052A (zh) * | 2020-09-14 | 2021-01-22 | 北京三快在线科技有限公司 | 无人机的速度控制方法、装置、无人机和存储介质 |
JP2021011001A (ja) * | 2019-07-09 | 2021-02-04 | トヨタ自動車株式会社 | 演算装置、機械学習方法及び制御プログラム |
WO2021075112A1 (ja) * | 2019-10-16 | 2021-04-22 | ソニー株式会社 | 情報処理装置と情報処理方法およびプログラム |
WO2023062755A1 (ja) * | 2021-10-13 | 2023-04-20 | 株式会社Fuji | 作業装置および実装システム |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63228273A (ja) * | 1987-03-17 | 1988-09-22 | Toshiba Corp | 3次元構造認識装置 |
JPH0773291A (ja) * | 1993-09-02 | 1995-03-17 | Res Dev Corp Of Japan | 画像処理装置 |
JPH08255245A (ja) * | 1995-03-17 | 1996-10-01 | Toshiba Corp | ランドマーク認識装置およびランドマーク認識方法 |
JPH11213166A (ja) * | 1998-01-27 | 1999-08-06 | Toshiba Corp | 物体検知装置およびパターン認識装置および動作制御装置 |
JP2000317868A (ja) * | 1999-05-07 | 2000-11-21 | Sony Corp | ロボット装置及びロボット装置の行動決定方法 |
JP2001351200A (ja) * | 2000-06-09 | 2001-12-21 | Nissan Motor Co Ltd | 車載用物体検知装置 |
JP2002288637A (ja) * | 2001-03-23 | 2002-10-04 | Honda Motor Co Ltd | 環境情報作成方法 |
JP2004171165A (ja) * | 2002-11-19 | 2004-06-17 | Honda Motor Co Ltd | 移動装置 |
-
2003
- 2003-04-22 JP JP2003117480A patent/JP4100239B2/ja not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63228273A (ja) * | 1987-03-17 | 1988-09-22 | Toshiba Corp | 3次元構造認識装置 |
JPH0773291A (ja) * | 1993-09-02 | 1995-03-17 | Res Dev Corp Of Japan | 画像処理装置 |
JPH08255245A (ja) * | 1995-03-17 | 1996-10-01 | Toshiba Corp | ランドマーク認識装置およびランドマーク認識方法 |
JPH11213166A (ja) * | 1998-01-27 | 1999-08-06 | Toshiba Corp | 物体検知装置およびパターン認識装置および動作制御装置 |
JP2000317868A (ja) * | 1999-05-07 | 2000-11-21 | Sony Corp | ロボット装置及びロボット装置の行動決定方法 |
JP2001351200A (ja) * | 2000-06-09 | 2001-12-21 | Nissan Motor Co Ltd | 車載用物体検知装置 |
JP2002288637A (ja) * | 2001-03-23 | 2002-10-04 | Honda Motor Co Ltd | 環境情報作成方法 |
JP2004171165A (ja) * | 2002-11-19 | 2004-06-17 | Honda Motor Co Ltd | 移動装置 |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006141669A (ja) * | 2004-11-19 | 2006-06-08 | Shimadzu Corp | 移動式x線撮影装置 |
JP2007199965A (ja) * | 2006-01-25 | 2007-08-09 | Matsushita Electric Works Ltd | 自律移動装置 |
US8209074B2 (en) | 2007-02-16 | 2012-06-26 | Kabushiki Kaisha Toshiba | Robot and method for controlling the same |
JP2009190164A (ja) * | 2008-02-15 | 2009-08-27 | Korea Inst Of Scinence & Technology | 物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法 |
JP2009217363A (ja) * | 2008-03-07 | 2009-09-24 | Hitachi Ltd | 環境地図生成装置、方法及びプログラム |
JP2010170288A (ja) * | 2009-01-22 | 2010-08-05 | Hitachi Ltd | 3次元モデリング装置 |
JP2011150473A (ja) * | 2010-01-20 | 2011-08-04 | Ihi Aerospace Co Ltd | 自律型移動体 |
JP2011197963A (ja) * | 2010-03-18 | 2011-10-06 | Fujitsu Ltd | 人物検出装置、人物検出方法及びプログラム |
US9902069B2 (en) | 2010-05-20 | 2018-02-27 | Irobot Corporation | Mobile robot system |
JP2012073683A (ja) * | 2010-09-27 | 2012-04-12 | Fujitsu Ltd | 人物検出装置、人物検出方法及びプログラム |
KR101209573B1 (ko) * | 2010-11-16 | 2012-12-07 | 한국과학기술연구원 | 거리 센서를 이용한 연석 탐지 방법 및 이를 이용한 무인 자율 주행 차량 |
JP2017050018A (ja) * | 2010-12-30 | 2017-03-09 | アイロボット コーポレイション | 可動式ロボットシステム |
JP2012215555A (ja) * | 2011-03-30 | 2012-11-08 | Advanced Telecommunication Research Institute International | 計測装置,計測方法および計測プログラム |
JP2013200604A (ja) * | 2012-03-23 | 2013-10-03 | Toyota Motor Corp | 移動ロボット |
WO2013176482A1 (ko) * | 2012-05-22 | 2013-11-28 | 주식회사 고영테크놀러지 | 3차원 형상 측정장치의 높이 측정 방법 |
US9243899B2 (en) | 2012-05-22 | 2016-01-26 | Koh Young Technology Inc. | Method of measuring a height of 3-dimensional shape measurement apparatus |
JP2014056506A (ja) * | 2012-09-13 | 2014-03-27 | Toyota Central R&D Labs Inc | 障害物検出装置及びそれを備えた移動体 |
JP2015114261A (ja) * | 2013-12-13 | 2015-06-22 | 株式会社デンソーアイティーラボラトリ | 対象物検出装置、対象物検出方法およびプログラム |
JPWO2016067467A1 (ja) * | 2014-10-31 | 2017-04-27 | 三菱電機株式会社 | ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラム |
WO2016067467A1 (ja) * | 2014-10-31 | 2016-05-06 | 三菱電機株式会社 | ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラム |
US10215852B1 (en) * | 2015-10-05 | 2019-02-26 | Google Llc | Robotic radar assistance |
CN107518833A (zh) * | 2017-10-12 | 2017-12-29 | 南京中高知识产权股份有限公司 | 一种扫地机器人的障碍物识别方法 |
JP7103824B2 (ja) | 2018-03-30 | 2022-07-20 | 株式会社小松製作所 | 作業機械の制御システム、作業機械、及び作業機械の制御方法 |
WO2019187654A1 (ja) * | 2018-03-30 | 2019-10-03 | 株式会社小松製作所 | 作業機械の制御システム、作業機械、及び作業機械の制御方法 |
JP2019179512A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社小松製作所 | 作業機械の制御システム、作業機械、及び作業機械の制御方法 |
US11745767B2 (en) | 2018-03-30 | 2023-09-05 | Komatsu Ltd. | Work machine control system, work machine, and work machine control method |
JP2020085547A (ja) * | 2018-11-19 | 2020-06-04 | 株式会社日建設計総合研究所 | データ計測システム及び建物設備制御システム |
JP7437873B2 (ja) | 2018-11-19 | 2024-02-26 | 株式会社日建設計総合研究所 | データ計測システム及び建物設備制御システム |
JP2021011001A (ja) * | 2019-07-09 | 2021-02-04 | トヨタ自動車株式会社 | 演算装置、機械学習方法及び制御プログラム |
JP7207207B2 (ja) | 2019-07-09 | 2023-01-18 | トヨタ自動車株式会社 | 演算装置、機械学習方法及び制御プログラム |
WO2021075112A1 (ja) * | 2019-10-16 | 2021-04-22 | ソニー株式会社 | 情報処理装置と情報処理方法およびプログラム |
CN111590590B (zh) * | 2020-06-04 | 2022-03-29 | 广东电网有限责任公司 | 一种变电站挂轨机器人防碰撞系统及方法 |
CN111590590A (zh) * | 2020-06-04 | 2020-08-28 | 广东电网有限责任公司 | 一种变电站挂轨机器人防碰撞系统及方法 |
CN112256052A (zh) * | 2020-09-14 | 2021-01-22 | 北京三快在线科技有限公司 | 无人机的速度控制方法、装置、无人机和存储介质 |
CN112256052B (zh) * | 2020-09-14 | 2024-03-12 | 北京三快在线科技有限公司 | 无人机的速度控制方法、装置、无人机和存储介质 |
WO2023062755A1 (ja) * | 2021-10-13 | 2023-04-20 | 株式会社Fuji | 作業装置および実装システム |
Also Published As
Publication number | Publication date |
---|---|
JP4100239B2 (ja) | 2008-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4100239B2 (ja) | 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム | |
CN109506658B (zh) | 机器人自主定位方法和系统 | |
CN107169986B (zh) | 一种障碍物检测方法及系统 | |
WO2021022615A1 (zh) | 机器人探索路径生成方法、计算机设备和存储介质 | |
CN103678754B (zh) | 信息处理装置及信息处理方法 | |
US11568559B2 (en) | Localization of a surveying instrument | |
KR101725060B1 (ko) | 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
US8289321B2 (en) | Method and apparatus for detecting plane, and robot apparatus having apparatus for detecting plane | |
EP2000953B1 (en) | Information processing apparatus, information processing method, and computer program | |
Luo et al. | Enriched indoor map construction based on multisensor fusion approach for intelligent service robot | |
KR101776621B1 (ko) | 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
EP3153816B1 (en) | Method, device and computer programme for extracting information about one or more spatial objects | |
JP6632208B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
CN107491070A (zh) | 一种移动机器人路径规划方法及装置 | |
JP5444952B2 (ja) | センサフュージョンによる地図の自動生成、およびそのように自動生成された地図を用いて移動体の移動をするための、装置、方法、ならびにプログラム | |
CN109325979B (zh) | 基于深度学习的机器人回环检测方法 | |
KR20120046974A (ko) | 이동 로봇 및 이동 로봇의 위치인식 및 지도작성 방법 | |
CN112000103B (zh) | 一种agv机器人定位、建图与导航的方法及系统 | |
KR101207535B1 (ko) | 이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법 | |
CN112750161B (zh) | 用于移动机器人的地图更新方法 | |
JP2020042447A (ja) | 不動物体情報から端末位置を推定する装置、プログラム及び方法 | |
CN112861725A (zh) | 一种导航提示方法、装置、电子设备及存储介质 | |
Luo et al. | Multisensor integrated stair recognition and parameters measurement system for dynamic stair climbing robots | |
Zhu et al. | Indoor multi-robot cooperative mapping based on geometric features | |
JP2021177144A (ja) | 情報処理装置、情報処理方法及びープログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051012 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070824 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080124 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080310 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110328 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110328 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120328 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |