JP2004280451A - 自律移動装置 - Google Patents
自律移動装置 Download PDFInfo
- Publication number
- JP2004280451A JP2004280451A JP2003070728A JP2003070728A JP2004280451A JP 2004280451 A JP2004280451 A JP 2004280451A JP 2003070728 A JP2003070728 A JP 2003070728A JP 2003070728 A JP2003070728 A JP 2003070728A JP 2004280451 A JP2004280451 A JP 2004280451A
- Authority
- JP
- Japan
- Prior art keywords
- mobile device
- distance
- autonomous mobile
- image
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 105
- 238000003384 imaging method Methods 0.000 claims abstract description 43
- 230000007613 environmental effect Effects 0.000 claims abstract description 13
- 238000001514 detection method Methods 0.000 claims description 80
- 238000000034 method Methods 0.000 claims description 54
- 238000005259 measurement Methods 0.000 claims description 53
- 230000008569 process Effects 0.000 claims description 32
- 238000004458 analytical method Methods 0.000 claims description 18
- 230000007246 mechanism Effects 0.000 claims description 14
- 238000013459 approach Methods 0.000 claims description 8
- 230000009471 action Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000009795 derivation Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000004091 panning Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/10—Programme-controlled manipulators characterised by positioning means for manipulator elements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
Abstract
【解決手段】自律移動装置1は、環境情報取得手段6により障害物及び自己位置を認識しつつ障害物を回避しながら走行経路に沿って自律的に走行する。環境情報取得手段6は、走行経路上の環境の画像を撮像する撮像装置71及び撮像した画像を演算処理して予め定めた属性を有する物体を抽出する画像認識処理手段72を含む画像情報取得手段7と、走行経路上の環境内に存在する物体までの距離とその方向を測定する距離測定装置81及び得られた距離情報を演算処理する距離情報解析手段82を含む距離情報取得手段8と、画像情報取得手段7で得られた物体の情報、及び距離情報取得手段8で得られた距離情報に基づき、走行経路上の環境情報を走行制御手段4に出力する環境認識手段9を備えている。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、人や台車などの他の移動物体の存在する領域において、障害物を回避して目的地まで移動することができる自律移動装置に関する。
【0002】
【従来の技術】
従来、レーザレーダやソナー等の距離センサを使って障害物を検出し、走行制御を行う自律移動装置が知られている。自律移動装置が、安全な走行を行うには、障害物の検出だけでなく、検出物が何であるかを認識して制御を行う必要がある。検出物の認識には、3次元空間全域にわたって密な距離計測が必要である。そこで、カメラによって得られる画像から空間の情報を得て、走行制御を行うことが研究されている。例えば、距離情報と画像情報を用いて走行を行う技術や(例えば、特許文献1参照)、CCDカメラと超音波センサを利用して障害物の横位置を測定する技術(例えば、特許文献2参照)が知られている。
【0003】
【特許文献1】
特開平7−116981号公報
【特許文献2】
特開2000−123298号公報
【0004】
【発明が解決しようとする課題】
しかしながら、上述した特許文献1に示されるような方法は、走行の障害となる物体面をもつ障害物を対象としており、物体が何であるかの判断を行って走行制御を行うものではない。また、特許文献2に示されるような技術は、障害物の横方向の広がりを単に認識するのみであり、これも物体が何であるかの判断を行って制御を行うものではない。
【0005】
本発明は、上記課題を解消するものであって、レーザレーダや超音波センサ(ソナー)等の距離計測手段により得られる部分的な障害物検出結果と、画像処理により得られる広範囲の障害物検出結果とを総合して障害物が何であるかを判断することにより、信頼性の高い障害物認識を実現し、障害物に応じて自律移動装置の走行を制御し、安全かつスムースな走行動作を実現できる自律移動装置を提供することを目的とする。
【0006】
【課題を解決するための手段及び発明の効果】
上記課題を達成するために、請求項1の発明は、走行する領域の地図情報と走行のための各種パラメータを記憶する記憶手段と、目的地や走行指令を前記記憶手段に入力する入力指示手段と、目的地までの走行経路を生成する経路生成手段と、障害物及び自己位置を認識するための情報を得る環境情報取得手段と、走行を行うための走行手段と、前記環境情報取得手段で得られた情報と記憶した地図情報とに基づいて自己位置を認識する自己位置認識手段と、この自己位置認識手段により自己位置を認識しつつ障害物を回避しながら前記走行手段を制御して前記生成された走行経路に沿って走行する走行制御手段を有する自律移動装置であって、前記環境情報取得手段は、走行経路上の環境の画像を撮像する撮像装置及び撮像した画像情報を演算処理して人体の部位に関する属性を持つ領域を抽出する画像認識処理手段を含む画像情報取得手段と、走行経路上の環境内に存在する物体までの距離と物体の方向を測定する距離測定装置及び測定したこれらの距離情報を演算処理する距離情報解析手段を含む距離情報取得手段と、前記画像情報取得手段で得られた人体の部位に関する属性を持つ領域の情報、及び前記距離情報取得手段で得られた物体に関する距離情報に基づいて、走行経路上の環境情報を前記走行制御手段に出力する環境認識手段と、を備えるものである。
【0007】
上記構成においては、撮像装置で撮像した走行経路上の環境の画像を、画像認識処理手段で演算処理して人体の部位に関する属性を持つ領域を抽出し、距離測定装置により走行経路上の環境内に存在する物体までの距離と物体の方向を測定して、距離情報解析手段でこれらの距離情報を演算処理し、これらの抽出した人体の部位に関する情報、及び物体に関する距離情報に基づいて、走行経路上の環境情報を走行制御手段に出力するようにしたので、部分的であるが計測精度の高い距離情報と、距離データを持たないが広いエリアの環境情報が得られる画像情報とを組み合わせて走行経路上の環境の認識、すなわち障害物が何であるかを判断することができ、信頼性の高い環境情報を得て、障害物に応じて自律移動装置の走行を制御し、自律移動装置の安全かつスムースな走行動作を実現することができる。
【0008】
請求項2の発明は、請求項1に記載の自律移動装置において、画像情報取得手段は、距離情報取得手段が距離情報を演算処理して検出した物体の方向を含むように撮像し、環境認識手段は、得られた画像中の物体の方向に対応する部分について認識処理を行うものである。
【0009】
上記構成においては、画像情報取得手段が、距離情報取得手段により検出された障害物の位置に対応する画像上の領域だけを認識処理し、障害物の存在しない領域は処理しないので、画像認識の計算量を削減することができる。また、障害物の存在する部分だけを画像により認識処理できるので信頼性の高い環境認識が行える。
【0010】
請求項3の発明は、請求項1に記載の自律移動装置において、距離情報取得手段は、画像情報取得手段により抽出された物体の方向を含むように距離計測を行い、環境認識手段は、得られた距離計測データ中の物体の方向に対応する部分について認識処理を行うものである。
【0011】
上記構成においては、距離情報取得手段が、画像情報取得手段により抽出された物体の方向を含むように距離計測を行うので、無駄な距離情報取得処理をなくすことができる。特に、距離情報によって識別したいものと同様の形状のものが多数存在する場合、例えば、人を柱状物として検出・識別しようとする場合に、柱や、テーブルの脚などが多数ある場合に、画像情報取得手段により得られる障害物の候補領域だけについて距離情報を取得することができるので、効率的な距離情報取得処理が行える。
【0012】
請求項4の発明は、請求項1乃至請求項3のいずれかに記載の自律移動装置において、距離測定装置は、走行路面に平行な面内を予め設定した角度毎に走査して障害物までの距離を計測するレーザレーダによりなる。
【0013】
上記構成においては、位置計測精度の高い計測データが得られ、障害物の形状認識ができる。また、計測平面上での障害物の形状が分かるので、障害物推定のためのデータとすることができる。
【0014】
請求項5の発明は、請求項1乃至請求項3のいずれかに記載の自律移動装置において、距離測定装置は、超音波センサによりなる。
【0015】
上記構成においては、超音波センサは安価であるため、安価に距離情報が得られるとともに、自律移動装置の周囲に複数設置して広範囲の距離計測ができる。また、距離情報の必要性に応じ、計測方向、設置間隔を任意に設定することができる。
【0016】
請求項6の発明は、請求項1乃至請求項4のいずれかに記載の自律移動装置において、距離情報解析手段は、距離情報を演算処理して検出した物体の幅が予め決めた範囲内であるとき、その物体を人の候補として認識するものである。
【0017】
上記構成においては、一般に、人が立っている場合の人の脚や人が椅子に座っている場合の人又は椅子の脚は柱状と仮定できるので、計測平面上での障害物の形状解析より、容易に障害物が人であるかどうか推定することができる。
【0018】
請求項7の発明は、請求項1乃至請求項3のいずれか又は請求項5に記載の自律移動装置において、距離情報解析手段は、計測された物体までの距離が記憶された地図上の物体までの距離と一致しないとき、計測された物体を人の候補として認識するものである。
【0019】
上記構成においては、地図上に無い物体は人である可能性が高いと判断することにより、簡単に人検出を実現することができる。壁に張られた人の写真などを人と誤認識することがなくなる。
【0020】
請求項8の発明は、請求項1乃至請求項3のいずれかに記載の自律移動装置において、撮像装置は、自律移動装置本体の基準座標系に対して固定され自律移動装置本体に設置された1つのカメラである。
【0021】
上記構成においては、特定の方向に固定して設置することにより構成が簡単であり、低コストの撮像装置が実現できる。
【0022】
請求項9の発明は、請求項1乃至請求項3のいずれかに記載の自律移動装置において、撮像装置は、自律移動装置本体の基準座標系に対し、方向を制御して変更できる機構上に設置されたカメラである。
【0023】
上記構成においては、カメラを動かすことができるので、広い範囲を1つのカメラで計測することができる。
【0024】
請求項10の発明は、請求項1乃至請求項3のいずれかに記載の自律移動装置において、撮像装置は、自律移動装置本体の全方位を撮像できるように、複数のカメラを設置してなるものである。この構成においては、機構部を持つことなく、広い範囲を計測することができる。
【0025】
請求項11の発明は、請求項1乃至請求項3のいずれかに記載の自律移動装置において、撮像装置は、自律移動装置本体の全方位を撮像できるように、全方位ミラーとカメラを組合せた撮像装置であるものである。この構成においては、広い範囲を1つのカメラで計測することができる。
【0026】
請求項12の発明は、請求項1乃至請求項3のいずれかに記載の自律移動装置において、画像認識処理手段は、少なくとも撮像した画像から特定色領域を検出する特定色領域検出部と検出された特定色領域の形状について演算処理する形状特徴処理部とを含み、検出された特定色領域が予め決めた形状特徴条件を満たすとき、その特定色領域を人の候補として認識するものである。
【0027】
上記構成においては、画像上で、人の特徴を良く表す特定色領域、例えば肌色領域と、人の形状特徴を両方使うことにより、信頼性の高い人の検出を行うことができる。
【0028】
請求項13の発明は、請求項1乃至請求項3、請求項6、及び請求項12のいずれかに記載の自律移動装置において、環境認識手段は、距離情報取得手段で検出された物体が人候補と認識される位置と、画像情報取得手段で検出された物体が人候補と認識される位置とが一致するとき、検出された物体を人と判断するものである。
【0029】
上記構成においては、距離情報取得手段で得られた人検出結果と、画像情報取得手段で得られた人検出結果が一致する時、最終的に環境情報取得手段の結果として人を検出したと判断するので、信頼性の高い人の検出が実現できる。
【0030】
請求項14の発明は、請求項1乃至請求項3、請求項6、請求項12、及び請求項13のいずれかに記載の自律移動装置において、環境認識手段は、画像中で検出された人の肌の色領域の面積と、自律移動装置本体から人までの距離により予め決められたその距離における人の肌の色領域の面積との比を求め、この比と予め決められたしきい値とを比較することにより、検出された人が自律移動装置に気付いているかいないかを判断するものである。
【0031】
上記構成においては、人の有無だけでなく、検出されたその人が自律移動装置に気付いているかいないかという、その人の状態まで認識することができるので、人の状態情報により、安全かつスムースな移動動作を実現することができる。
【0032】
請求項15の発明は、請求項1乃至請求項14のいずれかに記載の自律移動装置において、走行制御手段は、人と認識される物体が自律移動装置の進行方向にあってかつ、予め記憶手段2に設定した一定の距離内にある場合には停止し、人と認識される物体が自律移動装置本体の進行方向にない場合、障害物があれば回避を行い、障害物がなければそのまま走行を継続するように走行手段を制御するものである。この構成においては、人に対して安全を確保できる。
【0033】
請求項16の発明は、請求項1乃至請求項14のいずれかに記載の自律移動装置において、走行制御手段は、人と認識される物体が自律移動装置本体の進行方向にある場合、その人と認識される物体から予め定めた距離を隔てて回避して走行するように走行手段を制御するものである。
【0034】
上記構成においては、人がいても回避して目的地に進む必要がある場合に、人に対して安全を確保しながら動作ができる。すなわち、人でない検出物体に対しては距離をとって回避する必要がなく回避距離を短くできるので、効率の良い自律移動装置の運行が可能となる。
【0035】
請求項17の発明は、請求項1乃至請求項14のいずれかに記載の自律移動装置において、走行制御手段は、人と認識される物体が予め定めた距離内にある場合、その距離又は距離と角度に応じた移動速度となるように走行手段を制御するものである。
【0036】
上記構成においては、人が不安を感じない動作で効率の良い移動ができる。また、検出物体が人でない場合は、速度を落とす必要がなく、効率の良い自律移動装置の運行が可能となる。
【0037】
請求項18の発明は、請求項14に記載の自律移動装置において、走行制御手段は、検出された人が自律移動装置に気づいていると判断できる場合は接近し、そうでない場合は、検出された人には予め定めた距離以上に近づかないように走行手段を制御するものである。この構成においては、自律移動装置に気付いていない人に自律移動装置が近づかないので、人を脅かすことがない。
【0038】
請求項19の発明は、請求項1乃至請求項18のいずれかに記載の自律移動装置において、走行制御手段は、検出された人の近くを通過する際に、人に対して注意喚起行動をとるものである。この構成においては、人に対する自律移動装置の親和性を向上することができる。
【0039】
請求項20の発明は、請求項1乃至請求項19のいずれかに記載の自律移動装置において、画像情報取得手段は、検出された人を撮像してその画像を記憶手段に記憶する、又は画像を遠隔ステーションに送信するものである。この構成においては、自律移動装置に監視機能を持たせることができ、セキュリティ効果や防犯効果が得られる。
【0040】
【発明の実施の形態】
以下、本発明の一実施形態に係る自律移動装置について、図面を参照して説明する。図1は本装置のブロック構成を示す。自律移動装置1は、走行する領域の地図情報と走行のための各種パラメータを記憶する記憶手段2と、目的地や走行指令を記憶手段2に入力する入力指示手段3と、目的地までの走行経路を生成する経路生成手段41と、障害物及び自己位置を認識するための情報を得る環境情報取得手段6と、走行を行うための走行手段5と、環境情報取得手段6で得られた情報と記憶した地図情報とに基づいて自己位置を認識する自己位置認識手段42と、この自己位置認識手段42により自己位置を認識しつつ障害物を回避しながら走行手段5を制御して前記生成された走行経路に沿って走行する走行制御手段4を備えている。
【0041】
また、環境情報取得手段6は、走行経路上の環境の画像を撮像する撮像装置71及び撮像した画像情報を演算処理して予め定めた属性を有する物体を抽出する画像認識処理手段72を含む画像情報取得手段7と、走行経路上の環境内に存在する物体までの距離と物体の方向を測定する距離測定装置81及び測定したこれらの距離情報を演算処理する距離情報解析手段82を含む距離情報取得手段8と、画像情報取得手段7で得られた予め定めた属性を有する物体の情報、及び距離情報取得手段8で得られた距離情報に基づいて、走行経路上の環境情報を走行制御手段4に出力する環境認識手段9を備えている。
【0042】
自己位置認識手段42は、例えば走行手段5に取付けられたエンコーダや内臓されたジャイロなどを用いて、走行中に自己位置が地図上のどの位置にあるかを推定するとともに、環境情報取得手段6で得られた自己位置情報を用いて自己位置推定値を補正する。
【0043】
環境情報取得手段6から得られる自己位置情報として、例えば、環境情報取得手段6により認識可能な標識を予め走行環境内に設置しておき、また、その標識を地図情報に登録しておくことにより、走行中にその標識を認識して自己位置情報とすることができる。走行制御手段4は、自己の推定位置を基準にして送られてきた相対位置による標識位置情報をもとに、地図上の登録標識を探索する。標識が検出されると、その標識の位置を基準にして前記相対位置情報から自己位置認識ができる。標識が2個以上検出できると、自己位置は一意に決められる。
【0044】
また、環境情報取得手段6は、走行中に障害物を検出し、その位置情報を走行制御手段4に送り、走行制御手段4は、その障害物を避けるように走行経路を修正し、制御出力を走行手段5に送る。このように、自律移動装置1は、自己位置を認識しつつ障害物を回避しながら走行経路に沿って指示された目的地まで走行する。
【0045】
図2は自律移動装置1の外観を示す。この自律移動装置1は、距離情報取得手段8の距離測定装置81として、レーザレーダ(レーザレンジファインダ)83を備えており、画像情報取得手段7の撮像装置71として、自律移動装置本体10に対して回転(水平回転)可能な回転機構70aに設置されたカメラ70を備えている。また、この装置は、例えば、電池により車輪52が駆動されて走行するものであり、車輪52の回転をモニタすることにより走行距離の計測が行われ、自己位置認識の情報とされる。以下、画像情報取得手段から順に、本装置の詳細を説明する。
【0046】
(画像情報取得手段の構成)
本発明の自律移動装置1は、レーザレーダやソナー等の距離計測手段により得られる部分的な障害物検出結果と画像処理により得られる障害物検出結果の、2種類の障害物情報を総合して障害物が何であるかを判断する。まず、画像処理により障害物検出結果を得ることについて説明する。図3及び図4は画像情報取得手段7のブロック構成を示す。画像認識処理手段72は、カラーカメラ(撮像装置)70から入力される画像信号を、A/D変換器61によりデジタル化して、メモリ62にデジタル画像として保存する。画像に対して演算処理を行うCPU64には、プログラムメモリ63から処理アルゴリズムが記載されたソフトウェアが呼び出されており、CPU64はそのソフトウエアを用いて以下に示す処理手順によりデジタル画像から人の検出処理を実行する。画像処理結果は、通信制御部65により環境認識手段9を経由して走行制御手段4へと送信される。
【0047】
また、ローカルに、つまり自律移動装置本体10のところで操作者が自律移動装置本体10の機器を操作して、画像情報取得手段7(カメラ70と画像認識処理手段72)の操作や処理結果の表示を行うために、図4に示すように、キーボード制御部66、キーボード67,表示制御部68,及び表示部69を画像認識処理手段72に備えてもよい。また、通信制御部65を介して、外部より画像情報取得手段7の操作を制御することもできる。
【0048】
(撮像装置)
撮像装置71について説明する。図5(a)(b)は1つの固定カメラからなる撮像装置71を示し、図5(c)はそれにより撮像された画像を示す。このカメラ70は、自律移動装置本体10に固定されており、自律移動装置本体10の進行方向10a前方の景色を画像11のように撮像する。このカメラ70の座標系は、自律移動装置本体10に固定して定義された基準座標系とともに動くことになる。
【0049】
上記のカメラ70よりも広い範囲を視野とすることができる撮像装置71の例を説明する。図6(a)(b)は自律移動装置本体10の基準座標系に対し、撮像方向を制御して変更できる機構上に設置されたカメラを示し、図6(c)はそれにより撮像された画像を示す。回転機構73aと傾転支持具73bによるパン・チルト機構により、カメラ73単体の姿勢が制御される。カメラ73の撮像方向が上下(チルトt)、左右(パンp)方向に可動である。パン又はチルトにより複数の画像を取得して、検出対象である、例えば人を視野から外れることなく撮像でき、人検出に適した画像が得られる。図6(c)に示すパン画像12〜14の例では、中央の画像では人の一部しか撮像されていないが、右にパンした画像があることにより、人の全体を画像として得ることができる。
【0050】
複数のカメラを用いる例を説明する。図7(a)(b)は自律移動装置本体10にその全方位を撮像できるように固定した4つのカメラを示し、図7(c)はそれらのカメラにより撮像された画像を示す。自律移動装置本体10を制御するために、予め必要とされる複数の方向に固定カメラが設置される。例えば、自律移動装置本体10の前後左右に設置した4つのカメラ70からの画像15〜18により全方位における状況の観測ができる。
【0051】
他の方法による全方位撮像について説明する。図8(a)(b)は自律移動装置本体10にその全方位を撮像できるように固定した全方位カメラ74を示し、図8(c)はそのカメラにより撮像された画像を示す。全方位カメラ74は、例えば円錐状の鏡からなる全方位ミラー74bとカメラ74aを組合せた撮像装置である。撮像装置71として当該全方位カメラ74を用いることにより、図8(c)に示すように、1回の撮像で自律移動装置本体10の全周の状況を示す画像19が得られる。画像19において、中心部はカメラ74a自身の影であり、直立したものの像、例えば直立した人Mは画像中心から放射状に撮像される。
【0052】
(画像認識処理手段)
撮像装置71で取得された画像データを画像認識処理手段72により演算処理して、人や特定の物体の検出を行う方法について説明する。図9は画像から人を認識するための全体の処理の流れ(人認識処理フロー)を示す。撮像装置71であるカラーカメラにより、自律移動装置の周辺状況、例えば進行方向前方が撮像され(S101)、そのアナログ画像信号がA/D変換器61によりデジタル化され(S102)、色の3成分であるR、G、B(赤、緑、青)からなる各色成分デジタル画像がメモリ62に保存される(S103)。次に、CPU64において色の3成分を平均した輝度I=(R+G+B)/3による画像が作成され、その輝度画像がメモリ62に保存される(S104)。次に、画像中より肌色領域の検出処理(後述)が行われ(S105)、検出された肌色領域内についてエッジ画像に基づく頭部形状検出処理(後述)が行われる(S106)。検出された頭部の位置が人認識結果として環境認識手段9に出力される。
【0053】
上述の処理の流れの様子を、処理対象となる画像により説明する。図10(a)は入力画像、図10(b)は肌色領域検出結果の画像、図10(c)はエッジ画像上の肌色領域を示す画像、図10(d)は認識結果を出力した画像をそれぞれ示している。まず、入力画像21において肌色領域24〜26が検出され(画像23)、検出された肌色領域24〜26についてのみ、エッジ画像27上において頭部形状検出処理が行われるので、効率の良い処理が行える。
【0054】
画像における肌色領域の検出に用いられる正規化r−g空間について説明する。図11は正規化r−g空間(平面)を示す。カラー画像におけるR成分、G成分は、各画素のカラー成分の輝度値R、G、Bを用いて、計算式r=R/(R+G+B)、g=G/(R+G+B)により、正規化され、正規化されたr,g値が得られる。一般に、人の肌色は、図11に示すように、r−g平面上で1つの領域20を形成するので、カラー画像の各画素から求めた正規化r、g値が、この領域20に入るかどうかにより、その画素が肌色かどうかが判定される。この肌色領域20は予め多くの画像の肌色データに基づいて作成されたものである。
【0055】
肌色領域の検出処理の詳細について説明する。図12は肌色領域検出処理フローを示す。まず、CPU64において、メモリ62の肌色領域を記憶する肌色画像部分が初期化される(S201)。次に、入力画像の1つの画素についてR成分、G成分が計算式r=R/(R+G+B)、g=G/(R+G+B)により正規化される(S202)。この正規化されたR成分、G成分のr、g値が肌色領域20内かどうかが検査され(S203)、肌色領域内であればその画素は肌色と判定され(S203でY)、肌色画像の対応する位置に肌色フラグが立てられる(S204)。入力画像の全画素についてこれらの処理が終了後(S205でY)、肌色画像上で、肌色フラグの立った画素がグループ化され、そのグループをもとに、例えば矩形の領域からなる肌色領域が作成される。このような肌色領域にラベリング処理がなされ、各領域の区別が行われて、前出の図10(b)に示すように肌色領域24〜26が得られる(S206)。
【0056】
検出された肌色領域から投票処理により頭部形状を検出する方法について説明する。図13(a)は投票処理において用いられる投票範囲を定める投票枠を示し、図13(b)はその投票枠の用い方を示す。頭部形状検出は、頭部がほぼ円形の形状を持つことを利用して行われる。例えば、人の顔を含む画像にエッジ抽出の画像処理(例えば画像輝度についての微分処理)を施したエッジ画像34に、顔の輪郭を表すエッジ画素集合35が得られたとする。このエッジ画像34の各画素点を投票ビン(投票箱)とする投票空間が設定される。また、エッジ画素の集合35の各画素について、例えば、画素36に対して輝度勾配方向36aのように、各画素に輝度勾配方向が決定されているとする。一般に、人の顔とその背景の画像には濃淡変化があり、顔輪郭のエッジ画素における輝度勾配方向は、顔の中心から外へ、又は外から内へ向かうものとなる。
【0057】
そこで、検出対象となる頭部の大きさを含むように設定された棒状の投票枠31の中央点32を、例えばエッジ画素36に合わせ、投票枠31の方向をそのエッジ画素36における輝度勾配方向36aとして、投票枠31の各投票ビン33と重なる投票空間の全ての投票ビンに投票する。このような投票を顔の輪郭を表すエッジ画素集合35の全ての画素について行うと、星印39で示されるように、顔の中心にある投票ビンには、他よりも多くの投票がなされることになる。このように、頭部の外形上に沿う投票処理の結果は、頭部の中心部に集積するので、投票空間内で予め決められたしきい値よりも大きい投票値を持つ投票ビンが有るとき、その投票ビンを中心とする頭部が存在すると判定される。
【0058】
頭部形状の検出処理の詳細について説明する。図14は頭部形状検出処理フローを示す。まず、CPU64において、例えば肌色領域24に対応する輝度画像を微分して、輝度勾配画像・エッジ画像を作成される(S301)。次に、投票値を記憶するメモリ空間である投票空間を初期化される(S302)。次に、肌色領域24内の全エッジ画素について、各エッジ画素の輝度勾配方向に、棒状の投票範囲枠を配置して選択された投票空間の各投票ビンに投票が行われる(S303)。肌色領域24内の全エッジ画素について投票終了後(S304)、予め決められたしきい値以上の投票値を持つ投票ビンの存在が調べられ、そのような投票ビンが存在する場合(S305でY)、その肌色領域の中心位置が頭部位置として通信制御部65を介して環境認識手段9に出力される(S306)。全ての肌色領域について上記の処理が行われて、頭部形状検出処理が終了する(S307)。前出の図10(d)の場合、肌色領域24,25,26のうち、肌色領域24が頭部形状として検出され、星印29の位置が頭部位置とされる。
【0059】
画像上で肌色領域から頭部位置として検出された位置の、実空間における存在方向を特定する方法について説明する。実空間における人存在方向の特定は、画像認識処理手段72において行われる。図15は全方位カメラ74を備えた自律移動装置本体10と人の位置関係を示し、図16はその全方位カメラにより撮像された人を含む画像を示す。撮像装置71が、全方位カメラ74の場合、その全方位カメラ画像19における頭部位置の角度φが実空間における人存在の概略の方向角度φとなる。
【0060】
また、図17は水平回転機構70a上のカメラ70を備えた自律移動装置本体10と人の位置関係を示し、図18(a)〜(c)は回転型カメラの回転状態と各カメラ角度で撮像された人を含む画像を示す。このように、パン動作可能な水平回転機構70a上のカメラ70の場合、パン画像12における人(頭部位置)M画像が、画像中央に来るようにカメラ70をパン(水平移動)するのに必要な水平回転機構70aの回転角度φから、人のいる概略の方向角度φを特定することができる。
【0061】
上述のように直接的に、人のいる概略の方向角度φを特定できる場合の他に、撮像装置71が前述の図5及び図7に示したいずれかのカメラ70である場合、画像上の顔の大きさと画像上の顔の位置とから、人のいる概略の方向を算出することができる。以上のようにして特定された、人のいる概略の方向は、人が存在する方向の候補とされる。画像認識処理手段72で人が存在する方向の候補であると認識されたこれらの結果は、画像上の頭部位置検出結果と同様に、通信制御部65から環境認識手段9に送られる。もし、複数の認識結果があれば、その全ての結果が送られる。
【0062】
(距離情報解析手段)
レーザレーダによる障害物の位置認識について説明する。図19(a)はレーザレーダ83による障害物の距離測定を示し、図19(b)は同レーザレーダによる距離測定結果を示す。距離測定装置81として、レーザレーダ83を用いた場合、例えば一定の角度Δθ毎にレーザビームを発射及び受光しながら所定の角度範囲が水平にスキャンされる。レーザレーダ83により得られる距離データは、反射光が受光されないか、又はレーザ光反射物体が所定の距離より遠方にある場合の距離L以上のデータ、及び障害物Oからの反射光により得られた障害物Oの距離L1,L2等からなる。一定の角度Δθを、例えば0.5゜として測定した、一連の距離データを用いると、特定の形状物の位置を認識することができる(特開2002−202815号公報参照)。
【0063】
このような距離データを距離情報解析手段82において演算処理して検出された障害物の幅が、予め決めた範囲内である物体(特定形状物)の場合、その物体を、例えば人の足であるとして人の候補を認識することができる。このように、記憶部2に予め設定した幅以下又は予め設定した幅の範囲内の物体が検出された位置に、人(の足)や椅子が存在する可能性があると判断される。その特定形状物の(分布)位置は、後述するように、その幅のスキャンに要した測定点数jと、その幅内における物体の距離及びスキャン角度組、D(i)、θ(i)、0≦i<jとして認識される。このような距離及び方向データが、距離情報解析手段82から環境認識手段9に送られる。
【0064】
環境認識手段9では、画像認識処理手段72における画像認識結果から得られた、例えば人存在の候補方向と、距離情報解析手段82から得られた人存在可能性の方向とが比較される。両者が略一致した場合、その方向が人の存在方向と判断され、その方向と距離が走行制御手段4に送られる。
【0065】
また、距離測定装置81であるレーザレーダ83により得られた特定の形状物(人の候補位置)のデータD(i)、θ(i)は、レーザレーダ83の座標系(センサ座標系)のデータである。そこで、距離情報解析手段において、後述の図31に示すように、特定形状物の位置が座標変換され、自律移動装置本体10の座標系(XR、YR)で表現される。
【0066】
変換された人の候補位置データが、距離情報取得手段8から、画像情報取得手段7に送られると、後述するように、画像データと比較され、特定形状物が人であるかどうかが判断される。その候補位置の形状物が人であると判断された場合、その形状物の座標が走行制御手段4に送られる。また、後述するように、画像情報取得手段7から送られてきた人候補の位置を、距離情報取得手段8において、人であるかどうかの判断がなされる。
【0067】
(特定形状物の検出)
レーザレーダによる特定形状物の位置認識について説明する。図20(a)はレーザレーダによる距離測定の様子を示し、図20(b)はレーザレーダによる距離測定結果を示す。距離測定装置81として、レーザレーダ83を用いた場合、例えば一定の角度Δθ毎にレーザビームを発射及び受光しながら所定の角度範囲を水平にスキャンして、図20(b)に示すような、レーザ反射物体OB1,OB2とレーザ源との距離D(i)を示す一連のデータが得られる。スキャンにおける角度θ=0から数えてi番目の距離データがD(i)である。以下の説明において、所定のスキャン角度範囲において、N回の距離測定が行われる(0≦i<N)とする。
【0068】
特定形状物をスキャンした前後の距離データの特性について説明する。図21(a)は特定形状物までの距離データD(i)のグラフを示し、図21(b)は同距離データの差分ΔD(i)のグラフを示す(これらのグラフは一般的なグラフとして図示されており、図中のパラメータnを、n=mとおいたとき、前出の図20の測定結果に一致する)。一般に、障害物が測定されると、その障害物の範囲において、距離データD(i)が低い値を示す(i=m,m+1,・・、n+2の点)。また、測定された距離データD(i)は、障害物の前後で、遠−近−遠となる距離変化を示すので、距離の差分ΔD(i)は、障害物の境界のところで正負のピークを示す(i=m,n+3の点)。
【0069】
そこで、距離の差分値のグラフにおいて、予め定めたしきい値DR、−DRにより、特定形状物の境界を検出することができる。また、レーザレーダ83に対向する特定形状物表面の距離変化に対して、最大値のしきい値dd,−ddを定めて特定形状物の奥行きの判定を行うことができる。例えば、指定する特定形状物が柱状物体であり、検出する必要のある柱状物の中で最大の幅がrr×2であるときには、dd=rrと設定することができる。
【0070】
また、特定形状物までの距離の代表値を与えるデータ番号Hとして、特定形状物の境界の距離データを与えるデータ番号を用いて、例えば、図21(a)の場合、番号mと(n+2)を用いて、H=int(m+(n+2))/2)とする。ここで、int(X)は、Xを超えない最大の整数を与える関数である。特定形状物の検出フローにおいて、この距離の代表値を与える番号H、その番号における距離データD(H)、角度データθ(H)が記憶される。また、考慮すべき特定形状物が複数あれば、これらの複数のデータが記憶される。
【0071】
また、特定形状物の距離測定値の連続する点の個数の上限についてしきい値DNを定めておき、測定対象物の距離測定値が、特定形状物の距離測定点であると思われる点の個数Cが、しきい値DN以下の場合(C<DN)、その測定対象物を特定形状物であると判定する。DNの値は、固定の値でも良い。また、例えば1つの距離データで推定できる検出物の大きさを、D(i)×sin(Δθ)と仮定し、特定形状の大きさを、D(i)×sin(Δθ)×Cと推定する。特定形状の大きさを予め仮定して、距離ごとにDNの値を変化させても良い。つまり、特定形状物の最大の幅をOmaxとすると、例えばD(m)のDNを、Omax/(D(m)×sin(Δθ))以上の最小の整数とすることができる。
【0072】
測定データから特定形状物を認識する処理フローについて説明する。図22は特定形状認識処理フローを示す。図20に示された測定結果に沿って説明する。各処理ルーティン毎にデータ番号iが1ずつインクリメントされ(S402)、隣合う距離データの差Δ(i,i−1)=D(i)−D(i−1)の大きさが調べられる(S405)。図20に示す例では、i=mにおいて、Δ(m、m−1)<−DRであるのでステップS407に行き、C=1、m=iとされる。そしてi=m+1において|Δ(m+2,m+1)|≦DR、かつ、D(m+1)−D(m)<ddであるので、処理はステップS408,S409,S410を通り、C=2となる。
【0073】
また、i=m+2において、|Δ(m+2、m+1)|≦DR、かつ、D(m+2)−D(m+1)<ddであるので、同様にしてC=3となる。
【0074】
さらにi=m+3において、Δ(m+3、m+2)>DRであるので、処理はステップS412,S413,S414を通る。また、int(x)はxを越えない最大の整数を返す関数である。
【0075】
こうしてD(m),D(m+1),D(m+2)が1つの特定形状物からの反射によって得られた距離データであると判断され、複数ある特定形状物のj番目の特定形状物までの距離が、H(j)=int((m+m+2)/2)=(m+1)番目の距離データであらわされる(S414)。なお、ステップS411,S415ではC=0としてCがリセットされる。
【0076】
距離測定装置81として測距可能な超音波センサを用いた場合について説明する。超音波センサは安価であり、自律移動装置本体10の周囲に複数設置することができる。前述の画像認識処理手段72が、ある方向に人候補が存在すると判断した場合、その方向に検出領域を有する超音波センサの検出結果(距離)について、距離情報解析手段82は、その検出結果が壁を検出したものかどうかを判断する。壁と判断しない場合をその人候補を人とする。例えば、超音波センサによって計測された物体までの距離が、記憶された地図上の物体(壁)までの距離と一致しないとき、距離情報解析手段82は、計測された物体を人の候補として認識する。距離情報解析手段82において、地図上に無い物体は人である可能性が高いと判断することにより、簡単な人検出を実現することができる。画像認識処理手段72の判断結果に、超音波センサの検出結果を組み合わせることによって、壁に張られた人の写真などを人と誤認識することがなくなる。記憶された地図上の物体(壁)までの距離の計算については、後述される。
【0077】
(走行制御手段)
走行制御について説明する。走行制御手段4は、環境情報取得手段6から人であると認識された対象物体の方向と距離が送られてきた場合、人と認識される物体が自律移動装置本体10のの進行方向にあってかつ、予め定めた距離内にある場合には停止するように走行手段5を制御して、人に対して安全を確保する。また、走行制御手段4は、人と認識される物体が自律移動装置本体10の進行方向にない場合、他の障害物があれば回避を行い、他の障害物がなければそのまま走行を継続するように走行手段5を制御する。
【0078】
人検知停止領域について説明する。図23は超音波センサ84に基づく人検知停止領域43を示す。また、図24(a)は人検知の場合の停止動作を示し、図24(b)は人以外の物体検知時の場合の回避動作を示す。図23に示すように、自律移動装置1からの距離D1、進行方向10aに対する方向各±ψ内の領域を人検知停止領域43とし、この領域43において検知した物を人Mと判断した場合、図24(a)に示すように、自律移動装置1は停止する。超音波センサ84を用いることにより、安価にこのような人検知停止領域43を設定することができる。人でないと判断した場合は、図24(b)に示すように、自律移動装置1は、所定の走行経路44から離れて、障害物Oを回避した走行経路45に沿って目的地Tに向かって移動を続ける。
【0079】
また、走行制御手段4が、走行手段5を制御して自律移動装置本体10を走行させる他の方法として、レーザレーダによる距離測定情報に基づいて、例えば、TangentBug( The International Journal of Robotics Research、 Vol.17、 No.9、 September 1998. pp.934−953 )などの方法を用いて、障害物を回避して目的地に向かって移動を続けるようにしてもよい。
【0080】
検出物体回避の他の方法について説明する。図25(a)は人以外の物体検知時の回避動作を示し、図25(b)は人検知の場合の回避動作を示す。走行制御手段は、人と認識される物体が自律移動装置本体の進行方向にある場合、その人と認識される物体から予め定めた距離を隔てて回避して走行するように走行手段を制御する。この場合、検出された物体を人と認識した場合と、人でないと判断された場合に、その検出物体を回避する方法を変更するようにしてもよい。例えば、距離測定装置81としてレーザレーダ83を用いた場合で、障害物Oが検出領域46として設定した範囲に入らないように経路を設定する場合に、予め設定した2種類の検出半径R1,R2を切り替える。
【0081】
検出された物体を人でないと判断した場合は、図25(a)に示すように小さな検出半径R1が用いられ、人と判断した場合は、図25(b)に示すように大きな検出半径R2が用いられる。人がいても回避して目的地に進む必要がある場合に、人に対して安全を確保しながら走行動作ができる。すなわち、人でない検出物体に対しては距離をとって回避する必要がなく回避距離を短くできるので、効率のよい自律移動装置の運行が可能となる。
【0082】
検出された人に対する対応方法について説明する。走行制御手段4は、人と認識される物体が予め定めた距離内にある場合、その距離又は距離と角度に応じた移動速度となるように走行手段5を制御するようにしてもよい。環境情報取得手段6から人であると認識された対象の方向と距離が送られてきた場合、走行制御手段4は、その距離によって移動速度を変更する。障害物のない通常の走行状態で用いられる移動速度として速度vが設定されている場合、走行制御手段4は、衝突回避アルゴリズムにおいて、衝突回避時の速度v1を次式のようにすることができる。
v1=f(h)×v
ここで、h≧dに対して、f(h)=1であり、h<dに対して、0≦f(h)<1である。判定値dは予め設定している距離であり、変数hは人と認識された検出物体までの最短距離である。関数f(h)は定数でも良い。
【0083】
また、関数f(h)の代わりに、最短の人と認識された検出物体と自律移動装置の進行方向のなす角度の絶対値δをさらに考慮した関数g(h、δ)を用いてもよい。この場合、衝突回避時の速度v2を次式のようにすることができる。
v2=g(h、δ)×v
ここで、h≧dに対してg(h、δ)=1であり、h<dに対して0≦g(h、δ)<1である。例えば、h<d、δ≦90゜のとき、
g(h、δ)=0.5×(1−0.2×(90−δ)/90)
とすることができる。
【0084】
このように、人と認識される物体の距離や角度に応じた移動速度とすることにより、人に不安を感じさせない動作で、効率のよい自律移動装置の移動が実現できる。また、検出物体が人でない場合は、速度を落とす必要がなく、効率の良い自律移動装置の運行が可能となる。
【0085】
検出された人に対する他の対応方法について説明する。図26(a)は自律移動装置に気づいた人に対する回避動作を示し、図26(b)は同装置に気づいていない人に対する停止動作を示す。走行制御手段4は、検出された人が自律移動装置に気づいていると判断できる場合は接近し、そうでない場合は、検出された人には予め定めた距離以上に近づかないように走行手段を制御する。自律移動装置1に気づいているという情報が環境情報取得手段6から走行制御手段4に送られてくると、図26(a)に示されるように、走行制御手段4は走行手段5を制御して回避動作を行いつつ、目的地Tに向かって走行を続ける。そうでない場合、図26(b)に示されるように、予め定めた距離D2以上は人Mに近づかないように停止制御がなされる。この制御によって、人が気づいていないときに自律移動装置が近づいて人を脅かすようなことをなくすことできる。検出された人が自律移動装置に気づいているかどうかは、後述する方法によって判断される。
【0086】
検出された人に対するさらに他の対応方法について説明する。図27(a)(b)は人に対する自律移動装置の注意喚起行動を示す。自律移動装置が検出された人の近くを通過する際に、人に対してアクションをとる。例えば、自律移動装置本体10上部の回転部分にモニタ画面47が設置されている場合、環境情報取得手段から送られてきた人と認識された検出物の方向角αに従って回転部分を回転させ、モニタ画面47をその方向に向ける。そのモニタ画面47に、例えば人の顔を模した絵などの注意喚起表示があると、自律移動装置1が人を意識して走行していることが、周囲にいる人に認識される。また、同時に人に対して音声信号を発信して注意喚起するようにしても良い。検出された人の近くを通過する際に、走行制御手段4が人に対して注意喚起行動をとることで、人に対する親和性を向上することができる。
【0087】
検出された人に対するさらに他の対応方法について説明する。検出された人について、撮像手段により撮像した画像を記憶手段に記憶したり、画像を自律移動装置に搭載した通信手段を用いて遠隔ステーションに送信することで、自律移動装置に監視機能を持たせ、セキュリティや防犯に適用することができる。
【0088】
(超音波センサによる人候補の評価)
超音波センサについて詳細説明する。図28は超音波距離センサの配置を示し、図29(a)は超音波距離センサによる壁及び人の検出を示し、図29(b)は壁検出の判断方法を示す。自律移動装置の、例えば進行方向前面に検出領域S1〜S5が全体で略半円を描くように、超音波センサ84が配置されているとする。超音波センサ84の配置場所が円周上にある必要はない。検出領域が重ならないようにn個の超音波センサ84を配置すれば、第k番目の超音波センサで検出された距離は、自律移動装置1の進行方向に対して、
(180゜/n)×(k−1)から(180゜/n)×k
の角度範囲が、第k番目の超音波センサの検出領域とみなせる。
【0089】
超音波センサの検出データによる人候補の評価方法について説明する。人候補の評価は、距離情報解析手段82において次の手順で行われる:(1)距離情報解析手段82は、環境認識手段9から送られてきた人候補の方向を検出範囲に含む、第i番目の超音波センサの座標算出、(2)第i番目の超音波センサに検出がない場合、人Mでないと判断し、判断アルゴリズム終了し、検出がある場合次に進む、(3)予め記憶している自律移動装置の移動環境内の全ての壁Wの情報から、第i番目の超音波センサの検出領域、かつその検出距離にある壁Wを検索、(5)壁が存在すれば人Mでないと判断し、判断アルゴリズム終了し、壁Wが存在しない場合には次に進む、(6)検出した方向(検出領域の角度の最小値と最大値)と距離を人Mと判断して、その結果を環境認識手段9に送る。
【0090】
超音波センサの検出データによる人候補の評価具体例について説明する。図30は超音波距離センサによる障害物検出計算のための座標間関係を示す。ここでは、さらに、前出の図29を参照する。自律移動装置1は、自律移動装置1が置かれた環境の座標系xg−ygにおける(別の言い方をすれば、記憶した地図上の)自己の座標値(xgo、ygo)、及びその座標軸に対する傾き角度φを認識している。
【0091】
自律移動装置に固定された座標系xr−yrにおける第i番目の超音波センサの座標値(xrus(i)、yrus(i))は、設計値から既知である。従って、環境の座標系xg−ygにおけるその超音波センサの座標値(xgus(i)、ygus(i))が算出される。また、超音波センサ84は、その検出領域が立体的なコーン状であり、そのコーンを自律移動装置1の移動平面に平行かつコーンの頂点を含む面で切ったときの検出領域の境界を示す単位ベクトルa,bは、予め判っており、
a(xrl(i)、yrl(i))
b(xrr(i)、yrr(i))
と表わされる。自律移動装置1が置かれた環境の座標系xg−ygにおける超音波センサ84の位置は、
(xgus(i)、ygus(i))
であり、環境の座標系xg−ygにおける超音波センサ84の上記検出領域境界を示す単位ベクトルa,bは、
a(xgl(i)、ygl(i))
b(xgr(i)、ygr(i))
となる。これらの関係式の導出は後述される。
【0092】
例えば、環境内のp個(0≦j<p)の壁Wの情報が自律移動装置が置かれた環境の座標上の始点座標(xgs(j)、ygs(j))、終点座標(xge(j)、yge(j))で与えられているとき、第i番目の超音波センサ84とその壁Wとの距離ρが、超音波センサ84の検出した検出物の距離と等しい、又は予め定めた範囲内(検出距離と同等)の壁Wを選択する。そして、その壁Wの方向ベクトルwと、検出領域を示す2つのベクトルa、bとの内積の積を計算し、その値が正、(a・w)×(b・w)>0、の場合(図29参照)、その壁Wは第i番目の超音波センサの検出領域にはないと判断する。従って、第i番目の超音波センサで検出された検出物は人であると判断するのである。
【0093】
(各種座標間の変換及び計算式)
超音波センサの検出データによる人候補の評価具体例の式について説明する。前出の図30を参照する。壁Wを表す2点S,Eを通る直線の式は式(1)で、また、超音波センサ84の位置する点Qと壁Wを表す直線との距離ρは式(2)で、座標系xg−ygにおける超音波センサ84の位置(点Q)の座標は式(3)で、環境の座標系xg−ygにおける超音波センサ84の検出領域境界を示す単位ベクトルa,bはそれぞれ式(4)(5)で、壁Wの方向ベクトルwは式(6)で、壁Wが第i番目の超音波センサの検知領域にないことを示す判別式は式(7)で表される。
【0094】
【式1】
【0095】
レーザレーダを距離測定装置として用いる場合の座標間関係について説明する。図31(a)(b)は自律移動装置1における座標の配置を示す。自律移動装置1に固定された座標である基準座標系XR−YRは直交座標系であり、レーザレーダ83のスキャン中心に原点を有する座標系XS−YSも直交座標系である。XR−YR平面とXS−YS平面は同一平面内にあり、XR軸とXS軸は同一方向にあり、YR軸とYS軸は、距離dSだけずれている。レーザレーダ83のスキャン中心から距離D3、方向角βの位置にあるXS−YS平面内の物体O3の位置座標は、座標系XS−YSにおいて、
XS=D3×sin(β)
YS=−D3×cos(β)
となり、座標系XR−YRにおいて、
XR=XS+dS
YR=YS
となる。
【0096】
正規化画像座標系と自律移動装置の基準座標系との関係について説明する。図32は自律移動装置1の基準座標系と正規化画像座標系との関係を示す。距離情報取得手段で得られる3次元空間中の点M1が、正規化画像上の点m1として観測される場合、自律移動装置1の基準座標系、カメラ座標系、デジタル画像座標系、正規化画像座標系において観測位置が表現される。自律移動装置1の基準座標系での点M1の座標を(XR、YR、ZR)とし、正規化画像座標系での点m1の座標を(u、v)とすると、点M1の座標より点m1の座標は式(8)を用いて計算される。
【0097】
【式2】
【0098】
このような変換を用いてレーザレーダ計測結果を画像上への投影することができる。上式において、Sは定数、fは焦点距離、ku、kvは正規化画像座標を基準とした時のu、v軸の単位、u0、v0はデジタル画像座標系における正規化画像座標原点の座標、θはu軸とv軸の成す角度、r11等は自律移動装置1の基準座標系とカメラ座標系間の回転行列、t1,t2,t3は自律移動装置1の基準座標系とカメラ座標系間の並進行列を示す。これらのパラメータは、予めカメラキャリブレーションを行うことにより求められる。この式(8)の導出は基本的なものであり、例えば、「コンピュータビジョン技術評論と将来展望」(新技術コミュニケーションズ)の第6章コンピュータビジョンにおけるエピポーラ幾何に導出例がある。
【0099】
(レーザレーダ計測結果に基づく画像処理)
距離情報取得手段8の情報に基づき、画像情報取得手段7において人認識を行い、環境を認識する例について説明する。この例では、距離情報取得手段8の距離測定装置81としてレーザレーダ83を使用する。レーザレーダ83により計測を行い、距離情報取得手段8の距離情報解析手段82において、人の大きさに対応する幅の物体を検出した場合、その物体を人候補として、画像情報取得手段7において人認識処理が行われる。
【0100】
人候補が存在する場合の処理を詳述する。図33はレーザレーダ計測結果に基づいて処理する画像を示し、図34はレーザレーダ計測結果に基づく画像処理フローを示す。レーザレーダで計測され(S501)、距離情報解析手段82において距離計測データより人候補が探索される(S502)。人候補が存在しない場合(S503でN)、人は存在しないとの結果が環境認識手段9に出力され(S505)、人候補が存在する場合(S503でY)、その位置がレーザレーダ座標系から自律移動装置の基準座標系に変換される(S505)。
【0101】
続いて、前述の式(8)を用い、人候補の位置を、自律移動装置の基準座標系から正規化画像座標系に変換し、正規化画像座標上での位置が求められ、図33に示されるように、画像21上に投影された人候補位置22の周辺に、検出対象とする人の大きさに対応して予め決めておいた人検出エリア90が設定される(S507)。人検出エリア90内で人検出処理が行われ(S508)、人候補を検出したらレーザレーダで検出された人候補は人であったと判定し(S509でY)、レーザレーダからの検出結果は正しく人を検出したとして環境認識手段9に出力される(S510)。以上の処理が全ての人候補について行われる(S511)。レーザレーダの計測結果に基づき、画像処理による人検出処理を行うエリアを制限することにより、処理の効率を高め人検出の信頼性を向上させることができる。
【0102】
(画像処理結果に基づくレーザレーダ計測)
画像情報取得手段7の処理結果に基づき、距離情報取得手段8において距離情報を取得し、環境を認識する例について説明する。図35(a)(b)は画像処理結果に基づいたレーザレーダ計測を示し、図35(c)は計測結果の画像を示す。また、図36は画像処理結果に基づくレーザレーダ計測処理フローを示す。この例では、画像情報取得手段7の撮像装置71には全方位カメラ74を、距離情報取得手段8の距離測定装置81にはレーザレーダ83が用いられる。図に示すように、全方位カメラ74のカメラ座標系XC−YC−ZCと、レーザレーダの座標系XL−YL−ZLとは、各軸の方向が一致している。カメラ座標系の原点は、レーザレーダ座標系のZL軸上を上方にシフトした位置になるように、全方位カメラ74が設置されている。
【0103】
まず、全方位カメラ74により取得された全方位画像19について、画像認識処理手段72により人候補の検出が行われる(S601)。人候補が存在しない場合(S602でN)、人は存在しないとの結果が環境認識手段9に出力され(S603)、人候補が存在する場合(S602でY)、検出された人候補の頭部位置方向とカメラ座標のXC軸とのなす角度φが計算される(604)。次に、レーザレーダ83により、レーザレーダ座標のXL軸から角度φの方向の角度周辺が計測され(S605)、距離情報解析手段82により人の大きさに対応する幅の物体の探索が行われ(S606)、人候補が検出されたら(S607でY)、人を検出したとして環境認識手段9に結果が出力される(S609)。以上の処理が、画像を処理して得られた全ての人候補について行われる(S609)。
【0104】
(人が自律移動装置に気付いているかどうかの判断処理)
人が自律移動装置に気が付いているかどうかの判断方法について説明する。図37(a)は人が同装置に気づいている画像を示し、図37(b)は気づいていないとする画像を示し、図38は人までの距離と顔の肌色面積の関係グラフを示す。画像認識処理手段72において、距離情報取得手段8の情報に基づき人認識が行われた後、その人が、自律移動装置1に気付いているかどうかの判断が画像認識処理手段72により行われる。画像認識処理手段72は、少なくとも撮像した画像から肌色領域を検出する肌色領域検出部と、検出された肌色領域の形状について演算処理する形状特徴処理部とを含んでおり、検出された肌色領域が予め決めた形状特徴条件を満たすとき、画像認識処理手段72は、その肌色領域を人の候補として認識する。
【0105】
そして、人が自律移動装置に対して正面を向いている程、気付き度合いが高く、逆に、横を向いている程、気付き度合いが低いとして気付き度合いが判定される。また、自立移動装置に対する顔の向き具合は、頭部領域における肌色領域面積の大きさで行われる。図37に示すように、一般に、正面を向くほど肌色面積が増える。また、人の頭部の大きさは、個人差によらずある一定の大きさを仮定することができる。従って、図38に示すように、正面を向いた標準の顔の肌色面積Siは、自律移動装置から人までの距離Diの関数として表すことができる。この自律移動装置から人までの距離Diと顔の標準肌色面積Siの関係は、実験により予め求めておくことができる。
【0106】
人が自律移動装置に気付いているかどうかの判断処理を含む処理フローについて説明する。図39は人検出処理フローを示す。この例では、距離情報取得手段8の距離測定装置81としてレーザレーダ83を用い、画像情報取得手段7の撮像装置71として固定カメラ70を用いた場合について説明する。この処理フローにおけるステップS701〜S709は、前出の図34におけるレーザレーダ計測結果による画像処理フローのステップS501〜S509と同じであり、説明は省略する。ステップS709において、人候補が検出された場合(S509でY)、その検出された人が自律移動装置に気付いているかの処理が行われ(S710)、その後、人の検出出力に人が自律移動装置に気が付いているかどうか判定されて、その判定結果を表す属性と、レーザレーダで検出された人候補は人であったと判定結果とが環境認識手段9に出力される(S711)。以上の処理が全ての人候補について行われる(S712)。
【0107】
上述のステップS710における、検出された人が自律移動装置に気付いているかどうかの判定処理の詳細を説明する。図40は人が自律移動装置に気付いているかどうかの判断処理フローを示す。画像認識処理手段72において、人を検出した肌色領域24の面積smiが、例えば画素数により計測される(S801)。次に、レーザレーダによる人の計測距離di、及び自律移動装置から人までの距離と正面を向いた人の顔の肌色面積との関係(図38)を使って、標準肌色面積siが求められる(S802)。次に、肌色領域内の面積smiと標準肌色面積siとの比smi/siが求められて予め決められたしきい値THと比較される(S803)。比較の結果、smi/si>THであれば(S803でY)、人が自律移動装置に気が付いていると判定され(S804)、smi/si<THであれば(S803でN)、人が自律移動装置に気が付いていないと判定される(S805)。
【0108】
なお、本発明は、上記構成に限られることなく種々の変形が可能である。例えば、図41(a)〜(c)に示されるように、撮像装置と距離測定装置を組み合わせることができる。図41(a)の自律移動装置1は、1つのレーザレーダ83と回転機構70a上の2つのカメラ70を備えており、図41(b)の自律移動装置1は、2つのレーザレーダ83と回転機構70a上の2つのカメラ70を備えており、図41(c)の自律移動装置1は、1つのレーザレーダ83と1組の超音波センサ84、及び回転機構70a上の2つのカメラ70を備えている。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る自律移動装置のブロック構成図。
【図2】同上装置の外観を示す斜視図。
【図3】同上装置の画像認識処理手段のブロック構成図。
【図4】同上装置の画像認識処理手段の他の例を示すブロック構成図。
【図5】(a)は同上装置の平面図、(b)は同側面図、(c)は同装置の撮像装置が撮像した画像を示す図。
【図6】(a)は同上装置の撮像装置の変形例を示す平面図、(b)は同側面図、(c)は同装置の撮像装置が撮像した画像を示す図。
【図7】(a)は同上装置のさらに他の撮像装置の変形例を示す平面図、(b)は同側面図、(c)は同装置の撮像装置が撮像した画像を示す図。
【図8】(a)は同上装置のさらに他の撮像装置の変形例を示す平面図、(b)は同側面図、(c)は同装置の撮像装置が撮像した画像を示す図。
【図9】同上装置における画像認識処理手段による人認識処理フロー図。
【図10】(a)は同上装置における人認識処理の対象となる入力画像の図、(b)は同処理による肌色領域検出結果を示す画像の図、(c)は同処理による肌色領域を含むエッジ画像の図、(d)は同処理による人認識結果を示すエッジ画像の図。
【図11】同上装置により用いられる正規化色空間の概念図。
【図12】同上装置における人認識処理フローに含まれる肌色領域検出処理フロー図。
【図13】(a)は同上装置における人認識処理フローに含まれる投票による頭部形状検出処理に用いられる投票範囲の図、(b)は投票による頭部検出を説明する概念図。
【図14】同上装置における人認識処理フローに含まれる投票による頭部形状検出処理フロー図。
【図15】全方位カメラを備えた同上装置における人存在方向特定方法を説明する同装置の斜視図。
【図16】同上装置により撮像された全方位カメラ画像を示す図。
【図17】回転型カメラを備えた同上装置における人存在方向特定方法を説明する同装置の斜視図。
【図18】(a)〜(c)は同上装置の回転型カメラの回転状態を示す平面図と各カメラ角度で撮像された画像を示す図。
【図19】(a)は同上装置におけるレーザレーダによる障害物距離測定を説明する平面図、(b)は同レーザレーダによる距離測定結果を示す図。
【図20】(a)は同上装置におけるレーザレーダによる特定形状物距離測定を説明する平面図、(b)は同レーザレーダによる距離測定結果を示す図。
【図21】(a)は同上装置におけるレーザレーダによる特定形状物の距離測定結果のグラフを示す図、(b)は同距離測定値の差分のグラフを示す図。
【図22】同上装置における特定形状認識処理のフロー図。
【図23】同上装置における人検知停止領域を説明する平面図。
【図24】(a)は同上装置における人検知の場合の停止動作を示す平面図、(b)は人以外の物体検知時の回避動作を示す平面図。
【図25】(a)は同上装置における人以外の物体検知時の回避動作を示す平面図、(b)は人検知の場合の回避動作を示す平面図。
【図26】(a)は同上装置における同装置に気づいた人に対する回避動作を示す平面図、(b)は同装置に気づいていない人に対する停止動作を示す平面図。
【図27】(a)(b)は同上装置における人に対する注意喚起行動を説明する斜視図。
【図28】同上装置における超音波距離センサの配置を示す平面図。
【図29】(a)は同上装置における超音波距離センサによる壁及び人の検出を説明する平面図、(b)は同壁検出の判断方法を説明する図。
【図30】同上装置における超音波距離センサによる障害物検出計算のための座標間関係図。
【図31】(a)は同上装置における距離測定装置の座標変換を説明する斜視図、(b)は同平面図。
【図32】同上装置における自律移動装置の基準座標系と正規化画像座標系との関係説明図。
【図33】同上装置におけるレーザレーダ計測結果に基づく画像処理を説明する画像を示す図。
【図34】同上装置におけるレーザレーダ計測結果に基づく画像処理フロー図。
【図35】同上装置における画像処理結果に基づくレーザレーダ計測を説明する装置平面図、(b)は同側面図、(c)は計測結果を示す画像を示す図。
【図36】同上装置における画像処理結果に基づくレーザレーダ計測処理フロー図。
【図37】(a)は同上装置において人が同装置に気づいていると判断する画像を示す図、(b)同じく気づいていないとする画像を示す図。
【図38】同上装置において用いられる人までの距離と顔の肌色面積の関係グラフを示す図。
【図39】同上装置における人検出処理フロー図。
【図40】同上装置における人が同装置に気づいているかどうかの判断処理フロー図。
【図41】(a)〜(c)は同上装置における撮像装置と距離測定装置の組み合わせを説明する斜視図。
【符号の説明】
1 自律移動装置
2 記憶手段
3 入力支持手段
4 走行制御手段
5 走行手段
6 環境情報取得手段
7 画像情報取得手段
8 距離情報取得手段
9 環境認識手段
41 経路生成手段
42 自己位置認識手段
70 カメラ
70a 回転機構
71 撮像装置
72 画像認識処理手段
73,74a カメラ
74b 全方位ミラー
81 距離測定装置
82 距離情報解析手段
83 レーザレーダ
84 超音波センサ
Claims (20)
- 走行する領域の地図情報と走行のための各種パラメータを記憶する記憶手段と、目的地や走行指令を前記記憶手段に入力する入力指示手段と、目的地までの走行経路を生成する経路生成手段と、障害物及び自己位置を認識するための情報を得る環境情報取得手段と、走行を行うための走行手段と、前記環境情報取得手段で得られた情報と記憶した地図情報とに基づいて自己位置を認識する自己位置認識手段と、この自己位置認識手段により自己位置を認識しつつ障害物を回避しながら前記走行手段を制御して前記生成された走行経路に沿って走行する走行制御手段を有する自律移動装置であって、
前記環境情報取得手段は、
走行経路上の環境の画像を撮像する撮像装置及び撮像した画像情報を演算処理して人体の部位に関する属性を持つ領域を抽出する画像認識処理手段を含む画像情報取得手段と、
走行経路上の環境内に存在する物体までの距離と物体の方向を測定する距離測定装置及び測定したこれらの距離情報を演算処理する距離情報解析手段を含む距離情報取得手段と、
前記画像情報取得手段で得られた人体の部位に関する属性を持つ領域の情報、及び前記距離情報取得手段で得られた物体に関する距離情報に基づいて、走行経路上の環境情報を前記走行制御手段に出力する環境認識手段と、を備えることを特徴とする自律移動装置。 - 画像情報取得手段は、距離情報取得手段が距離情報を演算処理して検出した物体の方向を含むように撮像し、環境認識手段は、得られた画像中の物体の方向に対応する部分について認識処理を行うことを特徴とする請求項1に記載の自律移動装置。
- 距離情報取得手段は、画像情報取得手段により抽出された物体の方向を含むように距離計測を行い、環境認識手段は、得られた距離計測データ中の物体の方向に対応する部分について認識処理を行うことを特徴とする請求項1に記載の備える自律移動装置。
- 距離測定装置は、走行路面に平行な面内を予め設定した角度毎に走査して障害物までの距離を計測するレーザレーダによりなることを特徴とする請求項1乃至請求項3のいずれかに記載の自律移動装置。
- 距離測定装置は、超音波センサによりなることを特徴とする請求項1乃至請求項3のいずれかに記載の自律移動装置。
- 距離情報解析手段は、距離情報を演算処理して検出した物体の幅が予め決めた範囲内であるとき、その物体を人の候補として認識することを特徴とする請求項1乃至請求項4のいずれかに記載の自律移動装置。
- 距離情報解析手段は、計測された物体までの距離が記憶された地図上の物体までの距離と一致しないとき、計測された物体を人の候補として認識することを特徴とする請求項1乃至請求項3のいずれか又は請求項5に記載の自律移動装置。
- 撮像装置は、自律移動装置本体の基準座標系に対して固定され自律移動装置本体に設置された1つのカメラであることを特徴とする請求項1乃至請求項3のいずれかに記載の自律移動装置。
- 撮像装置は、自律移動装置本体の基準座標系に対し、方向を制御して変更できる機構上に設置されたカメラであることを特徴とする請求項1乃至請求項3のいずれかに記載の自律移動装置。
- 撮像装置は、自律移動装置本体の全方位を撮像できるように、複数のカメラを設置してなることを特徴とする請求項1乃至請求項3のいずれかに記載の自律移動装置。
- 撮像装置は、自律移動装置本体の全方位を撮像できるように、全方位ミラーとカメラを組合せた撮像装置であることを特徴とする請求項1乃至請求項3のいずれかに記載の自律移動装置。
- 画像認識処理手段は、少なくとも撮像した画像から特定色領域を検出する特定色領域検出部と検出された特定色領域の形状について演算処理する形状特徴処理部とを含み、検出された特定色領域が予め決めた形状特徴条件を満たすとき、その特定色領域を人の候補として認識することを特徴とする請求項1乃至請求項3のいずれかに記載の自律移動装置。
- 環境認識手段は、距離情報取得手段で検出された物体が人候補と認識される位置と、画像情報取得手段で検出された物体が人候補と認識される位置とが一致するとき、検出された物体を人と判断することを特徴とする請求項1乃至請求項3、請求項6、及び請求項12のいずれかに記載の自律移動装置。
- 環境認識手段は、画像中で検出された人の肌の色領域の面積と、自律移動装置本体から人までの距離により予め決められたその距離における人の肌の色領域の面積との比を求め、この比と予め決められたしきい値とを比較することにより、検出された人が自律移動装置に気付いているかいないかを判断することを特徴とする請求項1乃至請求項3、請求項6、請求項12、及び請求項13のいずれかに記載の自律移動装置。
- 走行制御手段は、人と認識される物体が自律移動装置の進行方向にあってかつ、予め定めた距離内にある場合には停止し、人と認識される物体が自律移動装置本体の進行方向にない場合、障害物があれば回避を行い、障害物がなければそのまま走行を継続するように走行手段を制御することを特徴とする請求項1乃至請求項14のいずれかに記載の自律移動装置。
- 走行制御手段は、人と認識される物体が自律移動装置本体の進行方向にある場合、その人と認識される物体から予め定めた距離を隔てて回避して走行するように走行手段を制御することを特徴とする請求項1乃至請求項14のいずれかに記載の自律移動装置。
- 走行制御手段は、人と認識される物体が予め定めた距離内にある場合、その距離又は距離と角度に応じた移動速度となるように走行手段を制御することを特徴とする請求項1乃至請求項14のいずれかに記載の自律移動装置。
- 走行制御手段は、検出された人が自律移動装置に気づいていると判断できる場合は接近し、そうでない場合、検出された人には予め定めた距離以上に近づかないように走行手段を制御することを特徴とする請求項14に記載の自律移動装置。
- 走行制御手段は、検出された人の近くを通過する際に、人に対して注意喚起行動をとることを特徴とする請求項1乃至請求項18のいずれかに記載の自律移動装置。
- 画像情報取得手段は、検出された人を撮像してその画像を記憶手段に記憶する、又は画像を遠隔ステーションに送信することを特徴とする請求項1乃至請求項19のいずれかに記載の自律移動装置。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003070728A JP3879848B2 (ja) | 2003-03-14 | 2003-03-14 | 自律移動装置 |
PCT/JP2004/003355 WO2004081683A1 (ja) | 2003-03-14 | 2004-03-12 | 自律移動ロボット |
US10/549,110 US7684894B2 (en) | 2003-03-14 | 2004-03-12 | Autonomously moving robot |
TW093106652A TWI242701B (en) | 2003-03-14 | 2004-03-12 | Autonomous moving robot |
KR1020057017184A KR100773184B1 (ko) | 2003-03-14 | 2004-03-12 | 자율 이동로봇 |
DE112004000438T DE112004000438T5 (de) | 2003-03-14 | 2004-03-12 | Autonom sich bewegender Roboter |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003070728A JP3879848B2 (ja) | 2003-03-14 | 2003-03-14 | 自律移動装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004280451A true JP2004280451A (ja) | 2004-10-07 |
JP3879848B2 JP3879848B2 (ja) | 2007-02-14 |
Family
ID=32984667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003070728A Expired - Fee Related JP3879848B2 (ja) | 2003-03-14 | 2003-03-14 | 自律移動装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US7684894B2 (ja) |
JP (1) | JP3879848B2 (ja) |
KR (1) | KR100773184B1 (ja) |
DE (1) | DE112004000438T5 (ja) |
TW (1) | TWI242701B (ja) |
WO (1) | WO2004081683A1 (ja) |
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006293975A (ja) * | 2005-03-15 | 2006-10-26 | Matsushita Electric Works Ltd | 自律移動装置 |
JP2006321001A (ja) * | 2005-05-18 | 2006-11-30 | Matsushita Electric Works Ltd | 自律移動ロボット及びその移動状況記録システム |
JP2008015931A (ja) * | 2006-07-07 | 2008-01-24 | Honda Motor Co Ltd | 車両周辺監視システム、車両、車両周辺監視プログラム、および車両周辺監視システムの構築システム |
JP2008200770A (ja) * | 2007-02-16 | 2008-09-04 | Toshiba Corp | ロボットおよびその制御方法 |
JP2009068852A (ja) * | 2007-09-10 | 2009-04-02 | Tokyo Metropolitan Univ | 環境認識システム、自律型移動体および環境認識プログラム |
JP2009080527A (ja) * | 2007-09-25 | 2009-04-16 | Panasonic Electric Works Co Ltd | 自律移動装置 |
JP2009282786A (ja) * | 2008-05-22 | 2009-12-03 | Murata Mach Ltd | 走行車 |
WO2010021090A1 (ja) * | 2008-08-20 | 2010-02-25 | パナソニック株式会社 | 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ |
JP2012506994A (ja) * | 2008-07-15 | 2012-03-22 | サムスン エレクトロニクス カンパニー リミテッド | 映像処理方法 |
JP2012076196A (ja) * | 2010-10-05 | 2012-04-19 | Toyota Motor Corp | ロボット及びその制御方法 |
JP2012142966A (ja) * | 2012-02-15 | 2012-07-26 | Honda Motor Co Ltd | 車両周辺監視システム |
JP2012168990A (ja) * | 2012-06-11 | 2012-09-06 | Panasonic Corp | 自律移動装置 |
KR101202695B1 (ko) * | 2008-10-01 | 2012-11-19 | 무라다기카이가부시끼가이샤 | 자율 이동 장치 |
WO2014068975A1 (ja) * | 2012-11-05 | 2014-05-08 | パナソニック株式会社 | 自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置 |
JP2014174866A (ja) * | 2013-03-12 | 2014-09-22 | Toyota Central R&D Labs Inc | 障害物までの距離を計測して移動する自律式移動装置 |
WO2014156502A1 (ja) * | 2013-03-29 | 2014-10-02 | 株式会社日立産機システム | 位置同定装置、及びそれを備えた移動ロボット |
JP2015019689A (ja) * | 2013-07-16 | 2015-02-02 | アルプス電気株式会社 | 障害物検知装置とその検知方法 |
WO2016009688A1 (ja) * | 2014-07-16 | 2016-01-21 | 株式会社リコー | システム、機械、制御方法、プログラム |
JP2016064829A (ja) * | 2015-12-28 | 2016-04-28 | エイディシーテクノロジー株式会社 | 車両制御装置 |
KR20160090022A (ko) * | 2015-01-21 | 2016-07-29 | 한국과학기술연구원 | 로봇 위치 측정 시스템 및 방법 |
JP5976198B2 (ja) * | 2013-03-26 | 2016-08-23 | 株式会社日立国際電気 | 人数計数装置および人数計数方法 |
WO2017159680A1 (ja) * | 2016-03-17 | 2017-09-21 | 日本電気株式会社 | 捜索支援装置、捜索支援システム、捜索支援方法及びプログラム記録媒体 |
JP2018146440A (ja) * | 2017-03-07 | 2018-09-20 | 株式会社豊田自動織機 | 環境認識装置 |
WO2018173595A1 (ja) * | 2017-03-22 | 2018-09-27 | 日本電産株式会社 | 移動装置 |
JP2018151985A (ja) * | 2017-03-14 | 2018-09-27 | トヨタ自動車株式会社 | 自律移動体 |
WO2018180501A1 (ja) * | 2017-03-30 | 2018-10-04 | 株式会社エクォス・リサーチ | 対象物判定装置および対象物判定プログラム |
JP2019139287A (ja) * | 2018-02-06 | 2019-08-22 | 株式会社Soken | 移動体制御装置 |
WO2019167210A1 (ja) * | 2018-02-28 | 2019-09-06 | 本田技研工業株式会社 | 制御装置、移動体及びプログラム |
JP2020003484A (ja) * | 2018-06-21 | 2020-01-09 | クモノスコーポレーション株式会社 | 3dレーザスキャナ、3dレーザスキャナシステム、建設作業機械及び建設工事方法 |
JP2020055490A (ja) * | 2018-10-04 | 2020-04-09 | 関西電力株式会社 | 走行制御装置及び走行制御方法、並びに自動走行車 |
JP2020071182A (ja) * | 2018-11-01 | 2020-05-07 | パナソニックIpマネジメント株式会社 | 運転支援装置、車両および運転支援方法 |
WO2020145095A1 (ja) * | 2019-01-10 | 2020-07-16 | 株式会社小糸製作所 | LiDARセンサユニットおよび車両用防犯システム |
JP2020535407A (ja) * | 2017-09-28 | 2020-12-03 | ウェイモ エルエルシー | 同期スピニングlidarおよびローリングシャッターカメラシステム |
JP2021056764A (ja) * | 2019-09-30 | 2021-04-08 | 日本電産株式会社 | 移動体 |
JPWO2021152340A1 (ja) * | 2020-01-31 | 2021-08-05 | ||
US20210327313A1 (en) * | 2016-11-14 | 2021-10-21 | Sony Group Corporation | Information processing device, information processing method, and recording medium |
CN114072255A (zh) * | 2019-07-31 | 2022-02-18 | X开发有限责任公司 | 移动机器人传感器配置 |
JP2022091804A (ja) * | 2015-04-06 | 2022-06-21 | ウェイモ エルエルシー | 長距離操縦可能lidarシステム |
JP2023052121A (ja) * | 2016-09-20 | 2023-04-11 | イノヴィズ テクノロジーズ リミテッド | Lidarシステム及び方法 |
JP7404137B2 (ja) | 2020-04-01 | 2023-12-25 | 株式会社豊田中央研究所 | 顔画像処理装置及び顔画像処理プログラム |
JP7404282B2 (ja) | 2021-02-10 | 2023-12-25 | 株式会社豊田中央研究所 | 顔モデルパラメータ推定装置、顔モデルパラメータ推定方法及び顔モデルパラメータ推定プログラム |
Families Citing this family (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4595436B2 (ja) * | 2004-03-25 | 2010-12-08 | 日本電気株式会社 | ロボット、その制御方法及び制御用プログラム |
JP4564447B2 (ja) * | 2004-12-14 | 2010-10-20 | 本田技研工業株式会社 | 自律移動ロボット |
US7742841B2 (en) * | 2005-02-23 | 2010-06-22 | Panasonic Electric Works Co., Ltd. | Autonomous vehicle and planar obstacle recognition method |
US7783382B2 (en) * | 2006-02-24 | 2010-08-24 | Qisda Corporation | Controlling machine actions based on luminance of environmental light and distance from user |
KR100772907B1 (ko) | 2006-05-01 | 2007-11-05 | 삼성전자주식회사 | 장애물 감지 기능을 가지는 로봇 및 그 제어 방법 |
KR100966875B1 (ko) * | 2006-09-26 | 2010-06-29 | 삼성전자주식회사 | 전방위 영상을 이용한 로봇의 위치 결정방법 |
JP4314266B2 (ja) * | 2006-11-22 | 2009-08-12 | キヤノン株式会社 | 画像制御装置及びその制御方法 |
JP4528295B2 (ja) * | 2006-12-18 | 2010-08-18 | 株式会社日立製作所 | 案内ロボット装置及び案内システム |
KR100884904B1 (ko) * | 2007-09-12 | 2009-02-19 | 아주대학교산학협력단 | 평행 투영 모델을 이용한 자기위치 인식 방법 |
EP2252190B1 (en) * | 2008-01-28 | 2012-05-23 | Seegrid Corporation | Service robot and method of operating same |
JP4978494B2 (ja) * | 2008-02-07 | 2012-07-18 | トヨタ自動車株式会社 | 自律移動体、及びその制御方法 |
KR101415297B1 (ko) | 2008-04-16 | 2014-07-07 | 삼성전자주식회사 | 로봇 지도 생성 방법 및 로봇 지도 이용 방법 및 로봇지도를 가지는 로봇 |
TWM348676U (en) * | 2008-07-22 | 2009-01-11 | Iner Aec Executive Yuan | Environmental survey robot |
TWI408397B (zh) * | 2008-08-15 | 2013-09-11 | Univ Nat Chiao Tung | Automatic navigation device with ultrasonic and computer vision detection and its navigation method |
TWI396830B (zh) * | 2008-11-28 | 2013-05-21 | Univ Nat Taiwan | 巡邏裝置及其巡邏路徑規劃方法 |
KR101006211B1 (ko) * | 2008-12-01 | 2011-01-07 | 한국기술교육대학교 산학협력단 | 센서를 구비한 이동체의 센싱 범위 확장 방법 |
TWI388956B (zh) | 2009-05-20 | 2013-03-11 | Univ Nat Taiwan Science Tech | 行動機器人與其目標物處理路徑的規劃方法 |
GB0919158D0 (en) * | 2009-11-02 | 2009-12-16 | Onslow Leigh M The Viscountess | Multi-function monitor |
JP5062364B2 (ja) | 2009-11-27 | 2012-10-31 | トヨタ自動車株式会社 | 自律移動体及びその制御方法 |
TWI394933B (zh) * | 2010-01-28 | 2013-05-01 | Univ Nat Kaohsiung Applied Sci | Image path planning guidance system |
JP5560978B2 (ja) * | 2010-07-13 | 2014-07-30 | 村田機械株式会社 | 自律移動体 |
TWI409605B (zh) * | 2010-07-14 | 2013-09-21 | Qisda Corp | 能自動定位移動的電子裝置及讓其移動件自動歸位的方法 |
US8965579B2 (en) | 2011-01-28 | 2015-02-24 | Intouch Technologies | Interfacing with a mobile telepresence robot |
US9323250B2 (en) | 2011-01-28 | 2016-04-26 | Intouch Technologies, Inc. | Time-dependent navigation of telepresence robots |
KR101049155B1 (ko) * | 2011-02-01 | 2011-07-14 | 국방과학연구소 | 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치 |
US20140139616A1 (en) | 2012-01-27 | 2014-05-22 | Intouch Technologies, Inc. | Enhanced Diagnostics for a Telepresence Robot |
US9098611B2 (en) | 2012-11-26 | 2015-08-04 | Intouch Technologies, Inc. | Enhanced video interaction for a user interface of a telepresence network |
US9259842B2 (en) | 2011-06-10 | 2016-02-16 | Microsoft Technology Licensing, Llc | Interactive robot initialization |
US8761933B2 (en) * | 2011-08-02 | 2014-06-24 | Microsoft Corporation | Finding a called party |
US8972055B1 (en) * | 2011-08-19 | 2015-03-03 | Google Inc. | Methods and systems for selecting a velocity profile for controlling a robotic device |
KR101272604B1 (ko) * | 2012-04-25 | 2013-06-07 | 주식회사 유진로봇 | 탑승형 로봇 및 이를 포함하는 탑승형 로봇 운용 시스템 |
EP2852881A4 (en) | 2012-05-22 | 2016-03-23 | Intouch Technologies Inc | GRAPHIC USER INTERFACES CONTAINING TOUCH PAD TOUCH INTERFACES FOR TELEMEDICINE DEVICES |
US9361021B2 (en) | 2012-05-22 | 2016-06-07 | Irobot Corporation | Graphical user interfaces including touchpad driving interfaces for telemedicine devices |
US9321173B2 (en) | 2012-06-22 | 2016-04-26 | Microsoft Technology Licensing, Llc | Tracking and following people with a mobile robotic device |
US9186793B1 (en) * | 2012-08-31 | 2015-11-17 | Brain Corporation | Apparatus and methods for controlling attention of a robot |
TWI459170B (zh) * | 2012-10-04 | 2014-11-01 | Ind Tech Res Inst | 行進控制裝置以及具有該行進控制裝置之自動引導載具 |
US9141852B1 (en) * | 2013-03-14 | 2015-09-22 | Toyota Jidosha Kabushiki Kaisha | Person detection and pose estimation system |
JP5672327B2 (ja) * | 2013-03-19 | 2015-02-18 | 株式会社安川電機 | ロボットシステム |
KR102085180B1 (ko) * | 2013-10-08 | 2020-03-05 | 삼성전자주식회사 | 몸 방향 추정 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 몸 방향 추정 장치. |
US20150142251A1 (en) * | 2013-11-21 | 2015-05-21 | International Business Machines Corporation | Vehicle control based on colors representative of navigation information |
US9532031B1 (en) * | 2014-04-08 | 2016-12-27 | The United States Of America As Represented By The Secretary Of The Navy | Method for extrinsic camera calibration using a laser beam |
US10735902B1 (en) * | 2014-04-09 | 2020-08-04 | Accuware, Inc. | Method and computer program for taking action based on determined movement path of mobile devices |
JP6599603B2 (ja) * | 2014-04-18 | 2019-10-30 | 東芝ライフスタイル株式会社 | 自律走行体 |
CN104216411B (zh) * | 2014-09-27 | 2016-11-09 | 江阴润玛电子材料股份有限公司 | 一种电子电路中的巡线方法 |
US9434069B1 (en) | 2014-11-10 | 2016-09-06 | Google Inc. | Motion heat map |
JP6528280B2 (ja) * | 2015-12-28 | 2019-06-12 | 株式会社エクォス・リサーチ | 移動体 |
EP3428885A4 (en) * | 2016-03-09 | 2019-08-14 | Guangzhou Airob Robot Technology Co., Ltd. | CARD CONSTRUCTION METHOD, AND CORRECTION METHOD AND APPARATUS |
CN106092091B (zh) * | 2016-08-10 | 2019-07-02 | 京东方科技集团股份有限公司 | 电子机器设备 |
CN107356929B (zh) * | 2016-08-29 | 2020-07-28 | 北醒(北京)光子科技有限公司 | 一种快速扫描探测方法 |
JP6938969B2 (ja) * | 2017-03-07 | 2021-09-22 | 富士フイルムビジネスイノベーション株式会社 | 環境測定システムおよびプログラム |
KR20180134230A (ko) * | 2017-06-08 | 2018-12-18 | 삼성전자주식회사 | 청소 로봇 및 그 제어 방법 |
KR102391914B1 (ko) * | 2017-06-30 | 2022-04-27 | 엘지전자 주식회사 | 이동 로봇의 동작 방법 |
CN107463175A (zh) * | 2017-08-04 | 2017-12-12 | 河南工程学院 | 自动避障小车、避障方法及系统 |
US10936886B2 (en) | 2017-12-29 | 2021-03-02 | PlusAI Corp | Method and system for stereo based vehicle pose estimation |
JP6894595B2 (ja) * | 2018-03-28 | 2021-06-30 | 株式会社エクォス・リサーチ | 移動体 |
JPWO2020049850A1 (ja) * | 2018-09-04 | 2021-09-24 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム、および移動装置 |
US20200097012A1 (en) * | 2018-09-20 | 2020-03-26 | Samsung Electronics Co., Ltd. | Cleaning robot and method for performing task thereof |
TWI721324B (zh) * | 2018-10-10 | 2021-03-11 | 鴻海精密工業股份有限公司 | 電子裝置及立體物體的判斷方法 |
US11338438B2 (en) * | 2019-01-25 | 2022-05-24 | Bear Robotics, Inc. | Method, system and non-transitory computer-readable recording medium for determining a movement path of a robot |
US11520344B2 (en) | 2019-02-11 | 2022-12-06 | 634 Ai Ltd. | Systems and methods for managing multiple autonomous vehicles |
JP7408334B2 (ja) * | 2019-10-03 | 2024-01-05 | Thk株式会社 | 画像処理装置及び移動体制御システム |
WO2021166637A1 (ja) * | 2020-02-17 | 2021-08-26 | ソニーグループ株式会社 | 運搬ロボット、制御方法、プログラム、および制御装置 |
CN111714034B (zh) * | 2020-05-18 | 2022-10-21 | 科沃斯机器人股份有限公司 | 一种自移动机器人的控制方法、系统及自移动机器人 |
WO2021252425A1 (en) * | 2020-06-08 | 2021-12-16 | Brain Corporation | Systems and methods for wire detection and avoidance of the same by robots |
US11767037B2 (en) | 2020-09-22 | 2023-09-26 | Argo AI, LLC | Enhanced obstacle detection |
CN112526984A (zh) * | 2020-09-30 | 2021-03-19 | 深圳市银星智能科技股份有限公司 | 一种机器人避障方法、装置及机器人 |
CN112232272B (zh) * | 2020-11-02 | 2023-09-08 | 上海有个机器人有限公司 | 一种激光与视觉图像传感器融合的行人识别方法 |
KR20220064222A (ko) * | 2020-11-11 | 2022-05-18 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN113110481B (zh) * | 2021-04-26 | 2024-02-06 | 上海智蕙林医疗科技有限公司 | 一种应急避让实现方法、系统、机器人和存储介质 |
CN113433560B (zh) * | 2021-06-25 | 2023-12-26 | 北京铁道工程机电技术研究所股份有限公司 | 一种机器人侧边巡检的定位方法、装置、电子设备及介质 |
CN113610910B (zh) * | 2021-07-30 | 2024-04-09 | 合肥科大智能机器人技术有限公司 | 一种移动机器人避障方法 |
KR20230039421A (ko) * | 2021-09-14 | 2023-03-21 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
TWI769924B (zh) * | 2021-09-15 | 2022-07-01 | 東元電機股份有限公司 | 人體跟隨系統 |
KR102425271B1 (ko) | 2021-12-29 | 2022-07-27 | 주식회사 파이엇 | 장애물회피방법을 구비한 자율주행로봇 |
KR102654371B1 (ko) * | 2022-02-07 | 2024-04-02 | 백수빈 | 지상용 자율주행 무인정찰 장치 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6371604A (ja) * | 1986-09-12 | 1988-04-01 | Hideo Mori | 領域分割したカラ−画像を使つて道路境界と障害物を検出する方式 |
JPS63124114A (ja) * | 1986-11-14 | 1988-05-27 | Hitachi Ltd | 移動体用環境認識装置 |
JPS63213005A (ja) * | 1987-03-02 | 1988-09-05 | Hitachi Ltd | 移動体誘導方法 |
JPH036710A (ja) * | 1989-06-05 | 1991-01-14 | Toshiba Corp | 追随移動ロボット制御装置 |
JPH0412218A (ja) * | 1990-05-01 | 1992-01-16 | Toyota Motor Corp | 車両用距離検出装置 |
JPH07213753A (ja) * | 1994-02-02 | 1995-08-15 | Hitachi Ltd | パーソナルロボット装置 |
JPH07325620A (ja) * | 1994-06-02 | 1995-12-12 | Hitachi Ltd | 知能ロボット装置及び知能ロボットシステム |
JPH09326096A (ja) * | 1996-06-06 | 1997-12-16 | Nissan Motor Co Ltd | 車両用人的障害物検知装置 |
JPH11104984A (ja) * | 1997-10-06 | 1999-04-20 | Fujitsu Ltd | 実環境情報表示装置及び実環境情報表示処理を実行するプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2003280739A (ja) * | 2002-03-26 | 2003-10-02 | Matsushita Electric Works Ltd | 案内用自律移動ロボットとその制御方法 |
JP2004178229A (ja) * | 2002-11-26 | 2004-06-24 | Matsushita Electric Works Ltd | 人の存在位置検出装置とその検出方法及び同検出装置を用いた自律移動装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2839281B2 (ja) * | 1989-03-31 | 1998-12-16 | グローリー工業株式会社 | 移動体の自己定位方法 |
JP3263699B2 (ja) | 1992-12-22 | 2002-03-04 | 三菱電機株式会社 | 走行環境監視装置 |
JP2501010B2 (ja) | 1993-10-25 | 1996-05-29 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 移動ロボットの誘導装置 |
EP0913751B1 (de) * | 1997-11-03 | 2003-09-03 | Volkswagen Aktiengesellschaft | Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges |
JPH11198075A (ja) * | 1998-01-08 | 1999-07-27 | Mitsubishi Electric Corp | 行動支援装置 |
JP3660492B2 (ja) * | 1998-01-27 | 2005-06-15 | 株式会社東芝 | 物体検知装置 |
JP2000123298A (ja) | 1998-10-13 | 2000-04-28 | Japan Aviation Electronics Industry Ltd | 障害物位置検出装置およびその検出方法 |
JP2000326274A (ja) | 1999-05-24 | 2000-11-28 | Nec Corp | 自律行動ロボット |
JP3648604B2 (ja) | 2000-10-26 | 2005-05-18 | 松下電工株式会社 | 自律移動装置 |
JP3823760B2 (ja) | 2001-05-28 | 2006-09-20 | 日本電気株式会社 | ロボット装置 |
US6664918B2 (en) * | 2002-01-09 | 2003-12-16 | Mia-Com, Inc. | Method and apparatus for identifying complex objects based on range readings from multiple sensors |
JP4019736B2 (ja) * | 2002-02-26 | 2007-12-12 | トヨタ自動車株式会社 | 車両用障害物検出装置 |
JP3781370B2 (ja) | 2002-11-19 | 2006-05-31 | 本田技研工業株式会社 | 移動装置 |
-
2003
- 2003-03-14 JP JP2003070728A patent/JP3879848B2/ja not_active Expired - Fee Related
-
2004
- 2004-03-12 TW TW093106652A patent/TWI242701B/zh not_active IP Right Cessation
- 2004-03-12 DE DE112004000438T patent/DE112004000438T5/de not_active Withdrawn
- 2004-03-12 KR KR1020057017184A patent/KR100773184B1/ko not_active IP Right Cessation
- 2004-03-12 WO PCT/JP2004/003355 patent/WO2004081683A1/ja active Application Filing
- 2004-03-12 US US10/549,110 patent/US7684894B2/en not_active Expired - Fee Related
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6371604A (ja) * | 1986-09-12 | 1988-04-01 | Hideo Mori | 領域分割したカラ−画像を使つて道路境界と障害物を検出する方式 |
JPS63124114A (ja) * | 1986-11-14 | 1988-05-27 | Hitachi Ltd | 移動体用環境認識装置 |
JPS63213005A (ja) * | 1987-03-02 | 1988-09-05 | Hitachi Ltd | 移動体誘導方法 |
JPH036710A (ja) * | 1989-06-05 | 1991-01-14 | Toshiba Corp | 追随移動ロボット制御装置 |
JPH0412218A (ja) * | 1990-05-01 | 1992-01-16 | Toyota Motor Corp | 車両用距離検出装置 |
JPH07213753A (ja) * | 1994-02-02 | 1995-08-15 | Hitachi Ltd | パーソナルロボット装置 |
JPH07325620A (ja) * | 1994-06-02 | 1995-12-12 | Hitachi Ltd | 知能ロボット装置及び知能ロボットシステム |
JPH09326096A (ja) * | 1996-06-06 | 1997-12-16 | Nissan Motor Co Ltd | 車両用人的障害物検知装置 |
JPH11104984A (ja) * | 1997-10-06 | 1999-04-20 | Fujitsu Ltd | 実環境情報表示装置及び実環境情報表示処理を実行するプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2003280739A (ja) * | 2002-03-26 | 2003-10-02 | Matsushita Electric Works Ltd | 案内用自律移動ロボットとその制御方法 |
JP2004178229A (ja) * | 2002-11-26 | 2004-06-24 | Matsushita Electric Works Ltd | 人の存在位置検出装置とその検出方法及び同検出装置を用いた自律移動装置 |
Cited By (69)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006293975A (ja) * | 2005-03-15 | 2006-10-26 | Matsushita Electric Works Ltd | 自律移動装置 |
JP2006321001A (ja) * | 2005-05-18 | 2006-11-30 | Matsushita Electric Works Ltd | 自律移動ロボット及びその移動状況記録システム |
JP2008015931A (ja) * | 2006-07-07 | 2008-01-24 | Honda Motor Co Ltd | 車両周辺監視システム、車両、車両周辺監視プログラム、および車両周辺監視システムの構築システム |
US8209074B2 (en) | 2007-02-16 | 2012-06-26 | Kabushiki Kaisha Toshiba | Robot and method for controlling the same |
JP2008200770A (ja) * | 2007-02-16 | 2008-09-04 | Toshiba Corp | ロボットおよびその制御方法 |
JP2009068852A (ja) * | 2007-09-10 | 2009-04-02 | Tokyo Metropolitan Univ | 環境認識システム、自律型移動体および環境認識プログラム |
JP2009080527A (ja) * | 2007-09-25 | 2009-04-16 | Panasonic Electric Works Co Ltd | 自律移動装置 |
JP2009282786A (ja) * | 2008-05-22 | 2009-12-03 | Murata Mach Ltd | 走行車 |
JP4670899B2 (ja) * | 2008-05-22 | 2011-04-13 | 村田機械株式会社 | 走行車 |
JP2012506994A (ja) * | 2008-07-15 | 2012-03-22 | サムスン エレクトロニクス カンパニー リミテッド | 映像処理方法 |
WO2010021090A1 (ja) * | 2008-08-20 | 2010-02-25 | パナソニック株式会社 | 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ |
JPWO2010021090A1 (ja) * | 2008-08-20 | 2012-01-26 | パナソニック株式会社 | 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ |
KR101271114B1 (ko) | 2008-10-01 | 2013-06-04 | 무라다기카이가부시끼가이샤 | 자율 이동 장치 |
US8897917B2 (en) | 2008-10-01 | 2014-11-25 | Murata Machinery, Ltd. | Autonomous mobile device |
KR101202695B1 (ko) * | 2008-10-01 | 2012-11-19 | 무라다기카이가부시끼가이샤 | 자율 이동 장치 |
JP2012076196A (ja) * | 2010-10-05 | 2012-04-19 | Toyota Motor Corp | ロボット及びその制御方法 |
JP2012142966A (ja) * | 2012-02-15 | 2012-07-26 | Honda Motor Co Ltd | 車両周辺監視システム |
JP2012168990A (ja) * | 2012-06-11 | 2012-09-06 | Panasonic Corp | 自律移動装置 |
WO2014068975A1 (ja) * | 2012-11-05 | 2014-05-08 | パナソニック株式会社 | 自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置 |
JP5597322B1 (ja) * | 2012-11-05 | 2014-10-01 | パナソニック株式会社 | 自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置 |
US9235216B2 (en) | 2012-11-05 | 2016-01-12 | Panasonic Intellectual Property Management Co., Ltd. | Running information generating apparatus of autonomous running apparatus, running information generating method, running information generating program, and autonomous running apparatus |
JP2014174866A (ja) * | 2013-03-12 | 2014-09-22 | Toyota Central R&D Labs Inc | 障害物までの距離を計測して移動する自律式移動装置 |
JP5976198B2 (ja) * | 2013-03-26 | 2016-08-23 | 株式会社日立国際電気 | 人数計数装置および人数計数方法 |
JPWO2014156733A1 (ja) * | 2013-03-26 | 2017-02-16 | 株式会社日立国際電気 | 人数計数装置および人数計数方法 |
US9704259B2 (en) | 2013-03-26 | 2017-07-11 | Hitachi Kokusai Electric Inc. | People counting device and people counting method |
JP2014197294A (ja) * | 2013-03-29 | 2014-10-16 | 株式会社日立産機システム | 位置同定装置、及びそれを備えた移動ロボット |
WO2014156502A1 (ja) * | 2013-03-29 | 2014-10-02 | 株式会社日立産機システム | 位置同定装置、及びそれを備えた移動ロボット |
US9804605B2 (en) | 2013-03-29 | 2017-10-31 | Hitachi Industrial Equipment Systems, Co., Ltd. | Position identification device and mobile robot provided with same |
JP2015019689A (ja) * | 2013-07-16 | 2015-02-02 | アルプス電気株式会社 | 障害物検知装置とその検知方法 |
WO2016009688A1 (ja) * | 2014-07-16 | 2016-01-21 | 株式会社リコー | システム、機械、制御方法、プログラム |
JPWO2016009688A1 (ja) * | 2014-07-16 | 2017-04-27 | 株式会社リコー | システム、機械、制御方法、プログラム |
KR20160090022A (ko) * | 2015-01-21 | 2016-07-29 | 한국과학기술연구원 | 로봇 위치 측정 시스템 및 방법 |
KR101681187B1 (ko) * | 2015-01-21 | 2016-12-01 | 한국과학기술연구원 | 로봇 위치 측정 시스템 및 방법 |
JP2022091804A (ja) * | 2015-04-06 | 2022-06-21 | ウェイモ エルエルシー | 長距離操縦可能lidarシステム |
JP2016064829A (ja) * | 2015-12-28 | 2016-04-28 | エイディシーテクノロジー株式会社 | 車両制御装置 |
WO2017159680A1 (ja) * | 2016-03-17 | 2017-09-21 | 日本電気株式会社 | 捜索支援装置、捜索支援システム、捜索支援方法及びプログラム記録媒体 |
JPWO2017159680A1 (ja) * | 2016-03-17 | 2019-02-14 | 日本電気株式会社 | 捜索支援装置、捜索支援システム、捜索支援方法及びプログラム |
JP2023052121A (ja) * | 2016-09-20 | 2023-04-11 | イノヴィズ テクノロジーズ リミテッド | Lidarシステム及び方法 |
JP7336014B2 (ja) | 2016-09-20 | 2023-08-30 | イノヴィズ テクノロジーズ リミテッド | Lidarシステム及び方法 |
US11594158B2 (en) * | 2016-11-14 | 2023-02-28 | Sony Group Corporation | Information processing device, information processing method, and recording medium |
US20210327313A1 (en) * | 2016-11-14 | 2021-10-21 | Sony Group Corporation | Information processing device, information processing method, and recording medium |
JP2018146440A (ja) * | 2017-03-07 | 2018-09-20 | 株式会社豊田自動織機 | 環境認識装置 |
JP2018151985A (ja) * | 2017-03-14 | 2018-09-27 | トヨタ自動車株式会社 | 自律移動体 |
WO2018173595A1 (ja) * | 2017-03-22 | 2018-09-27 | 日本電産株式会社 | 移動装置 |
CN110546683A (zh) * | 2017-03-30 | 2019-12-06 | 株式会社爱考斯研究 | 对象物判定装置以及对象物判定程序 |
JP2018169811A (ja) * | 2017-03-30 | 2018-11-01 | 株式会社エクォス・リサーチ | 対象物判定装置および対象物判定プログラム |
WO2018180501A1 (ja) * | 2017-03-30 | 2018-10-04 | 株式会社エクォス・リサーチ | 対象物判定装置および対象物判定プログラム |
JP2020535407A (ja) * | 2017-09-28 | 2020-12-03 | ウェイモ エルエルシー | 同期スピニングlidarおよびローリングシャッターカメラシステム |
JP2019139287A (ja) * | 2018-02-06 | 2019-08-22 | 株式会社Soken | 移動体制御装置 |
JP7060231B2 (ja) | 2018-02-06 | 2022-04-26 | 株式会社Soken | 移動体制御装置 |
JPWO2019167210A1 (ja) * | 2018-02-28 | 2020-10-22 | 本田技研工業株式会社 | 制御装置、移動体及びプログラム |
WO2019167210A1 (ja) * | 2018-02-28 | 2019-09-06 | 本田技研工業株式会社 | 制御装置、移動体及びプログラム |
JP2020003484A (ja) * | 2018-06-21 | 2020-01-09 | クモノスコーポレーション株式会社 | 3dレーザスキャナ、3dレーザスキャナシステム、建設作業機械及び建設工事方法 |
JP2020055490A (ja) * | 2018-10-04 | 2020-04-09 | 関西電力株式会社 | 走行制御装置及び走行制御方法、並びに自動走行車 |
JP2022171735A (ja) * | 2018-11-01 | 2022-11-11 | パナソニックIpマネジメント株式会社 | 運転支援装置、車両および運転支援方法 |
JP7460968B2 (ja) | 2018-11-01 | 2024-04-03 | パナソニックオートモーティブシステムズ株式会社 | 運転支援装置、車両および運転支援方法 |
JP2020071182A (ja) * | 2018-11-01 | 2020-05-07 | パナソニックIpマネジメント株式会社 | 運転支援装置、車両および運転支援方法 |
JPWO2020145095A1 (ja) * | 2019-01-10 | 2021-11-25 | 株式会社小糸製作所 | LiDARセンサユニットおよび車両用防犯システム |
JP7390312B2 (ja) | 2019-01-10 | 2023-12-01 | 株式会社小糸製作所 | LiDARセンサユニット |
WO2020145095A1 (ja) * | 2019-01-10 | 2020-07-16 | 株式会社小糸製作所 | LiDARセンサユニットおよび車両用防犯システム |
JP7323652B2 (ja) | 2019-07-31 | 2023-08-08 | エックス デベロップメント エルエルシー | 移動ロボットセンサ構成 |
JP2022542216A (ja) * | 2019-07-31 | 2022-09-30 | エックス デベロップメント エルエルシー | 移動ロボットセンサ構成 |
CN114072255A (zh) * | 2019-07-31 | 2022-02-18 | X开发有限责任公司 | 移动机器人传感器配置 |
JP2021056764A (ja) * | 2019-09-30 | 2021-04-08 | 日本電産株式会社 | 移動体 |
JPWO2021152340A1 (ja) * | 2020-01-31 | 2021-08-05 | ||
CN115038990A (zh) * | 2020-01-31 | 2022-09-09 | 日产自动车株式会社 | 物体识别方法及物体识别装置 |
WO2021152340A1 (ja) * | 2020-01-31 | 2021-08-05 | 日産自動車株式会社 | 物体認識方法及び物体認識装置 |
JP7404137B2 (ja) | 2020-04-01 | 2023-12-25 | 株式会社豊田中央研究所 | 顔画像処理装置及び顔画像処理プログラム |
JP7404282B2 (ja) | 2021-02-10 | 2023-12-25 | 株式会社豊田中央研究所 | 顔モデルパラメータ推定装置、顔モデルパラメータ推定方法及び顔モデルパラメータ推定プログラム |
Also Published As
Publication number | Publication date |
---|---|
US7684894B2 (en) | 2010-03-23 |
KR100773184B1 (ko) | 2007-11-02 |
KR20050108396A (ko) | 2005-11-16 |
DE112004000438T5 (de) | 2006-01-26 |
TW200508826A (en) | 2005-03-01 |
TWI242701B (en) | 2005-11-01 |
US20060184274A1 (en) | 2006-08-17 |
WO2004081683A1 (ja) | 2004-09-23 |
JP3879848B2 (ja) | 2007-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3879848B2 (ja) | 自律移動装置 | |
KR102113955B1 (ko) | 선박 및 항만 모니터링 장치 및 방법 | |
CN108406731B (zh) | 一种基于深度视觉的定位装置、方法及机器人 | |
US11513212B2 (en) | Motor vehicle and method for a 360° detection of the motor vehicle surroundings | |
JP6132659B2 (ja) | 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法 | |
JP3895238B2 (ja) | 障害物検出装置及びその方法 | |
KR102151815B1 (ko) | 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치 | |
KR102056147B1 (ko) | 자율주행차량을 위한 거리 데이터와 3차원 스캔 데이터의 정합 방법 및 그 장치 | |
JP6524529B2 (ja) | 建築限界判定装置 | |
JP2004171165A (ja) | 移動装置 | |
JP2004334819A (ja) | ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置 | |
US20170109932A1 (en) | Content projection apparatus, content projection method, and computer readable storage medium | |
KR20210090574A (ko) | 선박 및 항만 모니터링 장치 및 방법 | |
JPH11257931A (ja) | 物体認識装置 | |
KR20120108256A (ko) | 로봇 물고기 위치 인식 시스템 및 로봇 물고기 위치 인식 방법 | |
JP2018173707A (ja) | 人推定システムおよび推定プログラム | |
JP2000293693A (ja) | 障害物検出方法および装置 | |
JP2018503195A (ja) | 物体検出方法及び物体検出装置 | |
Kafka et al. | Random inspection tree algorithm in visual inspection with a realistic sensing model and differential constraints | |
JP2001076128A (ja) | 障害物検出装置及び方法 | |
JP3237705B2 (ja) | 障害物検出装置および障害物検出装置を搭載した移動体 | |
JP2006050451A (ja) | 障害物警告システム及び画像処理装置 | |
KR102546045B1 (ko) | 라이다(LiDAR)를 이용한 인체 감시장치 | |
AU2020317303B2 (en) | Information processing device, data generation method, and program | |
JPWO2018168182A1 (ja) | 移動体検出装置、移動体検出方法および移動体検出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20061018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061031 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3879848 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091117 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091117 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091117 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101117 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111117 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121117 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121117 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131117 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |