JPH07270518A - 距離計測装置 - Google Patents
距離計測装置Info
- Publication number
- JPH07270518A JPH07270518A JP6063254A JP6325494A JPH07270518A JP H07270518 A JPH07270518 A JP H07270518A JP 6063254 A JP6063254 A JP 6063254A JP 6325494 A JP6325494 A JP 6325494A JP H07270518 A JPH07270518 A JP H07270518A
- Authority
- JP
- Japan
- Prior art keywords
- image
- spot light
- images
- partial
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 43
- 238000000034 method Methods 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 6
- 230000010355 oscillation Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【目的】距離計測を短時間に行う。
【構成】対象物3に向けて、外光よりも輝度が大きいス
ポット光Lが投光される。そして、2つの撮像手段1、
2で撮像した画像14、15の中から最大輝度点PML、
PMRを探索することにより、スポット光Lの投射点PM
L、PMRの画像14、15上における座標位置(XML、
YML)、(XMR、YMR)が、各撮像手段1、2ごとに撮
像した各画像14、15ごとに求められる。こうして各
撮像手段1、2ごとに撮像された全画像14、15の中
からそれぞれ、スポット光投射点PML、PMR近傍の所定
範囲Ar、A´rにある部分画像が抽出され、抽出された
各部分画像Ar、A´rを比較する画像処理が行われて、
対象物3の画像14、15上の座標位置PL(XL、Y
L)、PR(XR、YR)が各撮像手段1、2ごとに求めら
れる。
ポット光Lが投光される。そして、2つの撮像手段1、
2で撮像した画像14、15の中から最大輝度点PML、
PMRを探索することにより、スポット光Lの投射点PM
L、PMRの画像14、15上における座標位置(XML、
YML)、(XMR、YMR)が、各撮像手段1、2ごとに撮
像した各画像14、15ごとに求められる。こうして各
撮像手段1、2ごとに撮像された全画像14、15の中
からそれぞれ、スポット光投射点PML、PMR近傍の所定
範囲Ar、A´rにある部分画像が抽出され、抽出された
各部分画像Ar、A´rを比較する画像処理が行われて、
対象物3の画像14、15上の座標位置PL(XL、Y
L)、PR(XR、YR)が各撮像手段1、2ごとに求めら
れる。
Description
【0001】
【産業上の利用分野】本発明は、対象物までの距離を計
測する距離計測装置に関し、特に、豪雨や火山噴火等の
自然災害現場において、野外の障害物までの距離を計測
しながら救援物資の輸送や災害復興資材の輸送を行う災
害救援ロボットに搭載される距離計測装置に関する。
測する距離計測装置に関し、特に、豪雨や火山噴火等の
自然災害現場において、野外の障害物までの距離を計測
しながら救援物資の輸送や災害復興資材の輸送を行う災
害救援ロボットに搭載される距離計測装置に関する。
【0002】
【従来の技術】従来より大学や各種研究機関によって研
究されている公知の屋内用の人工知能ロボットでは、既
知の障害物が走行環境中に存在することを前提としてお
り、取得した画像についてパターンマッチングが行われ
て既知の障害物が認識され、この認識結果に基づいて走
行制御がなされる。
究されている公知の屋内用の人工知能ロボットでは、既
知の障害物が走行環境中に存在することを前提としてお
り、取得した画像についてパターンマッチングが行われ
て既知の障害物が認識され、この認識結果に基づいて走
行制御がなされる。
【0003】また、上記パターンマッチングを行う画像
処理がなされている間、ロボットは一旦停止する必要が
あるが、停止時間が長いからといって、作業効率の点を
除けば特に安全上の問題は発生することはなく、画像処
理に十分時間をかけることが可能であった。
処理がなされている間、ロボットは一旦停止する必要が
あるが、停止時間が長いからといって、作業効率の点を
除けば特に安全上の問題は発生することはなく、画像処
理に十分時間をかけることが可能であった。
【0004】
【発明が解決しようとする課題】しかし、災害救援ロボ
ットは、自然災害が発生しつつある現場、もしくは災害
後の被災地の中でも特に人間が通行すると危険と思われ
る現場を走行する。
ットは、自然災害が発生しつつある現場、もしくは災害
後の被災地の中でも特に人間が通行すると危険と思われ
る現場を走行する。
【0005】そのような災害現場では、路面は雨で濡れ
てすべりやすかったり、崩れ易く脆くなっていることも
あり、植物や家屋や電信柱等が倒れている場合もあり、
現場の障害物を予想することができない。
てすべりやすかったり、崩れ易く脆くなっていることも
あり、植物や家屋や電信柱等が倒れている場合もあり、
現場の障害物を予想することができない。
【0006】こうした予想できない障害物が出現する状
況下では、従来の屋内用の知能ロボットのような既知の
画像とのパターンマッチングにより対象物を認識する方
法をそのまま適用することができない。
況下では、従来の屋内用の知能ロボットのような既知の
画像とのパターンマッチングにより対象物を認識する方
法をそのまま適用することができない。
【0007】しかも、上述するような屋内用のロボット
と異なり、災害救援ロボットは画像処理のために、一定
地点に長時間留まることはできない。
と異なり、災害救援ロボットは画像処理のために、一定
地点に長時間留まることはできない。
【0008】すなわち、災害救援ロボットの場合、極め
て短時間に周囲の障害物を検出しなければ、ロボット自
身も自然災害に巻き込まれたり危険な地域からの脱出が
遅れる等の安全上の問題が発生するからである。
て短時間に周囲の障害物を検出しなければ、ロボット自
身も自然災害に巻き込まれたり危険な地域からの脱出が
遅れる等の安全上の問題が発生するからである。
【0009】ところで、従来より、2台のカメラによる
撮像画像に基づいて、対象物までの距離を計測する装置
が広く知られている。
撮像画像に基づいて、対象物までの距離を計測する装置
が広く知られている。
【0010】たとえば、特公平4―25758号公報に
は、2台のTVカメラを用いて取得された左右画像の各
部の対応点を、相関係数を演算することによって求め、
この結果、相関係数の値が小さく左右画像の対応点を正
確に求めることができないと判定された場合に限り、ス
ポット光または特定の模様パターンを投射し、相関係数
の値を大きくし正確に対応点を取得せんとする技術が開
示されている。
は、2台のTVカメラを用いて取得された左右画像の各
部の対応点を、相関係数を演算することによって求め、
この結果、相関係数の値が小さく左右画像の対応点を正
確に求めることができないと判定された場合に限り、ス
ポット光または特定の模様パターンを投射し、相関係数
の値を大きくし正確に対応点を取得せんとする技術が開
示されている。
【0011】かかる公報掲載の技術は、光投射により結
果的に正確な対応点が取得されるという利点があるもの
の、左右画像の全画素について複雑な相関係数演算処理
を行う必要があり、このため複雑な演算を短時間に行う
べく大型の計算機を必要とする。
果的に正確な対応点が取得されるという利点があるもの
の、左右画像の全画素について複雑な相関係数演算処理
を行う必要があり、このため複雑な演算を短時間に行う
べく大型の計算機を必要とする。
【0012】しかし、一般の産業用ロボットの場合と異
なり、災害救援ロボットの場合は、大型計算機を搭載す
ることはできない。
なり、災害救援ロボットの場合は、大型計算機を搭載す
ることはできない。
【0013】すなわち、災害救援ロボットにあっては、
救援物資等を搭載するスペースを確保する必要上、機敏
に行動する必要上、大型計算機を搭載することは実用的
ではないからである。だからといって、大型計算機を用
いずに上記公報に記載された方法を実施した場合には、
画像処理に膨大な時間が費やされ、この結果、ロボット
が機敏に動くことができず、危険な地域からの脱出が遅
れて二次災害に巻き込まれる等の問題が招来することに
なる。
救援物資等を搭載するスペースを確保する必要上、機敏
に行動する必要上、大型計算機を搭載することは実用的
ではないからである。だからといって、大型計算機を用
いずに上記公報に記載された方法を実施した場合には、
画像処理に膨大な時間が費やされ、この結果、ロボット
が機敏に動くことができず、危険な地域からの脱出が遅
れて二次災害に巻き込まれる等の問題が招来することに
なる。
【0014】本発明は、こうした実状に鑑みてなされた
ものであり、大型の計算機を要することなく、またパタ
ーンマッチングを用いることなく、短時間で正確な画像
処理を行い対象物との距離を計測することができるよう
にして、災害救援ロボットに搭載された場合に、予想で
きない対象物を短時間の画像処理で正確に認識しながら
安全に走行することができる距離計測装置を提供するこ
とを目的とするものである。
ものであり、大型の計算機を要することなく、またパタ
ーンマッチングを用いることなく、短時間で正確な画像
処理を行い対象物との距離を計測することができるよう
にして、災害救援ロボットに搭載された場合に、予想で
きない対象物を短時間の画像処理で正確に認識しながら
安全に走行することができる距離計測装置を提供するこ
とを目的とするものである。
【0015】
【課題を解決するための手段】そこで、本発明の主たる
発明では、2つの撮像手段で対象物を撮像し、各撮像手
段ごとに撮像した各画像を比較する画像処理を行うこと
により、前記対象物の画像上の座標位置を各撮像手段ご
とに求め、この各撮像手段ごとに求められた前記対象物
の画像上の座標位置に基づいて、前記対象物までの距離
を演算する距離計測装置において、前記対象物に向け
て、外光よりも輝度が大きいスポット光を投光する投光
手段と、前記撮像手段で撮像した画像の中から最大輝度
点を探索することにより、前記スポット光の照射点の画
像上における座標位置を、各撮像手段ごとに撮像した各
画像ごとに求める第1の画像処理手段と、前記各撮像手
段ごとに撮像された全画像の中からそれぞれ、前記スポ
ット光照射点近傍の所定範囲にある部分画像を抽出し、
該抽出された各部分画像を比較する画像処理を行うこと
により、前記対象物の画像上の座標位置を各撮像手段ご
とに求める第2の画像処理手段とを具えている。
発明では、2つの撮像手段で対象物を撮像し、各撮像手
段ごとに撮像した各画像を比較する画像処理を行うこと
により、前記対象物の画像上の座標位置を各撮像手段ご
とに求め、この各撮像手段ごとに求められた前記対象物
の画像上の座標位置に基づいて、前記対象物までの距離
を演算する距離計測装置において、前記対象物に向け
て、外光よりも輝度が大きいスポット光を投光する投光
手段と、前記撮像手段で撮像した画像の中から最大輝度
点を探索することにより、前記スポット光の照射点の画
像上における座標位置を、各撮像手段ごとに撮像した各
画像ごとに求める第1の画像処理手段と、前記各撮像手
段ごとに撮像された全画像の中からそれぞれ、前記スポ
ット光照射点近傍の所定範囲にある部分画像を抽出し、
該抽出された各部分画像を比較する画像処理を行うこと
により、前記対象物の画像上の座標位置を各撮像手段ご
とに求める第2の画像処理手段とを具えている。
【0016】
【作用】かかる構成によれば、図1に示すように、対象
物3に向けて、外光よりも輝度が大きいスポット光Lが
投光される。そして、図4に示すように2つの撮像手段
1、2で撮像した画像14、15の中から最大輝度点P
ML、PMRを探索することにより、スポット光Lの照射点
PML、PMRの画像14、15上における座標位置(XM
L、YML)、(XMR、YMR)が、各撮像手段1、2ごと
に撮像した各画像14、15ごとに求められる。
物3に向けて、外光よりも輝度が大きいスポット光Lが
投光される。そして、図4に示すように2つの撮像手段
1、2で撮像した画像14、15の中から最大輝度点P
ML、PMRを探索することにより、スポット光Lの照射点
PML、PMRの画像14、15上における座標位置(XM
L、YML)、(XMR、YMR)が、各撮像手段1、2ごと
に撮像した各画像14、15ごとに求められる。
【0017】こうして各撮像手段1、2ごとに撮像され
た全画像14、15の中からそれぞれ、スポット光投射
点PML、PMR近傍の所定範囲Ar、A´rにある部分画像
が抽出され、該抽出された各部分画像Ar、A´rを比較
する画像処理が行われて、対象物3の画像14、15上
の座標位置PL(XL、YL)、PR(XR、YR)が各撮像
手段1、2ごとに求められる。
た全画像14、15の中からそれぞれ、スポット光投射
点PML、PMR近傍の所定範囲Ar、A´rにある部分画像
が抽出され、該抽出された各部分画像Ar、A´rを比較
する画像処理が行われて、対象物3の画像14、15上
の座標位置PL(XL、YL)、PR(XR、YR)が各撮像
手段1、2ごとに求められる。
【0018】このように、同一対象物を同時に撮像した
2つの画像を比較する画像処理が、取得した画像14、
15の全画素についてではなく、スポット光を基準とす
る一部の画素についてのみ行われるので、大型計算機を
用いることなく短時間で処理がなされる。しかも、パタ
ーンマッチングによるものではないので、予想できない
対象物の認識も正確に行うことができる。
2つの画像を比較する画像処理が、取得した画像14、
15の全画素についてではなく、スポット光を基準とす
る一部の画素についてのみ行われるので、大型計算機を
用いることなく短時間で処理がなされる。しかも、パタ
ーンマッチングによるものではないので、予想できない
対象物の認識も正確に行うことができる。
【0019】したがって、災害救援ロボットに搭載され
た場合には、予想できない対象物を短時間の画像処理で
正確に認識しながら安全に走行することができる。
た場合には、予想できない対象物を短時間の画像処理で
正確に認識しながら安全に走行することができる。
【0020】
【実施例】以下、図面を参照して本発明に係る距離計測
装置の実施例について説明する。なお、この実施例で
は、該距離計測装置が前述した災害救援ロボットに搭載
されて、障害物までの距離を計測する場合を想定してい
る。
装置の実施例について説明する。なお、この実施例で
は、該距離計測装置が前述した災害救援ロボットに搭載
されて、障害物までの距離を計測する場合を想定してい
る。
【0021】図1は、図5に示す実施例の災害救援ロボ
ット17に搭載される距離計測装置の構成を示すブロッ
ク図である。
ット17に搭載される距離計測装置の構成を示すブロッ
ク図である。
【0022】同図に示すように、ロボット17の前部左
右には、2台のカメラ1、2が、災害現場における岩等
の障害物3(以下「対象物」という)を異なる視野方向
から撮像し得るように、所定距離離間されて固定支持さ
れている。
右には、2台のカメラ1、2が、災害現場における岩等
の障害物3(以下「対象物」という)を異なる視野方向
から撮像し得るように、所定距離離間されて固定支持さ
れている。
【0023】レーザ光発振源5は、上記対象物3上に向
けてレーザ光Lをスポット光として投光するものであ
り、カメラ1、2間の中心に配設されている。したがっ
て、上記対象物3上のスポット光照射位置3aは、上記
カメラ1、2によって撮像される。なお、上記レーザ光
Lの対象物3からの反射光は、ロボット17周囲の外光
(自然光)による反射光と明確に識別する必要があるた
め、レーザ光Lの反射光の輝度は、外光の反射光の輝度
よりも大きいものでなくてはならない。
けてレーザ光Lをスポット光として投光するものであ
り、カメラ1、2間の中心に配設されている。したがっ
て、上記対象物3上のスポット光照射位置3aは、上記
カメラ1、2によって撮像される。なお、上記レーザ光
Lの対象物3からの反射光は、ロボット17周囲の外光
(自然光)による反射光と明確に識別する必要があるた
め、レーザ光Lの反射光の輝度は、外光の反射光の輝度
よりも大きいものでなくてはならない。
【0024】スキャナ4は、上記レーザ光Lの投光方向
を、ロボット17の移動方向に応じて、任意の方向に変
化させる走査装置であり、スキャナドライバ6によって
駆動される。スキャナドライバ6はコントローラ8によ
って制御される。
を、ロボット17の移動方向に応じて、任意の方向に変
化させる走査装置であり、スキャナドライバ6によって
駆動される。スキャナドライバ6はコントローラ8によ
って制御される。
【0025】カメラ1からは、図2に示すように2系統
の画像信号S1、S´1が出力される。すなわち、同図2
に示すように、カメラ1には、対象物3からの反射光が
入力され、この反射光がハーフミラー10によって2方
向に分岐される。一方の分岐光は、レーザ光Lの波長を
中心とする所定波長線幅の反射光(実質的にスポット照
射点3aに対応する反射光のみ)を透過させるバンドパ
スフィルタ11を透過し、CCD撮像素子12、アンプ
13を介してフィルタ付き画像信号S1として出力され
る。このようにしてスポット光照射点3aの輝度と、周
囲の輝度との差がきわめて大きい画像が撮像され、この
画像を示すフィルタ付き画像信号S1が出力される。
の画像信号S1、S´1が出力される。すなわち、同図2
に示すように、カメラ1には、対象物3からの反射光が
入力され、この反射光がハーフミラー10によって2方
向に分岐される。一方の分岐光は、レーザ光Lの波長を
中心とする所定波長線幅の反射光(実質的にスポット照
射点3aに対応する反射光のみ)を透過させるバンドパ
スフィルタ11を透過し、CCD撮像素子12、アンプ
13を介してフィルタ付き画像信号S1として出力され
る。このようにしてスポット光照射点3aの輝度と、周
囲の輝度との差がきわめて大きい画像が撮像され、この
画像を示すフィルタ付き画像信号S1が出力される。
【0026】他方の分岐光は、上記バンドパスフィルタ
11を透過することなく、上記と同様なCCD撮像素子
12´、アンプ13´を介してフィルタ無し画像信号S
´1として出力される。このようにしてスポット光照射
点3aに対応する反射光と周囲の自然光による反射光と
が混在した、上記フィルタ付き画像と同一視野の画像が
撮像され、この画像を示すフィルタ無し画像信号S´1
が出力される。
11を透過することなく、上記と同様なCCD撮像素子
12´、アンプ13´を介してフィルタ無し画像信号S
´1として出力される。このようにしてスポット光照射
点3aに対応する反射光と周囲の自然光による反射光と
が混在した、上記フィルタ付き画像と同一視野の画像が
撮像され、この画像を示すフィルタ無し画像信号S´1
が出力される。
【0027】これら両画像信号S1、S´1は、それぞれ
独立した信号線を介して画像処理部9に入力される。
独立した信号線を介して画像処理部9に入力される。
【0028】他方のカメラ2についても図2と同一構成
となっており、上記信号S1、S´1と同様なフィルタ付
き画像信号S2、フィルタ無し画像信号S´2が、同様に
して画像処理部9に出力される。なお、カメラ1、2間
の同期は、基本的に画像処理部9によって供給される垂
直同期信号、水平同期信号に基づきとられるものとす
る。
となっており、上記信号S1、S´1と同様なフィルタ付
き画像信号S2、フィルタ無し画像信号S´2が、同様に
して画像処理部9に出力される。なお、カメラ1、2間
の同期は、基本的に画像処理部9によって供給される垂
直同期信号、水平同期信号に基づきとられるものとす
る。
【0029】画像処理部9は、上記コントローラ8によ
って制御される。
って制御される。
【0030】図3は、コントローラ8内のCPUで実行
される処理手順を示すフローチャートであり、コントロ
ーラ8が行うレーザ光投光方向制御の内容と画像処理制
御の内容を示している。
される処理手順を示すフローチャートであり、コントロ
ーラ8が行うレーザ光投光方向制御の内容と画像処理制
御の内容を示している。
【0031】なお、実施例では、ロボット17として、
走行すべきルートが予めプログラムされ、この予設定さ
れたルートに沿って自動走行される、いわゆる自立走行
式のロボットを想定している。
走行すべきルートが予めプログラムされ、この予設定さ
れたルートに沿って自動走行される、いわゆる自立走行
式のロボットを想定している。
【0032】まず、図3(a)に示すように、コントロ
ーラ8は、スキャナドライバ6、画像処理部9に対して
動作指令信号を送出する処理を行う。
ーラ8は、スキャナドライバ6、画像処理部9に対して
動作指令信号を送出する処理を行う。
【0033】スキャナドライバ6に動作指令信号が入力
されると、この動作指令信号の内容に応じた投光方向に
レーザ光Lが投光されるように、スキャナドライバ6が
スキャナ4を駆動する。この結果、カメラ1、2で取得
される画像14、15(図4)内の任意の位置にスポッ
ト光照射点PML、PMRを位置させることが可能となる
(ステップ101、102)。
されると、この動作指令信号の内容に応じた投光方向に
レーザ光Lが投光されるように、スキャナドライバ6が
スキャナ4を駆動する。この結果、カメラ1、2で取得
される画像14、15(図4)内の任意の位置にスポッ
ト光照射点PML、PMRを位置させることが可能となる
(ステップ101、102)。
【0034】このようにしてレーザ光Lの投光方向が定
まり、レーザ光の方向制御が終了されると、画像処理部
9は動作指令信号を受けて画像処理を開始する。
まり、レーザ光の方向制御が終了されると、画像処理部
9は動作指令信号を受けて画像処理を開始する。
【0035】すなわち、同時に入力される各画像信号S
1、S´1、S2、S´2のそれぞれ基づいて、図4に示す
ように、カメラ1によるフィルタ付き画像14、同カメ
ラ1によるフィルタ無し画像14´、カメラ2によるフ
ィルタ付き画像15、同カメラ2によるフィルタ無し画
像15´の合計4画像が取得される(ステップ10
3)。
1、S´1、S2、S´2のそれぞれ基づいて、図4に示す
ように、カメラ1によるフィルタ付き画像14、同カメ
ラ1によるフィルタ無し画像14´、カメラ2によるフ
ィルタ付き画像15、同カメラ2によるフィルタ無し画
像15´の合計4画像が取得される(ステップ10
3)。
【0036】そこで、まずフィルタ付き画像14、15
についての処理が実行される(ステップ104)。
についての処理が実行される(ステップ104)。
【0037】すなわち、手順は同図3(b)のステップ
108に移行され、フィルタ付き画像14、15のそれ
ぞれについて画像上における各画素のうちで輝度が最大
となる点が抽出される。ここでフィルタ付き画像14、
15は、前述したように、スポット光照射点3aの輝度
と、周囲の輝度との差がきわめて大きい画像なので、上
記輝度最大点、つまりスポット光照射点を簡易な画像処
理により短時間に探索することができる。なお、スポッ
ト光照射点3aは、フィルタ無し画像14´、15´に
基づいて探索することも可能である。この場合、フィル
タを設け、信号を2系統に出力する図2の構成は不要と
なる(ステップ108)。
108に移行され、フィルタ付き画像14、15のそれ
ぞれについて画像上における各画素のうちで輝度が最大
となる点が抽出される。ここでフィルタ付き画像14、
15は、前述したように、スポット光照射点3aの輝度
と、周囲の輝度との差がきわめて大きい画像なので、上
記輝度最大点、つまりスポット光照射点を簡易な画像処
理により短時間に探索することができる。なお、スポッ
ト光照射点3aは、フィルタ無し画像14´、15´に
基づいて探索することも可能である。この場合、フィル
タを設け、信号を2系統に出力する図2の構成は不要と
なる(ステップ108)。
【0038】つぎに、抽出された最大輝度点の画像1
4、15上における座標位置PML(XML、YML)、PMR
(XMR、YMR)がそれぞれ演算され(ステップ109;
図4参照)、手順は図3(a)のステップ105に移行
される。
4、15上における座標位置PML(XML、YML)、PMR
(XMR、YMR)がそれぞれ演算され(ステップ109;
図4参照)、手順は図3(a)のステップ105に移行
される。
【0039】ついで、フィルタ無し画像14´、15´
についての処理が実行される(ステップ105)。
についての処理が実行される(ステップ105)。
【0040】すなわち、手順は同図3(c)のステップ
110に移行され、図4に示すようにフィルタ無し画像
14´上において座標位置(XML、YML)(つまり最大
輝度点PMLの座標位置)を中心点とする半径Rの円(若
しくは一片Rの正方形)が形成され、この形成された円
によって画成される部分画像Arが生成される。他方の
フィルタ無し画像15´についても同様な部分画像A´
rが生成される(ステップ110)。
110に移行され、図4に示すようにフィルタ無し画像
14´上において座標位置(XML、YML)(つまり最大
輝度点PMLの座標位置)を中心点とする半径Rの円(若
しくは一片Rの正方形)が形成され、この形成された円
によって画成される部分画像Arが生成される。他方の
フィルタ無し画像15´についても同様な部分画像A´
rが生成される(ステップ110)。
【0041】ついで、一方の部分画像Ar(これを「主
画像」とする)に対する他方の部分画像A´r(これを
「副画像」とする)の相互相関係数が演算されて、係数
最大点が対応点の候補とされる。この演算は、主画像の
すべての点(画素)について実行され、対応点のペアが
生成される。
画像」とする)に対する他方の部分画像A´r(これを
「副画像」とする)の相互相関係数が演算されて、係数
最大点が対応点の候補とされる。この演算は、主画像の
すべての点(画素)について実行され、対応点のペアが
生成される。
【0042】この結果、図4に示すように、相互相関係
数が最大となるように画素PLと画素PRとの対応づけが
なされ、これら画像14´、15´における画素PL、
PRがそれぞれ、対象物3の同一部位を示しているもの
と判断される(ステップ111)。
数が最大となるように画素PLと画素PRとの対応づけが
なされ、これら画像14´、15´における画素PL、
PRがそれぞれ、対象物3の同一部位を示しているもの
と判断される(ステップ111)。
【0043】つぎに、このように演算された主画像内の
各画素の相関係数の全てが、予め設定したしきい値より
も大きいか否かが判断される(ステップ112)。ま
た、主画像内の各画素の輝度の分散が演算され、この分
散値が所定のしきい値よりも大きいか否かが判断される
(ステップ113)。
各画素の相関係数の全てが、予め設定したしきい値より
も大きいか否かが判断される(ステップ112)。ま
た、主画像内の各画素の輝度の分散が演算され、この分
散値が所定のしきい値よりも大きいか否かが判断される
(ステップ113)。
【0044】この結果、上記相関係数がしきい値以下で
あり、かつ上記分散がしきい値よりも大きい判断された
場合には、輝度の変化が大きいにもかかわらず両部分画
像の相関がとれなかった場合なので、最大輝度点を誤抽
出したものとして、ステップ111で取得された両部分
画像の各画素の対応関係をリジェクトし、所定のエラー
処理がなされる。たとえば、新規の画像が取得され、そ
れに基づき処理が行われるよう、上記ステップ103か
らの処理が再度実行される(ステップ114)。
あり、かつ上記分散がしきい値よりも大きい判断された
場合には、輝度の変化が大きいにもかかわらず両部分画
像の相関がとれなかった場合なので、最大輝度点を誤抽
出したものとして、ステップ111で取得された両部分
画像の各画素の対応関係をリジェクトし、所定のエラー
処理がなされる。たとえば、新規の画像が取得され、そ
れに基づき処理が行われるよう、上記ステップ103か
らの処理が再度実行される(ステップ114)。
【0045】一方、相関係数がしきい値よりも大きいと
判断された場合は、両部分画像の相関が大きく、ステッ
プ111で取得された両部分画像の各画素の対応関係が
正しいものと判断し、無条件でロボット17から対象物
3までの距離を三角測量によって演算する処理を実行す
る。すなわち、図4に示すように、画像14´上におけ
る注目画素PLの座標位置(XL、YL)と、画像15´
上における注目画素PRの座標位置(XR、YR)とに基
づいて注目画素に対応する対象物3の所定部位までの距
離が演算される(ステップ115)。
判断された場合は、両部分画像の相関が大きく、ステッ
プ111で取得された両部分画像の各画素の対応関係が
正しいものと判断し、無条件でロボット17から対象物
3までの距離を三角測量によって演算する処理を実行す
る。すなわち、図4に示すように、画像14´上におけ
る注目画素PLの座標位置(XL、YL)と、画像15´
上における注目画素PRの座標位置(XR、YR)とに基
づいて注目画素に対応する対象物3の所定部位までの距
離が演算される(ステップ115)。
【0046】また、上記相関係数がしきい値以下であ
り、かつ上記分散がしきい値以下であると判断された場
合であっても、ステップ111で取得された対応関係は
正しいものと判断されて、同様に三角測量が実施される
(ステップ115)。対象物3が、たとえば土質がほぼ
均一な平坦地である場合には、輝度の変化が少なく、最
大輝度点の近傍はすべて同じ距離であるものとして撮像
されることもあり得るからである。
り、かつ上記分散がしきい値以下であると判断された場
合であっても、ステップ111で取得された対応関係は
正しいものと判断されて、同様に三角測量が実施される
(ステップ115)。対象物3が、たとえば土質がほぼ
均一な平坦地である場合には、輝度の変化が少なく、最
大輝度点の近傍はすべて同じ距離であるものとして撮像
されることもあり得るからである。
【0047】なお、対象物3がロボット17にとっての
障害物であるか否かは、被観測点までの距離が予め設定
してなるしきい値を超えたか否かによって判断すること
ができる。このようにして、ロボット17は、周囲の障
害物の有無をリアルタイムで検出しながら災害現場を安
全に走行することができる。
障害物であるか否かは、被観測点までの距離が予め設定
してなるしきい値を超えたか否かによって判断すること
ができる。このようにして、ロボット17は、周囲の障
害物の有無をリアルタイムで検出しながら災害現場を安
全に走行することができる。
【0048】つぎに、ロボット17の現在位置を補正す
る実施例について図5を参照しつつ説明する。
る実施例について図5を参照しつつ説明する。
【0049】周知のように、自立走行するロボットにあ
っては、地図上のロボットの現在位置と地図上の予定ル
ートとを比較しながら走行する。
っては、地図上のロボットの現在位置と地図上の予定ル
ートとを比較しながら走行する。
【0050】ロボット17には、GPS(Global Posit
ional Syistem)受信装置等の自己位置センサが搭載さ
れ、GPS衛星16から送出される信号Bが受信される
ことによって現在位置が計測される。この計測位置デー
タは、別途搭載しているディジタルマップと照合され、
ロボット17の現在位置が地図上にマップされる。そし
て、ロボット17は、地図上の現在位置データに基づい
て地図上の予定ルートから外れないように誘導制御され
る。なお、ロボット17は、危険な災害現場にあって
は、遠隔操縦される。
ional Syistem)受信装置等の自己位置センサが搭載さ
れ、GPS衛星16から送出される信号Bが受信される
ことによって現在位置が計測される。この計測位置デー
タは、別途搭載しているディジタルマップと照合され、
ロボット17の現在位置が地図上にマップされる。そし
て、ロボット17は、地図上の現在位置データに基づい
て地図上の予定ルートから外れないように誘導制御され
る。なお、ロボット17は、危険な災害現場にあって
は、遠隔操縦される。
【0051】ところが、上記GPSによる計測には、誤
差が生じることがある。
差が生じることがある。
【0052】そこで、複数のランドマークMkが予め用
意され、このランドマークMkを監視カメラ(例えば、
上述した2台のカメラ1、2の内の1台で代用すること
ができる)で撮像し、そのランドマークMkの方位を求
める。つぎに、その方位に向けて、スポット光(上記レ
ーザ発振源5から投光されるレーザ光Lで代用すること
ができる)を投光し、2台のカメラ1、2でこれを撮像
して、スポット光照射位置を演算する。
意され、このランドマークMkを監視カメラ(例えば、
上述した2台のカメラ1、2の内の1台で代用すること
ができる)で撮像し、そのランドマークMkの方位を求
める。つぎに、その方位に向けて、スポット光(上記レ
ーザ発振源5から投光されるレーザ光Lで代用すること
ができる)を投光し、2台のカメラ1、2でこれを撮像
して、スポット光照射位置を演算する。
【0053】つぎに、別のランドマークMkに対しても
同様の処理を実行する。こうした一連の処理が、少なく
とも3つの異なるランドマークに対して実行される。
同様の処理を実行する。こうした一連の処理が、少なく
とも3つの異なるランドマークに対して実行される。
【0054】この結果、ディジタルマップ上で3つのラ
ンドマークMkに対するロボット17の相対的な位置が
求められ、これらによってロボット17の現在位置が演
算される。こうして演算された現在位置によって上記G
PS計測による現在位置を補正すれば、より正確な現在
位置データに基づいた精度のよい誘導制御がなされるこ
とになる。
ンドマークMkに対するロボット17の相対的な位置が
求められ、これらによってロボット17の現在位置が演
算される。こうして演算された現在位置によって上記G
PS計測による現在位置を補正すれば、より正確な現在
位置データに基づいた精度のよい誘導制御がなされるこ
とになる。
【0055】ところで、ロボット17を誘導制御する場
合、その移動速度と移動方向がデータとして必要とされ
る場合がある。そこで、画像処理によって移動速度と移
動方向を計測する実施例について以下説明する。
合、その移動速度と移動方向がデータとして必要とされ
る場合がある。そこで、画像処理によって移動速度と移
動方向を計測する実施例について以下説明する。
【0056】すなわち、図6(c)に示すようにロボッ
ト17の走行中、所定時間ごとに図4に示すしたものと
同様な部分画像Arが撮像される。ここでレーザ光Lの
投光方向は図6(a)、(b)に示すように、路面に向
けて固定されており、走行中のN時点(同図(a))に
おいて、スポット光照射点PNを中心とする部分画像A
´rが取得され、上記N時点から上記所定時間経過した
N+1時点(同図(b))において、スポット光照射点
PN+1を中心とする部分画像Arが取得される。ここで、
N+1時点で撮像された部分画像Arは、所定時間前の
N時点で撮像された画像A´rとほとんど変化はなく、
N+1時点部分画像Ar上のスポット光照射点PN+1近傍
には、N時点部分画像A´rと同一画像が存在してい
る。
ト17の走行中、所定時間ごとに図4に示すしたものと
同様な部分画像Arが撮像される。ここでレーザ光Lの
投光方向は図6(a)、(b)に示すように、路面に向
けて固定されており、走行中のN時点(同図(a))に
おいて、スポット光照射点PNを中心とする部分画像A
´rが取得され、上記N時点から上記所定時間経過した
N+1時点(同図(b))において、スポット光照射点
PN+1を中心とする部分画像Arが取得される。ここで、
N+1時点で撮像された部分画像Arは、所定時間前の
N時点で撮像された画像A´rとほとんど変化はなく、
N+1時点部分画像Ar上のスポット光照射点PN+1近傍
には、N時点部分画像A´rと同一画像が存在してい
る。
【0057】そこで、上記ステップ111と同様の処理
を行うことにより、部分画像Arの画素と部分画像A´r
の画素との対応づけを行う。この結果、所定座標系X―
Yを設定することにより同図(d)の矢印に示すように
ロボット17の移動方向と移動速度(距離と上記所定時
間から演算される)を求めることができる。
を行うことにより、部分画像Arの画素と部分画像A´r
の画素との対応づけを行う。この結果、所定座標系X―
Yを設定することにより同図(d)の矢印に示すように
ロボット17の移動方向と移動速度(距離と上記所定時
間から演算される)を求めることができる。
【0058】
【発明の効果】以上説明したように本発明によれば、同
一対象物を同時に撮像した2つの画像を比較する画像処
理が、取得した画像の全画素についてではなく、スポッ
ト光を基準とする所定範囲の一部の画素についてのみ行
われるので、大型計算機を用いることなく短時間で処理
がなされる。しかも、パターンマッチングによるもので
はないので、予想できない対象物の認識も正確に行うこ
とができる。
一対象物を同時に撮像した2つの画像を比較する画像処
理が、取得した画像の全画素についてではなく、スポッ
ト光を基準とする所定範囲の一部の画素についてのみ行
われるので、大型計算機を用いることなく短時間で処理
がなされる。しかも、パターンマッチングによるもので
はないので、予想できない対象物の認識も正確に行うこ
とができる。
【0059】したがって、災害救援ロボットに搭載され
た場合には、予想できない対象物を短時間の処理で正確
に認識しながら安全に走行することができる。
た場合には、予想できない対象物を短時間の処理で正確
に認識しながら安全に走行することができる。
【図1】図1は本発明に係る距離計測装置の実施例の構
成を示すブロック図である。
成を示すブロック図である。
【図2】図2は図1に示すカメラの構成を示す図であ
る。
る。
【図3】図3(a)、(b)、(c)は図1に示すコン
トローラで実行される処理手順を示すフローチャートで
ある。
トローラで実行される処理手順を示すフローチャートで
ある。
【図4】図4(a)、(b)は図1に示す2台のカメラ
でそれぞれ撮像される画像を示す図である。
でそれぞれ撮像される画像を示す図である。
【図5】図5は実施例のロボットが走行する様子を示す
図である。
図である。
【図6】図6(a)、(b)、(c)、(d)は実施例
のロボットの移動方向、移動速度を計測する実施例を説
明する図である。
のロボットの移動方向、移動速度を計測する実施例を説
明する図である。
1 カメラ 2 カメラ 3 対象物 5 レーザ発振源 8 コントローラ 9 画像処理部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 松田 智夫 神奈川県平塚市四ノ宮2597 株式会社小松 製作所研究部内
Claims (5)
- 【請求項1】 2つの撮像手段で対象物を撮像し、
各撮像手段ごとに撮像した各画像を比較する画像処理を
行うことにより、前記対象物の画像上の座標位置を各撮
像手段ごとに求め、この各撮像手段ごとに求められた前
記対象物の画像上の座標位置に基づいて、前記対象物ま
での距離を演算する距離計測装置において、 前記対象物に向けて、外光よりも輝度が大きいスポット
光を投光する投光手段と、 前記撮像手段で撮像した画像の中から最大輝度点を探索
することにより、前記スポット光の照射点の画像上にお
ける座標位置を、各撮像手段ごとに撮像した各画像ごと
に求める第1の画像処理手段と、 前記各撮像手段ごとに撮像された全画像の中からそれぞ
れ、前記スポット光照射点近傍の所定範囲にある部分画
像を抽出し、該抽出された各部分画像を比較する画像処
理を行うことにより、前記対象物の画像上の座標位置を
各撮像手段ごとに求める第2の画像処理手段とを具えた
距離計測装置。 - 【請求項2】 前記撮像手段には、前記スポット光
の波長のみを透過するフィルタが設けられ、前記撮像手
段は、前記フィルタを介して撮像したフィルタ付き画像
と前記フィルタを介さないで撮像したフィルタ無し画像
を取得するものであり、 前記第1の画像処理手段は、前記フィルタ付き画像に基
づいて画像処理を行い、 前記第2の画像処理手段は、前記フィルタ付き画像上の
スポット光照射点の座標位置と同一の前記フィルタ無し
画像上の座標位置が、前記フィルタ無し画像上のスポッ
ト光照射点であると検出し、この検出したフィルタ無し
画像上のスポット光照射点に基づいて前記部分画像を、
フィルタ無し画像の中から抽出するものである請求項1
記載の距離計測装置。 - 【請求項3】 前記抽出された各部分画像を比較す
る画像処理は、一方の部分画像の他方の部分画像に対す
る相互相関係数を演算し、この相互相関係数が最大とな
るように一方の部分画像上の画素と他方の部分画像上の
画素とを対応づける処理のことであり、前記第2の画像
処理手段は、前記対応づけ処理の結果に基づいて前記対
象物の同一部位における座標位置を、各撮像手段で撮像
された各画像ごとに求めるものである請求項1記載の距
離計測装置。 - 【請求項4】 前記抽出された部分画像内における
各画素の輝度の分散を演算し、 前記相互相関係数が所定のしきい値以下であり、かつ前
記演算された輝度の分散が所定のしきい値以上である場
合には、エラーであり、対象物の画像上の座標位置に基
づく距離計測は行わないと判断するとともに、 前記相互相関係数が所定のしきい値以上の場合、または
前記相互相関係数が所定のしきい値よりも小さく、かつ
前記演算された輝度の分散が所定のしきい値よりも小さ
い場合には、対象物の画像上の座標位置に基づく距離計
測を行うものと判断とする請求項3記載の距離計測装
置。 - 【請求項5】 前記距離計測装置は、移動体に搭載
され、該移動体に、前記スポット光を任意の方向に投光
させる走査手段を配設するようにした請求項1記載の距
離計測装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6063254A JPH07270518A (ja) | 1994-03-31 | 1994-03-31 | 距離計測装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6063254A JPH07270518A (ja) | 1994-03-31 | 1994-03-31 | 距離計測装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07270518A true JPH07270518A (ja) | 1995-10-20 |
Family
ID=13223947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6063254A Pending JPH07270518A (ja) | 1994-03-31 | 1994-03-31 | 距離計測装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07270518A (ja) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006301716A (ja) * | 2005-04-15 | 2006-11-02 | Fuji Heavy Ind Ltd | 自律走行車及びその制御方法 |
JP2008246609A (ja) * | 2007-03-29 | 2008-10-16 | Honda Motor Co Ltd | 脚式移動ロボット |
US8239992B2 (en) | 2007-05-09 | 2012-08-14 | Irobot Corporation | Compact autonomous coverage robot |
US8253368B2 (en) | 2004-01-28 | 2012-08-28 | Irobot Corporation | Debris sensor for cleaning apparatus |
US8368339B2 (en) | 2001-01-24 | 2013-02-05 | Irobot Corporation | Robot confinement |
US8374721B2 (en) | 2005-12-02 | 2013-02-12 | Irobot Corporation | Robot system |
US8380350B2 (en) | 2005-12-02 | 2013-02-19 | Irobot Corporation | Autonomous coverage robot navigation system |
US8382906B2 (en) | 2005-02-18 | 2013-02-26 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
US8386081B2 (en) | 2002-09-13 | 2013-02-26 | Irobot Corporation | Navigational control system for a robotic device |
US8390251B2 (en) | 2004-01-21 | 2013-03-05 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US8387193B2 (en) | 2005-02-18 | 2013-03-05 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
US8396592B2 (en) | 2001-06-12 | 2013-03-12 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US8412377B2 (en) | 2000-01-24 | 2013-04-02 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US8417383B2 (en) | 2006-05-31 | 2013-04-09 | Irobot Corporation | Detecting robot stasis |
US8418303B2 (en) | 2006-05-19 | 2013-04-16 | Irobot Corporation | Cleaning robot roller processing |
US8428778B2 (en) | 2002-09-13 | 2013-04-23 | Irobot Corporation | Navigational control system for a robotic device |
US8838274B2 (en) | 2001-06-12 | 2014-09-16 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US9320398B2 (en) | 2005-12-02 | 2016-04-26 | Irobot Corporation | Autonomous coverage robots |
US9622635B2 (en) | 2001-01-24 | 2017-04-18 | Irobot Corporation | Autonomous floor-cleaning robot |
US10314449B2 (en) | 2010-02-16 | 2019-06-11 | Irobot Corporation | Vacuum brush |
JP2022525374A (ja) * | 2019-03-15 | 2022-05-12 | 上海図漾信息科技有限公司 | 深度データ測定ヘッド、測定装置及び測定方法 |
-
1994
- 1994-03-31 JP JP6063254A patent/JPH07270518A/ja active Pending
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8412377B2 (en) | 2000-01-24 | 2013-04-02 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US9622635B2 (en) | 2001-01-24 | 2017-04-18 | Irobot Corporation | Autonomous floor-cleaning robot |
US8368339B2 (en) | 2001-01-24 | 2013-02-05 | Irobot Corporation | Robot confinement |
US8396592B2 (en) | 2001-06-12 | 2013-03-12 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US8838274B2 (en) | 2001-06-12 | 2014-09-16 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US9949608B2 (en) | 2002-09-13 | 2018-04-24 | Irobot Corporation | Navigational control system for a robotic device |
US8428778B2 (en) | 2002-09-13 | 2013-04-23 | Irobot Corporation | Navigational control system for a robotic device |
US8386081B2 (en) | 2002-09-13 | 2013-02-26 | Irobot Corporation | Navigational control system for a robotic device |
US8854001B2 (en) | 2004-01-21 | 2014-10-07 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US8390251B2 (en) | 2004-01-21 | 2013-03-05 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US8253368B2 (en) | 2004-01-28 | 2012-08-28 | Irobot Corporation | Debris sensor for cleaning apparatus |
US8378613B2 (en) | 2004-01-28 | 2013-02-19 | Irobot Corporation | Debris sensor for cleaning apparatus |
US8382906B2 (en) | 2005-02-18 | 2013-02-26 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
US8387193B2 (en) | 2005-02-18 | 2013-03-05 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
US8392021B2 (en) | 2005-02-18 | 2013-03-05 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
US8855813B2 (en) | 2005-02-18 | 2014-10-07 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
JP2006301716A (ja) * | 2005-04-15 | 2006-11-02 | Fuji Heavy Ind Ltd | 自律走行車及びその制御方法 |
US8380350B2 (en) | 2005-12-02 | 2013-02-19 | Irobot Corporation | Autonomous coverage robot navigation system |
US8374721B2 (en) | 2005-12-02 | 2013-02-12 | Irobot Corporation | Robot system |
US9320398B2 (en) | 2005-12-02 | 2016-04-26 | Irobot Corporation | Autonomous coverage robots |
US8418303B2 (en) | 2006-05-19 | 2013-04-16 | Irobot Corporation | Cleaning robot roller processing |
US9955841B2 (en) | 2006-05-19 | 2018-05-01 | Irobot Corporation | Removing debris from cleaning robots |
US10244915B2 (en) | 2006-05-19 | 2019-04-02 | Irobot Corporation | Coverage robots and associated cleaning bins |
US8417383B2 (en) | 2006-05-31 | 2013-04-09 | Irobot Corporation | Detecting robot stasis |
JP2008246609A (ja) * | 2007-03-29 | 2008-10-16 | Honda Motor Co Ltd | 脚式移動ロボット |
US8438695B2 (en) | 2007-05-09 | 2013-05-14 | Irobot Corporation | Autonomous coverage robot sensing |
US8839477B2 (en) | 2007-05-09 | 2014-09-23 | Irobot Corporation | Compact autonomous coverage robot |
US10070764B2 (en) | 2007-05-09 | 2018-09-11 | Irobot Corporation | Compact autonomous coverage robot |
US8239992B2 (en) | 2007-05-09 | 2012-08-14 | Irobot Corporation | Compact autonomous coverage robot |
US10299652B2 (en) | 2007-05-09 | 2019-05-28 | Irobot Corporation | Autonomous coverage robot |
US11072250B2 (en) | 2007-05-09 | 2021-07-27 | Irobot Corporation | Autonomous coverage robot sensing |
US11498438B2 (en) | 2007-05-09 | 2022-11-15 | Irobot Corporation | Autonomous coverage robot |
US10314449B2 (en) | 2010-02-16 | 2019-06-11 | Irobot Corporation | Vacuum brush |
US11058271B2 (en) | 2010-02-16 | 2021-07-13 | Irobot Corporation | Vacuum brush |
JP2022525374A (ja) * | 2019-03-15 | 2022-05-12 | 上海図漾信息科技有限公司 | 深度データ測定ヘッド、測定装置及び測定方法 |
US11885613B2 (en) | 2019-03-15 | 2024-01-30 | Shanghai Percipio Technology Limited | Depth data measuring head, measurement device and measuring method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH07270518A (ja) | 距離計測装置 | |
US11019322B2 (en) | Estimation system and automobile | |
JP5227110B2 (ja) | Gps付全方位カメラ及び空間データ収集装置 | |
JP5775632B2 (ja) | 飛行体の飛行制御システム | |
JP5618840B2 (ja) | 飛行体の飛行制御システム | |
JP6567659B2 (ja) | レーン検出装置およびレーン検出方法 | |
US9955074B2 (en) | Target tracking method and system for intelligent tracking high speed dome camera | |
KR101343975B1 (ko) | 돌발검지 시스템 | |
US9092677B2 (en) | Apparatus and method for recognizing location of vehicle | |
CN109191504A (zh) | 一种无人机目标跟踪方法 | |
JP5160370B2 (ja) | 自律移動ロボット装置、移動体の操縦補助装置、自律移動ロボット装置の制御方法及び移動体の操縦補助方法 | |
CN111953892B (zh) | 无人飞行器、检查方法 | |
JP4483305B2 (ja) | 車両周辺監視装置 | |
WO2015004739A1 (ja) | 監視システム、自動巡回ロボット、および監視方法 | |
KR102260975B1 (ko) | 3차원 격자지도를 이용한 자율 주행 제어 장치 및 방법 | |
JP2009162413A (ja) | 狙撃手検知装置 | |
US20190116309A1 (en) | Overhead line image capturing system and overhead line image capturing method | |
JP4056777B2 (ja) | 自律移動体巡回システムおよび自律移動体の位置補正方法 | |
WO2019183809A1 (zh) | 控制方法与装置、云台系统、无人机和计算机可读存储介质 | |
JP2023100642A (ja) | 検査システム | |
JP5506339B2 (ja) | 方向制御装置および方向制御方法 | |
JP2020191523A (ja) | 無人移動体 | |
JPH1144533A (ja) | 先行車両検出装置 | |
JP2005347945A (ja) | 車両周辺監視装置及び車両周辺監視方法 | |
JP2019219874A (ja) | 自律移動撮影制御システムおよび自律移動体 |