JP2006167844A - 自律移動ロボット - Google Patents

自律移動ロボット Download PDF

Info

Publication number
JP2006167844A
JP2006167844A JP2004361905A JP2004361905A JP2006167844A JP 2006167844 A JP2006167844 A JP 2006167844A JP 2004361905 A JP2004361905 A JP 2004361905A JP 2004361905 A JP2004361905 A JP 2004361905A JP 2006167844 A JP2006167844 A JP 2006167844A
Authority
JP
Japan
Prior art keywords
self
mark
infrared
unit
slit light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004361905A
Other languages
English (en)
Other versions
JP4262196B2 (ja
Inventor
Tomoki Watabe
智樹 渡部
Tsukasa Sugino
司 杉野
Koji Kawabe
浩司 川邊
Nanki Asatani
南己 浅谷
Hiroshi Osada
拓 長田
Takahide Yoshiike
孝英 吉池
Takashi Nakayama
隆司 中山
Shintaro Fujita
進太郎 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004361905A priority Critical patent/JP4262196B2/ja
Priority to US11/294,456 priority patent/US7742840B2/en
Publication of JP2006167844A publication Critical patent/JP2006167844A/ja
Application granted granted Critical
Publication of JP4262196B2 publication Critical patent/JP4262196B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】 省スペース化を図るとともに、赤外線照射とスリット光照射とを適切なタイミングで切り換えることができる自律移動ロボットを提供する。
【解決手段】 ロボットRに、自己位置認識手段たるジャイロセンサSR1と、スリット光を照射するレーザ装置71と、赤外線を照射する赤外線LED72と、探索域を撮像するカメラ73と、マークMの位置データを含む地図データを記憶する地図データ記憶部81と、マークMの設置領域と自己位置とを比較してスリット光の照射と赤外線の照射とを切り換える切換判定部82と、を設ける。
【選択図】 図4

Description

本発明は、自律移動ロボットに関し、さらに詳しくは路面検知装置と位置確認装置の両方を備えた自律移動ロボットに関する。
移動ロボットの路面検知装置としては、例えば移動ロボットの移動方向前方の路面に所定パターンのスリット光を照射し、このスリット光の照射部分を撮像し、撮像されたスリット光のパターンを解析して移動方向前方の障害物の有無を判定するものがある(例えば特許文献1、特許文献2参照)。
また、移動ロボットの位置確認装置としては、例えば移動ロボットの作業環境内に複数のランドマークを設置し、移動ロボットにこのランドマークを含む画像を撮像させ、撮像されたランドマークから得られる情報(例えば色、大きさ、形状、位置等)から移動ロボットの位置や周囲の環境を確認または認識するものがある(例えば特許文献3参照)。
特開平6−43935号公報(段落0009〜0010、図1) 特開2002−144278号公報(段落0017、図3) 特開2002−149240号公報(段落0063−0065、図2)
ところで、移動ロボット、特に脚式移動ロボットには様々なセンサや回路や動力装置などが搭載されている。そのため、一つのロボットに路面検知装置と位置確認装置を搭載するスペースを確保することが困難であった。逆に言えば、両方の装置を搭載すると移動ロボットが大型化してしまうことがあった。
また、路面検知装置と位置確認装置の2つを移動ロボットに搭載した場合、移動ロボットの移動領域内にはマークが設置されていない場所もあることから、常に両方の装置を稼動させておくのは非効率的であり、両者の動作を適切なタイミングで切り換えることにより省エネルギー化を図ることが要求される。
本発明はかかる問題を解決するためになされたものであり、省スペース化を図るとともに、赤外線照射とスリット光照射とを適切なタイミングで切り換えることができる自律移動ロボットを提供することを課題とする。
請求項1に係る発明は、自律移動ロボットであって、移動手段と、前記移動手段を制御する自律移動制御部と、ロボットの移動領域内における自己位置を認識する自己位置認識手段と、前記移動領域内に設置されたマークの位置データを含む地図データを記憶する地図データ記憶手段と、探索域に向けてスリット光を照射するスリット光照射手段と、探索域に向けて赤外線を照射する赤外線照射手段と、前記地図データ記憶手段に記憶された前記マークの設置領域と前記自己位置認識手段で認識した前記自己位置とを比較してスリット光の照射と赤外線の照射とを切り換える切換判定手段と、スリット光または赤外線が照射された前記探索域を撮像する撮像手段と、前記撮像手段で撮像されたスリット光画像を解析して路面状態を検出する路面検出手段と、前記撮像手段で撮像された赤外線画像を解析して前記マークを検出するマーク検出手段と、を備え、前記切換判定手段は、前記自己位置が前記マークの設置領域に入ったときにスリット光の照射から赤外線の照射に切り換えるとともに、前記自己位置が前記マークの設置領域から出たときに赤外線の照射からスリット光の照射に切り換えることを特徴とする。
かかる構成によれば、スリット光画像および赤外線画像を撮像する撮像手段が共通化されることから、部品点数を少なくすることができる。そのため、省スペース化を図ることができる。また、マークの設置領域と自己位置とを比較してスリット光の照射と赤外線の照射とを切り換える切換判定手段を備えることから適切なタイミングでスリット光と赤外線とを切り換えることができる。
ここで、「スリット光画像」とはスリット光が照射された探索域を撮像した画像であり、「赤外線画像」とは赤外線が照射された探索域を撮像した画像をいう。また、「マークの設置領域」とは、マークから所定距離の範囲内にある領域をいい、例えば「マークを中心とした半径1〜3mの円形領域」とか「マークの手前(ロボット側)3mの矩形領域」などのように任意に設定される。
請求項2に係る発明は、請求項1に記載の自律移動ロボットであって、前記マーク検出手段によって検出されたマークの位置データに基づいて自己位置を補正する自己位置補正手段と、をさらに備えることを特徴とする。
かかる構成によれば、撮像したマークの位置データに基づいて自己位置補正手段がロボットの自己位置を補正することから、自己位置に誤差が生じている場合でも、正確な自己位置に基づいてロボットを制御することができる。そのため、例えば正確な移動制御が必要な部分に予めマークを設置しておくことにより、自律移動ロボットを正確に移動させることができる。
なお、「自己位置の補正」は、マークの位置データから計算した自己位置を正とし、自己位置認識手段から取得した自己位置を更新してもよいし、正しい位置にロボットを移動させるようにしてもよい。
請求項3に係る発明は、請求項1または請求項2に記載の自律移動ロボットであって、前記移動手段は、脚式移動手段であることを特徴とする。
脚式移動手段、とくに2足歩行式移動手段は移動する路面の状態に合わせた正確な移動制御が必要であるところ、かかる構成によれば、路面検出手段によって路面状態を認識することができるとともに、マーク検出手段によって正確な自己位置を把握できることから、正確な移動制御を行うことができ、好適である。
本発明によれば、省スペース化を図ることができるとともに、赤外線照射とスリット光照射とを適切なタイミングで切り換え可能な自律移動ロボットを提供することができる。
本発明を実施するための最良の形態について図面を参照して詳細に説明する。説明において同一の要素には同一の符号を付し、重複する説明は省略する。
<自律移動ロボットの構成>
はじめに、本実施形態に係る自律移動ロボット(以下、「ロボット」と適宜略称する。)の概要について図1を参照して説明する。
図1は、本実施形態に係る自律移動ロボットを示した斜視図であり、(a)は通常の移動領域を移動している状態を、(b)はマークの設置領域を移動している状態をそれぞれ示した図である。
図1に示すように、このロボットRは、頭部R1、腕部R2、脚部R3(脚式移動手段)および胴部R4を有しており、頭部R1、腕部R2、脚部R3は、それぞれアクチュエータにより駆動され、自律移動制御部50(図2参照)により2足歩行の制御がなされる。この2足歩行についての詳細は、例えば特開2001−62760号公報に開示されている。
ロボットRは、あるタスク(例えば書類を届ける等)を実行するためにオフィスや廊下などの移動領域内を自律移動する場合に、図1に示すように、レーザスリット光または赤外線を照射して、路面状態あるいはマークM等を探索するようになっている。
すなわち、ロボットRは、自己が移動領域内のどこを移動しているかを把握し、通常の移動領域内にいる場合はレーザスリット光(以下、「スリット光」と適宜略称する。)を路面に照射して路面の段差、うねり、障害物の有無などを検出し、マークMの設置領域内にいる場合は、赤外線を路面に照射してマークMを検出し、自己位置の確認・補正などを行うようになっている。
ここで、マークMは、例えば赤外線を再帰的に反射する反射材料で構成された部材であり、移動領域内の所定箇所(例えば扉の前など)に設置されている。マークMは移動領域内の景観を損なわないように例えば透明にしたり、極小にしたりするのが好適である。また、本実施形態においては、図1に示すように、3つの反射材料で1つのマークMとし、2つのマークMを1組として路面に設置されている。それぞれのマークMは位置データを有しており、当該位置データは地図データに含まれる形で地図データ記憶手段に記憶されている。
図2は、本実施形態に係る自律移動ロボットの構成を示したブロック図である。
図2に示すように、ロボットRは、前記した頭部R1、腕部R2、脚部R3、胴部R4に加えて、カメラC,C、スピーカS、マイクMC、画像処理部10、音声処理部20、制御部40、自律移動制御部50、無線通信部60、及び周辺状態検知部70を有する。
さらに、ロボットRは、自己位置を認識するため自己位置認識手段として、方向を認識するジャイロセンサSR1や、座標を認識するGPS(Global Positioning System)受信器SR2を有している。
[カメラ]
カメラC,Cは、映像をデジタルデータとして取り込むことができるものであり、例えばカラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像処理部10に出力される。このカメラC,Cと、スピーカS及びマイクMCは、いずれも頭部R1の内部に配設される。
[画像処理部]
画像処理部10は、カメラC,Cが撮影した画像を処理して、撮影された画像からロボットRの周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。この画像処理部10は、ステレオ処理部11a、移動体抽出部11b、及び顔認識部11cを含んで構成される。
ステレオ処理部11aは、左右のカメラC,Cが撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像及び元の画像を移動体抽出部11bに出力する。なお、この視差は、ロボットRから撮影された物体までの距離を表すものである。
移動体抽出部11bは、ステレオ処理部11aから出力されたデータに基づき、撮影した画像中の移動体を抽出するものである。移動する物体(移動体)を抽出するのは、移動する物体は人物であると推定して、人物の認識をするためである。
移動体の抽出をするために、移動体抽出部11bは、過去の数フレーム(コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、人物があると推定し、その所定距離範囲のみの視差画像として、移動体を抽出し、顔認識部11cへ移動体の画像を出力する。
顔認識部11cは、抽出した移動体から肌色の部分を抽出して、その大きさ、形状などから顔の位置を認識する。なお、同様にして、肌色の領域と、大きさ、形状などから手の位置も認識される。
認識された顔の位置は、ロボットRが移動するときの情報として、また、その人とのコミュニケーションを取るため、制御部40に出力されると共に、無線通信部60に出力されて、基地局1を介して、管理用コンピュータ3に送信される。
[音声処理部]
音声処理部20は、音声合成部21aと、音声認識部21bとを有する。
音声合成部21aは、制御部40が決定し、出力してきた発話行動の指令に基づき、文字情報から音声データを生成し、スピーカSに音声を出力する部分である。音声データの生成には、予め記憶している文字情報と音声データとの対応関係を利用する。
音声認識部21bは、マイクMCから音声データが入力され、予め記憶している音声データと文字情報との対応関係に基づき、音声データから文字情報を生成し、制御部40に出力するものである。
[自立移動制御部]
自律移動制御部50は、頭部制御部51a、腕部制御部51b、脚部制御部51cを有する。
頭部制御部51aは、制御部40の指示に従い頭部R1を駆動し、腕部制御部51bは、制御部40の指示に従い腕部R2を駆動し、脚部制御部51cは、制御部40の指示に従い脚部R3を駆動する。
また、ジャイロセンサSR1、及びGPS受信器SR2が検出したデータは、制御部40に出力され、ロボットRの行動を決定するのに利用されると共に、制御部40から無線通信部60を介して管理用コンピュータ3に送信される。
[無線通信部]
無線通信部60は、管理用コンピュータ3とデータの送受信を行う通信装置である。無線通信部60は、公衆回線通信装置61a及び無線通信装置61bを有する。
公衆回線通信装置61aは、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線を利用した無線通信手段である。一方、無線通信装置61bは、IEEE802.11b規格に準拠するワイヤレスLAN(Local Area Network)などの、近距離無線通信による無線通信手段である。
無線通信部60は、管理用コンピュータ3からの接続要求に従い、公衆回線通信装置61a又は無線通信装置61bを選択して管理用コンピュータ3とデータ通信を行う。
[周辺状態検知部]
周辺状態検知部70は、図2に示すように、スリット光照射手段であるレーザ装置71と、赤外線照射手段である赤外線LED(Light Emitting Diode)72と、探索域を撮像する2つの赤外線カメラ73、73と、これらを制御するセンサ制御部80と、を有する。
周辺状態検知部70は、レーザ装置71または赤外線LED72から探索域に向かってスリット光あるいは赤外線を照射するとともに当該探索域を赤外線カメラ73で撮像し、これらをセンサ制御部80で制御することにより、ロボットRの周辺状態を検知する部分である。すなわち、周辺状態検知部70は、従来の路面検知装置および位置確認装置に相当するものであり、赤外線カメラ73を共通にすることで省スペース化が図られている。
周辺状態検知部70は、制御部40と接続されており、ジャイロセンサSR1やGPS受信器SR2によって認識した自己位置データを取得可能になっている。
図3は、本実施形態に係る自律移動ロボットの胴部を示した透視図である。
図3に示すように、本実施形態においては、2つの赤外線カメラ73は、胴部R4内の前面の腰の高さに左右に並んで配置されている。また、レーザ装置71は、2つの赤外線カメラ73、73の中間に配置されている。また、赤外線LED72は、一方の(図3においてはロボットRの左側の)赤外線カメラ73の周囲に配置されている。
なお、レーザ装置71、赤外線LED72および赤外線カメラ73を胴部R4の前面の腰の高さに設置すると、他の部位(例えば頭部R1や脚部R3など)に取り付けた場合に比してロボットRの揺れの影響が小さくなるとともに、腕部R2や脚部R3によって撮像範囲を遮られることが少ないというメリットがある。
[レーザ装置]
レーザ装置71は例えば赤外線レーザ光をスリット状に照射する装置である。レーザ装置71は、赤外線レーザ光の照射方向を変化させるためのアクチュエータ(図示省略)に連結されており、探索域である路面に対してスリット光を放射状に照射できるようになっている。スリット光が対象物(例えば路面)にあたると路面にはレーザ輝線が描かれる。
レーザ装置71は後記するセンサ制御部80(切換判定部82)に接続されており、センサ制御部80の命令に基づいてスリット光を照射したり停止したりする。
[赤外線LED]
赤外線LED72は探索域に向けて赤外線を照射する装置であり、本実施形態においては図3に示すようにロボットRの左側の赤外線カメラ73の周りを囲むように複数の赤外線LED72、72・・・が設置されている。赤外線LED72から照射された赤外線は路面に設置された再帰性材料で製造されたマークMによって再帰的に反射される。
赤外線LED72は後記するセンサ制御部80(切換判定部82)に接続されており、センサ制御部80の命令に基づいて赤外線を照射したり停止したりする。
[赤外線カメラ]
撮像手段たる赤外線カメラ73は、撮像した画像をデジタルデータとして取り込むことができるものであり、例えばCCD赤外線カメラが使用される。赤外線カメラ73,73は、図3に示すように、胴部R4内の前面の腰の高さに左右に並んで配置されている。赤外線カメラ73で撮影した画像は後記するセンサ制御部80に出力される。
赤外線カメラ73で撮像した画像のうち、スリット光が照射された探索域を撮像した画像(以下、「スリット光画像」という。)にはレーザ輝線が撮像される。このレーザ輝線を検出していわゆる光切断法の原理を用いることにより対象物までの距離が計算される。なお、スリット光画像は、左右の赤外線カメラ73、73で撮像される。これにより、路面の3次元形状を詳細に把握することができる。
一方、赤外線カメラ73で撮像した画像のうち、赤外線が照射された探索域を撮像した画像(以下、「赤外線画像」という。)にはマークMが撮像される。赤外線カメラ73は、図3に示すように、ロボットRの胴部R4の腰の高さに所定角度で固定されているため、赤外線画像上のどの位置にマークMが写っているかを検出することで、マークMと赤外線カメラ73との相対的な位置関係、ひいてはマークMとロボットRとの相対的な位置関係を認識することができる。そのため、赤外線画像は、2つの赤外線カメラ73、73で撮像する必要がなく、本実施形態においてはロボットRの左側の赤外線カメラ73のみで撮像される。
[センサ制御部]
つぎに、センサ制御部80について図4を参照してさらに詳しく説明する。図4は、周辺状態検知部の構成を示すブロック図である。
センサ制御部80は、図4に示すように、地図データ記憶部81と、切換判定部82と、路面検出部83と、マーク検出部84と、自己位置計算部85と、自己位置補正部86と、を有する。
[地図データ記憶部]
地図データ記憶部81は、例えばRAM、ROMまたはハードディスクドライブなどのメモリ装置から構成されており、ロボットRが移動する移動領域の地図データを記憶する部分である。
地図データは、移動領域内の特定の場所に設置されたマークMの位置データと、当該位置データに所定の幅(範囲)を持たせたマークMの設置領域に関するデータ(以下、「設置領域データ」と適宜略称する。)と、を含んでいる。
地図データ記憶部81は、記憶している地図データを切換判定部82および自己位置計算部85に出力可能になっている。
[切換判定部]
切換判定部82は、地図データ記憶部81から読み出した地図データに含まれるマークMの設置領域データと、制御部40を介してジャイロセンサSR1又はGPS受信器SR2から取得した自己位置データとを比較する部分である。また、切換判定部82はレーザ装置71および赤外線LED72と接続されており、それぞれに作動命令または停止命令を出力可能になっている。
設置領域データと自己位置データとを比較した結果、自己位置がマークMの設置領域外であると判定された場合には、切換判定部82はレーザ装置71に対して作動命令を出力するとともに、赤外線LED72に対して停止命令を出力するようになっている。一方、自己位置がマークMの設置領域内であると判定された場合には、切換判定部82はレーザ装置71に対して停止命令を出力するとともに、赤外線LED72に対して作動命令を出力するようになっている。
[路面検出部]
路面検出部83は、赤外線カメラ73で撮像したスリット光画像を解析して路面状態を検出する部分である。具体的には、例えばいわゆる光切断法を利用して赤外線カメラ73とスリット光が照射された路面との距離を求めることができる。スリット光はロボットRの移動方向にある路面に対して放射状に照射されることから、結果的に、ロボットRは移動先の路面の3次元形状を認識することができる。
路面検出部83で検出された路面状態の情報は制御部40に出力される。
[マーク検出部]
マーク検出部84は、赤外線カメラ73で撮像した赤外線画像を解析してマークを検出する部分である。
マーク検出部84は、例えばバンドパスフィルタなどを備えており、赤外線LED72の中心周波数周辺の光線を選択的に観測できるようになっている。これにより不要な周波数帯域の光線はカットされ、可視光などによる外乱に強い装置にすることができる。
また、マーク検出部84は、1つのマークMを構成する3点間(図1参照)の相互距離と2つのマークMの中心間の距離(3点の中心同士の間隔)とを計測し、この2種類の距離が設定値付近であればマークMと認識するようになっている。これにより、マークM以外の赤外線反射物による外乱に強い装置とすることができる。
[自己位置計算部]
自己位置計算部85は、赤外線画像に撮像されたマークMの位置(座標)からマークMとロボットRとの相対的な位置関係を計算する部分である。
赤外線カメラ73は、ロボットRの腰の辺りの高さに所定角度で固定されていることから、マークMが赤外線画像上のどの位置、換言すれば、どの画素に写っているかを解析することによって、ロボットRとマークMとの相対的な位置関係を計算することができる。また、マークMは2つを1組としていることから、ロボットRがマークM同士を結んだ直線に対してどれだけ傾いているかを計算することができる。すなわち、自己位置計算部85は、地図データから取得したマークMの座標とマークMとロボットRとの相対的な位置関係とに基づいてロボットRの正確な自己位置を計算することができる。
自己位置計算部85によって計算されたロボットRの自己位置は自己位置補正部86に出力される。
[自己位置補正部]
自己位置補正部86は、マーク検出部84で検出したマークMの位置データに基づいてロボットRの自己位置を補正する部分である。
本実施形態では、自己位置補正部86は、自己位置計算部85によって計算した自己位置とジャイロセンサSR1やGPS受信器SR2から取得した自己位置とを比較し、両者にずれがある場合には自己位置計算部85で計算した自己位置を正として補正するようになっている。
そして、補正されたロボットRの自己位置データは制御部40に出力される。これにより、自律移動制御によって累積した移動誤差あるいは位置認識誤差が解消され、ロボットRを正確・確実に移動制御することができる。
なお、自己位置補正部86における自己位置の補正は、上記の方法に限られるものではない。例えば、赤外線画像の所定位置にマークMが写るように自律移動制御部50に命令を出してロボットRの位置や向きを微調整するようにしてもよい。
<移動ロボットの制御方法>
つづいて、ロボットRの制御方法、より詳しくは、スリット光の照射と赤外線の照射との切換に関する制御方法について図5を参照して説明する。図5は、スリット光照射と赤外線照射との切換制御に関するフロー図である。
(ステップS1)
はじめに、ロボットRは、自己位置認識手段であるジャイロセンサSR1またはGPS受信器SR2によって自己位置データを取得することにより自己位置を認識する。取得した自己位置データは制御部40を介して切換判定部82に出力される。
(ステップS2)
つぎに、切換判定部82は、地図データ記憶部81からマークMの位置データを含んだ地図データを取得する。
(ステップS3)
そして、切換判定部82は、ロボットRの自己位置とマークMの設置領域とを比較して、当該自己位置がマークMの設置領域内か否かを判定する。具体的には、図1に示すように、マークMから所定距離内にある範囲をマークMの設置領域に設定して予め地図データ記憶部81に記憶させておき、ロボットRの自己位置の座標が当該設置領域内に含まれるか否かを判定する。
なお、切換判定部82における判定方法は、これに限られるものではなく、例えば自己位置とマークMとの距離を計算し、当該距離が閾値よりも小さい場合には設置領域内にいると判定するようにしてもよい。また、かかる判定においては、ロボットRの移動方向を考慮するようにしてもよい。すなわち、ロボットRがマークMから遠ざかる方向に移動している場合には、マークMを検出する必要がないので、マークMとロボットRの自己位置との距離が閾値以内であっても、設置領域内にいないと判定するようにしてもよい。
これにより、スリット光照射と赤外線照射とを適切なタイミングで切り換えることができる。そのため、赤外線カメラ73を共通化して省スペース化を図ることができるとともに、無駄な赤外線照射を行わないことで消費電力を低減することができる。
(ステップS4)
切換判定部82によって自己位置がマークMの設置領域内ではない(ステップS3、No)と判定された場合には、切換判定部82はレーザ装置71に作動命令を出力するとともに赤外線LED72に停止命令を出力する。作動命令を受けたレーザ装置71は探索域たる路面に対して放射状にスリット光を照射する(図1(a)参照)。また、停止命令を受けた赤外線LED72は赤外線の照射を停止する。
(ステップS5)
レーザ装置71によってスリット光が照射されると、赤外線カメラ73はスリット光が照射された探索域を撮像してスリット光画像を取得する。
撮像されたスリット光画像は路面検出部83に出力される。
(ステップS6)
路面検出部83は、例えば光切断法を用いてスリット光画像を解析することにより、路面の3次元形状を取得する。すなわち、路面検出部83によって路面状態が検出される。
検出された路面の3次元データは制御部40に出力される。
(ステップS7)
制御部40は、地図データに記憶されている路面の形状と、路面検出部83から送られてくる路面の形状を比較する。比較した結果、両者が一致または許容差の範囲内であれば(ステップS7、No)、制御部40は障害物が存在しないと判断し、ステップS1に戻って再びロボットRの周辺状態をセンシングする。
(ステップS8)
比較した結果、両者が不一致または許容差の範囲を超えている場合(ステップS7、Yes)は、制御部40は、探索域に障害物があると判定する。そして、制御部40は、自律移動制御部50に対して障害物の回避を命令する。具体的には、例えば迂回路を通るように指示したり、腕部R2を用いて障害物を排除したりすることが考えられる。
なお、障害物がない場合でも、例えば路面に段差があるときには、地図データではなくて、路面検出部83で検出した路面の3次元データに基づいてロボットRの脚部R3や腕部R2を制御することにより、より正確・確実にロボットRを移動制御することができる。
ステップS3に戻って説明をつづける。
(ステップS9)
ステップS3において、自己位置がマークMの設置領域内にある(ステップS3、Yes)と判定された場合には、切換判定部82は赤外線LED72に作動命令を出力するとともにレーザ装置71に停止命令を出力する。作動命令を受けた赤外線LED72は探索域たる路面に対して赤外線を照射する(図1(b)参照)。また、停止命令を受けたレーザ装置71はスリット光の照射を停止する。
(ステップS10)
赤外線LED72によって赤外線が照射されると、赤外線カメラ73は、赤外線が照射された探索域を撮像して赤外線画像を取得する。探索域には再帰性を備える反射材で作られたマークMが設置されているため、赤外線画像にはマークMが撮像される。
撮像された赤外線画像はマーク検出部84に出力される。
(ステップS11)
マーク検出部84は例えばバンドパスフィルタなどを用いて赤外線画像を解析し、マークMを検出する。これにより、赤外線画像上のどこに(どの画素に)マークMが位置しているかを把握することができる。
(ステップS12)
自己位置計算部85は、赤外線画像上のマークMの位置(以下、「画像上位置」という。)に基づいてロボットRの位置を計算する。
具体的には、自己位置計算部85は、赤外線画像から求めたマークMとロボットRとの相対距離および相対角度を用いて、地図データ記憶部81から読み出したマークMの位置データから加減算することによってロボットRの自己位置を計算する。なお、赤外線カメラ73の取付位置および取付角度は固定されていることから、マークMが赤外線画像上のどこに写るかによって、ロボットRとマークMとの相対的な位置関係を計算することができる。また、2つのマークMを一組として使用していることから、相対的な角度のずれを認識することができる。そのため、方向の認識のずれも補正することができる。
ここで、ロボットRの移動に伴って赤外線カメラ73の高さや傾きが変化することがあるが、かかる場合には、例えば自律移動制御部50の制御データに基づいてロボットRの姿勢を把握し、基準姿勢からの赤外線カメラ73の変化量を相殺すればよい。かかる場合には、例えばロボットRのたわみモデルを用いて検出結果を補正することができる。
計算されたロボットRの自己位置データは自己位置補正部86に出力される。
(ステップS13)
つぎに、自己位置補正部86は、ジャイロセンサSR1またはGPS受信器SR2から取得したロボットRの自己位置と、自己位置計算部85で計算したロボットRの自己位置とを比較する。
比較した結果、両者が一致または許容差の範囲内にある場合(ステップS13、No)には、自己位置の補正を行わずにステップS1に戻って周辺状態の検知を続ける。
(ステップS14)
比較した結果、両者が不一致または許容差の範囲外にある場合(ステップS13、Yes)には、マークMに基づいて算出した自己位置を正として、ロボットRの自己位置を補正する。これにより、自律移動制御によって累積した移動誤差あるいは自己位置認識誤差が解消され、ロボットRを正確・確実に移動制御することができる。
以上、本発明を実施するための最良の形態について図面を参照して説明したが、本発明はかかる実施形態に限定されるものではなく、本発明の主旨を逸脱しない範囲で適宜変更可能であることはいうまでもない。
例えば、本実施形態では、自己位置計算部85によってマークMの位置データからロボットRの絶対座標(地図データ上の座標)を計算することとしたが、これに限られるものではなく、赤外線画像からマークMとロボットRの相対的な位置関係を求め、かかる相対的位置関係が所定の値になるようにロボットの位置を補正してもよい。かかる方法は、ロボットRの絶対座標を計算しなくて済むというメリットがあり、また、ロボットRを決まった位置に停止させたい場合などに有効である。
また、本実施形態においては、地図データ記憶部81をロボットRに搭載したが、これに限られるものではなく、地図データ記憶部81を管理用コンピュータ3に設置し、無線通信部60および制御部40を介して地図データを取得するようにしてもよい。
かかる場合には、ロボットRの他、基地局1および管理用コンピュータ3まで含めて特許請求の範囲にいう自律移動ロボットに相当する。
なお、地図データ記憶部81のみならず、切換判定部82、路面検出部83、マーク検出部84、自己位置計算部85、及び自己位置補正部86の一部又は全部を管理用コンピュータ3に設けてもよい。かかる場合には、赤外線カメラ73で撮像したスリット光画像又は赤外線画像を、無線通信部60を介して管理用コンピュータ3に送信するのが好適である。
また、本実施形態にかかるロボットRで観測するマークMは、3点を1つのマークMとして2つ1組で使用したが、これに限られるものではなく、適宜変更可能である。例えば、路面に連続線状に設置してもよいし、点線状に設置してもよい。
本実施形態に係る自律移動ロボットを示した斜視図であり、(a)は通常の移動領域を移動している状態を、(b)はマークの設置領域を移動している状態をそれぞれ示した図である。 本実施形態に係る自律移動ロボットの構成を示したブロック図である。 本実施形態に係る自律移動ロボットの胴部を示した透視図である。 周辺状態検知部の構成を示すブロック図である。 スリット光照射と赤外線照射との切換制御に関するフロー図である。
符号の説明
R 自律移動ロボット
R1 頭部
R2 腕部
R3 脚部(移動手段)
R4 胴部
40 制御部
50 自律移動制御部(自律移動制御手段)
70 周辺状態検知部
71 レーザ装置(スリット光照射手段)
72 赤外線LED(赤外線照射手段)
73 赤外線カメラ(撮像手段)
80 センサ制御部
81 地図データ記憶部(地図データ記憶手段)
82 切換判定部(切換判定手段)
83 路面検出部(路面検出手段)
84 マーク検出部(マーク検出手段)
85 自己位置計算部
86 自己位置補正部(自己位置補正手段)
M マーク
SR1 ジャイロセンサ(自己位置認識手段)
SR2 GPS受信器(自己位置認識手段)

Claims (3)

  1. 自律移動ロボットであって、
    移動手段と、
    前記移動手段を制御する自律移動制御部と、
    ロボットの移動領域内における自己位置を認識する自己位置認識手段と、
    前記移動領域内に設置されたマークの位置データを含む地図データを記憶する地図データ記憶手段と、
    探索域に向けてスリット光を照射するスリット光照射手段と、
    探索域に向けて赤外線を照射する赤外線照射手段と、
    前記地図データ記憶手段に記憶された前記マークの設置領域と前記自己位置認識手段で認識した前記自己位置とを比較してスリット光の照射と赤外線の照射とを切り換える切換判定手段と、
    スリット光または赤外線が照射された前記探索域を撮像する撮像手段と、
    前記撮像手段で撮像されたスリット光画像を解析して路面状態を検出する路面検出手段と、
    前記撮像手段で撮像された赤外線画像を解析して前記マークを検出するマーク検出手段と、を備え、
    前記切換判定手段は、前記自己位置が前記マークの設置領域に入ったときにスリット光の照射から赤外線の照射に切り換えるとともに、前記自己位置が前記マークの設置領域から出たときに赤外線の照射からスリット光の照射に切り換えることを特徴とする自律移動ロボット。
  2. 前記マーク検出手段によって検出されたマークの位置データに基づいて自己位置を補正する自己位置補正手段をさらに備えることを特徴とする請求項1に記載の自律移動ロボット。
  3. 前記移動手段は、脚式移動手段であることを特徴とする請求項1または請求項2に記載の自律移動ロボット。


JP2004361905A 2004-12-14 2004-12-14 自律移動ロボット Expired - Fee Related JP4262196B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004361905A JP4262196B2 (ja) 2004-12-14 2004-12-14 自律移動ロボット
US11/294,456 US7742840B2 (en) 2004-12-14 2005-12-06 Autonomous mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004361905A JP4262196B2 (ja) 2004-12-14 2004-12-14 自律移動ロボット

Publications (2)

Publication Number Publication Date
JP2006167844A true JP2006167844A (ja) 2006-06-29
JP4262196B2 JP4262196B2 (ja) 2009-05-13

Family

ID=36585118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004361905A Expired - Fee Related JP4262196B2 (ja) 2004-12-14 2004-12-14 自律移動ロボット

Country Status (2)

Country Link
US (1) US7742840B2 (ja)
JP (1) JP4262196B2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100901312B1 (ko) 2009-03-13 2009-06-05 국방과학연구소 자율이동플랫폼의 지형데이터 생성 장치, 이를 구비하는 자율이동플랫폼 및 자율이동플랫폼의 지형데이터 생성 방법
EP2068275A2 (en) 2007-12-06 2009-06-10 Honda Motor Co., Ltd. Communication robot
KR100903786B1 (ko) 2009-03-16 2009-06-19 국방과학연구소 자율 이동체용 스테레오 센싱 장치, 스테레오 센싱 가능한 자율 이동체 및 스테레오 센싱 장치의 이미지 처리 방법
JP2009211666A (ja) * 2008-02-29 2009-09-17 Ind Technol Res Inst 区域識別システム
US8103383B2 (en) 2007-04-06 2012-01-24 Honda Motor Co., Ltd. Mobile apparatus, control device and control program
KR101203816B1 (ko) 2011-03-23 2012-11-22 한국과학기술원 로봇 물고기 위치 인식 시스템 및 로봇 물고기 위치 인식 방법
US8466777B2 (en) 2007-12-07 2013-06-18 Honda Motor Co., Ltd. Target object detection server
JP2014021624A (ja) * 2012-07-13 2014-02-03 Sharp Corp 自律走行装置、及び自律走行システム
JP2014078232A (ja) * 2012-10-09 2014-05-01 Boeing Co 分散された位置の識別
JP2015060336A (ja) * 2013-09-18 2015-03-30 清水建設株式会社 床位置検出方法を用いた無人搬送車及び無人搬送システム
JP2019102047A (ja) * 2017-11-28 2019-06-24 Thk株式会社 画像処理装置、移動ロボットの制御システム、移動ロボットの制御方法
JP2019109776A (ja) * 2017-12-19 2019-07-04 株式会社ダイヘン 移動体
JP2021026372A (ja) * 2019-08-01 2021-02-22 株式会社豊田自動織機 位置推定装置
JP2021086217A (ja) * 2019-11-25 2021-06-03 トヨタ自動車株式会社 自律移動体システム、自律移動体の制御プログラムおよび自律移動体の制御方法
WO2022137792A1 (ja) * 2020-12-22 2022-06-30 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
KR102466484B1 (ko) * 2022-03-23 2022-11-11 한화시스템 주식회사 정찰 시스템 및 정찰 시스템의 운용 방법

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8180486B2 (en) * 2006-10-02 2012-05-15 Honda Motor Co., Ltd. Mobile robot and controller for same
DE202007008557U1 (de) * 2007-06-19 2008-10-30 Liebherr-Werk Bischofshofen Ges.M.B.H. System zum automatischen Bewegen von Material
KR100884904B1 (ko) * 2007-09-12 2009-02-19 아주대학교산학협력단 평행 투영 모델을 이용한 자기위치 인식 방법
US8515257B2 (en) 2007-10-17 2013-08-20 International Business Machines Corporation Automatic announcer voice attenuation in a presentation of a televised sporting event
US20100017026A1 (en) * 2008-07-21 2010-01-21 Honeywell International Inc. Robotic system with simulation and mission partitions
JP5572018B2 (ja) * 2010-07-08 2014-08-13 株式会社日立製作所 自律移動装置同乗エレベータシステム
CN102457712A (zh) * 2010-10-28 2012-05-16 鸿富锦精密工业(深圳)有限公司 可疑目标识别及追踪系统及方法
TWI436179B (zh) * 2011-07-22 2014-05-01 Ememe Robot Co Ltd 自走式電子裝置及其控制自走式電子裝置行為之方法
KR20130049610A (ko) * 2011-11-04 2013-05-14 삼성전자주식회사 이동 기기 및 보행 로봇
CN103537099B (zh) * 2012-07-09 2016-02-10 深圳泰山在线科技有限公司 跟踪玩具
US9150119B2 (en) 2013-03-15 2015-10-06 Aesynt Incorporated Apparatuses, systems, and methods for anticipating and delivering medications from a central pharmacy to a patient using a track based transport system
US20140102859A1 (en) 2012-10-12 2014-04-17 Mckesson Automation Inc. Apparatuses, systems, and methods for dispensing medications from a central pharmacy to a patient in a healthcare facility
JP6123307B2 (ja) * 2013-01-23 2017-05-10 株式会社デンソーウェーブ ロボット周辺への物体の侵入を監視する監視システムおよび監視方法
US8989513B1 (en) * 2013-03-13 2015-03-24 Emc Corporation Identifying markers associated with it components in an image
CN103271784B (zh) * 2013-06-06 2015-06-10 山东科技大学 基于双目视觉的人机交互式机械手控制系统和控制方法
KR101480774B1 (ko) * 2013-09-30 2015-01-13 전자부품연구원 Cctv를 이용한 이동로봇의 위치 인식 장치 및 방법
CN103512579B (zh) * 2013-10-22 2016-02-10 武汉科技大学 一种基于热红外摄像机和激光测距仪的地图构建方法
US9152149B1 (en) 2014-06-06 2015-10-06 Amazon Technologies, Inc. Fiducial markers with a small set of values
US9494934B2 (en) 2014-06-06 2016-11-15 Amazon Technologies, Inc. Robotic communication with fiber-optics
WO2015188193A1 (en) * 2014-06-06 2015-12-10 Amazon Technologies, Inc. Robotic communication with fiber-optics or fiducial markers with a small set of values
CN106325268A (zh) * 2015-06-30 2017-01-11 芋头科技(杭州)有限公司 一种移动控制装置及移动控制方法
US9625571B1 (en) * 2015-08-06 2017-04-18 X Development Llc Disabling robot sensors
US10386847B1 (en) * 2016-02-19 2019-08-20 AI Incorporated System and method for guiding heading of a mobile robotic device
US11726490B1 (en) 2016-02-19 2023-08-15 AI Incorporated System and method for guiding heading of a mobile robotic device
US10901431B1 (en) * 2017-01-19 2021-01-26 AI Incorporated System and method for guiding heading of a mobile robotic device
US10040195B2 (en) 2016-06-21 2018-08-07 International Business Machines Corporation Recognizing a location of a robot shared in multiple data centers
WO2018101962A1 (en) * 2016-12-02 2018-06-07 Ford Global Technologies, Llc Autonomous storage container
CN107993722B (zh) * 2017-12-05 2021-12-07 天津大学 一种针对点阵光源下光子在媒质中分布的快速提取方法
US10293489B1 (en) * 2017-12-15 2019-05-21 Ankobot (Shanghai) Smart Technologies Co., Ltd. Control method and system, and cleaning robot using the same
US11514597B1 (en) * 2018-07-18 2022-11-29 James Jianming Shen Single-camera stereoaerophotogrammetry using UAV sensors
US11331801B2 (en) * 2018-11-28 2022-05-17 Mitsubishi Electric Research Laboratories, Inc. System and method for probabilistic multi-robot positioning
JP7183944B2 (ja) * 2019-05-13 2022-12-06 トヨタ自動車株式会社 自律移動体、自律移動体の制御プログラム、自律移動体の制御方法および自律移動体を遠隔地から制御するシステムサーバ
CN111867191A (zh) * 2020-08-06 2020-10-30 上海上实龙创智能科技股份有限公司 一种基于机器人的展厅灯光控制系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4777416A (en) * 1986-05-16 1988-10-11 Denning Mobile Robotics, Inc. Recharge docking system for mobile robot
US4829442A (en) * 1986-05-16 1989-05-09 Denning Mobile Robotics, Inc. Beacon navigation system and method for guiding a vehicle
JPH0643935A (ja) 1992-07-24 1994-02-18 Mutoh Ind Ltd 走行ロボットの障害物検出装置
KR0161031B1 (ko) * 1993-09-09 1998-12-15 김광호 로보트의 위치오차보정장치
US6642955B1 (en) * 2000-01-10 2003-11-04 Extreme Cctv Inc. Surveillance camera system with infrared and visible light bandpass control circuit
JP2002131016A (ja) * 2000-10-27 2002-05-09 Honda Motor Co Ltd 距離測定装置、及び距離測定方法
JP4476468B2 (ja) 2000-11-13 2010-06-09 本田技研工業株式会社 脚式移動ロボット
JP2002149240A (ja) 2000-11-16 2002-05-24 Sony Corp 移動ロボットのためのランドマーク
US7135992B2 (en) * 2002-12-17 2006-11-14 Evolution Robotics, Inc. Systems and methods for using multiple hypotheses in a visual simultaneous localization and mapping system
JP4477924B2 (ja) * 2004-03-31 2010-06-09 本田技研工業株式会社 移動ロボットの外部検出装置
KR100600487B1 (ko) * 2004-10-12 2006-07-13 삼성광주전자 주식회사 로봇 청소기의 좌표보정방법 및 이를 이용한 로봇 청소기시스템

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8103383B2 (en) 2007-04-06 2012-01-24 Honda Motor Co., Ltd. Mobile apparatus, control device and control program
EP2068275A2 (en) 2007-12-06 2009-06-10 Honda Motor Co., Ltd. Communication robot
US8010231B2 (en) 2007-12-06 2011-08-30 Honda Motor Co., Ltd. Communication robot
US8466777B2 (en) 2007-12-07 2013-06-18 Honda Motor Co., Ltd. Target object detection server
JP2009211666A (ja) * 2008-02-29 2009-09-17 Ind Technol Res Inst 区域識別システム
KR100901312B1 (ko) 2009-03-13 2009-06-05 국방과학연구소 자율이동플랫폼의 지형데이터 생성 장치, 이를 구비하는 자율이동플랫폼 및 자율이동플랫폼의 지형데이터 생성 방법
KR100903786B1 (ko) 2009-03-16 2009-06-19 국방과학연구소 자율 이동체용 스테레오 센싱 장치, 스테레오 센싱 가능한 자율 이동체 및 스테레오 센싱 장치의 이미지 처리 방법
KR101203816B1 (ko) 2011-03-23 2012-11-22 한국과학기술원 로봇 물고기 위치 인식 시스템 및 로봇 물고기 위치 인식 방법
JP2014021624A (ja) * 2012-07-13 2014-02-03 Sharp Corp 自律走行装置、及び自律走行システム
JP2014078232A (ja) * 2012-10-09 2014-05-01 Boeing Co 分散された位置の識別
JP2015060336A (ja) * 2013-09-18 2015-03-30 清水建設株式会社 床位置検出方法を用いた無人搬送車及び無人搬送システム
JP2019102047A (ja) * 2017-11-28 2019-06-24 Thk株式会社 画像処理装置、移動ロボットの制御システム、移動ロボットの制御方法
JP2019109776A (ja) * 2017-12-19 2019-07-04 株式会社ダイヘン 移動体
JP7153443B2 (ja) 2017-12-19 2022-10-14 株式会社ダイヘン 移動体
JP2021026372A (ja) * 2019-08-01 2021-02-22 株式会社豊田自動織機 位置推定装置
JP7275973B2 (ja) 2019-08-01 2023-05-18 株式会社豊田自動織機 位置推定装置
JP2021086217A (ja) * 2019-11-25 2021-06-03 トヨタ自動車株式会社 自律移動体システム、自律移動体の制御プログラムおよび自律移動体の制御方法
WO2022137792A1 (ja) * 2020-12-22 2022-06-30 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
KR102466484B1 (ko) * 2022-03-23 2022-11-11 한화시스템 주식회사 정찰 시스템 및 정찰 시스템의 운용 방법

Also Published As

Publication number Publication date
US7742840B2 (en) 2010-06-22
JP4262196B2 (ja) 2009-05-13
US20060129276A1 (en) 2006-06-15

Similar Documents

Publication Publication Date Title
JP4262196B2 (ja) 自律移動ロボット
US8090193B2 (en) Mobile robot
JP4460528B2 (ja) 識別対象識別装置およびそれを備えたロボット
JP4856510B2 (ja) 移動ロボット
JP4787813B2 (ja) 検知対象検知システム
US7684894B2 (en) Autonomously moving robot
JP4448497B2 (ja) 移動体の自己位置検出装置および位置検出システム
KR100635593B1 (ko) 이동로봇의 외부검출장치
US8180486B2 (en) Mobile robot and controller for same
RU2242159C1 (ru) Робот-уборщик (варианты), робототехническая система-уборщик и способ управления ими
JP2004299025A (ja) 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
CA2628657C (en) Landmark navigation for vehicles using blinking optical beacons
US8903160B2 (en) Apparatus and method with traveling path planning
KR100790860B1 (ko) 사람 추적 장치 및 방법, 그 방법을 수행하기 위한프로그램이 저장된 기록매체와 그 장치를 포함하는 이동형전자기기
US20170252925A1 (en) Method and system for localizing mobile robot using external surveillance cameras
JP2002182742A (ja) モービルロボット及びその経路補正方法
TWI766410B (zh) 移動機器人
US20220161430A1 (en) Recharging Control Method of Desktop Robot
JP2008084135A (ja) 移動制御方法、移動ロボットおよび移動制御プログラム
JP5221939B2 (ja) 位置特定装置および動作指示装置並びに自走式ロボット
JP2010009371A (ja) 移動ロボットおよび移動ロボット制御システム
KR101840814B1 (ko) 작업자 추종 이동 대차
Suzuki et al. Operation direction to a mobile robot by projection lights
JP5171394B2 (ja) 移動型ロボット
KR100621415B1 (ko) 이동로봇의 자기위치 검출시스템 및 검출방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081007

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20081120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20081121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090203

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4262196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140220

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees