JP6915209B2 - 移動ロボットの地図作成方法および当該地図に基づく経路計画方法 - Google Patents

移動ロボットの地図作成方法および当該地図に基づく経路計画方法 Download PDF

Info

Publication number
JP6915209B2
JP6915209B2 JP2019569913A JP2019569913A JP6915209B2 JP 6915209 B2 JP6915209 B2 JP 6915209B2 JP 2019569913 A JP2019569913 A JP 2019569913A JP 2019569913 A JP2019569913 A JP 2019569913A JP 6915209 B2 JP6915209 B2 JP 6915209B2
Authority
JP
Japan
Prior art keywords
mobile robot
point
coordinates
axis
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019569913A
Other languages
English (en)
Other versions
JP2020529061A (ja
Inventor
ウ、リアンル
ヤン、カイ
ゼン、ズオビン
ディン、フアン
Original Assignee
グワンドン ボナ ロボット コーポレーション リミテッド
グワンドン ボナ ロボット コーポレーション リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by グワンドン ボナ ロボット コーポレーション リミテッド, グワンドン ボナ ロボット コーポレーション リミテッド filed Critical グワンドン ボナ ロボット コーポレーション リミテッド
Publication of JP2020529061A publication Critical patent/JP2020529061A/ja
Application granted granted Critical
Publication of JP6915209B2 publication Critical patent/JP6915209B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/183Compensation of inertial measurements, e.g. for temperature effects
    • G01C21/188Compensation of inertial measurements, e.g. for temperature effects for accumulated errors, e.g. by coupling inertial systems with absolute positioning systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、移動ロボットの分野に関し、特に慣性ナビゲーションシステムに基づく移動ロボットの地図作成および経路計画に関する。
現在、市販のサービスロボットは、無人の条件下で特定のエリアで特定のタスクを自動的に実行することができるため、人々に利便性をもたらし、市場の見通しがよい。
サービスロボットの代表として、掃除ロボットは現在急速に発展しており、市場の需要が膨大である。ほとんどの既存の掃除ロボットは、慣性ナビゲーションシステムに基づいて、位置決め、地図作成、およびナビゲーションを行う。ただし、慣性ナビゲーションシステムの部材(ジャイロスコープと走行距離計)のエラーが作業時間の経過とともに累積することにより、大きなエラーが発生するので、掃除ロボットの位置決めが不正確になり、地図情報と実際の差が大きくなり、経路計画が実行不能となるなどの欠陥が存在する恐れがある。
また、掃除ロボットの作業環境の複雑さ、走行機構とタスクとの間の摩擦係数の変化、および走行機構のスリップ(またはトラッピング)に起因する誤差も、慣性ナビゲーションシステムの精度に影響を与える。
本発明の目的の1つは、背景技術の欠陥を克服するために、移動ロボットの地図作成方法を提供することである。具体的には、以下の通りである。
移動ロボットの地図作成方法であって、上記移動ロボットは、走行距離計、ジャイロスコープ、およびカメラを含む。上記方法は、以下のステップを含む:S1:移動ロボットの作業エリアにデカルト座標系を確立する;S2:移動ロボットは作業エリアで弓形に走行する;S3:移動ロボットの点Piでのキーフレーム画像を取得し、この画像と点Piの座標を保存する;S4:移動ロボットの点P'iでの画像を取得する;ここで、点P'iの横座標または縦座標は点Piと同じである;S5:ORBアルゴリズムに従って、点Piと点P'iで取得された画像に対して特徴抽出とマッチングを実行する;S6:マッチング結果に応じて、移動ロボットの点P'iでの座標、走行距離計、および/またはジャイロスコープのデータを修正して保存する;S7:作業エリア内の地図作成が完了するまで、ステップS3〜S6を繰り返す。
本発明の好ましい実施形態では、上記ステップS2は以下のサブステップを含む:S201:移動ロボットは、X軸の正方向に沿って直進する;S202:移動ロボットが障害物に遭遇したかどうかを判断し、そうであればステップ203に進み、そうでなければステップS206に進む;S203:移動ロボットは障害物に沿ってY軸の正方向に走行する;S204:Y軸上の移動ロボットの座標量の変化が閾値Mよりも大きいかどうかを判断し、そうであればステップS208に進み、そうでなければステップS205に進む;S205:移動ロボットのY軸座標がステップS201と同じであるかどうかを判断し、そうであればステップS201に戻り、そうでなければステップS203に戻る;S206:移動ロボットの直進距離が閾値Nよりも大きいかどうかを判断し、そうであればステップS207に進み、そうでなければステップS201に戻る;S207:移動ロボットは、Y軸の正方向にMを直線的に平行移動して、ステップS208に進む;S208:移動ロボットは、X軸の負方向に沿って直進する;S209:移動ロボットが障害物に遭遇したかどうかを判断し、そうであればステップS210に進み、そうでなければステップS213に進む;S210:移動ロボットは障害物に沿ってY軸の正方向に走行する;S211:Y軸上の移動ロボットの座標量の変化が閾値Mよりも大きいかどうかを判断し、そうであればステップS201に戻り、そうでなければステップS212に進む;S212:移動ロボットのY軸座標がステップS208と同じであるかどうかを判断し、そうであればステップS208に戻り、そうでなければステップS210に戻る;S213:移動ロボットの直進距離が閾値Nよりも大きいかどうかを判断し、そうであればステップS214に進み、そうでなければステップS208に戻る;S214:移動ロボットはY軸の正方向にMを直線的に平行移動し、ステップS201に戻る。
さらに、本発明の具体的な実施例では、移動ロボットはカバレッジ型移動ロボットであり、Mの範囲は0.2m〜0.3mであり、Nの範囲は6m〜8mである。
さらに、本発明の好ましい実施形態では、上記ステップS3において、移動ロボットは、所定距離ごとに、キーフレーム画像とその対応する点Piの座標を保存する。
さらに、隣接する前記キーフレーム画像の収集点Pi間の最小距離は0.6mである。
さらに、上記X座標またはY座標が同じである点Piと点P'iとの距離は0.3m〜0.6mである。
さらに、好ましくは、上記画像は移動ロボットの作業環境の天井画像または地面画像である。
本発明のもう一つの目的の1つは、背景技術の欠陥を克服するために、移動ロボットの経路計画方法を提供することである。具体的には、以下の通りである。
上記移動ロボットの地図作成方法によって作成された地図に基づく移動ロボットの経路計画方法であって、以下のステップを含む:S'1:移動ロボットは初期位置から点Piまたは点P'iに移動する;S'2:点Piまたは点P'iでの走行距離計または/およびジャイロスコープのデータを修正する;S'3:最終目標点に到着するまで、ステップS'1〜S'2を繰り返す。
さらに、本発明の具体的な実施例では、上記ステップS'1は以下のサブステップを含む:S'11:移動ロボットの初期位置の座標と最終目標点の座標を取得する;S'12:初期位置の座標と最終目標点の座標によって形成される矩形エリアにおいて点Piまたは点P'iがあるかどうかを判断し、そうであればステップS'13に進み、そうでなければステップS'14に進む;S'13:移動ロボットが矩形エリア内の初期位置に最も近い点Piまたは点P'iに到着すると、ステップS'15に進む;S'14:移動ロボットが作業エリア内の初期位置に最も近い点Piまたは点P'iに到着すると、ステップS'15に進む;S'15:現在位置の座標と最終目標点の座標によって形成される矩形エリアにおいて点Piまたは点P'iがあるかどうかを判断し、そうであればステップS'13に戻り、そうでなければ最終目標点に移動する。
さらに、本発明の具体的な実施例では、上記ステップS'2は以下のサブステップを含む:S'21:移動ロボットの点Piまたは点P'iでの画像を取得する;S'22:ORBアルゴリズムに従って画像に対して特徴抽出を実行し、点Piまたは点P'iでの保存された画像と、特徴マッチングを実行する;S'23:マッチング結果に応じて、移動ロボットの点Piまたは点P'iでの走行距離計または/およびジャイロスコープのデータを修正する。
さらに、上記最終目標点は、移動ロボットの未通過エリア、充電スタンド位置、および移動ロボットの開始出発点を含む。
[技術効果]
従来技術と比べれば、本発明の技術的解決手段は以下の有益な効果を有する:
本発明は、画像マッチング技術(ORBアルゴリズム)に従って、地図作成過程における移動ロボットの座標と走行距離計および/またはジャイロスコープのデータを修正することによって、座標および角度の累積誤差を低減し、地図の精度を向上させる。
本発明の実施例に係る技術的解決手段をより明確に説明するために、実施例で使用される図面を以下に簡単に説明するが、以下の説明内容における図面は本発明の実施形態のいくつかの実施例であり、当業者は、創造的な努力なしに、これらの図面に基づいて他の図面を取得することもできる。
本発明に係る移動ロボットの地図作成方法の全体的なフローチャートである。 図1のステップS2の改善解決手段のフローチャートである。 本発明に係る移動ロボットの経路計画方法のフローチャートである。 図3のステップS'1の改善解決手段のフローチャートである。 図3のステップS'2の改善解決手段のフローチャートである。 本発明の実施例1に係る地図作成の概略図である。 図7は、図6の地図に基づく移動ロボットの経路計画図である。 本発明の実施例2に係る地図作成の概略図である。 図8の地図に基づく移動ロボットの経路計画図である。
本発明の実施例における技術的解決手段は、本発明の実施例における図面を参照して以下に明確かつ完全に説明される。説明された実施例は、本発明の実施例の一部にすぎず、すべての実施例ではないことは明らかである。当業者により本発明の実施例に基づいて創造的な努力なしに得られるすべての他の実施例も、本発明の範囲内に属する。
本発明に係る移動ロボットは、走行距離計、ジャイロスコープ、およびカメラを含む慣性ナビゲーションシステムに基づいている。ここで、走行距離計は移動ロボットの走行距離を取得するために使用され、ジャイロスコープは移動ロボットの走行角度を取得するために使用され、カメラは環境の画像情報を取得するために移動ロボットの下部または上部に設置される。
本発明における移動ロボットは、特に、屋内環境で動作するセキュリティパトロールロボットまたは掃除ロボット、特定の芝生エリアで動作する草刈りロボット、およびプールを清掃する清掃ロボットなど、指定された閉鎖エリアで動作するカバレッジ型ロボットである。
また、移動ロボットは、電源モジュール、走行モジュール、センサーモジュール、制御モジュール、記憶モジュール、および機能モジュールをさらに含む。電源モジュールは、動作中に移動ロボットに電力を供給するための充電式バッテリーである。走行モジュールは、作業エリア内で移動ロボットを移動させるための駆動モーターと走行輪を含む。センサーモジュールは、作業エリアの環境情報を受信して制御モジュールにフィードバックするために使用される。制御モジュールは、センサーモジュールによってフィードバックされた情報に従って移動ロボットの動きを制御するために使用される。記憶モジュールは、移動ロボットの制御プログラムと外部から取得されたセンサー情報を格納するために使用される。機能モジュールは、掃除ロボットの掃除モジュールや草刈りロボットの回転カッターホルダーなど、移動ロボットの特定機能を指す。
図1に示すように、本発明に係る移動ロボットによる地図作成のフローチャートである。
S1:移動ロボットの作業エリアにおいてデカルト座標系を確立する。
つまり、移動ロボットの作業エリアに横座標(X)と縦座標(Y)で構成される直交座標系を確立して、開始作業点、作業エリアの一角、または充電スタンドを優先的に原点として使用する。
S2:移動ロボットは、作業エリアで弓形に走行する。
つまり、移動ロボットは、最初に障害物または作業エリアの境界に到達するまで、または所定の距離を走行するまで、特定の方向に沿って直進し、次にその方向に垂直な方向に沿って所定の距離を直進してから逆方向に走行し、作業エリアのカバレッジが完了するまで上記の過程を繰り返す。
図2に示すように、このステップの改善解決手段では、移動ロボットが作業を開始する位置を原点とし、移動ロボットが移動し始める方向をX軸の正方向とし、移動ロボットの移動方向に垂直な左側をY軸の正方向として、直交座標系を確立する。そして、下記の手順に従って作業エリアで弓形走行を完成させる:S201:移動ロボットはX軸の正方向に沿って直進する;S202:移動ロボットが障害物に遭遇したかどうかを判断し、そうであればステップ203に進み、そうでなければステップS206に進む;S203:移動ロボットは障害物に沿ってY軸の正方向に走行する。注意すべきことは、障害物に沿ってY軸の正方向に走行することは、障害物に遭遇したときに移動ロボットがY軸の正方向(すなわち、Y軸の座標が増加する方向)に沿って走行することを意味する。障害物が湾曲または凸状構造である場合、移動ロボットは、障害物に沿って一定時間で走行した後、Y軸の負方向(すなわち、Y軸の座標が減少する方向)に沿って走行することがある;S204:移動ロボットのY軸上の座標量の変化が閾値Mより大きいかどうかを判断し、そうであればステップS208に進み、そうでなければステップS205に進む;S205:移動ロボットのY軸座標がステップS201と同じであるかどうかを判断し、そうであればステップS201に戻り、そうでなければステップS203に戻る;S206:移動ロボットの直進距離が閾値Nよりも大きいかどうかを判断し、そうであればステップS207に進み、そうでなければステップS201に戻る;S207:移動ロボットはY軸の正方向にMを直進した後にステップS208に進む;S208:移動ロボットはX軸の負方向に沿って直進する;S209:移動ロボットが障害物に遭遇したかどうかを判断し、そうであればステップS210に進み、そうでなければステップS213に進む;S210:移動ロボットは、Y軸の正方向に障害物に沿って走行する;S211:移動ロボットのY軸上の座標量の変化が閾値Mより大きいかどうかを判断し、そうであればステップS201に戻り、そうでなければステップS212に進む;S212:移動ロボットのY軸座標がステップS208と同じであるかどうかを判断し、そうであればステップS208に戻り、そうでなければステップS210に戻る;S213:移動ロボットの直進距離が閾値Nよりも大きいかどうかを判断し、そうであればステップS214に進み、そうでなければステップS208に戻る;S214:移動ロボットはY軸の正方向にMを直進した後にステップS201に戻る。
S3:移動ロボットの点Piでのキーフレーム画像を取得し、この画像と点Piの座標を保存する。
移動ロボットは動き始め、走行過程中においてカメラで天井または地面の画像を連続して撮影して特徴マッチングを実行する。たとえば、点Pi(iは正の整数)で明らかな特徴を持つキーフレーム画像を選出し、このキーフレーム画像を保存してデカルト座標系での点Piの座標を記憶する。この時点で、移動ロボットが動き始めたばかりなので、走行距離計とジャイロスコープのデータが正確であるため、走行距離計とジャイロスコープから読み出された点Piの座標を直接保存することができる。その後、移動ロボットは走行し続け、カメラで天井または地面の画像を連続して撮影して、特徴マッチングを実行する。明らかな特徴を持つキーフレームが再度選出された場合、このキーフレームが位置する点の座標と記憶されていたキーフレーム画像の座標Piとの距離(X軸またはY軸方向を含む)が所定値(0.6mなど)よりも大きいかどうかを判断し、そうであればこの点のキーフレーム画像および対応する座標を保存し、そうでなければこの点の保存を破棄する(保存されたキーフレームが多すぎると、頻繁にキャリブレーションを行う必要があるため、移動ロボットの作業効率に影響を与えてしまうから)。同様に、作業エリア内のキーフレーム画像および画像取得点Piの座標を保存する。
S4:移動ロボットの点P'iでの画像を取得する。ここで、点P'iの横座標または縦座標は点Piと同じである。
移動ロボットは弓形に沿って移動するため、障害物、作業エリアの境界に遭遇した後、または所定の距離を走行した後、一定の距離を平行移動し、次に逆方向に移動し、点Piの横座標または縦座標が同じ点P'iを通過し、移動ロボットの点P'iでの画像を取得する。好ましくは、点P'iと点Piとの間の距離は、移動ロボットの作業効率とマッチング精度のバランスをとるために、0.3m〜0.6mなどの特定の範囲内にある。ここで、点P'iと点Piの横座標または縦座標が同じであることによって、2枚の画像を特定の角度でマッチングさせることができ、マッチング効率を向上させ、ミスマッチングを減らすことができる。
S5:ORBアルゴリズムに従って、点Piと点P'iで取得された画像の特徴を抽出してマッチングする。
ORBアルゴリズムに従って、点Piと点P'iで取得された画像の特徴を抽出して、2枚の画像から抽出された特徴をマッチングする。
S6:マッチング結果に応じて、移動ロボットの点P'iでの座標、走行距離計、および/またはジャイロスコープのデータを修正して保存する。
点Piと点P'iで取得された画像のピクセルオフセットによって実際の物理的オフセットと角度オフセットを逆算出し、結果を移動ロボットにフィードバックする。移動ロボットは、この結果に応じて、点P'iの座標、走行距離計、およびジャイロスコープの計測データを修正する。
S7:作業エリア内の地図作成が完了するまで、ステップS3〜S6を繰り返す。
図3に示すように、本発明に係る方法による移動ロボットの経路計画方法のフローチャートである。移動ロボットの経路計画方法は、上記地図作成方法によって作成された地図に基づく。
S'1:移動ロボットは、初期位置から点Piまたは点P'iに移動する。
図4に示すように、本発明に係る方法の一実施例では、上記ステップS'1は以下のサブステップを含む:S'11:移動ロボットの初期位置の座標および最終目標点の座標を取得する;S'12:初期位置の座標と最終目標点の座標によって形成される矩形エリアにおいて点Piまたは点P'iがあるかどうかを判断し、そうであればステップS'13に進み、そうでなければステップS'14に進む;ステップS'13:移動ロボットが矩形エリアにおける初期位置に最も近い点Piまたは点P'iに到着すると、ステップS'15に進む;S'14:移動ロボットが作業エリアにおける初期位置に最も近い点Piまたは点P'iに到着すると、ステップS'15に進む;S'15:現在の位置の座標と最終目標点の座標で形成される矩形エリアにおいて点Piまたは点P'iがあるかどうかを判断し、そうであればステップS'13に戻り、そうでなければ最終目標点に移動する。
S'2:点Piまたは点P'iでの走行距離計または/およびジャイロスコープのデータを修正する。
図5に示すように、本発明の一実施例では、上記ステップS'2は以下のサブステップを含む:S'21:移動ロボットの点Piまたは点P'iでの画像を取得する;S'22:ORBアルゴリズムに従って画像の特徴を抽出して、点Piまたは点P'iに保存された画像の特徴と、マッチングを実行する;S'23:マッチング結果に応じて、移動ロボットの点Piまたは点P'iでの走行距離計または/およびジャイロスコープのデータを修正する。
S'3:最終目標点に到着するまで、ステップS'1〜S'2を繰り返す。
上記のように、移動ロボットは、最終目標点に到着するまでに、点Piまたは点P'iでの走行距離計およびジャイロスコープのデータを少なくとも一回修正した。これによって、走行距離計およびジャイロスコープの累積誤差をある程度除去し、移動ロボットが最終目標点まで移動する成功率を向上させた。この方法の最終目標点は、移動ロボットが通過していないエリア、充電スタンドの位置、および移動ロボットの開始作業点を含む。
以下、特定の実施例と合わせて説明する。
実施例1
本実施例における移動ロボットは、掃除ロボットを例に説明する。図6および図7は、それぞれ、障害物なしの矩形空間における掃除ロボットによる地図作成の概略図および経路計画の概略図である。
図6に示すように、掃除ロボットの開始作業点A1を原点とし、掃除ロボットの前進方向をX軸の正方向とし、掃除ロボットの左側に垂直な方向をY軸の正方向としてデカルト座標系を確立する。掃除ロボットは、順に点P1と点P2に前進し、明らかな特徴を持つキーフレーム画像を選出し、この画像および点P1と点P2の座標を保存する(点P1と点P2の座標は、走行距離計とジャイロスコープにより直接取得される。掃除ロボットの走行が開始したばかりなので、走行距離計とジャイロスコープのデータは正確である)。ここで、点P1と点P2との横座標間の距離は、所定値(たとえば、0.6m)よりも大きい。
掃除ロボットが点P'に到着すると、明らかな特徴をもつキーフレーム画像も選出される。このとき、点P'と保存された点P2との距離が0.6m未満であるので、点P'でのキーフレーム画像および点P'の座標への保存を破棄する。
掃除ロボットは、引き続き移動し、点P3でキーフレーム画像と点P3の座標を保存し、点aに移動して作業エリアの境界に到達し、Y軸の正方向に沿って所定の距離Mを走行して点bに到着し(Mは、掃除ロボットの本体の幅であり、本実施例では0.25mである。)、次にX軸の負方向に沿って走行し、順に点P3、点P2、および点P1の横座標Xと同じ点を通過する。これらの点(b−c直線上)と対応する点(A1−a直線上)との距離が所定値(本実施例では0.4m)より小さいため、関連する点の座標または画像を保存および修正する必要はない(画像の保存および修正は頻繁にしすぎると、掃除ロボットの作業効率に影響を与える)。
掃除ロボットは、引き続き点cに移動して作業エリアの境界に到達し、Y軸の正方向に沿って所定の距離Mを走行して点dに到着し、次にX軸の正方向に沿って走行し、順に点P1、点P2、および点P3の横座標Xと同じ点を通過する。このとき、掃除ロボットが2つのM(つまり、所定値0.4mよりも大きい0.5m)を平行移動していたため、掃除ロボットは対応する点(点P'1、点P'2、点P'3)の画像を取得し、その横座標Xと同じ点(点P1、点P2、点P3)のそれぞれで保存されたキーフレーム画像と、ORBアルゴリズムに従って特徴抽出およびマッチングを行う。その後、マッチング結果に応じて、点P'1、点P'2、および点P'3の座標および点P'1、点P'2、点P'3での走行距離計および/またはジャイロスコープのデータを修正する。注意すべきことは、効率を向上させるために、掃除ロボットが同じ直線に沿って走行している時、ある点の座標と走行距離計および/またはジャイロスコープのデータが成功裏に修正される限り、直線上の他の点を修正する必要はない。つまり、点P'1での修正が成功すれば、点P'2、点P'3での修正を行う必要はなく、点P'2での修正が成功すれば、点P'3での修正を行う必要はない。
次に、掃除ロボットは、引き続きX軸の正方向に沿って作業エリアの境界まで移動し、順に明らかな特徴をもつキーフレーム画像とその対応する点(P4、P5、P6、P7)を選出して保存し、対応する点(P'4、P'5、P'6、P'7)での座標への修正および走行距離計とジャイロスコープのデータへの修正を行う。
矩形エリア内の地図作成が完了するまで、そのようにする。
図7に示すように、掃除ロボットが点A2に到着すると、矩形エリアの地図作成が完了する。この時点で、掃除ロボットは、帰ろうとする最終目標点を探索し始める。本実施例では掃除ロボットの開始作業点A1である。点A1、点A2の座標によって形成される矩形エリアにおいて点Piまたは点P'iがないため、掃除ロボットは、点P'7に移動し、点P'7での走行距離計または/およびジャイロスコープのデータを修正する。続いて、掃除ロボットは、点P'7から最終目標点A1に移動する。点P'7と点A1の座標で形成される矩形エリア(破線で形成される矩形の枠)において点P7があるため、掃除ロボットは、点P7に移動して、点P7での走行距離計または/およびジャイロスコープのデータを修正する。その後、掃除ロボットは点P7から最終目標点A1まで移動する。点P7と点A1の座標によって形成される矩形エリアにおいて点Piまたは点P'iがないため、掃除ロボットは点P7から最終目標点A1に直接移動する。その走行経路は図の矢印で示されているとおりである。
実施例2
本実施例の移動ロボットを、掃除ロボットを例に説明する。図8および図9は、それぞれ、矩形の障害物B1および楕円形の障害物B2を含む矩形の作業エリアにおける掃除ロボットによる地図作成の概略図および経路計画の概略図である。
図8に示すように、掃除ロボットの開始作業点A1を原点とし、掃除ロボットの前進方向をX軸の正方向とし、掃除ロボットの左側に垂直な方向をY軸の正方向としてデカルト座標系を確立する。掃除ロボットは、順に点P1と点P2に前進し、明らかな特徴を持つキーフレーム画像を選出し、この画像および点P1と点P2の座標を保存する(点P1と点P2の座標は、走行距離計とジャイロスコープにより直接取得される。掃除ロボットの走行が開始したばかりなので、走行距離計とジャイロスコープのデータは正確である)。ここで、点P1と点P2との横座標間の距離は、所定値(たとえば、0.6m)よりも大きい。
掃除ロボットが点aに到着すると、障害物B1に遭遇し、Y軸の正方向に沿って所定の距離M(本実施例では0.25m)を走行して点bに到着し、次にX軸の逆方向に沿って走行し、順に点P2と点P1の横座標Xと同じ点を通過する。これらの点(b−c直線上)と対応する点(A1−a直線上)との距離が所定値(本実施例では0.4m)より小さいため、関連する点の座標または画像を保存および修正する必要はない(画像の保存および修正は頻繁にしすぎると、掃除ロボットの作業効率に影響を与える)。
掃除ロボットは、引き続き点cに移動して作業エリアの境界に到達し、Y軸の正方向に沿って所定の距離Mを走行して点dに到着し、次にX軸の正方向に沿って走行し、順に点P1と点P2の横座標Xと同じ点を通過する。この時、掃除ロボットが2つのM(つまり、所定値0.4mよりも大きい0.5m)を平行移動していたため、掃除ロボットは対応する点(点P'1、点P'2)の画像を取得し、その横座標Xと同じ点(点P1、点P2)のそれぞれでの保存されたキーフレーム画像と、ORBアルゴリズムに従って特徴抽出およびマッチングを行う。その後、マッチング結果に応じて、点P'1と点P'2の座標および点P'1と点P'2での走行距離計および/またはジャイロスコープのデータを修正する。掃除ロボットは、点eに到着すると、障害物B1に再度遭遇し、障害物B1を迂回して点fに移動する。点eと点fとのY軸上の変化量がM(0.25m)よりも小さいため、掃除ロボットは、X軸の負方向に変向して走行することなく、障害物B1に沿って移動し続けて点hに到着する。その時点で、点hの縦座標と点dの座標が同一であるため、掃除ロボットは、障害物B1に沿う移動を停止し、X軸の正方向に沿って移動することになる。掃除ロボットは、点iに到着すると、点dと点iとの距離が6m(本実施例ではNが6m)に達するので、Y軸の正方向に沿って距離Mを走行し、点jに到着すると、X軸の負方向に沿って移動することになる。
このようにして、点A2までは、実施例1の方式に従って経過エリアの地図作成を行う。その後、掃除ロボットは、未経過エリアに移動し、上記のような方式に従って地図作成を行い、すべての作業エリア内の地図作成が完了するまでに終了する。
本実施例と実施例1との相違点は以下の通りである:
1.掃除ロボットは、X軸方向に所定の距離を走行した後、Y軸の正方向に沿って距離Mを自動的に平行移動し、X軸に沿って逆方向に走行する。
2.掃除ロボットは、所定の距離を走行した後、キーフレーム画像である点Piの画像と対応する座標を保存する。つまり、隣接する点Piの横座標における間隔は同じである。
図9に示すように、掃除ロボットが点A2に到着すると、矩形エリアの部分的な地図作成が完了し、この時点で、掃除ロボットは、帰ろうとする最終目標点を探索し始める。本実施例では、掃除ロボットにより覆われていないエリアの点A3である。点A2と点A3の座標で形成される矩形エリア(図の点線枠)において点P8、P9、P10、P11、P12が含まれているため、掃除ロボットは、点A2に最も近い点P12に移動し、点P12での走行距離計または/およびジャイロスコープのデータを修正する。
このようにして、掃除ロボットは、順に点P11、点P10、点P9、点P8を通過して、走行距離計または/およびジャイロスコープのデータを修正する。掃除ロボットは、点P8に到着すると、点P8と最終目標点A3によって形成される矩形エリアにおいて点Piまたは点P'iがないため、点P8から最終目標点A3に直接移動し、その走行経路は図の矢印に示されている通りである。
上記で開示されたのは、本発明の好ましい実施例に過ぎず、本発明の範囲を限定しない。そのため、本発明の特許請求の範囲に従って行われる同等の変更は、依然として本発明の範囲内に属する。

Claims (14)

  1. 走行距離計、ジャイロスコープ、およびカメラを含む移動ロボットの地図作成方法であって、
    S1:前記移動ロボットの作業エリアにデカルト座標系を確立し、
    S2:前記移動ロボットは前記作業エリアで弓形のルートで走行し、
    S3:前記移動ロボットの点Piでのキーフレーム画像を取得し、この画像と前記点Piの座標を保存し、
    S4:前記移動ロボットの点P'iでの画像を取得し、ここで、前記点P'iの横座標または縦座標は前記点Piと同じであり、
    S5:ORBアルゴリズムに従って、前記点Piと前記点P'iで取得された画像に対して特徴抽出とマッチングを実行し、
    S6:前記マッチングの結果に応じて、前記移動ロボットの前記点P'iでの座標、前記走行距離計、および/または前記ジャイロスコープのデータを修正して保存し、
    S7:前記作業エリア内の地図作成が完了するまで、前記ステップS3〜S6を繰り返す、
    ステップを含み、
    ここで、前記ステップS6は、前記点Piと前記点P'iで取得された画像のピクセルオフセットによって、実際の物理的オフセットと角度オフセットを逆算出し、結果を前記移動ロボットにフィードバックし、前記移動ロボットがこの結果に従って前記点P'iの座標および前記走行距離計と前記ジャイロスコープのデータを修正することを含む、
    動ロボットの地図作成方法。
  2. 前記ステップS2は、
    S201:前記移動ロボットは、X軸の正方向に沿って直進し、
    S202:前記移動ロボットが障害物に遭遇したかどうかを判断し、そうであればステップ203に進み、そうでなければステップS206に進み、
    S203:前記移動ロボットは前記障害物に沿ってY軸の正方向に走行し、
    S204:前記移動ロボットのY軸上の座標量の変化が閾値Mよりも大きいかどうかを判断し、そうであればステップS208に進み、そうでなければステップS205に進み、
    S205:前記移動ロボットのY軸座標が前記ステップS201におけるY軸座標と同じであるかどうかを判断し、そうであれば前記ステップS201に戻り、そうでなければ前記ステップS203に戻り、
    S206:前記移動ロボットの直進距離が閾値Nよりも大きいかどうかを判断し、そうであればステップS207に進み、そうでなければ前記ステップS201に戻り、
    S207:前記移動ロボットは、Y軸の正方向に前記閾値Mの距離を直線的に平行移動すると、ステップS208に進み、
    S208:前記移動ロボットは、X軸の負方向に沿って直進し、
    S209:前記移動ロボットが障害物に遭遇したかどうかを判断し、そうであればステップS210に進み、そうでなければステップS213に進み、
    S210:前記移動ロボットは前記障害物に沿ってY軸の正方向に走行し、
    S211:前記移動ロボットのY軸上の座標量の変化が前記閾値Mよりも大きいかどうかを判断し、そうであれば前記ステップS201に戻り、そうでなければステップS212に進み、
    S212:前記移動ロボットのY軸座標が前記ステップS208におけるY軸座標と同じであるかどうかを判断し、そうであれば前記ステップS208に戻り、そうでなければステップ前記S210に戻り、
    S213:前記移動ロボットの直進距離が前記閾値Nよりも大きいかどうかを判断し、そうであればステップS214に進み、そうでなければ前記ステップS208に戻り、
    S214:前記移動ロボットがY軸の正方向に前記閾値Mの距離を直線的に平行移動すると、前記ステップS201に戻る、
    サブステップを含む、請求項1に記載の移動ロボットの地図作成方法。
  3. 前記移動ロボットはカバレッジ型移動ロボットであり、前記閾値Mの範囲は0.2m〜0.3mであり、前記閾値Nの範囲は6m〜8mである、請求項2に記載の移動ロボットの地図作成方法。
  4. 前記ステップS3において、前記移動ロボットは、所定距離ごとに、前記キーフレーム画像とその対応する前記点Piの座標を保存する、請求項1〜3のいずれか一項に記載の移動ロボットの地図作成方法。
  5. 隣接する前記キーフレーム画像を収集する前記点Pi間の最小距離は0.6mである、請求項1〜4のいずれか一項に記載の移動ロボットの地図作成方法。
  6. X座標またはY座標が同じである前記点Piと前記点P'iとの距離は0.3m〜0.6mである、請求項1〜5のいずれか一項に記載の移動ロボットの地図作成方法。
  7. 前記画像は、前記移動ロボットの作業環境の天井画像または地面画像である、請求項1〜6のいずれか一項に記載の移動ロボットの地図作成方法。
  8. 請求項1〜7のいずれか一項に記載の方法によって作成された地図に基づく移動ロボットの経路計画方法であって、
    S'1:前記移動ロボットは初期位置から前記点Piまたは前記点P'iに移動し、
    S'2:前記点Piまたは前記点P'iで前記走行距離計または/および前記ジャイロスコープのデータを修正し、
    S'3:最終目標点に到着するまで、前記ステップS'1〜S'2を繰り返す、
    ステップを含む、移動ロボットの経路計画方法。
  9. 前記ステップS'1は、
    S'11:前記移動ロボットの前記初期位置の座標と前記最終目標点の座標を取得し、
    S'12:前記初期位置の座標と前記最終目標点の座標によって形成される矩形エリアにおいて前記点Piまたは前記点P'iがあるかどうかを判断し、そうであればステップS'13に進み、そうでなければステップS'14に進み、
    S'13:前記移動ロボットが前記矩形エリア内の前記初期位置に最も近い前記点Piまたは前記点P'iに到着すると、ステップS'15に進み、
    S'14:前記移動ロボットが前記作業エリア内の前記初期位置に最も近い前記点Piまたは前記点P'iに到着すると、ステップS'15に進み、
    S'15:現在位置の座標と前記最終目標点の座標によって形成される矩形エリアにおいて前記点Piまたは前記点P'iがあるかどうかを判断し、そうであれば前記ステップS'13に戻り、そうでなければ前記最終目標点に移動する、
    サブステップを含む、請求項8に記載の移動ロボットの経路計画方法。
  10. 前記ステップS'2は、
    S'21:前記移動ロボットの前記点Piまたは前記点P'iでの画像を取得し、
    S'22:前記ORBアルゴリズムに従って前記画像に対して特徴抽出を実行し、前記点Piまたは前記点P'iでの保存された画像と、特徴マッチングを実行し、
    S'23:前記マッチングの結果に応じて、前記移動ロボットの前記点Piまたは前記点P'iでの前記走行距離計または/および前記ジャイロスコープのデータを修正する、
    サブステップを含む、請求項8または9に記載の移動ロボットの経路計画方法。
  11. 前記最終目標点は、前記移動ロボットの未通過エリア、充電スタンド位置、および前記移動ロボットの開始出発点を含む、請求項8または9に記載の移動ロボットの経路計画方法。
  12. 走行距離計、ジャイロスコープ、およびカメラを含む移動ロボットの地図作成方法であって、
    S1:前記移動ロボットの作業エリアにデカルト座標系を確立し、
    S2:前記移動ロボットは前記作業エリアで弓形のルートで走行し、
    S3:前記移動ロボットの点Piでのキーフレーム画像を取得し、この画像と前記点Piの座標を保存し、
    S4:前記移動ロボットの点P'iでの画像を取得し、ここで、前記点P'iの横座標または縦座標は前記点Piと同じであり、
    S5:ORBアルゴリズムに従って、前記点Piと前記点P'iで取得された画像に対して特徴抽出とマッチングを実行し、
    S6:前記マッチングの結果に応じて、前記移動ロボットの前記点P'iでの座標、前記走行距離計、および/または前記ジャイロスコープのデータを修正して保存し、
    S7:前記作業エリア内の地図作成が完了するまで、前記ステップS3〜S6を繰り返す、
    ステップを含み、
    ここで、前記ステップS2は、
    S201:前記移動ロボットは、X軸の正方向に沿って直進し、
    S202:前記移動ロボットが障害物に遭遇したかどうかを判断し、そうであればステップ203に進み、そうでなければステップS206に進み、
    S203:前記移動ロボットは前記障害物に沿ってY軸の正方向に走行し、
    S204:前記移動ロボットのY軸上の座標量の変化が閾値Mよりも大きいかどうかを判断し、そうであればステップS208に進み、そうでなければステップS205に進み、
    S205:前記移動ロボットのY軸座標が前記ステップS201におけるY軸座標と同じであるかどうかを判断し、そうであれば前記ステップS201に戻り、そうでなければ前記ステップS203に戻り、
    S206:前記移動ロボットの直進距離が閾値Nよりも大きいかどうかを判断し、そうであればステップS207に進み、そうでなければ前記ステップS201に戻り、
    S207:前記移動ロボットは、Y軸の正方向に前記閾値Mの距離を直線的に平行移動すると、ステップS208に進み、
    S208:前記移動ロボットは、X軸の負方向に沿って直進し、
    S209:前記移動ロボットが障害物に遭遇したかどうかを判断し、そうであればステップS210に進み、そうでなければステップS213に進み、
    S210:前記移動ロボットは前記障害物に沿ってY軸の正方向に走行し、
    S211:前記移動ロボットのY軸上の座標量の変化が前記閾値Mよりも大きいかどうかを判断し、そうであれば前記ステップS201に戻り、そうでなければステップS212に進み、
    S212:前記移動ロボットのY軸座標が前記ステップS208におけるY軸座標と同じであるかどうかを判断し、そうであれば前記ステップS208に戻り、そうでなければ前記ステップS210に戻り、
    S213:前記移動ロボットの直進距離が前記閾値Nよりも大きいかどうかを判断し、そうであればステップS214に進み、そうでなければ前記ステップS208に戻り、
    S214:前記移動ロボットがY軸の正方向に前記閾値Mの距離を直線的に平行移動すると、前記ステップS201に戻る、
    サブステップを含み、
    前記移動ロボットはカバレッジ型移動ロボットであり、前記閾値Mの範囲は0.2m〜0.3mであり、前記閾値Nの範囲は6m〜8mであり、
    前記ステップS3において、前記移動ロボットは、所定の間隔ごとに、前記キーフレーム画像とその対応する前記点Piの座標を保存し、
    前記画像は、前記移動ロボットの作業環境の天井画像または地面画像であり、
    ここで、前記ステップS6は、前記点Piと前記点P'iで取得された画像のピクセルオフセットによって、実際の物理的オフセットと角度オフセットを逆算出し、結果を前記移動ロボットにフィードバックし、前記移動ロボットがこの結果に従って前記点P'iの座標および前記走行距離計と前記ジャイロスコープのデータを修正することを含む、移動ロボットの地図作成方法。
  13. 請求項12に記載の方法によって作成された地図に基づく移動ロボットの経路計画方法であって、
    S'1:前記移動ロボットは初期位置から前記点Piまたは前記点P'iに移動し、
    S'2:前記点Piまたは前記点P'iで前記走行距離計または/および前記ジャイロスコープのデータを修正し、
    S'3:最終目標点に到着するまで、前記ステップS'1〜S'2を繰り返す、
    ステップを含み、
    前記S'1は、
    S'11:前記移動ロボットの前記初期位置の座標と前記最終目標点の座標を取得し、
    S'12:前記初期位置の座標と前記最終目標点の座標によって形成される矩形エリアにおいて前記点Piまたは前記点P'iがあるかどうかを判断し、そうであればステップS'13に進み、そうでなければステップS'14に進み、
    S'13:前記移動ロボットは、前記矩形エリア内の前記初期位置に最も近い前記点Piまたは前記点P'iに到着すると、ステップS'15に進み、
    S'14:前記移動ロボットは、前記作業エリア内の前記初期位置に最も近い前記点Piまたは前記点P'iに到着すると、ステップS'15に進み、
    S'15:現在位置の座標と前記最終目標点の座標によって形成される矩形エリアにおいて前記点Piまたは前記点P'iがあるかどうかを判断し、そうであれば前記ステップS'13に戻り、そうでなければ前記最終目標点に移動する、
    サブステップを含み、
    前記最終目標点は、前記移動ロボットの未通過エリア、充電スタンドの位置、および前記移動ロボットの開始出発点を含む、移動ロボットの経路計画方法。
  14. 請求項12に記載の方法によって作成された地図に基づく移動ロボットの経路計画方法であって、
    S'1:前記移動ロボットは初期位置から前記点Piまたは前記点P'iに移動し、
    S'2:前記点Piまたは前記点P'iで前記走行距離計または/および前記ジャイロスコープのデータを修正し、
    S'3:最終目標点に到着するまで、前記ステップS'1〜S'2を繰り返す、
    ステップを含み、
    前記ステップS'2は、
    S'21:前記移動ロボットの前記点Piまたは前記点P'iでの画像を取得し、
    S'22:前記ORBアルゴリズムに従って前記画像に対して特徴抽出を実行し、前記点Piまたは前記点P'iでの保存された画像と、特徴マッチングを実行し、
    S'23:前記マッチングの結果に応じて、前記移動ロボットの前記点Piまたは前記点P'iでの前記走行距離計または/および前記ジャイロスコープのデータを修正する、
    サブステップを含む、移動ロボットの経路計画方法。
JP2019569913A 2017-08-18 2018-01-24 移動ロボットの地図作成方法および当該地図に基づく経路計画方法 Active JP6915209B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710713711.7 2017-08-18
CN201710713711.7A CN107314773B (zh) 2017-08-18 2017-08-18 移动机器人的地图创建方法及基于该地图的路径规划方法
PCT/CN2018/073930 WO2019033712A1 (zh) 2017-08-18 2018-01-24 移动机器人的地图创建方法及基于该地图的路径规划方法

Publications (2)

Publication Number Publication Date
JP2020529061A JP2020529061A (ja) 2020-10-01
JP6915209B2 true JP6915209B2 (ja) 2021-08-04

Family

ID=60176243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019569913A Active JP6915209B2 (ja) 2017-08-18 2018-01-24 移動ロボットの地図作成方法および当該地図に基づく経路計画方法

Country Status (5)

Country Link
US (2) US11385062B2 (ja)
EP (1) EP3671121A4 (ja)
JP (1) JP6915209B2 (ja)
CN (1) CN107314773B (ja)
WO (1) WO2019033712A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107314773B (zh) * 2017-08-18 2019-10-01 广东宝乐机器人股份有限公司 移动机器人的地图创建方法及基于该地图的路径规划方法
CN107976998A (zh) * 2017-11-13 2018-05-01 河海大学常州校区 一种割草机器人地图创建与路径规划系统及方法
CN107807650A (zh) * 2017-11-29 2018-03-16 莱克电气股份有限公司 一种机器人的运动控制方法、装置及设备
CN108153301B (zh) * 2017-12-07 2021-02-09 深圳市杰思谷科技有限公司 一种基于极坐标的智能避障系统
CN108873880A (zh) * 2017-12-11 2018-11-23 北京石头世纪科技有限公司 智能移动设备及其路径规划方法、计算机可读存储介质
CN109974746B (zh) * 2017-12-27 2020-11-24 深圳市优必选科技有限公司 全向轮里程校准方法及机器人
CN108469826B (zh) * 2018-04-23 2021-06-08 宁波Gqy视讯股份有限公司 一种基于机器人的地图生成方法及系统
CN108873889A (zh) * 2018-05-14 2018-11-23 北京石头世纪科技有限公司 智能移动设备及其路径控制方法、计算机可读存储介质
CN109141395B (zh) * 2018-07-10 2020-06-09 深圳市无限动力发展有限公司 一种基于视觉回环校准陀螺仪的扫地机定位方法及装置
GB2576494B (en) * 2018-08-06 2022-03-23 Dyson Technology Ltd A mobile robot and method of controlling thereof
CN108937742A (zh) * 2018-09-06 2018-12-07 苏州领贝智能科技有限公司 一种扫地机的陀螺仪角度修正方法和扫地机
CN109682382B (zh) * 2019-02-28 2020-09-08 电子科技大学 基于自适应蒙特卡洛和特征匹配的全局融合定位方法
CN110174892B (zh) * 2019-04-08 2022-07-22 阿波罗智能技术(北京)有限公司 车辆朝向的处理方法、装置、设备及计算机可读存储介质
CN110207707B (zh) * 2019-05-30 2022-04-12 四川长虹电器股份有限公司 基于粒子滤波器的快速初始定位方法及机器人设备
CN110597249B (zh) * 2019-08-23 2022-08-05 深圳市优必选科技股份有限公司 一种机器人及其回充定位方法和装置
CN112783147A (zh) * 2019-11-11 2021-05-11 科沃斯机器人股份有限公司 一种轨迹规划方法、装置、机器人及存储介质
CN111085998B (zh) * 2019-12-17 2021-11-09 珠海市一微半导体有限公司 机器人记录运动轨迹的方法和显示机器人运动轨迹的方法
CN111240322B (zh) * 2020-01-09 2020-12-29 珠海市一微半导体有限公司 机器人移动限制框的工作起点确定方法及运动控制方法
CN111329399B (zh) * 2020-04-09 2021-09-10 湖南格兰博智能科技有限责任公司 一种基于有限状态机的扫地机目标点导航方法
CN113899376B (zh) * 2020-07-06 2023-10-20 苏州宝时得电动工具有限公司 自移动设备地图生成方法、系统和自动工作系统
CN114111779B (zh) * 2020-08-26 2024-06-28 深圳市杉川机器人有限公司 一种建立工作区域地图的方法及自移动设备
CN112200850B (zh) * 2020-10-16 2022-10-04 河南大学 一种基于成熟特征点的orb提取方法
CN112352530B (zh) * 2020-10-27 2022-05-31 懿力创新(厦门)科技有限公司 一种自动除草机器人的工作路径优化方法
CN112433537B (zh) * 2020-11-11 2022-09-16 广西电网有限责任公司电力科学研究院 一种输电线路铁塔组立施工的可视化监督方法及系统
CN115700417A (zh) * 2021-07-14 2023-02-07 尚科宁家(中国)科技有限公司 清洁机器人及建图误差消除方法
CN113589806B (zh) * 2021-07-21 2024-06-18 珠海一微半导体股份有限公司 机器人弓字型行走时的策略控制方法
CN113568435B (zh) * 2021-09-24 2021-12-24 深圳火眼智能有限公司 一种基于无人机自主飞行态势感知趋势的分析方法与系统
WO2023155160A1 (en) * 2022-02-18 2023-08-24 Beijing Smorobot Technology Co., Ltd Swimming pool map boundary construction and swimming pool cleaning methods and apparatuses, and electronic device
CN114623819A (zh) * 2022-03-21 2022-06-14 中国电信股份有限公司 机器人定位方法、系统、装置、设备及存储介质
CN118608772A (zh) * 2024-08-02 2024-09-06 杭州涂鸦信息技术有限公司 确定区域边界的方法和装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5610815A (en) * 1989-12-11 1997-03-11 Caterpillar Inc. Integrated vehicle positioning and navigation system, apparatus and method
AU2002304133A1 (en) * 2002-05-31 2003-12-19 Fujitsu Limited Remotely-operated robot, and robot self position identifying method
CN102138769B (zh) * 2010-01-28 2014-12-24 深圳先进技术研究院 清洁机器人及其清扫方法
CN103251355A (zh) * 2012-02-16 2013-08-21 恩斯迈电子(深圳)有限公司 扫地机器人与充电系统
KR101945734B1 (ko) * 2012-08-16 2019-02-11 한화에어로스페이스 주식회사 로봇 시스템 및 그의 동작 방법
CN102866706B (zh) * 2012-09-13 2015-03-25 深圳市银星智能科技股份有限公司 一种采用智能手机导航的清扫机器人及其导航清扫方法
CN104972462B (zh) * 2014-04-14 2017-04-19 科沃斯机器人股份有限公司 自移动机器人避障行走方法
US9969337B2 (en) * 2014-09-03 2018-05-15 Sharp Laboratories Of America, Inc. Methods and systems for mobile-agent navigation
CN104390643B (zh) * 2014-11-24 2017-05-31 上海赛特斯信息科技股份有限公司 基于多信息融合实现室内定位的方法
KR102339531B1 (ko) * 2014-12-16 2021-12-16 에이비 엘렉트로룩스 로봇 청소 장치를 위한 경험-기반의 로드맵
US10518407B2 (en) * 2015-01-06 2019-12-31 Discovery Robotics Apparatus and methods for providing a reconfigurable robotic platform
CN105856230B (zh) * 2016-05-06 2017-11-24 简燕梅 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法
CN106020207B (zh) * 2016-07-26 2019-04-16 广东宝乐机器人股份有限公司 自移动机器人行走方法与装置
CN106355197A (zh) * 2016-08-24 2017-01-25 广东宝乐机器人股份有限公司 基于K‑means聚类算法的导航图像匹配过滤方法
CN106708048B (zh) * 2016-12-22 2023-11-28 清华大学 机器人的天花板图像定位方法和系统
CN106767833B (zh) * 2017-01-22 2019-11-19 电子科技大学 一种融合rgbd深度传感器与编码器的机器人定位方法
US20180348783A1 (en) * 2017-05-31 2018-12-06 Neato Robotics, Inc. Asynchronous image classification
CN107314773B (zh) * 2017-08-18 2019-10-01 广东宝乐机器人股份有限公司 移动机器人的地图创建方法及基于该地图的路径规划方法

Also Published As

Publication number Publication date
US20220082391A1 (en) 2022-03-17
US20200116501A1 (en) 2020-04-16
US11385062B2 (en) 2022-07-12
CN107314773B (zh) 2019-10-01
WO2019033712A1 (zh) 2019-02-21
CN107314773A (zh) 2017-11-03
JP2020529061A (ja) 2020-10-01
EP3671121A4 (en) 2020-12-02
EP3671121A1 (en) 2020-06-24

Similar Documents

Publication Publication Date Title
JP6915209B2 (ja) 移動ロボットの地図作成方法および当該地図に基づく経路計画方法
JP7085296B2 (ja) ロボットの再測位方法
CN112985416B (zh) 激光与视觉信息融合的鲁棒定位和建图方法及系统
US11204247B2 (en) Method for updating a map and mobile robot
JP6987797B2 (ja) リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
CN113781582B (zh) 基于激光雷达和惯导联合标定的同步定位与地图创建方法
CN107796397B (zh) 一种机器人双目视觉定位方法、装置和存储介质
CN108873908B (zh) 基于视觉slam和网络地图结合的机器人城市导航系统
CN103954275B (zh) 基于车道线检测和gis地图信息开发的视觉导航方法
CN107167826B (zh) 一种自动驾驶中基于可变网格的图像特征检测的车辆纵向定位系统及方法
CN111664843A (zh) 一种基于slam的智能仓储盘点方法
KR20170088228A (ko) 다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법
Bürki et al. Vizard: Reliable visual localization for autonomous vehicles in urban outdoor environments
WO2022012316A1 (zh) 控制方法、车辆和服务器
CN116429084A (zh) 一种动态环境3d同步定位与建图方法
CN116501064A (zh) 一种光伏电站清扫机器人的路径规划及避障方法
CN116753945A (zh) 一种基于多传感器融合的工业巡检机器人的导航方法
CN115164887A (zh) 基于激光雷达与惯性组合的行人导航定位方法和装置
CN112669358B (zh) 一种适用于多平台协同感知的地图融合方法
JPH11194822A (ja) 移動ロボットのグローバル地図構築方法
Liu et al. FR-LIO: fast and robust lidar-inertial odometry by tightly-coupled iterated Kalman smoother and robocentric voxels
Feng et al. Block-Map-Based Localization in Large-Scale Environment
CN115388880A (zh) 一种低成本记忆泊车建图与定位方法、装置及电子设备
Du et al. GNSS-Assisted LiDAR Odometry and Mapping for Urban Environment
Ktiri et al. A framework for multiple heterogeneous robots exploration using laser data and MARG sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210618

R150 Certificate of patent or registration of utility model

Ref document number: 6915209

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350