JP2012084149A - モバイル機器のナビゲーション - Google Patents

モバイル機器のナビゲーション Download PDF

Info

Publication number
JP2012084149A
JP2012084149A JP2011222083A JP2011222083A JP2012084149A JP 2012084149 A JP2012084149 A JP 2012084149A JP 2011222083 A JP2011222083 A JP 2011222083A JP 2011222083 A JP2011222083 A JP 2011222083A JP 2012084149 A JP2012084149 A JP 2012084149A
Authority
JP
Japan
Prior art keywords
image
beacon
mobile device
determining
barcode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011222083A
Other languages
English (en)
Inventor
Morgan Michael
マイケル、モーガン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stmicroelectronics Research & Development Ltd
STMicroelectronics Research and Development Ltd
Original Assignee
Stmicroelectronics Research & Development Ltd
STMicroelectronics Research and Development Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stmicroelectronics Research & Development Ltd, STMicroelectronics Research and Development Ltd filed Critical Stmicroelectronics Research & Development Ltd
Publication of JP2012084149A publication Critical patent/JP2012084149A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Abstract

【課題】ビーコンを用いて自己位置を決定する視覚ベースの自律ナビゲーションシステムにおいて、高精度かつ安価な位置決定方法を提供する。
【解決手段】モバイル機器(ロボット)680は撮像手段で取得した画像から少なくとも1つのビーコンA、B、C、D、E、F、G、H、I、J、K、Lの画像に対する空間情報を決定し、この空間情報に基づいて、モバイル機器の位置を判断する。空間情報を決定するステップは、少なくとも1つのビーコンの各ビーコンを特定する符号化された視覚情報に基づく。画像は、モバイル機器の周囲の環境の少なくとも一部の少なくとも1つのビーコンの画像を含む。モバイル機器にあらかじめ記憶された位置情報と特定されたビーコンの画像からモバイル機器の位置決定が可能となる。
【選択図】図6

Description

本願は、限定的ではないが、ロボットなどのモバイル機器に関し、特に、オフィスや工場の床などの環境でロボットが自律移動するための方法に関する。
オフィスや工場の床のような環境で移動可能なモバイル機器の用途が、いくつか提案されてきた。モバイル機器がこのような移動を実行できるようにするための方法がいくつか知られている。
このような方法の1つは、モバイル機器が移動を要求される環境に設置されたアクティブビーコンを使用することである。アクティブビーコンは、いくつかの形態を取ってもよく、例えば、床下に埋め込まれた応答器や、建物中に散在させた無線ビーコンである。モバイル機器は、ビーコンから受信した信号の入射角と、その信号に関連するタイミングデータとに基づいて自らの位置を計算する。信号のタイミングデータは、信号に対するモバイル機器の距離を計算するために使用される。
モバイル機器を自律移動させるためのさらなる方法は、人工/自然のランドマークを使用することである。この方法では、ランドマークがモバイル機器によって認識されなければならないため、極めて高レベルの画像処理が要求される。さらに、モバイル機器は、衝突回避のために、環境内で動いている物体を特定することが要求される。人工ランドマークの場合には、実際の周囲の状況は、環境内に人工ランドマークが挿入された状態で変更されなければならない。これらのランドマークは、モバイル機器の画像処理回路がランドマークの形状および色を容易に特定できるようなものであろう。これらのランドマークの一例として、モバイル機器が追従する連続したランドマークを形成する床上のテープが挙げられる。
自律ナビゲーションシステムとして、モデルマッチングも提案されてきた。モデルマッチングでは、モバイル機器は、周囲の環境のモデルを構築するためにセンサを使用する。このモデルは、モバイル機器の位置を決定するために、モバイル機器メモリに格納されたグローバルモデルに対して整合される。この方法は、プロセス集約型であり、高精度の画像処理能力を必要とする。
さらなる単純な自律ナビゲーション方法として、相対位置測定がある。相対位置測定では、モバイル機器の動きおよび進行方向は、例えば、車輪回転やステアリングの向きを取り込むエンコーダや、ジャイロスコープおよび加速度計によって記録される。次に、モバイル機器は、開始位置と、これらのパラメータと、に基づいて、自らの位置を推定する。
既存の視覚ベースの自律ナビゲーションシステムは、複雑であり、プロセッサ集約型では、高レベルの画像処理能力が要求される。アクティブビーコンには、ビーコン信号の時間測定と、干渉を受けやすい信号の入射角と、の両方が必要であり、且つ、高精度な復号機器も必要である。視覚システムや、程度はそれほどでもないが、アクティブビーコンも、高価になる傾向にある。相対位置測定の既存のより安価で簡易なシステムは、精度が落ちてしまい、モバイル機器自体の動きしか考慮しない。
本発明の第1の態様によれば、モバイル機器のナビゲーション方法であって、画像において検出された少なくとも1つのビーコンの空間情報を、その画像に対して決定するステップと、前記空間情報に基づいてモバイル機器の位置を決定するステップと、を含み、前記空間情報の決定ステップが、前記少なくとも1つのビーコンの符号化された視覚情報に基づいたものであり、前記画像が、モバイル機器の周囲の環境の少なくとも一部の前記少なくとも1つのビーコンの画像を含む方法が提供される。
この方法は、環境に対する前記少なくとも1つのビーコンの位置を示す前記符号化された視覚情報に基づいて、画像内の前記少なくとも1つのビーコンを検出するステップをさらに含んでもよい。
この方法は、前記空間情報に基づいて、画像に対する少なくとも1つのビーコンの位置を決定するステップと、前記符号化された視覚情報に基づいて、環境に対する少なくとも1つのビーコンの位置を決定するステップと、をさらに含んでもよい。
モバイル機器の位置を決定するステップは、モバイル機器の絶対位置および向きを決定するステップをさらに含んでもよい。
ビーコンは、赤外線ビーコンであってもよく、前記符号化された視覚情報は、前記画像の画像処理を用いて復号されてもよい。符号化された視覚情報は、ビーコンのアイデンティティ(同一性)を示してもよい。
この方法は、前記ビーコンの前記アイデンティティと、モバイル機器のメモリに格納された環境に対するビーコンの位置と、を整合するステップをさらに含んでもよい。この空間特性は、さらに、画像内のビーコンのサイズと、画像に対するビーコンの向きと、の少なくとも1つに対応する。
この方法は、少なくとも1つのさらなるビーコンの空間情報を決定するステップであって、前記空間情報は、少なくとも1つのビーコンと前記少なくとも1つのさらなるビーコンとの間の空間関係の指示を含む、ステップと、前記空間情報に基づいてモバイル機器の位置を決定するステップと、をさらに含んでもよい。
画像は、360度視野の周囲の環境を有してもよく、前記環境内の前記ビーコンのすべては、画像内にある。
ビーコンは、赤外光でのみ視認可能なバーコードであってもよく、前記符号化された視覚情報は、バーコードに符号化されてもよい。ビーコンは、バーコードの両側に2つのインジケータをさらに含んでもよく、通常の光でビーコンの第1の画像を記録し、赤外光でビーコンの第2の画像を記録するステップをさらに含んでもよく、インジケータが第2の画像にのみあるか否かを決定するために2つの画像(第1の画像および第2の画像)が比較され、2つのインジケータ間のバーコードを検出するために画像処理が実行される。
2つのインジケータは、モバイル機器に対してバーコードの向きを示してもよく、モバイル機器の向きを決定するために、バーコードの格納された向きと、モバイル機器に対する前記向きとの間の比較が実行されてもよい。
第2の態様によれば、画像内で検出された少なくとも1つのビーコンの空間情報を、その画像に対して決定し、前記空間情報に基づいてモバイル機器の位置を決定するように動作可能な処理手段を備え、前記処理手段が、前記少なくとも1つのビーコンの符号化された視覚情報に基づいて、前記空間情報を決定し、前記画像が、モバイル機器の周囲の環境の少なくとも一部の前記少なくとも1つのビーコンの画像を含む装置が提供される。
第3の態様によれば、画像内で検出された少なくとも1つのビーコンの空間情報を、その画像に対して決定するコンピュータ命令と、前記空間情報に基づいてモバイル機器の位置を決定するコンピュータ命令と、を備え、前記空間情報を決定する前記コンピュータ命令が、前記少なくとも1つのビーコンの符号化された視覚情報に基づいたものであり、前記画像が、モバイル機器の周囲の環境の少なくとも一部の前記少なくとも1つのビーコンの画像を含むコンピュータ読み取り可能な記憶媒体が提供されてもよい。
以下、添付の図面を参照して、例示的目的のみによる、いくつかの実施形態について説明する。
ある実施形態による位置付けシステムのコンポーネント図を示す。 1つの実施形態の方法のフローチャートを示す。 ある実施形態のより詳細な方法のフローチャートを示す。 ビーコンの室内でのモバイル機器の空中図と、そのモバイル機器によって処理される対応する画像と、を示す。 ある実施形態の方法ステップを説明する方法図を示す。 さらなる実施形態によるビーコンを備えた室内において、ある向きを向いたモバイル機器の空中図を示す。 さらなる実施形態において使用するためのバーコードの例を示す。 さらなる実施形態の方法ステップを説明するフローチャートを示す。
図1は、ある実施形態の測位システムのコンポーネントを示す。測位システム100は、機器の位置を決定するために、任意のロボットまたはモバイル機器などに実装されてもよく、ロボットまたはモバイル機器にナビゲーション情報を提供してもよい。
カメラ/センサ101は、周囲の環境の画像を記録可能なカメラであってもよい。カメラは、赤外線カメラ、電荷結合デバイス(CCD)カメラであってもよく、またはカメラ/センサ101は、周囲の環境の画像を記録しうる任意の適切なセンサであってもよい。カメラ/センサ101は、画像処理プロセッサ102に接続される。画像処理プロセッサ102は、画像処理演算を実行可能な任意のプロセッサであってもよい。いくつかの実施形態において、画像処理プロセッサ102は、低レベル画像処理を実行可能であればよく、多くのリソースを必要としない場合もある。実施形態によっては、画像処理プロセッサ102は、明画素と暗画素とのコントラストを検出可能であってもよい。
画像処理プロセッサ102は、位置決定ユニット103に接続される。位置決定ユニット103は、カメラ/センサ101によって記録されるような画像に関する情報を画像処理プロセッサ102から受信し、受信した情報を、モバイル機器の位置を決定するために使用する。位置決定ユニット103は、メモリ104にさらに接続される。メモリ104は、モバイル機器の移動を補助するために、少なくとも、環境に関する情報、環境において獲得したビーコンのアイデンティティに関する情報、モバイル機器がとりうるルートに関する情報、および/または任意の他の情報を格納可能であってもよい。
図2は、ある実施形態によって実行される方法を示す図の方法を与える。この方法のステップ201において、周囲の環境の画像または周囲の環境の少なくとも一部の画像が、カメラ/センサ101によって記録される。いくつかの実施形態において、カメラは、赤外光に画像を記録可能なCCDカメラまたは任意のカメラであってもよい。さらなる実施形態に対して後述するように、カメラは、360°視野を有してもよく、またはモバイル機器に対して限定的な領域のみの画像を記録するために、限定的な視野を有してもよい。
ステップ201において記録される画像は、ビーコンを記録してもよい。ビーコンは、周囲の環境内の可視インジケータであってもよく、符号化された視覚情報を含んでもよい。実施形態において、ビーコンの符号化された視覚情報は、周囲の環境におけるビーコンのアイデンティティまたはビーコンの位置を示してもよい。さらなる実施形態に対して後述するように、これらのビーコンは、いくつかの形態で実装されてもよい。ビーコンは、何らかの符号化された視覚情報の可視インジケータを有してもよい。
ステップ202において、画像処理プロセッサ102は、画像を処理し、画像において検出された任意のビーコンに関する空間情報を決定する。視覚ビーコンが、符号化された視覚情報からなるため、画像処理プロセッサ102に対して容易に識別可能であってもよい。例えば、いくつかの実施形態において、ビーコンは、赤外光でのみ視認可能であってもよい。非赤外光と赤外光との画素コントラストが大きいため、ビーコンは、結果的に得られる画像において容易に検出可能であってもよい。これにより、ビーコンは、低レベル画像処理を用いて検出可能であるため、画像処理プロセッサ102に要求されるリソースが低減可能である。
さらに、ステップ202において、画像処理プロセッサ102は、画像に対するビーコンの空間情報を決定する。例えば、空間情報は、画像に対するビーコンのサイズ、ビーコンと画像において検出された任意のさらなるビーコンとの間の距離、および/または画像に対するビーコンの向きであってもよい。
画像における任意のビーコンに関する空間情報が決定された後、この方法は、ステップ203に進み、ステップ203において、モバイル機器の位置が、画像に対する少なくとも1つのビーコンの空間情報に基づいて決定される。1つの実施形態において、画像処理プロセッサ102は、空間情報に基づいて、モバイル機器の位置を計算する位置決定ユニット103に空間情報を送る。
いくつかの実施形態において、画像処理プロセッサ102は、ビーコンの符号化された視覚情報を復号し、ビーコンのアイデンティティを決定する。位置決定ユニット103は、ビーコンのこのアイデンティティと、メモリ104に格納されたビーコンの絶対位置とを整合可能である。ビーコンの絶対位置は、周囲の環境内でのビーコンの位置であり、画像に対するビーコンの位置に関係しうる空間情報とは異なる。ビーコンのこの絶対位置はまた、モバイル機器の位置を決定するために使用されてもよい。
あるいは、他の実施形態において、ビーコンの符号化された視覚情報は、ビーコンの明確な絶対位置を含んでもよい。換言すると、周囲の環境に対するビーコンの位置は、視覚情報に符号化されてもよい。次いで、画像処理プロセッサ102は、符号化された視覚情報を復号して、絶対位置を位置決定ユニット103に送ればよい。
図3は、いくつかの実施形態による、より詳細な方法を開示する。図3において、ステップ301において、カメラ/センサ101によって画像が記録される。これは、図2のステップ201に対応してもよい。次に、この方法は、ステップS302に進み、ステップS302において、画像処理プロセッサ102によって、画像内にビーコンが検出されるか否かが決定される。
ビーコンが検出されない場合には、この方法はステップ301に戻り、別の画像を記録する。ビーコンがまったく検出されない場合や、特定数未満のビーコンしか検出されない場合には、カメラの向きを変えるか、またはカメラが異なる視野を有するようにモバイル機器を移動させてもよいことを理解されたい。しかしながら、いくつかの実施形態において、周囲の環境全体にわたって、ビーコンは、カメラ/センサ101が常に視認可能なように分布されてもよい。また、複数のビーコンが検出される場合もあり、この方法は、特定数のビーコンが検出されるまで画像が再記録されてもよいことを理解されたい。また、ビーコンが検出されない場合には、モバイル機器は、追加のビーコンが検出されるまで現在の移動経路を進み続けてもよい。
ステップ302において、1つのビーコンまたは特定数のビーコンが検出された場合には、この方法は、左側の分岐のステップ303および304と、右側の分岐のステップ305と、に分割される。ステップ303において、画像処理プロセッサ102によって検出されたビーコンの符号化された視覚情報が復号される。符号化された視覚情報は、任意の適切な形態の符号化された視覚情報であってもよい。例えば、符号化された視覚情報は、画像処理プロセッサ102によって認識可能な視覚パターンであってもよい。あるいは、符号化された視覚情報は、一連のフラッシュまたは特定の形状であってもよい。
視覚情報は、ビーコンを識別するために画像処理プロセッサ102によって復号される。位置決定ユニット103は、該当するビーコンの復号された視覚情報に基づいて、ビーコンを識別する。位置決定ユニット103は、ステップ304において、ビーコンの絶対位置を決定してもよい。前述したように、これは、ビーコンのアイデンティティと、メモリ内のビーコンの絶対位置とを整合することによるものであってもよく、または画像処理プロセッサ102からビーコンの絶対位置を明確に受け取るだけでもよい。
ビーコンのアイデンティティおよびビーコンの絶対位置の決定は、ビーコンが画像内で検出されるたびに実行されてもよいことを理解されたい。あるいは、特定数までのビーコンのみが識別され、絶対位置が決定されてもよい。識別されるビーコンの数および決定される絶対位置は、モバイル機器の正確な位置情報の生成に必要なビーコンの数に対応してもよいことを理解されたい。
右側の分岐では、ステップ305において、記録された画像が画像処理プロセッサ102によって解析され、ビーコンの空間情報が画像に対して決定される。記述したように、これは、ビーコン間の距離、画像に対するビーコンのサイズなどであってもよい。ステップ306において、ステップ304からの識別されたビーコンの絶対位置と、ステップ305からの空間情報と、が組み合わされ、位置決定ユニット103は、モバイル機器の位置を決定する。左側の分岐と右側の分岐とは、完全に独立したものでなくてもよく、いくつかの実施形態において、ビーコンの空間情報が、ビーコンの絶対位置に基づいて決定されてもよいことを理解されたい。いくつかの実施形態において、ステップ303、304および305は、連続して実行されてもよい。
いくつかの実施形態において、画像内でのビーコンの空間関係を決定し、かつ任意の符号化された情報を復号するために、画像が処理されることを理解されたい。したがって、いくつかの実施形態では、ビーコンの絶対位置とともに、画像から、ロボットまたはモバイル機器からのビーコンの距離が決定されてもよい。
図4は、本願の特定の実施形態によるビーコンを取り入れた環境内でのロボットまたはモバイル機器の位置の空間図を示し、モバイル機器によって記録された、対応する画像および空間計算を示す。
図4には、3つの状況が示される。環境401では、ロボット480は、部屋の中央に位置する。環境402では、ロボット480は、部屋の前方に向かう。環境403では、ロボット480は、部屋の右上隅に向かう。環境401、402、403の各々において、ビーコン490は、環境401、402、403の4辺の境界線の各々に配置される。本実施形態において、ロボット480は、カメラ/センサ101が360度の視野を有するように、上方向を向いたカメラ/センサ101を有する。ビーコン490は、天井の縁部に配置されてもよい。カメラは、いくつかのさらなる実施形態に関して記述されるように、位置に制約されるものではないことを理解されたい。
画像404、405、および406は、環境401、402、および403におけるロボットの位置に対してロボット480のカメラ/センサ101によって撮影されたものであってもよい画像を表す。この特定の実施形態の機能については、図5を参照して説明する。図5は、本願の第1の実施形態において実行可能な方法のステップの一例を示す。
ロボット480が、環境401、402、403の任意の環境における位置の決定を試みる場合には、ロボットは、図5のステップ501において画像を記録する。このステップは、ステップ201または301に対応してもよい。画像が記録されると、ステップ502に従って、画像にビーコンが存在するか否かが決定される。このステップは、ステップ302に対応してもよい。ビーコンが検出されない場合には、この方法は、ステップ501に戻る。しかしながら、このステップは、ビーコンがカメラ/センサ101が常に視認可能であるように分布可能であるので、必須ではないことを理解されたい。あるいは、画像は、特定数のビーコンが画像に検出されるまで、再記録されてもよい。
図4の環境401において、ロボット480によって記録された画像404において、4つのすべてのビーコンが、視認可能であり、且つ、ロボット480が環境401の中央にいるときに等距離の空間関係を有することは明らかである。画像405において、ロボット480は環境402の底部付近に存在し、底部ビーコン490が、画像404より大きく、且つ、残りの3つのセンサから間隔が空けられて表示される。画像406において、ロボット480は、環境406の右上側の隅に存在し、上側のビーコンと右側のビーコンが、底側のビーコン490と左側のビーコン490より大きく、ロボット480の付近に表示される。これらの画像は一例にすぎず、画像処理回路が、図示するようなこれらの画像を示すものでなくてもよいことを理解されたい。
図5の方法に戻ると、画像にビーコンが検出されると、この方法は2つの分岐に分かれる。左側の分岐は、ステップ503を含み、ステップ503において、画像処理回路102、103が互いに対してビーコンの位置を決定する。これは、ステップ202および/または305に対応してもよい。互いに対するビーコンの位置は、図4の破線407に見て取れる。
次に、この方法は、ステップ504に進み、ステップ504において、各ビーコン490に対するロボット480の距離を計算するために、破線407で決定されるようなビーコンの相対位置が使用される。これは、ステップ203および/または305に対応してもよい。
図5の右側の分岐のステップ505は、ビーコンの符号化された視覚情報を復号することによってビーコンを識別する。一例によれば、ビーコンは、赤外発光ダイオード(LED)ビーコンであってもよく、符号化された視覚情報は、特定の周波数パターンに応じた一連のフラッシュである。このタイプの情報は、低レベル画像処理を用いて画像処理プロセッサ102によって識別可能である。しかしながら、本実施形態によれば、他の符号化された視覚情報を有する他のタイプのビーコンが使用されてもよいことを理解されたい。例えば、他のスペクトルで発光するビーコンが使用されてもよく、あるいは、光スペクトルの範囲で視認可能な(発光しない)受動ビーコンが使用されてもよい。さらに、ビーコンは、LEDビーコンである必要はないが、他の光源を含んでもよい。
ビーコンが識別されると、この方法は、ステップ506に進み、ステップ506において、各ビーコンのアイデンティティが、メモリ104内の絶対位置に対応するアイデンティティと整合される。次に、この方法は、ステップ507に進み、ステップ507において、ビーコンの相対位置および絶対位置が、位置決定ユニット103に送られ、その後、位置決定ユニット103が、識別されたビーコンに対するロボット480の位置と、符号化された視覚情報によって与えられたビーコンの絶対位置とに基づいて、ロボット480の位置を三角測量する。
図5は、ロボットの位置を決定するために使用可能な処理ステップの一例を与えることを理解されたい。いくつかの実施形態において、ステップ504の決定は、破線508で示すようなビーコンの絶対位置を受け取ってもよい。図4は、環境404における4つのビーコンを示すが、位置を三角測量するために必要なビーコンの数は3つのみであってもよいことを理解されたい。実施形態において、より多くの数またはより少ない数のビーコンが使用されてもよい。
上記実施形態は、360度の視野を有するカメラ/センサ101に関して記載してきた。1つの別の態様において、カメラ/センサ101は、周囲の環境の部分視野を有してもよい。本実施形態において、ロボットまたはモバイル機器に対して、環境にあるビーコンのすべてが一度に視認可能でない場合もある。図6は、この部分視野の実施形態によるロボットの空中図を示す。
図6において、ロボット680の視野は、特定の角度に制約されてもよい。これにより、各向きまたは位置の範囲に対してロボット680がビーコンA〜Lの特定の組み合わせのみを視認可能となるように、環境601、602、および603の周囲にビーコンA〜Lを分布させることができる。本実施形態において、ロボット680は、ビーコンの組み合わせが特定の向きおよび位置範囲にマッピングされるように見えるビーコンのアイデンティティにのみ基づいて、ロボット680の位置を決定可能である。本実施形態は、安価なモバイル機器が要求され、低精度でよいシステムに特に適用可能である。
ロボット680は、周囲の環境の画像を記録することによって位置を決定してもよく、画像内で検出しているビーコンのアイデンティティと、メモリ104内のロボット680の位置とを整合してもよい。メモリ104は、これらのビーコンの可視性に対応するロボット680の位置および向きにマッピングされたビーコンのアイデンティティの組み合わせを含んでもよい。また、ロボット680は、より高精度に位置を決定するために、記録された画像に応じた空間情報に基づいて、ビーコンからの距離を決定してもよい。
図6には、さまざまな位置のロボット680を有する環境601、602、および603が示される。環境601において、ロボット680の向きは上向きであるため、ビーコンAおよびBのみしか視認できない。環境602において、ロボットは、ビーコンCおよびDしか視認できない方向を向く。環境603において、ロボット680は、ビーコンKしか視認できない方向を向く。本実施形態において、与えられるビーコンの数は、ロボット680が視認可能なビーコンの各固有の組み合わせに対してロボット680の位置の範囲に対応したものでなければならない。また、いくつかの実施形態において、位置の範囲内におけるロボット680の位置は、画像に現れるビーコンの相対サイズ、ならびに画像内のビーコンの向きおよび位置によって、計算されてもよい。
上記実施形態において、ロボットの位置は、画像内のビーコンの相対位置を用いて決定されてもよい。このようにして、画像解析が、ロボット480、680の位置を画素内に分割可能であってもよい。したがって、ロボット480、680の位置の精度は、使用されるカメラまたはセンサの解像度に依存してもよい。
上述した実施形態において、ロボットは、移動しながら自らの位置を決定可能であってもよい。この場合には、例えば、ステップ201、301、および501において記録された画像は、カメラ/センサ101の短時間露光で記録されてもよい。いくつかの実施形態において、ビーコンは、同時発光を保証するために同期されてもよい。いくつかの実施形態において、ロボット480、680は、移動する前に、各ビーコンのアイデンティティを決定し、その後、ビーコンの既知のアイデンティティと、移動中に撮られたさらなる画像におけるビーコンの相対位置と、に基づいて、移動中の自らの位置を検出する。
上記実施形態において、ビーコンを識別する視覚情報を有するビーコンについて説明した。いくつかの実施形態において、ビーコンは、ビーコンの位置にある充電ステーションの指示や、ロボットを特定の位置に戻す指示などの、さらなる情報を有していてもよい。この情報は、ビーコンのアイデンティティに加えて、符号化された情報によって与えられてもよい。例えば、アイデンティティは、ビーコンの位置と、その周辺での充電ステーションの指示と、を決定するために、メモリ104において相互参照されてもよい。
いくつかの実施形態において、ロボット480、680はまた、ナビゲーションシステムが最初に設置または拡張されるときに、建物内のビーコン位置をマッピング可能であってもよい。実施形態において、システムが設置されるときに、ビーコンのアイデンティティに対応するビーコンの絶対位置は、メモリ104内にマッピングされる必要がある場合もある。このマッピングを提供することを目的として、画像からビーコンの空間情報を決定するために、モバイル機器が使用されてもよい。例えば、モバイル機器は、画像からビーコンとロボットとの間の空間関係を決定してもよい。モバイル機器は、自らの絶対位置を認識してもよい。
次に、モバイル機器は、モバイル機器に既知の所定の距離を移動し、第2の位置から撮影された画像内のビーコンの空間情報を決定してもよい。この空間情報から、モバイル機器は、環境におけるビーコンの絶対位置を決定してもよい。
いくつかの実施形態において、モバイル機器は、メモリ104内のビーコンのアイデンティティとともに、ビーコンの絶対位置を格納してもよい。いくつかの実施形態において、モバイル機器は、ビーコンの絶対位置をビーコンに送信してもよい。次に、ビーコンは、符号化された視覚情報で位置を送信してもよい。
モバイル機器がこのようにして環境をマッピングすると、環境に追加された任意の新しいビーコンが、決定された絶対位置を有してもよい。いくつかの実施形態において、モバイル機器は、分配されるべきメモリ104からの情報を、システムの他のモバイル機器にアップロード可能である。いくつかの実施形態において、モバイル機器は、有益なものとして、あるビーコンの位置、例えば、充電ポイントの位置を識別し、他のモバイル機器がその位置を認識できるように、この分配されるべき情報をアップロードしてもよい。
前述したように、ビーコンは、いくつかの形態を取ってもよい。本願のさらなる実施形態によれば、ビーコンの形態は、バーコードの形態であってもよい。いくつかの実施形態において、バーコードは、赤外光でのみ視認可能なものであってもよい。図7は、本願の実施形態においてビーコンとして使用可能なバーコードの一例を示す。バーコード701は、第1のインジケータ702と、第2のインジケータ704と、これらの2つのインジケータの間にあるバーコード703とを含む。図8は、図7のようなバーコードに関連する実施形態を実行するための方法図を示す。
図8のステップ801において、カメラ/センサ101は、通常の光で第1の画像を記録する。この方法は、ステップ802に進み、ステップ802において、カメラ/センサ101が、赤外光を使用して第2の画像を記録する。いくつかの実施形態において、ロボットが、画像が記録されるときに赤外光のフラッシュを与えてもよい。ステップ803において、画像処理プロセッサ102は、画像の任意のインジケータが識別可能か否かを決定するために、第1の画像と第2の画像とを比較する。実施形態において、画像処理プロセッサ102は、第2の画像にある可能性のあるインジケータ(潜在的なインジケータ)が、第1の画像に存在しないか否かを決定する。潜在的なインジケータが第2の画像にのみ存在する場合には、赤外インジケータとして識別されてもよい。インジケータ702、704は、画像処理プロセッサ102によって容易に識別可能であり、好ましくは、バーコード703より容易に識別可能な形状であってもよい。次に、この方法は、ステップ804に進み、ステップ804において、インジケータ702、704が画像に存在するか否かが決定される。
インジケータが存在しない場合には、この方法は、ステップ801に戻り、ステップ801において、ロボットが、通常の光で別の画像の記録を試み、この方法は、ステップ801〜804を繰り返す。前述したように、バーコードの分配は、ロボットがバーコードを常に視認できるようなものであってもよい。あるいは、ロボットは、追加の画像の記録を試みる前に、ある距離だけ進んでもよい。
インジケータが存在することが決定された場合には、この方法は、ステップ806に進み、ステップ806において、画像の空間情報が決定される。いくつかの実施形態において、空間情報は、画像に対するインジケータ702、704の位置、画像に対するインジケータ702および704の向き、および/またはインジケータ間の領域を決定する情報を含んでもよい。それに加えて、またはその代わりに、画像に関連するインジケータのサイズが決定されてもよい。いくつかの実施形態において、ビーコン701は、環境の天井または床に配置される。これらの実施形態において、ビーコンがカメラ/センサ101から所定の距離にある場合があるため、インジケータ702および704のサイズが決定される必要はない。実施形態において、インジケータ702および703が同一であってもよく、あるいは、インジケータが固有に識別され、向きが決定可能なように、インジケータ702および703が互いに異なってもよい。
ステップ806において、バーコード703が読み取られる。いくつかの実施形態において、画像処理ユニットは、ステップ806で決定されたように、インジケータ702とインジケータ704との間の空間にあるバーコード703を探してもよい。バーコード703が読み取られると、ビーコン701の絶対位置を決定するために、読み取られたバーコード703は、メモリ104内の位置に対してバーコード703を整合する位置決定ユニット103に送られる。このようなメモリ104における整合は、上記実施形態と同様に実行されてもよい。あるいは、バーコード703は、バーコード703自体の位置を明確に含んでもよい。
次に、この方法は、ステップ808に進み、ステップ808において、ステップ806で決定されたインジケータ702および704の任意の空間情報と、ステップ807で決定されたバーコード703の絶対位置と、がロボットの絶対位置および向きを決定するために使用される。
実施形態において、ステップ806において決定されるインジケータ702および704の相対位置は、周囲の環境に対するビーコン703の既知の向きに対して整合されてもよい。この整合により、ロボットに対するバーコード703の向き、ひいては、環境に対するロボットの向きが得られる。
いくつかの実施形態において、ビーコン701は、赤外光で現れる反射印刷付きのラベルに印刷されてもよい。いくつかの実施形態において、2つのバーコードが、記録された画像に視認される場合には、画像処理回路は、可視インジケータ間のバーコードを検出し、または検出を試みる。この場合には、画像処理プロセッサ102は、各バーコードのドット間のバーコードの検出を試みる。少なくとも1つのバーコード703が検出されると、図8の方法が継続する。
この特定の説明は、例示的な実施形態を記載するものであり、限定的なものではないことを理解されたい。他の実施形態は、添付の特許請求の範囲から逸脱することなく、当業者が考えられるものであろう。例えば、以下の特徴は明らかであろう。
図1において、画像処理プロセッサ102および位置決定ユニット103は、別のユニットとして示されるが、プロセッサによって提供可能であることを理解されたい。
前述した説明では、ビーコンを、符号化された視覚情報を有する視覚インジケータとして説明した。特定の例が、赤外ビーコンまたは赤外光で視認可能なビーコンに関係するが、実施形態は、通常の光または他の光スペクトルで視認可能なビーコンに適用可能であってもよいことを理解されたい。
また、前述した説明の方法ステップは、記載した順序に限定されるものではないことを理解されたい。例えば、ビーコンは、ビーコンについて空間情報が計算された後に、識別され、および/または、空間情報の計算およびビーコンのアイデンティティが、並列に計算されてもよく、または順番に行われてもよい。また、これらの方法は、追加のステップを除外するものとして説明されていないことを理解されたい。
本明細書を通して、ロボットまたはモバイルデバイスに関して参照された。これらの用語は、同一の対象物を参照するために使用されてもよく、独自の制御下で移動可能な任意の機器に適用されることを理解されたい。また、実施形態は、同じ環境において動作する異なる機器に適用されてもよい。例えば、オフォスの郵便配達ロボットが、自動掃除機と同じナビゲーション用ビーコンを使用してもよい。
前述した説明は、ロボットなどのモバイル機器への本発明の適用可能性について説明するが、実施形態は、ナビゲーションシステムとして、環境に対して移動するナビゲーションを要する任意の実体に適用されてもよいことを理解されたい。また、実施形態は、可動実体に対してモバイル環境内の固定された可動実体に適用されてもよく、例えば、工場の床の正確な位置にビーコン付きのクレートを配置するなどの応用に適用されてもよいことを理解されたい。
あるいは、実施形態は、別々の実体を制御しながら移動してもよいが、ナビゲーションに使用されるべき実体に位置を報告可能である機器に適用される。これらの実施形態において、カメラ/センサ100は、画像処理プロセッサ102に対して遠隔にあってもよく、画像を送信またはアップロードしてもよい。
また、図1〜図3に関連して説明したような実施形態が、特定の例およびそれらの代替例を参照しながら、図4、図5、および図6、ならびに図7および図8に関連して説明した実施形態とともに、本明細書において開示されたすべての実施形態に適用可能であってもよいことを理解されたい。
実施形態は、ビーコンのアイデンティティとメモリ104内の位置との整合を参照する。これは、任意の適切な方法で実行されてもよいことを理解されたい。例えば、メモリは、位置およびビーコンのアイデンティティの対応する項目を有する表を含んでもよい。あるいは、メモリは、リンクされたリストまたは他の適切な構成を含んでもよい。
実施形態は、倉庫車両の自動化、自動芝刈り機、自動掃除機、模型飛行機の誘導、および自動充電ポイントのドッキングおよび任意の適切なアプリケーション、などのアプリケーションに容易に組み込み可能である。
本願は、特定の非制限的な例を参照することによって本明細書で説明される。当業者であれば、1つの例で本願の一般的な応用可能性を理解するであろう。本願によって得られる保護の範囲は、添付の特許請求の範囲によって特定される。

Claims (13)

  1. モバイル機器のナビゲーション方法であって、
    通常の光でビーコンの第1の画像を記録し、赤外光で前記ビーコンの第2の画像を記録するステップと、
    前記第1の画像と前記第2の画像とを比較し、2つの赤外インジケータが前記第2の画像にのみ存在するか否かを決定するステップと、
    信号処理を実行し、前記2つの赤外インジケータ間のバーコードを検出するステップと、
    前記バーコードを読み取るステップと、
    を含む方法。
  2. 前記バーコードに基づいて、前記モバイル機器の位置を決定するステップをさらに含む、請求項1に記載の方法。
  3. 前記2つの赤外インジケータが、前記モバイル機器に対する前記バーコードの向きを示し、前記バーコードの格納された向きと、前記モバイル機器に対する前記バーコードの向きとを比較し、前記モバイル機器の向きを決定する、請求項1または2に記載の方法。
  4. モバイル機器のナビゲーション方法であって、
    画像において検出された少なくとも1つのビーコンの空間情報を、前記画像に対して決定するステップであり、前記ビーコンが、2つのインジケータ間に赤外光でのみ視認可能なバーコードを含み、前記バーコードが、符号化された視覚情報を含む、ステップと、
    通常の光で前記ビーコンの第1の画像を記録し、赤外光で前記ビーコンの第2の画像を記録するステップであり、前記第1の画像と前記第2の画像とを比較し、前記2つのインジケータが前記第2の画像にのみ存在するか否かを決定する、ステップと、
    画像処理を実行し、前記2つのインジケータ間のバーコードを検出するステップと、
    前記空間情報に基づいて、前記モバイル機器の位置を決定するステップと、を含み、
    前記空間情報を決定するステップが、前記符号化された視覚情報に基づいたものであり、前記画像が、前記モバイル機器の周囲の環境の少なくとも一部の前記少なくとも1つのビーコンの画像を含む方法。
  5. 前記2つのインジケータが、前記モバイル機器に対する前記バーコードの向きを示し、前記バーコードの格納された向きと、前記モバイル機器に対する前記向きとを比較し、前記モバイル機器の向きを決定する、請求項4に記載の方法。
  6. 環境に対する前記少なくとも1つのビーコンの位置を示す前記符号化された視覚情報に基づいて、前記画像内の前記少なくとも1つのビーコンを検出するステップをさらに含む、請求項4に記載の方法。
  7. 前記空間情報に基づいて、前記画像に対する前記少なくとも1つのビーコンの位置を決定するステップと、
    前記符号化された視覚情報に基づいて、前記環境に対する前記少なくとも1つのビーコンの位置を決定するステップと、をさらに含む、請求項6に記載の方法。
  8. 前記モバイル機器の位置を決定するステップが、前記モバイル機器の絶対位置および向きを決定するステップを含む、請求項6または7に記載の方法。
  9. 前記符号化された視覚情報が、前記ビーコンのアイデンティティを示す、請求項1乃至8のいずれか一項に記載の方法。
  10. 前記ビーコンの前記アイデンティティと、前記モバイルデバイスのメモリに格納された環境に対する前記ビーコンの位置と、を整合するステップをさらに含む、請求項9に記載の方法。
  11. 空間特性が、前記画像に対する前記ビーコンの向きにさらに対応する、請求項1乃至10のいずれか一項に記載の方法。
  12. 画像において検出された少なくとも1つのビーコンの空間情報を、前記画像に対して決定する決定手段であり、前記ビーコンが、2つのインジケータ間に赤外光でのみ視認可能なバーコードを含み、前記バーコードは、符号化された視覚情報を含む、決定手段と、
    通常の光で前記ビーコンの第1の画像を記録し、赤外光で前記ビーコンの第2の画像を記録する記録手段であり、前記第1の画像と前記第2の画像とを比較し、前記2つのインジケータが前記第2の画像にのみ存在するか否かを決定する、記録手段と、
    画像処理を実行し、前記2つのインジケータ間のバーコードを検出する画像処理手段と、
    前記空間情報に基づいて、前記モバイル機器の位置を決定する決定手段と、を備え、
    前記空間情報を決定するステップが、前記符号化された視覚情報に基づいたものであり、前記画像が、前記モバイル機器の周囲の環境の少なくとも一部の前記少なくとも1つのビーコンの画像を含む、装置。
  13. コンピュータ命令を含むコンピュータ読み取り可能な記憶媒体であって、
    画像において検出された少なくとも1つのビーコンの空間情報を、前記画像に対して決定する命令であり、前記ビーコンが、2つのインジケータ間に赤外光でのみ視認可能なバーコードを含み、前記バーコードが、符号化された視覚情報を含む、命令と、
    通常の光で前記ビーコンの第1の画像を記録し、赤外光で前記ビーコンの第2の画像を記録し、前記第1の画像と前記第2の画像とを比較し、前記2つのインジケータが前記第2の画像にのみ存在するか否かを決定する、命令と、
    画像処理を実行し、前記2つのインジケータ間のバーコードを検出する命令と、
    前記空間情報に基づいて、前記モバイル機器の位置を決定する命令と、を含み、
    前記空間情報を決定する命令が、前記符号化された視覚情報に基づいたものであり、前記画像が、前記モバイル機器の周囲の環境の少なくとも一部の前記少なくとも1つのビーコンの画像を含む、記憶媒体。
JP2011222083A 2010-10-06 2011-10-06 モバイル機器のナビゲーション Pending JP2012084149A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1016820.1 2010-10-06
GB1016820.1A GB2484316A (en) 2010-10-06 2010-10-06 Self navigation of mobile devices

Publications (1)

Publication Number Publication Date
JP2012084149A true JP2012084149A (ja) 2012-04-26

Family

ID=43243595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011222083A Pending JP2012084149A (ja) 2010-10-06 2011-10-06 モバイル機器のナビゲーション

Country Status (4)

Country Link
US (1) US8807428B2 (ja)
EP (1) EP2439605A3 (ja)
JP (1) JP2012084149A (ja)
GB (1) GB2484316A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019504300A (ja) * 2016-06-22 2019-02-14 平安科技(深▲せん▼)有限公司 ポータブル端末による室内ナビゲーション方法、ポータブル端末及び記憶媒体
JP2021170358A (ja) * 2015-11-05 2021-10-28 ウーバー テクノロジーズ,インコーポレイテッド 精密な自律的配達のための協働システムおよび方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8285475B2 (en) * 2007-03-02 2012-10-09 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Combined beacon and scene navigation system
KR101366860B1 (ko) * 2011-09-20 2014-02-21 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
US9471824B2 (en) * 2013-07-12 2016-10-18 Qualcomm Incorporated Embedded barcodes for displaying context relevant information
US10157189B1 (en) 2014-04-09 2018-12-18 Vortex Intellectual Property Holding LLC Method and computer program for providing location data to mobile devices
US9418284B1 (en) 2014-04-09 2016-08-16 Vortex Intellectual Property Holding LLC Method, system and computer program for locating mobile devices based on imaging
US10735902B1 (en) 2014-04-09 2020-08-04 Accuware, Inc. Method and computer program for taking action based on determined movement path of mobile devices
US9911190B1 (en) 2014-04-09 2018-03-06 Vortex Intellectual Property Holding LLC Method and computer program for generating a database for use in locating mobile devices based on imaging
US11126193B2 (en) 2014-06-19 2021-09-21 Husqvarna Ab Automatic beacon position determination
US9510505B2 (en) * 2014-10-10 2016-12-06 Irobot Corporation Autonomous robot localization
EP3275254B1 (en) 2015-03-27 2019-02-13 PCMS Holdings, Inc. System and method for indoor localization using beacons
CN104931057B (zh) * 2015-07-02 2018-07-27 深圳乐动机器人有限公司 一种机器人的任意位置定位方法、装置及系统
US10484847B2 (en) 2016-09-13 2019-11-19 Hand Held Products, Inc. Methods for provisioning a wireless beacon
CN108731677B (zh) * 2017-04-17 2020-10-02 哈工大机器人集团股份有限公司 一种机器人导航路标及识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250626A (ja) * 1999-02-25 2000-09-14 Samsung Electronics Co Ltd 無人搬送車の位置補正方法及び位置補正装置
JP2005070043A (ja) * 2003-08-20 2005-03-17 Samsung Electronics Co Ltd 人工マークを利用した知能型システムの自己位置認識装置及び方法、並びにそれを利用した知能型システム
JP2007163367A (ja) * 2005-12-15 2007-06-28 Nippon Hoso Kyokai <Nhk> カメラ情報解析装置
JP2010521733A (ja) * 2007-03-13 2010-06-24 リサーチ インスティチュート オブ インダストリアル サイエンス アンド テクノロジー 移動ロボットの位置認識用ランドマーク、並びにこれを利用した位置認識装置及び方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1271241B (it) * 1994-10-04 1997-05-27 Consorzio Telerobot Sistema di navigazione per robot mobile autonomo
GB2325807B (en) * 1997-05-30 2002-03-20 British Broadcasting Corp Position determination
KR100485696B1 (ko) * 2003-02-07 2005-04-28 삼성광주전자 주식회사 로봇청소기의 위치인식표지 검출방법 및 이 검출방법을적용한 로봇청소기
JP2004298977A (ja) * 2003-03-28 2004-10-28 Sony Corp 行動制御装置、行動制御方法及び行動制御プログラム、並びに移動型ロボット装置
WO2005092632A1 (en) * 2004-03-27 2005-10-06 Microrobot Co., Ltd. Navigation system for position self control robot and floor materials for providing absolute coordinates used thereof
US7593593B2 (en) * 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US7845560B2 (en) * 2004-12-14 2010-12-07 Sky-Trax Incorporated Method and apparatus for determining position and rotational orientation of an object
US7634336B2 (en) * 2005-12-08 2009-12-15 Electronics And Telecommunications Research Institute Localization system and method of mobile robot based on camera and landmarks
US7739034B2 (en) * 2007-04-17 2010-06-15 Itt Manufacturing Enterprises, Inc. Landmark navigation for vehicles using blinking optical beacons
GB0802444D0 (en) * 2008-02-09 2008-03-19 Trw Ltd Navigational device for a vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250626A (ja) * 1999-02-25 2000-09-14 Samsung Electronics Co Ltd 無人搬送車の位置補正方法及び位置補正装置
JP2005070043A (ja) * 2003-08-20 2005-03-17 Samsung Electronics Co Ltd 人工マークを利用した知能型システムの自己位置認識装置及び方法、並びにそれを利用した知能型システム
JP2007163367A (ja) * 2005-12-15 2007-06-28 Nippon Hoso Kyokai <Nhk> カメラ情報解析装置
JP2010521733A (ja) * 2007-03-13 2010-06-24 リサーチ インスティチュート オブ インダストリアル サイエンス アンド テクノロジー 移動ロボットの位置認識用ランドマーク、並びにこれを利用した位置認識装置及び方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021170358A (ja) * 2015-11-05 2021-10-28 ウーバー テクノロジーズ,インコーポレイテッド 精密な自律的配達のための協働システムおよび方法
JP7308884B2 (ja) 2015-11-05 2023-07-14 ウーバー テクノロジーズ,インコーポレイテッド 精密な自律的配達のための協働システムおよび方法
JP2019504300A (ja) * 2016-06-22 2019-02-14 平安科技(深▲せん▼)有限公司 ポータブル端末による室内ナビゲーション方法、ポータブル端末及び記憶媒体
KR20190019893A (ko) * 2016-06-22 2019-02-27 핑안 테크놀로지 (션젼) 컴퍼니 리미티드 핸드헬드 단말기의 실내 내비게이션 방법, 핸드헬드 단말기 및 저장매체
KR102120966B1 (ko) * 2016-06-22 2020-06-10 핑안 테크놀로지 (션젼) 컴퍼니 리미티드 핸드헬드 단말기의 실내 내비게이션 방법, 핸드헬드 단말기 및 저장매체

Also Published As

Publication number Publication date
GB2484316A (en) 2012-04-11
US8807428B2 (en) 2014-08-19
GB201016820D0 (en) 2010-11-17
EP2439605A3 (en) 2016-01-27
EP2439605A2 (en) 2012-04-11
US20120085820A1 (en) 2012-04-12

Similar Documents

Publication Publication Date Title
JP2012084149A (ja) モバイル機器のナビゲーション
US9587948B2 (en) Method for determining the absolute position of a mobile unit, and mobile unit
US10949798B2 (en) Multimodal localization and mapping for a mobile automation apparatus
JP7082545B2 (ja) 情報処理方法、情報処理装置およびプログラム
US9625912B2 (en) Methods and systems for mobile-agent navigation
KR100785784B1 (ko) 인공표식과 오도메트리를 결합한 실시간 위치산출 시스템및 방법
EP2017573B1 (en) Estimation device, estimation method and estimation program for estimating a position of mobile unit
US11614743B2 (en) System and method for navigating a sensor-equipped mobile platform through an environment to a destination
US20160062359A1 (en) Methods and Systems for Mobile-Agent Navigation
RU2013154046A (ru) Способ и система для совместного использования информации карт, связанной с автоматическими промышленными транспортными средствами
EP2825841A1 (en) Method, device and computer programme for extracting information about one or more spatial objects
CN108022265B (zh) 红外相机位姿确定方法、设备及系统
US20100265327A1 (en) System for recording Surroundings
US11835960B2 (en) System and method for semantically identifying one or more of an object and a location in a robotic environment
CN110174092A (zh) 一种基于红外编码靶标的密集集群相对定位方法
Pinto et al. Indoor localization system based on artificial landmarks and monocular vision
CN111552297B (zh) 导航方法及导航装置
KR102174729B1 (ko) 랜드마크를 활용한 주행차로 인식 방법 및 시스템
Wei et al. An approach to navigation for the humanoid robot nao in domestic environments
CN115951662A (zh) 导航方法、导航装置及移动载体
US11662739B2 (en) Method, system and apparatus for adaptive ceiling-based localization
Araar et al. Towards Low-Cost Indoor Localisation Using a Multi-camera System
JP7273696B2 (ja) 位置推定装置及びシステム
US20240127471A1 (en) Information processing apparatus, information processing system, information processing method, and recording medium
CN117570977A (zh) 机器人的定位方法、定位装置、机器人及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140912

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20141202

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160628