JP2013130911A - 位置特定装置 - Google Patents

位置特定装置 Download PDF

Info

Publication number
JP2013130911A
JP2013130911A JP2011277975A JP2011277975A JP2013130911A JP 2013130911 A JP2013130911 A JP 2013130911A JP 2011277975 A JP2011277975 A JP 2011277975A JP 2011277975 A JP2011277975 A JP 2011277975A JP 2013130911 A JP2013130911 A JP 2013130911A
Authority
JP
Japan
Prior art keywords
display device
moving body
output
input unit
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011277975A
Other languages
English (en)
Inventor
Yutaka Takaoka
豊 高岡
Atsushi Tsutsumi
敦司 堤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2011277975A priority Critical patent/JP2013130911A/ja
Publication of JP2013130911A publication Critical patent/JP2013130911A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】簡便な方法によって移動体の自己位置を算出すること。
【解決手段】位置特定装置100は、制御信号に基づいて第1及び第2の出力方法で出力を行う表示装置2と、制御信号を生成して前記表示装置に送信する制御部12と、表示装置2による第1及び第2の出力を取得する入力部11と、表示装置2を含む周囲の環境を地図情報として記憶する地図情報記憶部14と、を有する移動体1と、を備える。移動体1は、入力部11が表示装置2による第1の出力を取得することで、表示装置2の存在を認識及び/又は存在する方向の識別を行い、制御部12は表示装置2に第2の出力方法で出力させ、入力部11が表示装置2による第2の出力を取得することで表示装置2から移動体1までの相対位置を算出し、算出された相対位置と、地図情報記憶部14が有する地図情報に基づいて、移動体1の位置を特定する。
【選択図】図1

Description

本発明は、移動体の位置特定装置に関する。
近年、周囲の環境を認識し、自走する移動体の開発が進められている。例えば移動体は、移動体に搭載した視覚センサーにより周囲の環境内に配置された2次元マーカーを認識し、その結果をあらかじめ用意した環境データと照合することにより自己位置を推定して走行する。
特許文献1には、幾何学形状の組み合わせ及び/又は色の組み合わせを用いてパターン化情報を表記する情報表示部材について記載されている。これによると、パターン化情報を撮像することにより、情報表示部材との間の距離を測定する。
特許文献2には、未知空間に置いて自己位置を取得する無人車両について記載されている。無人車両は、搭載したステレオカメラを用いて撮影した画像から、ドア、コーナー、照明、換気口を認識し、これをランドマークとみなす。
特許文献3には、位置検出手段があらかじめ記憶された天井面を検出した画像と、撮影装置を用いて撮影した画像から抽出した天井面の画像とを比較して、位置を検出する移動体が記載されている。
特許文献4には、映写装置により指示対象物に投影された映像パターンを、画像取得部により取得する自走式ロボットについて記載されている。自走式ロボットは、取得した映像パターンに基づいて、指示対象物を特定する。
特許文献5には、複数のパーティクルに基づいて、自己位置を推定する移動体の位置推定方法について記載されている。
特開2001−118187号公報 特開2011−039968号公報 特開2004−133567号公報 特開2009−129058号公報 特開2010−224755号公報
移動体に搭載した視覚センサーによる計測結果と、事前に用意した環境データとを照合することにより行う自己位置推定では、以前の推定自己位置と駆動系から出力される移動量から得られる位置の周囲にいることを前提としているため、車輪のスリップや、環境変化による自己位置誤差により、自己位置を見失う(ロスト)問題が発生する場合がある。このようなロストが発生した場合や、部屋の模様替えを行う場合などには、マーカーを認識しやすい位置にランドマークを再設置、再設定する必要がある。
本発明に係る位置特定装置は、制御信号に基づいて第1及び第2の出力方法で出力を行う表示装置と、前記制御信号を生成して前記表示装置に送信する制御部と、前記表示装置による第1及び第2の出力を取得する入力部と、前記表示装置を含む周囲の環境を地図情報として記憶する地図情報記憶部と、を有する移動体と、を備える位置特定装置であって、前記移動体は、前記入力部が前記表示装置による第1の出力を取得することで、前記表示装置の存在を認識及び/又は存在する方向の識別を行い、前記制御部は前記表示装置に第2の出力方法で出力させ、前記入力部が前記表示装置による第2の出力を取得することで前記表示装置から前記移動体までの相対位置を算出し、算出された相対位置と、前記地図情報記憶部が有する地図情報に基づいて、前記移動体の位置を特定する。
これにより、ロストが発生した場合や部屋の模様替えによる、ランドマークの再設置、再設定の手間を省くことができる。
簡便な方法によって、移動体の自己位置を算出することができる。
実施の形態1にかかる位置特定装置の構成図である。 実施の形態1にかかる移動体と表示装置の位置関係を示す図である。 実施の形態1にかかる表示装置により表示されたマーカーの一例を示す図である。 実施の形態1にかかる移動体の位置を特定するフローチャートである。 実施の形態2にかかる位置特定装置の構成図である。 実施の形態2にかかる移動体の位置を特定するフローチャートである。 実施の形態3にかかる位置特定装置の構成図である。 実施の形態3にかかる移動体の位置を特定するフローチャートである。 実施の形態4にかかる表示装置からの視界を表した図である。
実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。図1は、位置特定装置100の構成を示した図である。位置特定装置100は、移動体1と表示装置2を備える。また図2は、移動体1と表示装置2が室内に存在している場合の一例である。
移動体1は、入力部11と、制御部12と、演算部13と、地図情報記憶部14と、駆動部15と、を備える。
入力部11は、映像入力部11aを備える。映像入力部11aは、制御部12による制御に基づいて、移動体1の周囲の環境を撮影する。言い換えると、映像入力部11aは周囲の環境の映像を入力する。例えば映像入力部11aは、ステレオカメラである。また映像入力部11aは、表示装置2に表示された特定の映像を撮影する。図2において、映像入力部11aが表示装置2を撮影する場合の撮影領域が破線で示されている。
制御部12は、表示装置2に表示させる映像の種類を制御する。例えば、制御部12から表示装置2に制御信号を送信することで、表示装置2に記憶された映像を表示する制御を行う。また制御部12は、演算部13による演算結果に基づいて駆動部15を駆動させ、移動体1の動作を制御する。
演算部13は、映像入力部11aにより取得された画像を処理することで、移動体1の位置を推定する。より具体的には演算部13は、表示装置2に表示された特定の映像に基づいて、移動体1と表示装置2との相対位置p1を算出する。さらに演算部13は、表示装置2から見た移動体1の相対位置p1と、地図情報記憶部14に記憶された地図情報に含まれる、表示装置2から基準位置までの相対的な位置情報p2に基づいて、基準位置から移動体1までの相対位置から地図上の自己位置p3を算出する。なお基準位置は、例えばあらかじめ定めた部屋の1つのコーナーの部分と定める。
地図情報記憶部14は、移動体1の周囲の環境情報を地図情報としてあらかじめ記憶する。例えば地図情報記憶部14は、基準位置と、表示装置2の位置と、部屋の中にある家具の位置の情報を記憶する。
駆動部15は、移動体1の下部に設けられた車輪を駆動させる。典型的には駆動部15は、制御部12から与えられた制御信号に基づいて駆動するモータである。駆動部15が駆動することにより車輪が動作し、移動体1が移動する。
表示装置2は、移動体1の制御部12から送信された制御信号に基づいて、第1の出力方法で出力を行う。ここでは表示装置2は、第1の出力方法として第1の映像21を表示する。さらに表示装置2は、制御部12による指示に基づき、第2の出力方法で出力を行う。ここでは表示装置2は第2の出力方法として、第2の映像22を表示する。第2の映像22はマーカーである。図3は、表示装置2が表示する第2の映像の一例である。典型的には表示装置2は、テレビやデジタルフォトスタンドなどの汎用表示機器である。なお、ここでは表示装置2は部屋内に1台のみが存在するものとして説明する。
次に、位置特定装置100の動作について説明する。図4は、移動体1の位置を特定するためのフローチャートである。
移動体1が移動状態である場合には移動を停止する。その後、制御部12で生成した制御信号を表示装置2に送信することにより、表示装置2に第1の映像21を表示させる(ステップS11)。
移動体1は、映像入力部11aを用いて周囲の映像を撮影する(ステップS12)。
移動体1は、映像入力部11aを用いて撮影した画像の中に、表示装置2に表示させた第1の映像21が含まれているか否かを確認する(ステップS13)。例えば演算部13は、映像入力部11aを用いて撮影した映像についてパターンマッチングや画像の相関の演算を行い、制御部12が表示装置2に表示させている画像が含まれているか否かを判定する。
映像入力部11aを用いて撮影した画像の中に、表示装置2に表示させた第1の映像21が含まれていない場合には(ステップS13で含まれない)、制御部12は映像入力部11aを旋回させ、移動体1を移動させる(ステップS14)。より具体的には、制御部12が映像入力部11aを旋回させ、移動体1の周囲を全て探索し終えたときに、表示装置2に表示された第1の映像21が見つからない場合には、制御部12は移動体1を移動させる。その後ステップS12に戻り、処理を繰り返す。なお、映像入力部11aを用いて撮影した画像の中に、表示装置2の一部が含まれていれば、移動体1は表示装置2の探索を終了する。例えば、表示装置2が物陰に隠れており、表示装置2に表示させた第1の映像21の一部分のみが映像入力部11aによる撮影で確認できる場合であっても、探索を終了する。
映像入力部11aを用いて撮影した画像の中に、表示装置2に表示させた第1の映像21が含まれていた場合には(ステップS14で含まれる)、制御部12は、表示装置2に第2の映像22を表示させる(ステップS15)。このとき移動体1から表示装置2の一部のみが見えている場合には、制御部12は、表示装置2が見えている範囲に第2の映像22の全体が表示されるよう制御する。
移動体1は、映像入力部11aで撮影した画像を取り込む(ステップS16)。
演算部13は、表示装置2に第2の映像22が表示された状態を撮影した画像から、表示装置2から移動体1の相対位置p1を推定する(ステップS17)。例えば演算部13は、映像入力部11aがステレオカメラであれば、表示装置2に表示された第2の映像22に対する2つのカメラの視差を利用して、相対位置p1を推定する。
演算部13は、表示装置2からの相対位置p1と、地図情報記憶部14に記憶されている表示装置2の位置情報p2に基づいて、移動体1の自己位置p3を推定する(ステップS18)。
これにより移動体1は、表示装置2に第1の映像21が表示されているのを認識することで、表示装置2がランドマークであると識別することができる。さらに移動体1は、識別した表示装置2に第2の映像22を表示させることで、表示装置2と移動体1の相対位置を算出する。これにより、移動体1が自己位置を見失った状態となった場合であっても、簡便な方法で、移動体1の自己位置を特定することができる。そのため、移動体の状態を初期化して、初期位置から再起動させるという手間が無くなる。また部屋の模様替えなどを行う際にも、テレビ等をランドマークとして使用することができるため、ユニークなランドマークを設置し直す必要がない。
実施の形態2
図5は、位置特定装置200の構成図である。位置特定装置200は、1つの移動体1と複数の表示装置2を備える。以下、実施の形態1に示した位置特定装置100と同様の機能を有する構成物品については同一の符号を付し、説明を省略する。
表示装置2は、移動体1の制御部12から送信された制御信号に基づいて、映像を表示する。複数の表示装置2を、それぞれ表示装置2a、表示装置2b、表示装置2cとする。なお、設置される表示装置2の個数はこれらに限られない。
次に、位置特定装置200の動作について説明する。図6は、移動体1の位置を特定するためのフローチャートである。
移動体1が移動状態である場合には移動を停止する。その後、制御部12で生成した制御信号を表示装置2に送信することにより、表示装置2a、2b、2cに、それぞれ第1の映像21a、21b、21cを表示させる(ステップS21)。
移動体1は、映像入力部11aを用いて周囲の映像を撮影する(ステップS22)。
移動体1は、映像入力部11aを用いて撮影した画像の中に、表示装置2a、2b、2cに表示させた第1の映像21が含まれているか否かを確認する(ステップS23)。
映像入力部11aを用いて撮影した画像の中に、表示装置2a、2b、2cに表示させた第1の映像21a、21b、21cが含まれていない場合には(ステップS23で含まれない)、制御部12は映像入力部11aを旋回させ、移動体1を移動させる(ステップS24)。その後ステップS22に戻り、処理を繰り返す。
映像入力部11aを用いて撮影した画像の中に、表示装置2a、2b、2cに表示させた、いずれかの第1の映像21a、21b、21cが含まれていた場合には(ステップS24で含まれる)、制御部12は、表示装置2a、2b、2cのうち、発見した表示装置に第2の映像22を表示させる(ステップS25)。
移動体1は、映像入力部11aで撮影した画像を取り込む(ステップS26)。
演算部13は、表示装置2に第2の映像22が表示された状態を撮影した画像から、表示装置2から移動体1までの相対位置p1を推定する(ステップS27)。
演算部13は、表示装置2からの相対位置p1と、地図情報記憶部14に記憶されている表示装置2の位置情報p2に基づいて、移動体1の自己位置p3を推定する(ステップS28)。
このように複数台の表示装置2を利用することによって、映像入力部11aが表示装置2a、2b、2cのうちの少なくとも1つを撮影する可能性が高まる。したがって、移動体1は表示装置2を発見しやすくなり、自己位置p3の推定を短時間で行うことができる。
実施の形態3
図7は、位置特定装置300の構成図である。位置特定装置300は、移動体3と表示装置4を備える。以下、実施の形態1の位置特定装置100及び実施の形態2の位置特定装置200と同様の機能を有する構成物品については同一の符号を付し、説明を省略する。
移動体3は、入力部31と、制御部32と、演算部13と、地図情報記憶部14と、駆動部15と、を備える。
入力部31は、映像入力部11aと、音声入力部11bと、を備える。
音声入力部11bは、複数の音源入力部をアレイ状に並べたマイクである。典型的には音声入力部11bは、音が複数のマイクに到達するときの時間差に基づいて、音源方向を特定する。
制御部32は、制御信号を生成して表示装置4に送信し、表示装置4における特定の音声23の出力や、第2の映像22の出力を制御する。
表示装置4は、制御部32から送信された制御信号に基づいて、第1の出力方法として特定の音声23を出力する。さらに表示装置4は、第2の出力方法として、制御部32から送信された制御信号に基づいて、第2の映像22を表示する。
次に、位置特定装置300の動作について説明する。図8は、移動体3の位置を特定するためのフローチャートである。
移動体3が移動状態である場合には移動を停止する。その後、制御部32で生成した制御信号を表示装置4に送信することにより、表示装置4から音声23を出力させる(ステップS31)。
移動体3は、音声入力部11bを用いて周囲の音声を取り込み、表示装置4から出力された音声23を探索する(ステップS32)。
移動体3は、表示装置4から出力された音声23が見つからない場合には(ステップS32でみつからない)、移動する(ステップS33)。その後ステップS32に戻り、移動体3は、移動先で表示装置4から出力された音声23を再探索する。
制御部32は、表示装置4から出力された音声23が見つかった場合には(ステップS32でみつかった)、映像入力部11aを音源方向に向ける(ステップS34)。
制御部32は、表示装置4に第2の映像22を表示させる(ステップS35)。
移動体3は、映像入力部11aで周囲を撮影し、撮影した画像を取り込む(ステップS36)。
演算部13は、周囲の映像内に第2の映像22があるか否かを解析する(ステップS37)。第2の映像22が見つからない場合には(ステップS37で見つからない)、移動体3は移動し、ステップS36に戻る。
第2の映像22が見つかった場合には(ステップS37で見つかった)、演算部13は、表示装置4から移動体3までの相対位置p1を推定する(ステップS38)。
演算部13は、表示装置4からの相対位置p1と、地図情報記憶部14に記憶されている表示装置4の位置情報p2に基づいて、移動体3の自己位置p3を推定する(ステップS39)。
このように音声を利用して表示装置4の存在する方向を識別し、相対位置p1を探索することにより、音声を用いない場合に比べて、移動体3から表示装置4の探索を迅速に行うことができる。したがって音声を用いない場合に比べ、移動体3の位置の特定を短時間で行うことができる。
実施の形態4
実施の形態1及び実施の形態2に示した位置特定装置100及び位置特定装置200において、映像入力部11aが表示装置2を発見した後に、移動体1がマーカー認識を行うものとして説明したが、マーカー認識を行わずに表示装置2の見える範囲、あるいは、おおよその位置・向きp1から推測される位置p3の周辺にパーティクルを撒くことで、自己位置p3を収束させても良い。
ここでパーティクルとは、自己位置推定の手法(モンテカルロ法)において、自己位置である可能性のある向き情報付きの座標群を指す。この座標毎に、移動体1から見えている領域と、移動体1の持つ地図情報上の当該座標から見えるはずの環境との照合により、当該座標が自己位置である確率を算出し、全座標の算出した確率から、尤もらしい自己位置を推定する。
図9は、位置特定装置100又は位置特定装置200において、移動体1が表示装置2を発見できる位置16と、発見できない位置17を示した図である。言い換えると、図9は表示装置2の視界を表した図である。
移動体1は、表示装置2を発見した後、移動体1の持つ地図情報に基づいて表示装置2が発見できる位置16にパーティクルを撒くことで、移動体1の自己位置p3の推測を収束させることができる。
また移動体1は、回転を伴わずに旋回させて周囲の探索を行ったときに表示装置2を発見できない場合には、移動体1が有する地図上の表示装置2を発見できない位置17にパーティクルを撒くことで、移動体1の自己位置p3の推定を収束させることができる。
さらに、実施の形態3で示した位置特定装置300にも、同様にパーティクルを使用することができる。この場合には位置特定装置300では、音声を用いることによりおよその移動体3の位置が絞り込むことができるため、パーティクルを撒く範囲を更に絞り込むことができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、映像入力部11aが撮影する画像は、動画と静止画のいずれであっても良い。基準位置は部屋の1つのコーナーの部分としたが、任意に定めた他の場所であっても良い。表示装置2及び表示装置4は、制御部12からの制御信号に基づいて表示装置内に保存されている映像や音声を出力するのではなく、移動体から映像データや音声データを受信し出力するものであっても良い。実施の形態3において、1つの表示装置4が室内にあるものとして説明したが、複数の表示装置4が室内にあるものとして、複数の表示装置4のうちの1台のみが音声を発生させることや、各々の表示装置4から識別可能な音声を発生させることとしても良い。
1 移動体
2 表示装置
2a、2b、2c 表示装置
3 移動体
4 表示装置
11 入力部
11a 映像入力部
11b 音声入力部
12 制御部
13 演算部
14 地図情報記憶部
15 駆動部
16 発見できる位置
17 発見できない位置
21 第1の映像
21a、21b、21c 第1の映像
22 第2の映像
23 音声
31 入力部
32 制御部
100 位置特定装置
200 位置特定装置
300 位置特定装置

Claims (1)

  1. 制御信号に基づいて第1及び第2の出力方法で出力を行う表示装置と、
    前記制御信号を生成して前記表示装置に送信する制御部と、
    前記表示装置による第1及び第2の出力を取得する入力部と、
    前記表示装置を含む周囲の環境を地図情報として記憶する地図情報記憶部と、
    を有する移動体と、
    を備える位置特定装置であって、
    前記移動体は、前記入力部が前記表示装置による第1の出力を取得することで、前記表示装置の存在を認識及び/又は存在する方向の識別を行い、前記制御部は前記表示装置に第2の出力方法で出力させ、前記入力部が前記表示装置による第2の出力を取得することで前記表示装置から前記移動体までの相対位置を算出し、算出された相対位置と、前記地図情報記憶部が有する地図情報に基づいて、前記移動体の位置を特定する、
    位置特定装置。
JP2011277975A 2011-12-20 2011-12-20 位置特定装置 Pending JP2013130911A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011277975A JP2013130911A (ja) 2011-12-20 2011-12-20 位置特定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011277975A JP2013130911A (ja) 2011-12-20 2011-12-20 位置特定装置

Publications (1)

Publication Number Publication Date
JP2013130911A true JP2013130911A (ja) 2013-07-04

Family

ID=48908442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011277975A Pending JP2013130911A (ja) 2011-12-20 2011-12-20 位置特定装置

Country Status (1)

Country Link
JP (1) JP2013130911A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105652889A (zh) * 2016-04-12 2016-06-08 谭圆圆 无人飞行器的远程控制装置及其控制方法
JP2017110466A (ja) * 2015-12-18 2017-06-22 清水建設株式会社 建設作業用ロボットおよび建設作業用ロボットの制御方法
WO2023095392A1 (ja) 2021-11-24 2023-06-01 ソニーグループ株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017110466A (ja) * 2015-12-18 2017-06-22 清水建設株式会社 建設作業用ロボットおよび建設作業用ロボットの制御方法
CN105652889A (zh) * 2016-04-12 2016-06-08 谭圆圆 无人飞行器的远程控制装置及其控制方法
WO2023095392A1 (ja) 2021-11-24 2023-06-01 ソニーグループ株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Similar Documents

Publication Publication Date Title
WO2019206270A1 (zh) 测距方法、智能控制方法及装置、电子设备和存储介质
US10038893B2 (en) Context-based depth sensor control
US9304970B2 (en) Extended fingerprint generation
US9646384B2 (en) 3D feature descriptors with camera pose information
US10284875B2 (en) Systems and methods for determining feature point motion
US10514708B2 (en) Method, apparatus and system for controlling unmanned aerial vehicle
US9641814B2 (en) Crowd sourced vision and sensor-surveyed mapping
JP7103359B2 (ja) 制御装置、および制御方法、プログラム、並びに移動体
WO2017057054A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20120026088A1 (en) Handheld device with projected user interface and interactive image
KR102096926B1 (ko) 관심 영역 변화를 검출하는 방법 및 시스템
JP2014134912A (ja) 再生装置、再生システム、再生方法及びプログラム
KR20200062437A (ko) 이동형 3d 멀티디스플레이 기반의 내부 공간 확장이 가능한 실감형 교육 서비스 제공 차량
JP2011174799A (ja) 撮影経路計算装置
JP2013130911A (ja) 位置特定装置
KR20200037168A (ko) 관심 영역 변화를 검출하는 방법 및 시스템
JPWO2013175836A1 (ja) 監視カメラ管理装置、監視カメラ管理方法およびプログラム
JP2016197192A (ja) プロジェクションシステムと映像投影方法
CN114600067A (zh) 具有成像仪的控制装置的监督设置
JP2020106986A (ja) 情報処理装置、情報処理方法、および移動体
JP6733732B2 (ja) 位置推定プログラム、位置推定装置、および位置推定方法
JP2009015655A (ja) 画像処理装置
KR102483388B1 (ko) 전방위 이미지 처리 방법 및 이를 수행하는 서버
CN114071003B (zh) 一种基于光通信装置的拍摄方法和系统
EP4207100A1 (en) Method and system for providing user interface for map target creation