JP2009303013A - 撮像方向決定プログラム - Google Patents

撮像方向決定プログラム Download PDF

Info

Publication number
JP2009303013A
JP2009303013A JP2008156509A JP2008156509A JP2009303013A JP 2009303013 A JP2009303013 A JP 2009303013A JP 2008156509 A JP2008156509 A JP 2008156509A JP 2008156509 A JP2008156509 A JP 2008156509A JP 2009303013 A JP2009303013 A JP 2009303013A
Authority
JP
Japan
Prior art keywords
grid
imaging
imaging direction
target
current position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008156509A
Other languages
English (en)
Other versions
JP5045567B2 (ja
Inventor
Akira Chin
彬 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008156509A priority Critical patent/JP5045567B2/ja
Publication of JP2009303013A publication Critical patent/JP2009303013A/ja
Application granted granted Critical
Publication of JP5045567B2 publication Critical patent/JP5045567B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】現在位置の推定用に適した画像を撮像することを課題とする。
【解決手段】撮像装置によって現在位置の推定用の画像が撮像される直前に、移動ロボットの移動範囲を示すグリッドマップ上の目標物までのグリッド間距離を移動ロボットが撮像可能な方向ごとに算出する。続いて、予め保持する撮像距離と測距精度との関係を用いて、グリッド間距離から撮像された画像を現在位置の推定に用いた場合の推定精度値を撮像装置の撮像方向ごとに算出する。そして、目標物を実際に撮像する際の撮像方向を、推定精度値が最大値となる撮像方向に決定する。
【選択図】 図1

Description

この発明は、撮像方向決定プログラムに関する。
例えば、博物館内に展示されている各展示物の説明を来訪者に提供するために、展示物ごとに設定されている目標地点まで自動的に移動する移動ロボットが従来からある。
この移動ロボットについて簡単に説明すると、移動ロボットは、カメラ、およびカメラの撮像方向を変更するためのパンチルト機能(例えば、移動面と垂直な回転軸を中心に回転して水平方向の撮像角度を変更するとともに、移動面と水平な回転軸を中心に回転して垂直方向の撮像角度を変更する機能)を有している。
そして、移動ロボットは、各目標地点が予め登録されている地図を用いて、現在位置から目標地点に到達するまでに要する走行距離および走行方向を算出し、算出された走行距離および走行方向に基づいて目標地点まで移動する。
ここで、移動ロボットが移動中に予定していた走行コースから外れた場合や、実際に走行した距離の計測ミスなどが発生した場合など、移動ロボットが目標地点に到達できないケースが存在する。
そのため、移動ロボットは、移動後に、予め設定されている撮像方向で壁や柱などの目標物を撮像し、撮像された画像を用いて自己から目標物までの距離を測定して地図上の現在位置を推定する。
そして、例えば、移動ロボットは、推定された地図上の現在位置が目標地点に一致しない場合に、推定された現在位置に基づいて、移動先としての目標地点まで再移動するという補正を行っていた。
なお、例えば、特許文献1では、GPS(Global Positioning System)によって推定された地図上の現在位置を、目標物が撮像された画像を用いて修正するための技術が開示されている。
国際公開第2005/38402号パンフレット
ところで、上記した従来の移動ロボットには、現在位置の推定用に適した画像を撮像できないことがあるという課題があった。すなわち、従来の移動ロボットには、画像を撮像している撮像方向が現在位置の推定用の画像を撮像するための最適な撮像方向であるとは限らないので、現在位置の推定用に適した画像を撮像できないことがあるという課題があった。
そこで、この撮像方向決定プログラムは、上述した従来技術の課題を解決するためになされたものであり、現在位置の推定用に適した画像を撮像することが可能な撮像方向決定プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するため、開示の撮像方向決定プログラムは、自動的に移動する物体に搭載されている撮像装置によって現在位置の推定用の画像が撮像される直前に、前記物体の現在位置を推定する際に目印として利用される目標物に対応するグリットを識別するための目標物対応グリット情報と、前記物体の移動目標地点に対応するグリットを識別するための目標地点対応グリット情報とが前記物体の移動範囲を示すデータ上に展開されたグリッドマップを生成するグリッドマップ生成手順と、前記グリッドマップ生成手順によって生成されたグリッドマップ上に、前記目標地点対応グリット情報に対応するグリッドを中心として前記撮像装置が実際に取りうる撮像方向を示した直線を展開し、前記目標物対応グリット情報に対応する各グリッドと、前記目標地点対応グリット情報に対応するグリッドとを結ぶ線分の長さをグリッド間距離として前記撮像方向ごとにそれぞれ算出する距離算出手順と、前記撮像装置および前記目標物の間の実際の距離と、実際の距離に対応する距離測定精度との関係が示された予め記憶部に記憶されている対応関係情報を用いて、前記距離算出手順によって算出された各グリッド間距離から、撮像された画像を現在位置の推定に用いた場合の推定精度を示す推定精度値を前記撮像装置の撮像方向ごとに算出する推定精度値算出手順と、前記物体の移動方向と垂直な回転軸を中心に前記撮像装置を回転させて前記目標物を撮像する際の撮像方向を、前記推定精度値算出手順によって算出された前記推定精度値が最大値となる撮像方向に決定する撮像方向決定手順とをコンピュータに実行させることを要する。
開示の撮像方向決定プログラムによれば、現在位置の推定用に適した画像を撮像することが可能である。
以下に添付図面を参照して、この発明に係る撮像方向決定プログラムの一実施形態として実施例1を詳細に説明する。なお、以下では、この撮像方向決定プログラムが適用された移動ロボットを実施例として説明する。
以下の実施例1では、実施例1に係る移動ロボットの概要、移動ロボットの構成、移動ロボットの処理の流れを順に説明し、最後に実施例1の効果を説明する。
[実施例1に係る移動ロボットの概要]
まず最初に、図1を用いて実施例1に係る移動ロボットの概要を説明する。図1は、実施例1に係る移動ロボットの概要を説明するための図である。
実施例1に係る移動ロボットは、目標地点が予め登録されている地図を用いて、現在位置から目標地点まで自動的に移動し、移動先で現在位置の推定用の画像を撮像することを概要とし、特に、現在位置の推定用に適した画像を撮像する。
すなわち、実施例1に係る移動ロボットは、移動ロボットの移動範囲を示した地図から算出された走行距離および走行方向に基づいて目標地点付近まで移動する。
移動の完了後、移動ロボットは、図1の(1)に示すように、現在位置を推定する際に目印として利用される目標物(例えば、壁や柱など)に対応するグリットを識別するための目標物対応グリット情報と、移動ロボットの移動先である目標地点に対応するグリットを識別するための目標地点対応グリット情報とが展開されたグリッドマップを生成する。
続いて、移動ロボットは、図1の(2)に示すように、目標物に対応する各グリッドと、目標地点に対応するグリットとの間のグリッド間距離を撮像装置が実際に取りうる撮像方向ごとに算出する。
続いて、移動ロボットは、図1の(3)に示すように、撮像装置および目標物の間の実際の距離と、画像を用いて距離を実際に測定した場合の距離測定精度を示す距離測定精度値との対応関係が示された対応関係情報を用いて、撮像された画像を現在位置の推定に用いた場合の推定精度を示す推定精度値を撮像装置の撮像方向ごとに算出する。
そして、移動ロボットは、図1の(4)に示すように、現在位置の推定用の画像を実際に撮像する際の撮像方向を、推定精度値が最大値となる撮像方向に決定し、決定された撮像方向で実際に画像を撮像する。
このようなことから、実施例1に係る移動ロボットは、現在位置の推定用に適した画像を撮像することが可能である。
[移動ロボットの構成]
次に、図2〜図9を用いて、図1に示した移動ロボットの構成を説明する。図2は、移動ロボットの構成を示すブロック図である。図3は、地図データベースに記憶される情報の一例を示した図である。図4は、グリッドマップ生成部による処理を説明するための図である。図5は、対応関係情報の概念を示した図である。図6〜図9は、視野選択部による処理を説明するための図である。
図2に示すように、移動ロボット10は、地図データベース11、走行制御部12、地図解析部13、グリッドマップ生成部14、視野選択部15、パンチルト制御部16、ビジョンセンサ17および現在位置推定部18を有する。
地図データベース11は、グリッドマップを生成するための地図情報を記憶する。具体的に一例をあげて説明すると、地図データベース11は、図3に示すように、グリッドマップを構成する各グリッドに一意に付与されるグリッド識別情報(例えば、「idx=“1”」)と、現在位置を推定する際に目印として利用される目標物に対応するグリットを識別するための目標物対応グリット情報(例えば、目標物の属性「Wall」および目標物の座標「x=“0.1”、y=“2”、z=“1”」)とを対応付けてなるテキスト形式の地図を予め記憶する。
走行制御部12は、移動ロボット10が有する走行機構(例えば、移動ロボット10の車輪を駆動するモータ)の動作を制御する。具体的には、走行制御部12は、目標地点が予め登録されている地図を用いて、現在位置から目標地点に到達するまでに要する走行距離および走行方向を算出し、算出された走行距離および走行方向に基づいて走行機構を制御して移動する。
そして、走行制御部12は、移動の完了後、目標地点に対応するグリッドの座標と、仮に移動ロボット10が目標地点に到達した場合の走行方向とを視野選択部15に入力する。
また、走行制御部12は、現在位置推定部18によって地図上の現在位置が推定されると、推定された現在位置から目標地点に到達するまでに要する走行距離および走行方向を改めて算出して、算出された走行距離および走行方向に基づいて走行機構を制御し、目標地点まで再移動する。
地図解析部13は、移動ロボット10の移動の完了後、地図データベース11からテキスト形式の地図を読み込み、グリッドマップ生成部14に入力する。
グリッドマップ生成部14は、テキスト形式の地図を用いて、グリッドマップを生成する。具体的には、グリッドマップ生成部14は、地図解析部13から受け付けたテキスト形式の地図を展開して、目標物の位置が設定されたグリッドマップを生成する(図4参照)。
視野選択部15は、撮像装置および目標物の間の実際の距離と、実際の距離に対応する距離測定精度との関係を示した対応関係情報を視野選択部15が有する記憶部に予め記憶している。
具体的に説明すると、視野選択部15は、図5に示すような撮像装置および目標物の間の実際の距離「d」および距離測定精度「f(d)」の対応関係を示した対応関係情報を、視野選択部15が有する記憶部に記憶している。ここで、対応関係情報とは、例えば、実際の距離から距離測定精度を示す距離測定精度値を算出するための式や、実際の距離および距離測定精度値が対応付けてなるテーブルなどである。
また、視野選択部15は、グリッドマップ上に、目標地点に対応するグリッドを中心として撮像装置が実際に取りうる撮像方向を示した直線を展開し、目標物に対応する各グリッドと、目標地点に対応するグリッドとを結ぶ線分の長さをグリッド間距離として撮像方向ごとにそれぞれ算出する。
続いて、視野選択部15は、撮像された画像を現在位置の推定に用いた場合の推定精度を示す推定精度値を、撮像装置の撮像方向ごとに算出された各グリッド間距離から対応関係情報を用いて算出する。
そして、視野選択部15は、現在位置の推定用の画像を実際に撮像する際の撮像装置の撮像方向を、算出された推定精度値が最大値となる撮像方向に決定する。
視野選択部15による処理を具体的に説明すると、視野選択部15は、移動ロボット10の移動が完了すると、目標地点に対応するグリッドの座標と、仮に移動ロボット10が目標地点に到達した場合の走行方向とを走行制御部12から受け付ける。
続いて、視野選択部15は、グリッドマップ生成部14によって生成されたグリッドマップを構成する各グリッドの中から、移動ロボット10の移動目標地点に対応する目標地点対応グリットを特定する。例えば、視野選択部15は、移動ロボット10の移動目標地点に対応する目標地点対応グリットを特定し、仮に移動ロボット10が目標地点に到達した場合を想定するための仮想ロボットを配置する。
続いて、視野選択部15は、走行制御部12から受け付けた走行方向に基づいて、仮に移動ロボット10が目標地点に到達した場合の走行方向をグリッドマップ上で特定する。例えば、視野選択部15は、走行制御部12から受け付けた走行方向に基づいて、グリッドマップ上の仮想ロボットの走行方向を特定する。
続いて、視野選択部15は、グリッドマップ上に目標地点対応グリットを中心として撮像装置が実際に取りうる撮像方向を示した直線を展開する。例えば、視野選択部15は、仮想ロボットに搭載された撮像装置が実際に取りうる撮像方向を示した直線(以下では、仮想センサと記載する)を、目標地点対応グリットを中心とした放射状をなすようにグリッドマップ上に展開する(図6参照)。
続いて、視野選択部15は、グリッドマップ上に展開された仮想センサそれぞれについて、撮像装置の回転角度の初期値に対応する基準方向(例えば、仮想ロボットの進行方向に対して、右90度)からの角度と、目標物に対応する各グリッドおよび目標地点対応グリットを結ぶグリット間距離とを算出する。
例えば、視野選択部15は、図7に示すように、基準方向(図7に示す破線矢印)からの角度「φ」と、目標物に対応する各グリッドおよび目標地点対応グリットを結ぶグリット間距離「d」とを仮想センサごとに算出する。なお、各仮想センサそれぞれについての角度「φ」と、グリット間距離「d」との関係は、例えば、図8に示すようなグラフとなる。
続いて、視野選択部15は、各仮想センサそれぞれについて、推定精度値「f」を算出されたグリット間距離「d」から対応関係情報を用いて算出する。なお、各仮想センサそれぞれについての角度「φ」と、推定精度値「f」との関係は、例えば、図9に示すようなグラフとなる。
続いて、視野選択部15は、一定の角度ごとに(例えば、20度ごとに)、撮像可能な範囲(例えば、図9の「p1」)に含まれる複数の仮想センサ(例えば、図9の「L1〜L6」)を、グリッドマップ上に展開された全ての仮想センサの中から特定する。そして、視野選択部15は、撮像装置の回転角度に対応付けて、特定された仮想センサにそれぞれに対応する推定精度値を累積加算した累積値を算出する。
そして、視野選択部15は、現在位置の推定用の画像を実際に撮像する際の撮像装置の回転角度を、各回転角度の中で累積値の最大値に対応する回転角度に決定する。
パンチルト制御部16は、撮像装置の撮像方向を変更する。具体的には、パンチルト制御部16は、視野選択部15によって決定された回転角度まで移動面と垂直な回転軸を中心に撮像装置を基準方向から回転させて撮像装置の撮像方向を変更する。
ビジョンセンサ17は、撮像装置の動作を制御する。具体的には、ビジョンセンサ17は、パンチルト制御部16によって撮像装置の撮像方向が変更された後、撮像装置を制御して現在位置の推定用の画像を実際に撮像する。
現在位置推定部18は、目標物が撮像された画像を用いて移動ロボット10から目標物までの距離を測定し、地図上の現在位置を推定する。具体的には、現在位置推定部18は、目標物までの距離をビジョンセンサ17による制御によって撮像された画像を用いて移動ロボット10から目標物までの距離を測定し、測定された目標物までの距離に基づいて地図上の現在位置を推定する。
[移動ロボットによる処理]
次に、図10を用いて、移動ロボット10による処理を説明する。図10は、移動ロボットによる処理の流れを示すフローチャートである。なお、以下では、移動ロボット10が移動先としての目標地点付近まで移動してから、目標地点まで再移動するまでの流れを説明する。
図10に示すように、移動ロボット10は、目標地点付近まで移動すると(ステップS1001肯定)、目標物の位置が設定されたグリッドマップを生成する(ステップS1002)。
続いて、移動ロボット10は、目標物に対応する各グリッドと、目標地点に対応するグリッドとを結ぶ線分の長さをグリッド間距離として撮像方向ごとにそれぞれ算出し(ステップS1003)、推定精度値を、対応関係情報を用いて撮像装置の撮像方向ごとに算出する(ステップS1004)。
続いて、移動ロボット10は、撮像装置の撮像方向を算出された推定精度値が最大値となる撮像方向に変更し(ステップS1005)、現在位置の推定用の画像を実際に撮像する(ステップS1006)。
そして、移動ロボット10は、撮像された画像を用いて地図上の現在位置を推定し(ステップS1007)、推定された現在位置から目標地点に到達するまでの走行距離および走行方向に基づいて目標地点まで再移動する(ステップS1008)。
[実施例1の効果]
上記したように、実施例1によれば、現在位置の推定用に適した画像を撮像することが可能である。例えば、実施例1に係る移動ロボット10は、現在位置の推定用の画像を実際に撮像する撮像方向を、最良な測距精度が得られる撮像方向に決定するため、現在位置の推定用に適した画像を撮像することが可能である。そして、実施例1に係る移動ロボット10は、現在位置の推定用に適した画像を撮像することができる結果、現在位置を精度良く推定することもできる。
さて、これまで実施例1について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、実施例2として、本発明に含まれる他の実施例を説明する。
(1)撮像方向の優先順位
上記の実施例1では、推定精度値が最大値となる撮像方向に、目標物を実際に撮像する際の撮像方向を決定する場合を説明したが、本発明はこれに限定されるものではなく、推定精度値が大きい順に撮像装置の撮像方向に対して優先順位を付与して目標物を実際に撮像する際の撮像方向を決定するようにしてもよい。
例えば、ビジョンセンサ17は、現在位置の推定用の画像を撮像するごとに、撮像された画像に目標物が写っているか否かを判定し、目標物が写っていないことを示す判定結果を得た場合に、視野選択部15に対して撮像方向の再決定要求を送信する。
視野選択部15は、推定精度値が累積加算された累積値が高い順に撮像装置の撮像方向に対して優先順位を付与する。そして、視野選択部15は、最初に、優先順位が最も高い撮像装置の撮像方向に目標物を実際に撮像する際の撮像方向を決定する。その後、視野選択部15は、ビジョンセンサ17から撮像方向の再決定要求を受け付けるごとに、優先順位が一位低い撮像方向に目標物を実際に撮像する際の撮像方向を変更する。
これにより、例えば、地図上に登録されていない障害物(例えば、人など)が、移動ロボット10と、目標物との間にあった場合であっても、撮像方向を変更して現在位置の推定用に適した画像を撮像することが可能となる。
(2)垂直方向の撮像角度を変更
また、上記の実施例1では、移動ロボット10の移動方向と垂直な回転軸を中心に撮像装置を回転させて目標物を実際に撮像する際の撮像方向を、推定精度値が最大値となる撮像方向に決定する場合を説明した。
しかしながら、本発明はこれに限定されるものではなく、移動ロボット10の移動方向と垂直な回転軸を中心に撮像装置を回転させて目標物を実際に撮像する際の水平方向の撮像方向と、移動ロボット10の移動方向と水平な回転軸を中心に撮像装置を回転させて目標物を実際に撮像する際の垂直方向の撮像方向とを、推定精度値が最大値となる撮像方向に基づいて決定するようにしてもよい。
視野選択部15は、一定の大きさの水平方向の回転角度の範囲ごとに(例えば、0度〜60度)、この範囲に含まれる複数の仮想センサを、グリッドマップ上に展開された全ての仮想センサの中から特定する。
続いて、視野選択部15は、上述した、処理と同様に、水平方向の回転角度の範囲に対応付けて、特定された仮想センサにそれぞれに対応する推定精度値を累積加算した累積値を算出し、現在位置の推定用の画像を実際に撮像する際の水平方向の回転角度の範囲を、各回転角度の範囲の中で累積値の最大値に対応する水平方向の回転角度の範囲に決定する。
続いて、グリッドマップ生成部14は、目標物の高さを示す高さ情報を用いて、決定された水平方向の回転角度の範囲を垂直方向に展開したグリッドマップを生成する(図11の(A)参照)。
続いて、視野選択部15は、仮想センサごとに垂直方向の回転角度の初期値に対応する基準方向(例えば、仮想ロボットの移動面に対して水平方向)からの角度「φ2」と、目標物に対応する各グリッドおよび目標地点対応グリットを結ぶグリット間距離「d2」とを算出する(図11の(B)参照)。
続いて、視野選択部15は、各仮想センサそれぞれについて、推定精度値「f2」を算出されたグリット間距離「d2」から対応関係情報を用いて算出する(図11の(C)参照)。
そして、視野選択部15は、現在位置の推定用の画像を実際に撮像する際の垂直方向の回転角度を、各回転角度の中で推定精度値「f2」の最大値に対応する仮想センサの垂直方向の回転角度に決定する。
これにより、水平方向の回転角度を決定した後に、垂直方向の回転角度を微調整するという2段階で、現在位置の推定用の画像を実際に撮像する際の撮像方向を決定するため、現在位置の推定用にさらに適した画像を撮像することが可能である。
また、視野選択部15は、移動ロボット10が存在する空間を示す三次元のグリットマップ上に、撮像装置が実際に取りうる撮像方向を示した仮想センサを三次元に展開する(言い換えると、水平方向の回転角度および垂直方向の回転角度の組合せに対応付けて仮想センサを展開する)ようにしてもよい(図12参照)。
これにより、移動ロボット10の移動範囲を示す二次元のグリットマップ上に展開できない物体(例えば、天井から吊り下げられたライト)も目標物として含むことができるため、現在位置の推定用にさらに適した画像を撮像することが可能である。
(3)移動ロボットの構成等
また、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報(例えば、図3に示した地図情報や、図5に示した対応関係情報)については、特記する場合を除いて任意に変更することができる。
また、図2に示した移動ロボット10の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、移動ロボット10の各構成要素の分散・統合の具体的形態は図示のものに限られず、例えば、視野選択部15とパンチルト制御部16とを統合するなど、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ハードウェアとして実現され得る。
(4)撮像方向決定プログラム
ところで、本発明はあらかじめ用意されたプログラムを移動ロボット10に搭載されているコンピュータで実行することによって実現するようにしてもよい。そこで、以下では、図13を用いて、上記の実施例1で説明した移動ロボット10の処理と同様の機能を有する撮像方向決定プログラムを実行するコンピュータを一例として説明する。図13は、撮像方向決定プログラムを実行するコンピュータを示す図である。
図13に示すように、移動ロボット10に搭載されているコンピュータ100は、ROM110、CPU120、HDD130、RAM140をバス150などで接続して構成される。
ROM110には、上記の実施例1に示した移動ロボット10と同様の機能を発揮する撮像方向決定プログラム、つまり、図13に示すようにグリッドマップ生成プログラム111と、視野選択プログラム112と、パンチルト制御プログラム113と、撮像装置制御プログラム114と、現在位置推定プログラム115と、走行制御プログラム116とが、あらかじめ記憶されている。なお、これらのプログラム111〜プログラム116については、図2に示した移動ロボット10の各構成要素と同様、適宜統合または、分散してもよい。
そして、CPU120がこれらのプログラム111〜プログラム116をROM110から読み出して実行することで、図13に示すように、プログラム111〜プログラム116は、グリッドマップ生成プロセス121(グリッドマップ生成手順ともいう)、視野選択プロセス122(距離算出手順、推定精度値算出手順および撮像方向決定手順ともいう)、パンチルト制御プロセス123、撮像装置制御プロセス124、現在位置推定プロセス125および走行制御プロセス126として機能するようになる。なお、プロセス121〜プロセス126は、図2に示した、グリッドマップ生成部14、視野選択部15、パンチルト制御部16、ビジョンセンサ17、現在位置推定部18および走行制御部12にそれぞれ対応する。
また、HDD130には、図13に示すように、地図データ131と、対応関係データ132とが設けられる。
そして、CPU120は、HDD130から地図データ131を読み込んでグリッドマップ141を生成してRAM140に格納するとともに、HDD130に記憶されている対応関係データ132を読み出して処理を実行する。なお、地図データ131は、図2に示した地図データベース11に対応する。
なお、上記した各プログラム111〜プログラム116については、必ずしも最初からROM110に記憶させておく必要はなく、例えば、コンピュータ100に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、またはコンピュータ100の内外に備えられるHDDなどの「固定用の物理媒体」、さらには公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される「他のコンピュータ(またはサーバ)」などに各プログラムを記憶させておき、コンピュータ100がこれから各プログラムを読み出して実行するようにしてもよい。
以上の実施例1および実施例2を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)自動的に移動する物体に搭載されている撮像装置によって現在位置の推定用の画像が撮像される直前に、前記物体の現在位置を推定する際に目印として利用される目標物に対応するグリットを識別するための目標物対応グリット情報と、前記物体の移動目標地点に対応するグリットを識別するための目標地点対応グリット情報とが前記物体の移動範囲を示すデータ上に展開されたグリッドマップを生成するグリッドマップ生成手順と、
前記グリッドマップ生成手順によって生成されたグリッドマップ上に、前記目標地点対応グリット情報に対応するグリッドを中心として前記撮像装置が実際に取りうる撮像方向を示した直線を展開し、前記目標物対応グリット情報に対応する各グリッドと、前記目標地点対応グリット情報に対応するグリッドとを結ぶ線分の長さをグリッド間距離として前記撮像方向ごとにそれぞれ算出する距離算出手順と、
前記撮像装置および前記目標物の間の実際の距離と、実際の距離に対応する距離測定精度との関係が示された予め記憶部に記憶されている対応関係情報を用いて、前記距離算出手順によって算出された各グリッド間距離から、撮像された画像を現在位置の推定に用いた場合の推定精度を示す推定精度値を前記撮像装置の撮像方向ごとに算出する推定精度値算出手順と、
前記物体の移動方向と垂直な回転軸を中心に前記撮像装置を回転させて前記目標物を実際に撮像する際の撮像方向を、前記推定精度値算出手順によって算出された前記推定精度値が最大値となる撮像方向に決定する撮像方向決定手順と、
をコンピュータに実行させる撮像方向決定プログラム。
(付記2)前記撮像方向決定手順は、前記推定精度値算出手順によって算出された前記推定精度値が大きい順に前記撮像装置の撮像方向に対して優先順位を付与し、現在位置の推定を実行する機能部から撮像方向の再決定要求を受け付けるごとに、前記優先順位が付与された各撮像方向の中から、前回決定された撮像方向の優先順位に対して、次位の優先順位が付与された撮像方向に再決定する付記1に記載の撮像方向決定プログラム。
(付記3)前記グリッドマップ生成手順は、前記目標物の位置および高さを示した目標物対応グリット情報と、前記目標地点対応グリット情報とが前記物体が存在する空間を示すデータ上に展開された前記物体が存在する空間を示す三次元のグリッドマップを生成し、
前記撮像方向決定手順は、前記物体の移動方向と垂直な回転軸を中心に前記撮像装置を回転させて前記目標物を実際に撮像する際の撮像方向と、前記物体の移動方向と水平な回転軸を中心に前記撮像装置を回転させて前記目標物を実際に撮像する際の撮像方向とを、前記推定精度値算出手順によって算出された前記推定精度値が最大値となる撮像方向に基づいて決定する付記1または2に記載の撮像方向決定プログラム。
(付記4)自動的に移動する物体に搭載されている撮像装置によって現在位置の推定用の画像が撮像される直前に、前記物体の現在位置を推定する際に目印として利用される目標物に対応するグリットを識別するための目標物対応グリット情報と、前記物体の移動目標地点に対応するグリットを識別するための目標地点対応グリット情報とが前記物体の移動範囲を示すデータ上に展開されたグリッドマップを生成するグリッドマップ生成手段と、
前記グリッドマップ生成手段によって生成されたグリッドマップ上に、前記目標地点対応グリット情報に対応するグリッドを中心として前記撮像装置が実際に取りうる撮像方向を示した直線を展開し、前記目標物対応グリット情報に対応する各グリッドと、前記目標地点対応グリット情報に対応するグリッドとを結ぶ線分の長さをグリッド間距離として前記撮像方向ごとにそれぞれ算出する距離算出手段と、
前記撮像装置および前記目標物の間の実際の距離と、実際の距離に対応する距離測定精度との関係が示された予め記憶部に記憶されている対応関係情報を用いて、前記距離算出手段によって算出された各グリッド間距離から、撮像された画像を現在位置の推定に用いた場合の推定精度を示す推定精度値を前記撮像装置の撮像方向ごとに算出する推定精度値算出手段と、
前記物体の移動方向と垂直な回転軸を中心に前記撮像装置を回転させて前記目標物を実際に撮像する際の撮像方向を、前記推定精度値算出手段によって算出された前記推定精度値が最大値となる撮像方向に決定する撮像方向決定手段と、
を有する移動ロボットに搭載された撮像方向決定装置。
(付記5)自動的に移動する物体に搭載されている撮像装置によって現在位置の推定用の画像が撮像される直前に、前記物体の現在位置を推定する際に目印として利用される目標物に対応するグリットを識別するための目標物対応グリット情報と、前記物体の移動目標地点に対応するグリットを識別するための目標地点対応グリット情報とが前記物体の移動範囲を示すデータ上に展開されたグリッドマップを生成するグリッドマップ生成ステップと、
前記グリッドマップ生成ステップによって生成されたグリッドマップ上に、前記目標地点対応グリット情報に対応するグリッドを中心として前記撮像装置が実際に取りうる撮像方向を示した直線を展開し、前記目標物対応グリット情報に対応する各グリッドと、前記目標地点対応グリット情報に対応するグリッドとを結ぶ線分の長さをグリッド間距離として前記撮像方向ごとにそれぞれ算出する距離算出ステップと、
前記撮像装置および前記目標物の間の実際の距離と、実際の距離に対応する距離測定精度との関係が示された予め記憶部に記憶されている対応関係情報を用いて、前記距離算出ステップによって算出された各グリッド間距離から、撮像された画像を現在位置の推定に用いた場合の推定精度を示す推定精度値を前記撮像装置の撮像方向ごとに算出する推定精度値算出ステップと、
前記物体の移動方向と垂直な回転軸を中心に前記撮像装置を回転させて前記目標物を実際に撮像する際の撮像方向を、前記推定精度値算出ステップによって算出された前記推定精度値が最大値となる撮像方向に決定する撮像方向決定ステップと、
を含む移動ロボットによる撮像方向決定方法。
実施例1に係る移動ロボットの概要を説明するための図である。 移動ロボットの構成を示すブロック図である。 地図データベースに記憶される情報の一例を示した図である。 グリッドマップ生成部による処理を説明するための図である。 対応関係情報の概念を示した図である。 視野選択部による処理を説明するための図である。 視野選択部による処理を説明するための図である。 視野選択部による処理を説明するための図である。 視野選択部による処理を説明するための図である。 移動ロボットによる処理の流れを示すフローチャートである。 実施例2に係る視野選択部による処理を説明するための図である。 実施例2に係る視野選択部による処理を説明するための図である。 撮像方向決定プログラムを実行するコンピュータを示す図である。
符号の説明
10 移動ロボット
11 地図データベース
12 走行制御部
13 地図解析部
14 グリッドマップ生成部
15 視野選択部
16 パンチルト制御部
17 ビジョンセンサ
18 現在位置推定部
100 コンピュータ
110 ROM(Read Only Memory)
111 グリッドマップ生成プログラム
112 視野選択プログラム
113 パンチルト制御プログラム
114 撮像装置制御プログラム
115 現在位置推定プログラム
116 走行制御プログラム
120 CPU(Central Processing Unit)
121 グリッドマップ生成プロセス
122 視野選択プロセス
123 パンチルト制御プロセス
124 撮像装置制御プロセス
125 現在位置推定プロセス
126 走行制御プロセス
130 HDD(Hard disk drive)
131 地図データ
132 対応関係データ
140 RAM(Random Access Memory)
141 グリッドマップ
150 バス

Claims (3)

  1. 自動的に移動する物体に搭載されている撮像装置によって現在位置の推定用の画像が撮像される直前に、前記物体の現在位置を推定する際に目印として利用される目標物に対応するグリットを識別するための目標物対応グリット情報と、前記物体の移動目標地点に対応するグリットを識別するための目標地点対応グリット情報とが前記物体の移動範囲を示すデータ上に展開されたグリッドマップを生成するグリッドマップ生成手順と、
    前記グリッドマップ生成手順によって生成されたグリッドマップ上に、前記目標地点対応グリット情報に対応するグリッドを中心として前記撮像装置が実際に取りうる撮像方向を示した直線を展開し、前記目標物対応グリット情報に対応する各グリッドと、前記目標地点対応グリット情報に対応するグリッドとを結ぶ線分の長さをグリッド間距離として前記撮像方向ごとにそれぞれ算出する距離算出手順と、
    前記撮像装置および前記目標物の間の実際の距離と、実際の距離に対応する距離測定精度との関係が示された予め記憶部に記憶されている対応関係情報を用いて、前記距離算出手順によって算出された各グリッド間距離から、撮像された画像を現在位置の推定に用いた場合の推定精度を示す推定精度値を前記撮像装置の撮像方向ごとに算出する推定精度値算出手順と、
    前記物体の移動方向と垂直な回転軸を中心に前記撮像装置を回転させて前記目標物を実際に撮像する際の撮像方向を、前記推定精度値算出手順によって算出された前記推定精度値が最大値となる撮像方向に決定する撮像方向決定手順と、
    をコンピュータに実行させる撮像方向決定プログラム。
  2. 前記撮像方向決定手順は、前記推定精度値算出手順によって算出された前記推定精度値が大きい順に前記撮像装置の撮像方向に対して優先順位を付与し、現在位置の推定を実行する機能部から撮像方向の再決定要求を受け付けるごとに、前記優先順位が付与された各撮像方向の中から、前回決定された撮像方向の優先順位に対して、次位の優先順位が付与された撮像方向に再決定する請求項1に記載の撮像方向決定プログラム。
  3. 前記グリッドマップ生成手順は、前記目標物の位置および高さを示した目標物対応グリット情報と、前記目標地点対応グリット情報とが前記物体が存在する空間を示すデータ上に展開された前記物体が存在する空間を示す三次元のグリッドマップを生成し、
    前記撮像方向決定手順は、前記物体の移動方向と垂直な回転軸を中心に前記撮像装置を回転させて前記目標物を実際に撮像する際の撮像方向と、前記物体の移動方向と水平な回転軸を中心に前記撮像装置を回転させて前記目標物を実際に撮像する際の撮像方向とを、前記推定精度値算出手順によって算出された前記推定精度値が最大値となる撮像方向に基づいて決定する請求項1または2に記載の撮像方向決定プログラム。
JP2008156509A 2008-06-16 2008-06-16 撮像方向決定プログラム Expired - Fee Related JP5045567B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008156509A JP5045567B2 (ja) 2008-06-16 2008-06-16 撮像方向決定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008156509A JP5045567B2 (ja) 2008-06-16 2008-06-16 撮像方向決定プログラム

Publications (2)

Publication Number Publication Date
JP2009303013A true JP2009303013A (ja) 2009-12-24
JP5045567B2 JP5045567B2 (ja) 2012-10-10

Family

ID=41549425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008156509A Expired - Fee Related JP5045567B2 (ja) 2008-06-16 2008-06-16 撮像方向決定プログラム

Country Status (1)

Country Link
JP (1) JP5045567B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015000587A1 (de) 2014-01-24 2015-07-30 Fanuc Corporation Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
WO2023100287A1 (ja) * 2021-12-01 2023-06-08 日立Astemo株式会社 運転支援装置及び運転支援方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015000587A1 (de) 2014-01-24 2015-07-30 Fanuc Corporation Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
US9352467B2 (en) 2014-01-24 2016-05-31 Fanuc Corporation Robot programming apparatus for creating robot program for capturing image of workpiece
DE102015000587B4 (de) 2014-01-24 2018-09-27 Fanuc Corporation Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
WO2023100287A1 (ja) * 2021-12-01 2023-06-08 日立Astemo株式会社 運転支援装置及び運転支援方法

Also Published As

Publication number Publication date
JP5045567B2 (ja) 2012-10-10

Similar Documents

Publication Publication Date Title
CN108717710B (zh) 室内环境下的定位方法、装置及系统
US10481265B2 (en) Apparatus, systems and methods for point cloud generation and constantly tracking position
JP6100380B2 (ja) 特に装置に係る視覚ベースの位置決めに使用される画像処理方法
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP6677521B2 (ja) 乗り物のドライバ支援システムにおける予測のためのシステムおよび方法
JP6273400B2 (ja) 周辺情報を使用した高速テンプレートマッチング
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR102051889B1 (ko) 스마트 글래스에서 2d 데이터를 기반으로 3d 증강현실을 구현하는 방법 및 시스템
JP6198230B2 (ja) 深度カメラを使用した頭部姿勢トラッキング
JP6338021B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
KR101776620B1 (ko) 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP5444952B2 (ja) センサフュージョンによる地図の自動生成、およびそのように自動生成された地図を用いて移動体の移動をするための、装置、方法、ならびにプログラム
KR101439921B1 (ko) 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템
JP6658001B2 (ja) 位置推定装置、プログラム、位置推定方法
KR102198851B1 (ko) 물체의 3차원 모델 데이터 생성 방법
CN108235735A (zh) 一种定位方法、装置及电子设备、计算机程序产品
JP2009193240A (ja) 移動ロボット及び環境地図の生成方法
CN112700486B (zh) 对图像中路面车道线的深度进行估计的方法及装置
JP2020008984A (ja) 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム
Noreikis et al. Seenav: Seamless and energy-efficient indoor navigation using augmented reality
JP2018205950A (ja) 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム
JP5045567B2 (ja) 撮像方向決定プログラム
JP2018173882A (ja) 情報処理装置、方法、及びプログラム
JP6398218B2 (ja) 自己位置算出装置及び自己位置算出方法
JP5686048B2 (ja) 位置姿勢出力装置、位置姿勢出力プログラム及び位置姿勢出力方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120619

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120702

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees