JP2021107980A - 位置同定装置、移動体位置同定システム、及び位置同定方法 - Google Patents

位置同定装置、移動体位置同定システム、及び位置同定方法 Download PDF

Info

Publication number
JP2021107980A
JP2021107980A JP2019238697A JP2019238697A JP2021107980A JP 2021107980 A JP2021107980 A JP 2021107980A JP 2019238697 A JP2019238697 A JP 2019238697A JP 2019238697 A JP2019238697 A JP 2019238697A JP 2021107980 A JP2021107980 A JP 2021107980A
Authority
JP
Japan
Prior art keywords
unit
observation
image
moving body
generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019238697A
Other languages
English (en)
Other versions
JP7349909B2 (ja
Inventor
生川 俊則
Toshinori Ubukawa
俊則 生川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Aerospace Co Ltd
Original Assignee
IHI Aerospace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Aerospace Co Ltd filed Critical IHI Aerospace Co Ltd
Priority to JP2019238697A priority Critical patent/JP7349909B2/ja
Publication of JP2021107980A publication Critical patent/JP2021107980A/ja
Application granted granted Critical
Publication of JP7349909B2 publication Critical patent/JP7349909B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】GNSSを使用できず、移動体の移動領域にランドマークが少ない場合でも、移動体の位置を正確に求める技術を提供する。【解決手段】位置同定装置20は、通信部11とCG生成部15と表示部17と操作部19と入力部21と位置同定部23を備える。通信部11は、移動体10から観測画像と観測時点の移動体10の推定位置とを受信する。CG生成部15は、推定位置をCG生成視点としたCG画像を地図データから生成する。表示部17は、観測画像とCG画像を表示する。操作部19には、CG生成視点を含むCG生成基準を変更する操作が可能である。CG生成部15は、変更後のCG生成基準でCG画像を生成し、表示部17は、このCG画像を観測画像と共に表示する。入力部21には、CG生成基準の変更操作を完了させる旨の入力が可能である。この入力により、位置同定部23は、最新のCG生成視点に基づいて移動体の位置を同定する。【選択図】図1

Description

本発明は、移動体の位置を同定する技術に関する。
車両等の移動体の位置を把握する場合に、GPS等のGNSS(Global Navigation Satellite System)が利用される。この場合、移動体は、複数の衛星から電波を受信し、当該電波に含まれる衛星の軌道情報や時間情報、および当該電波の受信時刻に基づいて、自己位置を求める。
一方、GNSSを利用せずに、移動体の位置を把握する場合には、例えば、予め作成した3次元地図データを用いたマッチングが行われる。この場合、移動体に搭載した3次元環境計測センサ(例えばLRF:Laser Range Finder)が外界を観測し、観測結果に基づいて3次元局所地図を作成し、この局所地図と、上述の3次元地図データとをマッチングさせる。この時、局所地図に含まれるランドマーク(例えば建物、道路、木など)と、3次元地図データにおける対応するランドマークとの位置合わせを行うことにより、マッチングがなされる。このようなマッチングにより、移動体の位置を求めることができる。マッチングにより移動体の位置を求める技術は、例えば特許文献1に記載されている。
特許第5817611号公報
月、火星等において、移動体(例えばローバー)を移動させて探査する場合、GNSSを利用できないので、上述したようなマッチングにより移動体の位置を求めることが考えられる。
しかし、月面においては、地球の表面に存在するような建物、道路、木などがないので、観測により得られた局所地図と、予め得た月面の大域地図データとのマッチングにおいて特徴的な建物、道路、又は木を位置合わせに用いることができない。そのため、移動体の位置を求めることが困難となる場合がある。
そこで、本発明の目的は、GNSSを使用できず、移動体の移動領域にランドマークが少ない場合でも、移動体の位置を正確に求めることができる技術を提供することにある。
上述の目的を達成するため、本発明による位置同定装置は、
観測時点に移動体から外界を観測した観測画像と、前記観測時点の前記移動体の推定位置を、前記移動体から受信する通信部と、
CG生成視点から見た環境を表すCG画像を地図データから生成するCG生成部と、
前記観測画像と共に前記CG画像を表示する表示部と、を備え、
前記通信部が前記観測画像と前記推定位置を受信すると、前記CG生成部は、前記推定位置を前記CG生成視点として前記CG画像を生成し、
前記CG生成視点を含むCG生成基準を変更する操作が可能な操作部を備え、
前記CG生成基準が変更された場合、前記CG生成部は、変更後の前記CG生成基準で前記CG画像を生成し、前記表示部は、当該CG画像を前記観測画像と共に表示し、
前記CG生成基準の変更操作を完了させる旨の入力が可能な入力部と、
当該入力がなされた場合、最新の前記CG生成視点に基づいて前記移動体の位置を同定する位置同定部と、を備える。
本発明による移動体位置同定システムは、上述の位置同定装置と前記移動体とを含むシステムであって、
前記移動体は、
前記観測時点で前記観測画像を取得する観測部と、
前記移動体の運動状態を計測する計測部と、
前記移動体の既知の初期位置と、計測された前記運動状態に基づいて、前記観測時点における前記移動体の前記推定位置を求める位置推定部と、
前記観測画像と前記推定位置を、前記位置同定装置へ送信する通信部と、を備える。
本発明による位置同定方法は、
移動体から外界を観測時点で観測した観測画像を取得し、
前記観測時点における移動体の推定位置を求め、
前記推定位置をCG生成視点としたCG画像を、予め作成した地図データから生成し、
前記CG画像を前記観測画像と共に表示し、
前記CG生成視点を含むCG生成基準を変更する操作が操作部になされた場合、変更後の前記CG生成基準でCG画像を生成し、当該CG画像を前記観測画像と共に表示し、
前記CG生成基準の変更操作を完了させる旨の入力が入力部になされた場合、最新の前記CG生成視点に基づいて前記移動体の位置を同定する。
本発明によると、移動体から外界を観測時点で観測した観測画像を取得し、観測時点における移動体の推定位置をCG生成視点としたCG画像を予め作成した地図データから生成し、CG画像を観測画像と共に表示する。人は、表示された観測画像とCG画像を見て、操作部を操作することにより、両画像が一致するようにCG生成基準のCG生成視点を変更することができる。これにより、変更後のCG生成視点によるCG画像が生成されて表示される。人は、表示された当該CG画像と観測画像とが一致したと判断したら、入力部を操作することにより、CG生成基準の変更操作を完了させる旨の入力を行える。この入力がなされた場合、最新のCG生成視点に基づいて、移動体の位置が同定される。
したがって、GNSSが使用できないこと等により、推定位置の精度が低くても、推定位置と地図データから生成したCG画像と観測画像とのマッチングに基づいて、より正確な移動体の位置を同定することができる。
また、CG画像と観測画像とのマッチングは人を介して行われるので、移動体の移動領域にランドマークが少ない場合でも、移動体の位置を正確に同定することができる。
本発明の実施形態による移動体位置同定システムの構成を示す。 移動体を示す側面図である。 (A)は、観測画像の一例を示し、(B)は、CG画像の一例を示す。 重ねて表示された観測画像とCG画像を示す。 本発明の実施形態による位置同定方法を示すフローチャートである。
本発明の実施形態を図面に基づいて説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。
図1は、本発明の実施形態による移動体位置同定システム100の構成を示す。移動体位置同定システム100は、移動体10と位置同定装置20を備える。
(移動体の構成)
図2は、移動体10を示す概略側面図である。移動体10は、惑星(地球若しくは他の惑星)又は衛星(例えば月)の表面4上を移動する。例えば、移動体10は、車輪1を有し、当該車輪1が惑星又は衛星の表面4に接触しながら回転駆動されることにより当該表面を走行する車両であってよい。代わりに、移動体10は、クローラにより上記表面4を走行する走行装置であってもよい。移動体10は、観測部3と計測部5と位置推定部7と通信部9を備える。
観測部3は、移動体10の本体2に設けられ、移動体10から外界を観測時点で観測した観測画像を取得する。観測画像は、各物体(例えば地形箇所)の位置および存在範囲を3次元的に表す画像であってよい。観測部3は、例えばレーザレーダであってよい。レーザレーダ3は、観測範囲に対してレーザ光(例えばパルスレーザ光)を走査して、物体表面の反射点からの反射レーザ光に基づいて、惑星又は月の表面4における障害物や移動体10が走行可能な面などの環境を表す観測画像を生成して取得する。レーザレーダ3は、例えばLidar(Light Detection and Ranging)またはLRF(Laser Range Finder)と呼ばれる機器であってよい。観測部3は、レーザレーダに限定されず、観測範囲を撮像することにより観測画像を取得するステレオカメラであってもよい。
計測部5は、移動体10の運動状態を検出する。計測部5は、移動体10の運動状態を検出してよい。本実施形態では、運動状態は、移動体10において検出された情報であって、移動体10の移動方向(向き)と移動距離を求めるのに用いられる情報であってよい。例えば、運動状態は、移動体10が移動する速さ(以下で単に速度という)と角速度を含む。ここで、角速度は、移動体10に固定され互いに直交する3つの軸(例えばロール軸、ピッチ軸、及びヨー軸)の各々について、当該軸回りの移動体10の本体2の回転速度を意味してよい。
計測部5は、例えば、速度検出部5aと角速度検出部5bを含む。速度検出部5aは、移動体10の速度を検出する。速度検出部5aは、一例では、上述した車輪1の回転速度を計測し、この回転速度と、既知である当該車輪1の外径とに基づいて移動体10の速度を検出する。角速度検出部5bは、移動体10の角速度(すなわち、移動体10に固定された上記各軸回りの回転速度)を検出する。角速度検出部5bは、ジャイロセンサを用いて構成されたものであってよい。
位置推定部7は、移動体10の既知の初期位置と、計測部5により計測された運動状態に基づいて、観測部3が観測画像を取得した観測時点における移動体10の推定位置を求める。すなわち、位置推定部7は、上記初期位置に移動体10が位置していた時以降から当該観測時点までの間の各時点において計測部5により計測された運動状態と、上記初期位置とに基づいて、GNSSを利用せずにデッドレコニング(dead reckoning)により当該観測時点における移動体10の推定位置を求める。
例えば、位置推定部7は、移動体10の既知の初期姿勢(すなわち、上記各軸回りの回転角)と角速度検出部5bが検出した角速度の時間積分値とから移動体10の進行方向を求める。また、位置推定部7は、上記観測時点以前の各時点で求めた当該進行方向と当該各時点で速度検出部5aが検出した速度とに基づいて、上記観測時点における移動体10の推定位置を求める。この推定位置は、移動体10が移動する領域(例えば惑星又は衛星の表面4)に固定された移動領域座標系で表わされたものであってよい。
上述した移動体10の既知の初期位置と既知の初期姿勢は、位置同定装置20の初期位置姿勢取得部27により、次のように求められてよい。初期位置姿勢取得部27は、初期時点(移動体10が上記初期位置にあり上記初期姿勢をとっている時点)において観測部3が観測した観測画像と、後述の記憶部13に記憶されている地図データとのマッチングにより移動体10の初期位置と初期姿勢を求める。例えば、初期位置姿勢取得部27は、地図データに含まれるランドマーク(例えば、特徴的な地形箇所)と、観測画像における対応するランドマークとの位置合わせを行うことによりマッチングを行って、移動体10の初期位置と初期姿勢を求めることができる。初期位置と初期姿勢を求めるための上記観測画像は、移動体10の通信部9から位置同定装置20の通信部11へ送信されて初期位置姿勢取得部27に入力されてよい。また、初期位置姿勢取得部27が求めた上記初期位置と上記初期姿勢は、位置同定装置20の通信部11から移動体10の通信部9へ送信されて位置推定部7に入力される。また、この初期姿勢は、観測方向推定部8にも入力される。
初期時点において移動体10の周囲にランドマークが無く、上記マッチングを行えない場合には、ランドマークを観測部3が撮像できる位置まで、移動体10を移動させてもよい。その結果、上述のマッチングにより移動体10の初期位置と初期姿勢を求めることができる。ランドマークを観測部3が撮像できる位置までの移動体10の移動は、例えば次のようになされてよい。観測部3が観測した観測画像が、後述のように表示部17に表示され、人は、この観測画像を見て、適宜の操作装置を操作する。この操作による指令(例えば移動方向、移動距離など)が移動体10へ送信され、移動体10は、この指令に従って移動する。これにより、ランドマークを観測部3が撮像できる位置まで移動体10を移動させることができる。次いで、ランドマークを含む観測画像が観測部3により取得され位置同定装置20へ送信される。
上記ランドマークは、特徴的な地形箇所であってもよいし、人工的なマーカーであってもよい。移動体10の移動領域が月面である場合、マーカーは、月面着陸船や月面ローバー等が予め設置したものであってよい。
なお、初期位置姿勢取得部27は、位置同定装置20ではなく移動体10に設けられており、上記地図データを記憶していてもよい。この場合、初期位置姿勢取得部27は、求めた上記初期位置を位置推定部7に入力し、求めた上記初期姿勢を位置推定部7と観測方向推定部8に入力する。
また、計測部5は、移動体10の本体2の姿勢変化状態を検出する。姿勢変化状態は、移動体10において検出された情報であって、本体2の姿勢(すなわち、向き)を求めるのに用いられる情報である。本実施形態では、姿勢変化状態は、角速度検出部5bにより検出される上述した各軸回りの角速度であってよい。
観測方向推定部8は、観測部3の観測方向を推定観測方向として求める。ここで、観測方向は、観測時点に観測部3が外界を観測した方向である。観測方向は、観測部3から見た上記観測範囲(観測部3の視野)の中心の方向であってよい。
観測方向推定部8は、移動体10(本体2)の既知の初期姿勢と、移動体10の姿勢が上記初期姿勢となっている上記初期時点から当該観測時点までの間の各時点において計測部5により計測された姿勢変化状態に基づいて、観測時点における移動体10の推定姿勢を求め、当該推定姿勢に基づいて、推定観測方向を求める。推定姿勢は、上述した各軸回りの本体2の回転角であってよい。当該各回転角は、対応する上記軸回りに基準角から回転した角度であってよく、基準角に一致する時は0度または360度であり、0度から360度までの値をとり、360度になったら0度に戻る。観測方向推定部8は、上記のように求めた推定姿勢と、本体2に対する観測部3の向き(観測方向)とに基づいて、上述の移動領域座標系で表わされる観測部3の推定観測方向を求める。本体2に対する観測部3の向きは、固定されている場合には、既知であり、変化する場合には、観測時点に適宜のセンサにより計測されて観測方向推定部8に入力される。
通信部9は、上記観測時点に観測部3が取得した観測画像と、位置推定部7が求めた当該観測時点における上記推定位置と、観測方向推定部8が求めた当該観測時点における上記推定観測方向を、位置同定装置20へ無線通信により送信する。
(位置同定装置の構成)
位置同定装置20は、移動体10から離れた遠隔位置に設けられる。例えば、移動体10は月面に位置し、位置同定装置20は地球上に位置する。位置同定装置20は、通信部11と記憶部13とCG生成部15と表示部17と操作部19と入力部21と位置同定部23と姿勢同定部24と更新部25とを備える。
通信部11は、移動体10の通信部9から送信された上記観測画像と上記推定位置と上記推定観測方向を受信する。
記憶部13は、移動体10が移動する領域の地図データを記憶する。地図データは、予め作成されて記憶部13に記憶される。地図データは、CG生成部15がCG画像を生成するのに利用される。地図データは、上述の移動領域座標系で表わされていてよい。
移動体10の移動領域が月面である場合、月を回る観測衛星に搭載された観測機器(例えばレーザ高度計)により月面を観測したデータ(月面の地形と標高)に基づいて、月面の3次元の地図が上記地図データとして予め作成されてよい。或いは、移動体10を搭載した月面着陸船が月面に着陸する前に、月面の上方から、月面着陸船に搭載した観測機器(例えばレーザ高度計)により月面を観測したデータ(月面の地形と標高)に基づいて、月面の3次元の地図を上記地図データとして予め作成してよい。なお、例えば、上記観測機器により観測したデータが、観測衛星又は月面着陸船から、位置同定装置20の通信部11へ送信され、当該データに基づいて、位置同定装置20に設けられた地図生成部14が、月面の上記3次元の地図を上記地図データとして作成して記憶部13に記憶してもよい。
CG生成部15は、CG生成視点から仮想観測方向に見た環境を表すCG(computer graphics)画像を、記憶部13の地図データから生成する。CG生成視点と仮想観測方向は、それぞれ、記憶部13の地図データ(移動領域座標系)において表わされる視点と方向である。通信部11が上述した観測画像と推定位置と推定観測方向を受信すると、CG生成部15は、当該推定位置と推定観測方向をそれぞれCG生成視点と仮想観測方向としてCG画像を、記憶部の地図データから生成する。すなわち、CG生成部15は、記憶部13の地図データにおいて、推定位置から推定観測方向に見た環境を表すCG画像を生成する。
表示部17は、CG生成部15が生成したCG画像を、通信部11が受信した上記観測画像と共に表示する。CG画像と観測画像は、同じ視野範囲の画像であってよい。一例では、表示部17は、CG画像と観測画像とを、互いに(例えば部分的ではなく全体的に)重ねて表示する。なお、表示部17は、CG画像と観測画像とを、重ねずに、画面の別々の領域にそれぞれ表示してもよい。
表示部17の画面においてCG画像と観測画像が互いに重ねて表示される場合に、両画像のうち、画面の手前側の画像(例えばCG画像)を通して奥側の画像(例えば観測画像)が見えるように、手前側の画像は透明部分を有する。手前側の画像において、透明部分以外の非透明部分は、例えば、障害物や各物体の輪郭又は外形を表す線又は多数の点を含んでよい。非透明部分は、このような線又は多数の点に加えて、惑星又は月の表面に間隔をおいて描かれた複数の等高線を含んでもよい。
図3(A)は、通信部9から送信された観測画像の一例を示す。図3(B)は、この観測画像と共に通信部9から送信された推定位置と推定観測方向をそれぞれCG生成視点と仮想観測方向としてCG生成部15により生成されるCG画像の一例を示す。図4は、表示部17により重ねて表示された図3(A)の観測画像と図3(B)のCG画像を示す。
操作部19は、上述したCG生成視点と仮想観測方向からなるCG生成基準を変更する操作を人が行えるように構成されている。したがって、人は、表示部17に表示されたCG画像と観測画像を見ながら、操作部19を操作することにより、CG生成視点を現在のCG生成視点(例えば上記推定位置)から変更することができ、仮想観測方向を現在の仮想観測方向(例えば上記推定観測方向)から変更することができる。このように、人は、操作部19を操作することにより、CG生成視点と仮想観測方向の一方又は両方を変更することができる。操作部19になされた操作により特定された変更後のCG生成基準が操作部19からCG生成部15へ入力される。
人は、操作部19を操作することにより、CG生成視点を、現在のCG生成視点(未だCG生成視点を変更していない場合には上述の推定位置)から所望の方向に所望の距離だけ変更することができる。所望の方向は、例えば、表示部17の画面の奥行方向、手前方向、左方向、右方向、上方向、及び下方向のいずれかであってもよく、或いは、これらの方向の2つ以上であってよい。後者の場合、操作部19の操作により、方向毎に、CG生成視点の変更距離を指定できる。なお、これらの方向について、奥行方向と手前方向は、表示部17の画面に直交する方向であって互いに逆向きである。また、左方向と右方向は、表示部17の画面に平行であって、互いに逆向きである。上方向と下方向は、奥行方向、手前方向、左方向、及び右方向に直交する方向であって互いに逆向きである。
また、人は、操作部19を操作することにより、仮想観測方向を、現在の仮想観測方向(例えば、未だCG生成視点を変更していない場合には、上述の推定観測方向)から所望の方向に所望の角度だけ変更することができる。
操作部19が操作されることにより、CG生成基準が変更された場合、CG生成部15は、変更後のCG生成基準に従ってCG画像を新たに生成する。例えば、CG生成基準のCG生成視点と仮想観測方向の両方が変更されている場合には、変更後のCG生成視点から変更後の仮想観測方向に見た環境を表すCG画像を、地図データに基づいて新たに生成する。表示部17は、新たに生成されたCG画像を観測画像と共に表示する。この時のCG画像と観測画像の表示方法は、上述と同じであってよい。
図4の例では、CG画像は観測画像に対して右方向に10mずれている。この場合、CG生成視点を左方向に10mだけ変更する操作が操作部19になされることにより、CG生成部15は、新たなCG画像を生成し、表示部17により表示される当該CG画像と観測画像とが一致するようになる。例えば、当該CG画像と観測画像とが表示部17により重ねて表示された場合には、両画像において互いに対応する物体(例えば地形箇所)同士が全体的に重なる状態になる。
入力部21は、CG生成基準の変更操作を完了させる旨の入力(以下で単に完了入力ともいう)を人が行えるように構成されている。すなわち、人は、表示部17に表示されたCG画像と観測画像を見て、両画像が一致していると判断したら、入力部21を操作することにより、完了入力を位置同定装置20に行う。なお、「両画像が一致している」とは、例えば、両画像において、同じ物体が同じ位置に同じ大きさで且つ同じ向きに映っている場合を意味してよい。
位置同定部23は、完了入力がなされた場合、最新のCG生成視点に基づいて、観測画像を取得した観測時点における移動体10の位置を同定する。例えば、位置同定部23は、記憶部13における地図データにおける最新のCG生成視点の位置を、移動体10の位置として同定(決定)する。
姿勢同定部24は、完了入力がなされた場合、最新の仮想観測方向に基づいて、観測画像を取得した観測時点における移動体10の姿勢を同定する。例えば、姿勢同定部24は、記憶部13における地図データ(上記移動領域座標系)における最新の仮想観測方向と、移動体10の本体2に対する観測部3の向き(観測方向)とに基づいて、上記移動領域座標系における移動体10(本体2)の姿勢を同定(決定)する。本体2に対する観測部3の向きは、固定されている場合には、既知であり、変化する場合には、上述のように移動体10において適宜のセンサにより計測されて通信部9,11を介して姿勢同定部24へ入力される。
このように位置同定部23と姿勢同定部24によりそれぞれ同定された位置及び姿勢は、上述の推定位置と推定姿勢よりも正確な同定位置及び同定姿勢として、通信部11から移動体10へ無線通信で送信される。
更新部25は、完了入力がなされたら、観測画像のデータを、最新のCG生成視点から最新の仮想観測方向に見た環境を表すデータとして地図データに組み込む。これにより、更新部25は、記憶部13内の地図データを更新する。観測画像のデータは、各物体の位置及び存在範囲を表すデータである。例えば、観測画像が、レーザレーダにより取得したものである場合には、観測画像のデータは、各物体表面における各点の3次元座標値を含む。この場合、更新部25は、当該各3次元座標を物体表面の点として記憶部13内の地図データに組み込む。
更新部25は、観測画像のデータを地図データに組み込む時に、座標変換を行ってよい。観測画像のデータは、観測部3に固定された観測座標系で表わされたデータであり、地図データは、上述の移動領域座標系で表わされたデータである。更新部25は、最新のCG生成視点と最新の仮想観測方向に基づいて、観測座標系で表わされた観測画像のデータ(例えば上記各3次元座標値)を、移動領域座標系のデータに変換して地図データに組み込む。より詳しくは、観測座標系の原点(観測部3の位置)を移動座標系における最新のCG生成視点に一致させ、観測座標系において原点を通る既知の観測軸(観測方向)を、移動領域座標系おいて最新のCG生成視点から最新の仮想観測方向に延びる軸に一致させるように、観測座標系を併進および回転させることにより、更新部25は、観測座標系で表わされたデータ(例えば上記各3次元座標値)を、移動領域座標系におけるデータに変換する。
なお、一例では、人は、表示部17に表示された観測画像又はCG画像を見て、適宜の操作装置を操作することにより、移動体10の移動に関する指令(例えば移動方向、移動距離など)を入力することができる。この指令は、通信部11介して移動体10へ送信される。移動体10では、この指令を通信部9により受信する。移動体10は、このように受信した指令に従って移動するように構成されてよい。
上述した位置同定装置20は、コンピュータを用いて構成されてよい。この場合、地図生成部14、CG生成部15、位置同定部23、姿勢同定部24、及び更新部25は、コンピュータに設けたCPU(central processing unit)がコンピュータプログラムを実行することにより実現されてよい。また、操作部19と入力部21は、例えばキーボード、マウス、タッチパネルなどにより構成されてよい。
(位置同定方法)
図5は、本発明の実施形態による位置同定方法を示すフローチャートである。この方法は、上述の移動体位置同定システム100により実行されてよい。
ステップS1では、観測部3が、観測時点において外界を観測した観測画像を取得する。このステップS1は、所定の時間間隔をおいて行われてもよいし、移動体10が所定の距離を移動する度に行われてもよいし、外部から観測指令を移動体10が受ける度に行われてもよいし、他のタイミングで行われてもよい。ステップS1が行われる度に、このステップS1に対して後述のステップS2〜S11が行われてよい。
ステップS2では、ステップS1の観測時点における移動体10の推定位置と推定観測方向を、それぞれ、上述のように位置推定部7と観測方向推定部8により求める。
ステップS3では、移動体10の通信部9が、ステップS1で取得された観測画像とステップS2で求められた推定位置と推定観測方向を、無線通信により位置同定装置20へ送信する。また、ステップS3では、送信された当該観測画像と推定位置と推定観測方向が、位置同定装置20の通信部11により受信される。
ステップS4では、位置同定装置20において、CG生成部15が、ステップS3で受信した推定位置をCG生成視点とし、ステップS3で受信した推定観測方向を仮想観測方向としたCG画像を、記憶部13の地図データから生成する。
ステップS5では、表示部17は、ステップS4で生成されたCG画像を、ステップS3で受信された観測画像と共に表示する。
ステップS6では、人は、ステップS5で表示されたCG画像と観測画像を見て、CG画像と観測画像とが一致しているかどうかを判断する。この判断の結果が否定である場合には、ステップS7へ進み、この判断の結果が肯定である場合には、ステップS8へ進む。
ステップS7では、人は操作部19を操作することにより、CG画像が観測画像に一致するようにCG生成基準を変更する。このステップS7の後、上述のステップS4〜S6が再び行われる。すなわち、再度のステップS4では、ステップS7で変更されたCG生成基準に従って、CG生成部15はCG画像を生成する。次いで、このCG画像と、ステップS3で受信された観測画像とが、表示部17に表示される。次に、当該CG画像と観測画像について上述のステップS6が再び行われる。
一方、ステップS8では、人は、入力部21を操作することにより、CG生成基準の変更操作を完了させる旨の入力を行う。この入力がなされると、ステップS9〜S11が行われる。
ステップS9では、位置同定部23が、上述のように最新のCG生成視点に基づいて移動体10の位置を同定し、姿勢同定部24が、上述のように最新の仮想観測方向に基づいて移動体10の姿勢を同定する。ここで、最新のCG生成視点は、ステップS7が1回も行われていない場合には、ステップS3で受信された推定位置であり、ステップS7が1回以上行われている場合には、直前に行われたステップS7で変更されたCG生成基準のCG生成視点である。同様に、最新の仮想観測方向は、ステップS7が1回も行われていない場合には、ステップS3で受信された推定観測方向であり、ステップS7が1回以上行われている場合には、直前に行われたステップS7で変更されたCG生成基準の仮想観測方向である。
ステップS10では、ステップS9で同定された移動体10の位置と姿勢が、位置同定装置20の通信部11から移動体10へそれぞれ同定位置及び同定姿勢として送信される。これらの同定位置及び同定姿勢は、移動体10の通信部9に受信され、移動体10の位置推定部7と観測方向推定部8において新たな初期位置及び初期姿勢として利用される。
すなわち、位置推定部7は、この同定位置を、前回のステップS1の観測時点における初期位置として新たに設定する。その後、位置推定部7は、当該初期位置と、前回のステップS1の観測時点以降において計測部5が各時点で計測した移動体10の運動状態とに基づいて、再度のステップS1での観測時点における移動体10の推定位置を再度のステップS2で求める。
同様に、観測方向推定部8は、上記同定姿勢を、前回のステップS1の観測時点における初期姿勢として新たに設定する。その後、観測方向推定部8は、当該初期姿勢と、前回のステップS1の観測時点以降において計測部5が各時点で計測した移動体10の姿勢変化状態とに基づいて、再度のステップS1での観測時点における推定観測方向を再度のステップS2で求める。
ステップS11は、ステップS9、S10と並行して行われてよい。ステップS11では、更新部25は、ステップS3で受信された観測画像のデータを上述のように記憶部13の地図データに組み込む。これにより、記憶部13における地図データが更新される。
(実施形態による効果)
本実施形態によると、観測時点で移動体10から観測画像を取得し、観測時点における移動体10の推定位置と推定観測方向を求め、推定位置をCG生成視点とし推定観測方向を仮想観測方向としたCG画像を予め作成した地図データから生成し、CG画像を観測画像と共に表示する。人は、表示された観測画像とCG画像を見て、操作部19を操作することにより、両画像が一致するようにCG生成基準(CG生成視点と仮想観測方向)を推定位置と推定観測方向から変更することができる。これにより、変更後のCG生成基準によるCG画像が生成されて表示される。人は、表示された当該CG画像と観測画像とが一致したと判断したら、入力部21を操作することにより、CG生成基準の変更操作を完了させる旨の入力を行える。この入力がなされた場合、位置同定部23は、最新のCG生成視点に基づいて移動体10の位置を同定し、姿勢同定部24は、最新の仮想観測方向に基づいて移動体10の位置を同定する。
したがって、GNSSが使用できないこと等により、推定位置と推定観測方向(推定姿勢)の精度が低くても、推定位置と推定観測方向(推定姿勢)と地図データから生成したCG画像と観測画像とのマッチングに基づいて、より正確な移動体10の位置と姿勢を同定することができる。また、このマッチングは人を介して行われるので、移動体10の移動領域においてランドマークが少ない場合でも、移動体10の位置と姿勢を正確に同定することが可能となる。
また、位置同定部23と姿勢同定部24がそれぞれ同定した移動体10の位置と姿勢は、移動体10へ送信され、移動体10の位置と姿勢を推定する場合の初期位置と初期姿勢として利用できる。したがって、移動体10においてデッドレコニングにより推定される移動体10の位置と姿勢の精度が低下することを防止できる。
また、CG画像と観測画像とが一致した時のCG生成視点と仮想観測方向に基づいて、観測画像のデータが地図データに組み込まれる。したがって、予め作成した地図データが精密でなくても、地図データがより精密になるように更新される。移動体10の移動に伴って、上述のステップS1〜S11を繰り返し行うことにより、異なる位置や観測方向で取得した複数の観測画像のデータが地図データに組み込まれる。これにより、広範囲にわたってより精密化されるように地図データを更新できる。
本発明は上述した実施の形態に限定されず、本発明の技術的思想の範囲内で種々変更を加え得ることは勿論である。例えば、以下の変更例1,2の一方又は両方を採用してもよい。この場合、以下で説明しない点は、上述と同じであってよい。
(変更例1)
観測部3が、移動体10の全方位を観測したパノラマ画像を上記観測画像として取得する場合には、観測方向推定部8と姿勢同定部24が省略されてもよい。この場合、CG生成部15は、CG生成視点から全方位を見た環境を表すパノラマ画像をCG画像として生成する。また、この場合、CG生成基準は、CG生成視点であり、仮想観測方向を含まない。
また、この場合、観測画像を地図データに組み込む時の座標変換について、観測座標系の併進は上述と同じであってよいが、観測座標系の回転は次のように行われてよい。人は、表示部17に表示されているCG画像と観測画像とを、所定の中心軸回りに互いに回転させる操作を、ステップS8の前に適宜の操作装置により行ってよい。これにより、表示されているCG画像と観測画像の所定の中心軸回りの回転位相が互いに一致したら、ステップS8を行う。次いで、ステップS11で、更新部25は、上記所定の中心軸回りの回転操作量に基づいて観測座標系を移動領域座標系に対して回転させることにより、観測画像のデータを観測座標系から移動領域座標系に変換して記憶部13の地図データに組み込んでよい。
変更例1では、姿勢同定部24が省略される場合、必要に応じて、移動体10の姿勢(例えば進行方向)が適宜の方法で求められてもよい。例えば、移動体10が直進している場合に、位置同定部23が前回に同定した移動体10の位置から見た、位置同定部23が今回に同定した移動体10の位置の向きが、位置同定装置20により移動体10の姿勢として求められてもよい。
(変更例2)
移動体10と位置同定装置20は、互いに離れて位置するが、いずれも地球上に位置してよい。この場合、移動体10が、GNSSを使用しない装置であってよい。
1 車輪
2 本体
3 観測部
4 表面
5 計測部
5a 速度検出部
5b 角速度検出部
7 位置推定部
8 観測方向推定部
9 通信部
10 移動体
11 通信部
13 記憶部
14 地図生成部
15 CG生成部
17 表示部
19 操作部
20 位置同定装置
21 入力部
23 位置同定部
24 姿勢同定部
25 更新部
27 初期位置姿勢取得部
100 移動体位置同定システム

Claims (8)

  1. 観測時点に移動体から外界を観測した観測画像と、前記観測時点の前記移動体の推定位置を、前記移動体から受信する通信部と、
    CG生成視点から見た環境を表すCG画像を地図データから生成するCG生成部と、
    前記観測画像と共に前記CG画像を表示する表示部と、を備え、
    前記通信部が前記観測画像と前記推定位置を受信すると、前記CG生成部は、前記推定位置を前記CG生成視点として前記CG画像を生成し、
    前記CG生成視点を含むCG生成基準を変更する操作が可能な操作部を備え、
    前記CG生成基準が変更された場合、前記CG生成部は、変更後の前記CG生成基準で前記CG画像を生成し、前記表示部は、当該CG画像を前記観測画像と共に表示し、
    前記CG生成基準の変更操作を完了させる旨の入力が可能な入力部と、
    当該入力がなされた場合、最新の前記CG生成視点に基づいて前記移動体の位置を同定する位置同定部と、を備える、位置同定装置。
  2. 前記通信部は、前記観測画像と前記推定位置と共に、前記観測画像の推定観測方向を受信し、
    前記CG生成部は、前記CG生成視点から仮想観測方向に見た環境を表すCG画像を前記地図データから生成し、
    前記通信部が前記観測画像と前記推定位置と前記推定観測方向を受信すると、前記CG生成部は、前記推定位置と前記推定観測方向をそれぞれ前記CG生成視点と前記仮想観測方向として前記CG画像を生成し、
    前記操作部の操作により変更可能な前記CG生成基準は、前記CG生成視点と前記仮想観測方向からなり、
    前記入力部による前記入力がなされた場合、最新の前記仮想観測方向に基づいて、前記観測時点における前記移動体の姿勢を同定する姿勢同定部を備える、請求項1に記載の位置同定装置。
  3. 前記通信部は、前記位置同定部が求めた前記移動体の位置を前記移動体へ送信する、請求項1に記載の位置同定装置。
  4. 前記通信部は、前記位置同定部が求めた前記移動体の位置と、前記姿勢同定部が求めた前記移動体の姿勢を、前記移動体へ送信する、請求項2に記載の位置同定装置。
  5. 前記地図データを記憶する記憶部と、
    前記地図データを更新する更新部と、を備え、
    前記入力部による前記入力がなされた場合、前記観測画像のデータを、最新の前記CG生成基準に基づいて地図データに組み込む、請求項1〜4のいずれか一項に記載の位置同定装置。
  6. 請求項1に記載の位置同定装置と前記移動体とを含む移動体位置同定システムであって、
    前記移動体は、
    前記観測時点で前記観測画像を取得する観測部と、
    前記移動体の運動状態を計測する計測部と、
    前記移動体の既知の初期位置と、計測された前記運動状態に基づいて、前記観測時点における前記移動体の前記推定位置を求める位置推定部と、
    前記観測画像と前記推定位置を、前記位置同定装置へ送信する通信部と、を備える、移動体位置同定システム。
  7. 前記位置同定装置の前記通信部は、前記位置同定部が同定して前記移動体の位置を、同定位置として前記移動体に送信し、
    前記移動体の前記通信部が前記同定位置を受信した場合、前記位置推定部は、当該同定位置を前記観測時点における初期位置として、当該初期位置と、前記観測時点以降において前記計測部が計測した前記移動体の運動状態に基づいて、次の観測時点における前記移動体の推定位置を求める、請求項6に記載の移動体位置同定システム。
  8. 移動体から外界を観測時点で観測した観測画像を取得し、
    前記観測時点における移動体の推定位置を求め、
    前記推定位置をCG生成視点としたCG画像を、予め作成した地図データから生成し、
    前記CG画像を前記観測画像と共に表示し、
    前記CG生成視点を含むCG生成基準を変更する操作が操作部になされた場合、変更後の前記CG生成基準でCG画像を生成し、当該CG画像を前記観測画像と共に表示し、
    前記CG生成基準の変更操作を完了させる旨の入力が入力部になされた場合、最新の前記CG生成視点に基づいて前記移動体の位置を同定する、位置同定方法。
JP2019238697A 2019-12-27 2019-12-27 位置同定装置、移動体位置同定システム、及び位置同定方法 Active JP7349909B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019238697A JP7349909B2 (ja) 2019-12-27 2019-12-27 位置同定装置、移動体位置同定システム、及び位置同定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019238697A JP7349909B2 (ja) 2019-12-27 2019-12-27 位置同定装置、移動体位置同定システム、及び位置同定方法

Publications (2)

Publication Number Publication Date
JP2021107980A true JP2021107980A (ja) 2021-07-29
JP7349909B2 JP7349909B2 (ja) 2023-09-25

Family

ID=76967921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019238697A Active JP7349909B2 (ja) 2019-12-27 2019-12-27 位置同定装置、移動体位置同定システム、及び位置同定方法

Country Status (1)

Country Link
JP (1) JP7349909B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003706A (ja) * 2010-06-21 2012-01-05 Mitsubishi Heavy Ind Ltd 無人走行車両の誘導装置及び無人走行車両の誘導方法
JP2017078607A (ja) * 2015-10-19 2017-04-27 株式会社豊田中央研究所 車両位置推定装置及びプログラム
WO2018070022A1 (ja) * 2016-10-13 2018-04-19 日産自動車株式会社 自己位置推定方法及び自己位置推定装置
JP2018110352A (ja) * 2017-01-05 2018-07-12 Kddi株式会社 操縦装置、情報処理方法、プログラム、及び飛行システム
WO2019187816A1 (ja) * 2018-03-30 2019-10-03 日本電産シンポ株式会社 移動体および移動体システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003706A (ja) * 2010-06-21 2012-01-05 Mitsubishi Heavy Ind Ltd 無人走行車両の誘導装置及び無人走行車両の誘導方法
JP2017078607A (ja) * 2015-10-19 2017-04-27 株式会社豊田中央研究所 車両位置推定装置及びプログラム
WO2018070022A1 (ja) * 2016-10-13 2018-04-19 日産自動車株式会社 自己位置推定方法及び自己位置推定装置
JP2018110352A (ja) * 2017-01-05 2018-07-12 Kddi株式会社 操縦装置、情報処理方法、プログラム、及び飛行システム
WO2019187816A1 (ja) * 2018-03-30 2019-10-03 日本電産シンポ株式会社 移動体および移動体システム

Also Published As

Publication number Publication date
JP7349909B2 (ja) 2023-09-25

Similar Documents

Publication Publication Date Title
Stöcker et al. Quality assessment of combined IMU/GNSS data for direct georeferencing in the context of UAV-based mapping
KR101928689B1 (ko) 점군 화상 생성 장치 및 표시 시스템
US10481265B2 (en) Apparatus, systems and methods for point cloud generation and constantly tracking position
KR101625486B1 (ko) 지도 기반 측위 시스템 및 그 방법
CN110873570B (zh) 用于位置信息的定源、生成并且更新表示位置的地图的方法和装置
US9562971B2 (en) Point-cloud fusion
CN109099912A (zh) 室外精确定位导航方法、装置、电子设备及存储介质
Thrun et al. Scan alignment and 3-D surface modeling with a helicopter platform
CA2878114C (en) Visual positioning system
EP3244371B1 (en) Augmented image display using a camera and a position and orientation sensor unit
US20090262974A1 (en) System and method for obtaining georeferenced mapping data
CN113820735B (zh) 位置信息的确定方法、位置测量设备、终端及存储介质
CN103335654B (zh) 一种行星动力下降段的自主导航方法
JP6001914B2 (ja) 目標位置特定装置、目標位置特定システム、および目標位置特定方法
Soheilian et al. Generation of an integrated 3D city model with visual landmarks for autonomous navigation in dense urban areas
EP2761326B1 (en) Method for improving the accuracy of a radio based navigation system
JP7349909B2 (ja) 位置同定装置、移動体位置同定システム、及び位置同定方法
CN102967308A (zh) 一种远距离任意目标的三维定位方法
Ishikawa et al. A study of precise road feature localization using mobile mapping system
EP2696168A1 (en) Using gravity measurements within a photogrammetric adjustment
CN109032330A (zh) 无缝桥接ar装置和ar系统
WO2021220420A1 (ja) 計測装置、計測方法、及びプログラム
JP3251705B2 (ja) 車両位置修正方式
Kealy et al. A technology fusion approach for augmented reality applications
US11598631B2 (en) Determining depth of buried assets

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230912

R150 Certificate of patent or registration of utility model

Ref document number: 7349909

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150