JP4672190B2 - 映像ナビゲーション装置 - Google Patents

映像ナビゲーション装置 Download PDF

Info

Publication number
JP4672190B2
JP4672190B2 JP2001180477A JP2001180477A JP4672190B2 JP 4672190 B2 JP4672190 B2 JP 4672190B2 JP 2001180477 A JP2001180477 A JP 2001180477A JP 2001180477 A JP2001180477 A JP 2001180477A JP 4672190 B2 JP4672190 B2 JP 4672190B2
Authority
JP
Japan
Prior art keywords
information
image
angle
instruction
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001180477A
Other languages
English (en)
Other versions
JP2003014477A (ja
Inventor
浩司 脇本
昭二 田中
裕昭 増岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2001180477A priority Critical patent/JP4672190B2/ja
Priority to PCT/JP2002/004079 priority patent/WO2002089091A1/ja
Priority to US10/311,570 priority patent/US7405746B2/en
Priority to EP02722745A priority patent/EP1383099B1/en
Publication of JP2003014477A publication Critical patent/JP2003014477A/ja
Application granted granted Critical
Publication of JP4672190B2 publication Critical patent/JP4672190B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera

Description

【0001】
【発明の属する技術分野】
本発明は、車載情報端末や携帯情報端末を用いて道順案内などの指示情報を映像によりドライバーや歩行者に提供する映像ナビゲーション装置に関するものである。
【0002】
【従来の技術】
従来の映像ナビゲーション装置の例としては、例えば特開平9−33271号公報(以下、公報1という)に開示されたナビゲーション装置や特開平11−108684号公報(以下、公報2という)に開示されたカーナビゲーションシステムが知られている。これら公報1、2の映像ナビゲーション装置に共通する原理を図23に示す。
【0003】
図23において、位置・角度センサー1は、カメラ2の位置および角度を検知するためのものである。位置センサーとしては例えばGPS(Global Positioning System)衛星を用いて現在位置を知るセンサーがある。また、角度センサーとしては、磁気を利用したものやジャイロの原理を利用したもの、またはそれらを組み合わせたものなどがある。
【0004】
この位置・角度センサー1によって検知されたカメラ2の位置を示す位置情報および角度を示す角度情報は、位置・角度情報記憶手段3に記憶される。カメラ2は、車両に搭載され当該車両前方の情景を画像情報として取り込んで、情景画像記憶手段4に記憶する。利用者に対して提供すべき進行方向などの指示情報(例えば矢印や記号、文字などの情報)は、機械的または人為的に生成され、指示情報記憶手段5に記憶される。指示画像生成手段6は、位置・角度情報記憶手段3に記憶されている位置情報及び角度情報を指示情報記憶手段5に記憶されている指示情報に基づいて加工すると共に、この加工処理した結果と情景画像記憶手段4に記憶されている情景画像データとを合成した上で表示装置7に表示する。
【0005】
以上のような原理により、実際の情景に矢印や記号、文字を埋め込んだ映像を用いて利用者を目標地へ誘導することができる。
【0006】
【発明が解決しようとする課題】
しかしながら、従来の映像ナビゲーション装置では、位置・角度センサー1すなわち位置センサーに加えて角度センサーを装備する必要があり、このため装置が大きく、また重くなってしまうという問題があった。特に、携帯電話や携帯情報端末を用いて映像ナビゲーションを行う場合は、利用者が簡単に持ち歩けるように装置を小型軽量化する必要があるが、位置・角度センサー1を装備し、かつ携帯に適した小型軽量の装置を得ることが難しいという問題があった。
【0007】
また、例えば位置センサーとしてGPSを利用した場合は、トンネルや建物の影などGPS衛星の電波の届かない位置においては正確な位置を知ることができないという問題がある。そのため、位置・角度センサー1にこのような誤差が生じる場合は、その誤差に応じて指示画像生成手段6によって実際の情景に埋め込む矢印や記号、文字の位置にずれが生じることとなり、よって利用者を誤った方向に誘導してしまう恐れがあるという問題があった。
【0008】
ところで、カメラの現在の位置を正確に知りたいという課題に対しては、例えば特開平9−152348号公報(以下、公報3という)に開示されたカーナビゲーション装置が知られている。この公報3には、予め用意した画像とカメラで撮像した画像(カメラ画像)とを比較し、この比較した結果に基づいてGPS等を用いた測位結果の誤差を補正する方法が開示されている。この方法は、信号機や道路標識などの予め登録した特定のパターン(一般にテンプレートと呼ばれる)をカメラ画像と照合して、カメラの位置を推定しようとするものである。すなわち、先ずパターンマッチングによりカメラ画像の中からテンプレートに合致する部分画像を見つけ出す。次に、テンプレートに合致する部分が見つかったら当該部分画像の大きさに基づき、カメラから信号機や道路標識までの距離を推定する。一般的に信号機や道路標識は交差点に設置されるものであるという知識を使えば、交差点の位置に関する情報に基づきカメラの位置を推定することができる。
【0009】
しかしながら、上記公報3に開示された測位結果の誤差を補正する方法では、以下のような問題が発生する。すなわち、信号機や道路標識のように形状がほぼ固定した目印になる対象物が存在する地点においては、この対象物を目印にカメラ位置を推定することができるものの、信号機や道路標識のように形状が固定した対象物を予め目印として設定できない地点では、カメラ位置を推定することができない。
【0010】
また、上述した測位結果の誤差を補正する方法では、時々刻々変化するカメラ画像の中から予め設定された複数のテンプレートに合致する部分画像を探索する必要がある。しかし、パターンマッチングの処理は探索範囲が広くなると処理量が増え、かつ精度が低下するという傾向があるため、上述した測位結果の誤差を補正する方法では、パターンマッチングを短時間に、しかも精度良く処理することが難しいという問題があった。
【0011】
この発明は上記に鑑みてなされたもので、角度センサーまたは位置センサーの一方のセンサーからの情報のみを用いて、または位置及び角度センサーからの誤差を含んだ情報を用いて、短時間に精度良くカメラの位置情報および角度情報を推定することにより、実際の情景に的確に矢印や記号、文字などの指示情報を埋め込んで利用者を誘導することができる映像ナビゲーション装置を得ることを第1の目的としている。
【0012】
次に、上記公報1、2に記載された映像ナビゲーション装置を含む従来の映像ナビゲーション装置をフォークリフトやクレーン車、ブルドーザなどの作業車に搭載し、ドライバーに作業手順の指示を行う場合を考える。これらの作業車は所定の区域内で作業するのが通常であるから同じ地点を繰り返し通過することが多い。ところが、上記従来の映像ナビゲーション装置では、矢印などの指示情報を予め特定の地点に対応づけておくようになっているため、たとえば同じ地点Aにおいて、1回目は左折し、2回目は右折するなどの手順の場合、地点Aには左折の矢印と右折の矢印が両方表示されてしまい、的確な誘導ができない、という問題がある。
【0013】
この発明は上記に鑑みてなされたもので、一連の作業手順を、その順を追って指示することができる映像ナビゲーション装置を得ることを第2の目的としている。
【0014】
【課題を解決するための手段】
上記第1の目的を達成するためこの発明にかかる映像ナビゲーション装置は、情景を撮像する撮像手段と、該撮像手段の位置および角度を推定する推定手段と、該推定手段によって推定された撮像手段の位置および角度の推定値に対応して推定画像を生成する推定画像生成手段と、該推定画像生成手段によって生成された推定画像と前記撮像手段によって撮像された情景画像とを照合すると共に、この照合した結果に応じて前記推定手段によって推定された推定値を補正する照合手段と、該照合手段による補正処理された後の前記撮像手段の位置を示す位置情報および当該撮像手段の角度を示す角度情報に基づき予め指示される指示情報を加工して指示画像を生成する指示画像生成手段と、該指示画像生成手段によって生成された指示画像を表示する表示手段と、を備えたことを特徴とする。
【0015】
この発明によれば、推定画像生成手段が、推定手段によって推定された撮像手段の位置および角度の推定値に対応して推定画像を生成し、また、照合手段が、この推定画像と撮像手段によって撮像された情景画像とを照合すると共に、この照合した結果に応じて推定手段によって推定された推定値を補正し、さらに、指示画像生成手段が、前記補正処理された後の撮像手段の位置を示す位置情報および角度を示す角度情報に基づき予め指示される指示情報を加工して指示画像を生成する。
【0016】
つぎの発明にかかる映像ナビゲーション装置は、上記の発明において、前記指示画像生成手段は、前記位置情報および角度情報に基づき前記指示情報を加工し、この加工した結果と前記撮像手段により撮像された情景画像または前記推定画像生成手段により生成された推定画像のいずれかの画像とを合成して指示画像を生成することを特徴とする。
【0017】
この発明によれば、指示画像生成手段が、位置情報および角度情報に基づき指示情報を加工し、この加工した結果と情景画像または推定画像のいずれかの画像とを合成して指示画像を生成する。
【0018】
つぎの発明にかかる映像ナビゲーション装置は、上記の発明において、前記推定手段は、現在までの撮像手段の位置および角度の情報の履歴をもとに現在の撮像手段の位置および角度を推定することを特徴とする。
【0019】
この発明によれば、推定手段が、現在までの撮像手段の位置および角度の情報の履歴をもとに現在の撮像手段の位置および角度を推定する。
【0020】
つぎの発明にかかる映像ナビゲーション装置は、上記の発明において、前記推定画像生成手段は、予め設定される空間情報に基づき、前記撮像手段の位置および角度の推定値に対応した推定画像を生成することを特徴とする。
【0021】
この発明によれば、推定画像生成手段が、空間情報に基づき、撮像手段の位置および角度の推定値に対応した推定画像を生成する。
【0022】
つぎの発明にかかる映像ナビゲーション装置は、上記の発明において、前記推定画像生成手段は、前記撮像手段の位置および角度の推定値に対応した実写画像を推定画像として生成することを特徴とする。
【0023】
この発明によれば、推定画像生成手段が、撮像手段の位置および角度の推定値に対応した実写画像を推定画像として生成する。
【0024】
つぎの発明にかかる映像ナビゲーション装置は、上記の発明において、前記推定手段は、前記指示情報に基づき次に利用者が目標とすべき位置を推定値とすることを特徴とする。
【0025】
この発明によれば、推定手段は、指示情報に基づき次に利用者が目標とすべき位置を推定値とする。
【0026】
つぎの発明にかかる映像ナビゲーション装置は、上記の発明において、前記撮像手段に対して、前記指示情報に基づき決定される所定の角度を維持するように制御する制御手段を更に備えたことを特徴とする。
【0027】
この発明によれば、制御手段が、撮像手段に対して、指示情報に基づき決定される所定の角度を維持するように制御する。
【0028】
つぎの発明にかかる映像ナビゲーション装置は、上記の発明において、 前記照合手段は、前記情景画像と前記推定画像との合致度または当該合致度の変化を示す情報を利用者に報知することを特徴とする。
【0029】
この発明によれば、照合手段が、情景画像と推定画像との合致度または当該合致度の変化を示す情報を利用者に報知する。
【0030】
つぎの発明にかかる映像ナビゲーション装置は、上記の発明において、前記撮像手段の位置および角度を示す情報の系列を記憶する第1の記憶手段と、前記情景画像の系列を記憶する第2の記憶手段と、を更に備え、前記照合手段は、前記第1の記憶手段に記憶されている撮像手段の位置および角度を示す情報の系列が所定の条件を満たさない場合は、前記第1及び第2の記憶手段の記憶内容に基づいて、当該系列をさかのぼって推定画像と情景画像との照合をやり直すことを特徴とする。
【0031】
この発明によれば、照合手段は、第1の記憶手段に記憶されている撮像手段の位置および角度を示す情報の系列が所定の条件を満たさない場合は、第1及び第2の記憶手段の記憶内容に基づいて、当該系列をさかのぼって推定画像と情景画像との照合をやり直す。
【0032】
つぎの発明にかかる映像ナビゲーション装置は、上記の発明において、前記指示画像生成手段は、前記撮像手段と前記指示情報に対応する位置との間の距離および前記撮像手段と前記指示情報に対応する位置とを結ぶ直線の方向と当該撮像手段の視線方向との成す角の角度、または前記撮像手段、前記指示情報に対応する位置および空間上の構成物の位置関係に基づき指示情報を取捨選択し、この取捨選択した指示情報を加工して指示画像を生成することを特徴とする。
【0033】
この発明によれば、指示画像生成手段が、撮像手段と指示情報に対応する位置との間の距離および撮像手段と指示情報に対応する位置とを結ぶ直線の方向と当該撮像手段の視線方向との成す角の角度、または撮像手段、指示情報に対応する位置および空間上の構成物の位置関係に基づき指示情報を取捨選択し、この取捨選択した指示情報を加工して指示画像を生成する。
【0034】
次に上記第2の目的を達成するためこの発明にかかる映像ナビゲーション装置は、情景を撮像する撮像手段と、該撮像手段の位置および角度を推定する推定手段と、予め設定される作業手順を示す作業手順情報と当該作業手順に基づいて実施される作業の進行状況を示す進行状況情報とに基づき指示情報を生成する指示情報生成手段と、前記推定手段によって推定された前記撮像手段の位置を示す位置情報および当該撮像手段の角度を示す角度情報に基づき前記指示情報生成手段によって生成された指示情報を加工して指示画像を生成する指示画像生成手段と、該指示画像生成手段によって生成された指示画像を表示する表示手段と、を備えたことを特徴とする。
【0035】
この発明によれば、指示情報生成手段が、作業手順情報と進行状況情報とに基づき指示情報を生成すると、指示画像生成手段が、推定手段によって推定された撮像手段の位置を示す位置情報および当該撮像手段の角度を示す角度情報に基づき、指示情報生成手段によって生成された指示情報を加工して指示画像を生成する。
【0036】
つぎの発明にかかる映像ナビゲーション装置は、上記の発明において、前記作業手順情報と前記推定手段によって推定された前記位置情報または角度情報の推定値とに基づき、作業の進行状況を判断し、この判断した結果を記憶する進行状況記憶手段を更に備えたことを特徴とする。
【0037】
この発明によれば、進行状況記憶手段は、作業手順情報と位置または角度の推定値とに基づき、作業の進行状況を判断し、この判断した結果を記憶する。
【0038】
つぎの発明にかかる映像ナビゲーション装置は、上記の発明において、作業する車両に搭載されると共に、前記作業手順情報と現在の前記車両の状態とに基づき、作業の進行状況を判断し、この判断した結果を記憶する進行状況記憶手段を更に備えたことを特徴とする。
【0039】
この発明によれば、進行状況記憶手段は、作業手順情報と現在の車両の状態とに基づき、作業の進行状況を判断し、この判断した結果を記憶する。
【0040】
【発明の実施の形態】
以下に添付図面を参照して、この発明にかかる映像ナビゲーション装置の好適な実施の形態を詳細に説明する。
【0041】
実施の形態1.
図1は、本発明の映像ナビゲーション装置の構成図を示したものであり、図2は、本発明の映像ナビゲーション装置を自動車に組み込む場合の形態での当該映像ナビゲーション装置の外観図を示している。
【0042】
図2において、映像ナビゲーション装置は、例えば可視カメラであるカメラ10と装置本体20と表示装置30とから構成されている。
【0043】
カメラ10は、車両の屋根の上または車内のフロントガラス付近など、ドライバーの視野に近い情景が得られるように設置されると共に、ケーブル41により装置本体20と接続される。カメラ10の出力である映像信号は例えばNTSCと呼ばれる形式によりケーブル41を経て装置本体20に伝えられる。
【0044】
装置本体20は、CPU(中央処理装置)と記憶装置とを含むコンピュータにより構成され、詳細については後述するが、情景画像に的確に指示情報を埋め込んだ指示画像の生成処理を実行する。なお、装置本体20には図示しないデータ入出力インタフェースが備えられている。
【0045】
表示装置30は、液晶ディスプレイなどにより実現され車内のドライバーから見やすい位置に設置され、装置本体20とはケーブル42で接続される。
【0046】
さて、図1に示すように、位置センサー及び/又は角度センサー(以下、位置・角度センサーという)40を、図示しないケーブルを介して装置本体20の図示しないデータ入出力インタフェースに接続することができる。この図示しないデータ入出力インタフェースには、位置・角度センサー40として、位置センサーと角度センサーの両方を接続するようにしても良いし、位置センサーまたは角度センサーのいずれか1つを接続するようにしても良い。この実施形態では、位置・角度センサー40として、GPSを用いた位置センサーのみを接続し、角度センサーは接続しないものとする。
【0047】
図1において、装置本体20は、カメラ10により撮像された情景画像を記憶する情景画像記憶手段21と、空間情報を記憶する空間情報記憶手段22と、指示情報を記憶する指示情報記憶手段23と、カメラ10の位置および角度を推定する位置・角度情報推定手段(特許請求の範囲の推定手段に対応する)24と、カメラ10の位置および角度の推定値を記憶する位置・角度情報記憶手段(特許請求の範囲の推定値記憶手段に対応する)25と、カメラ10の位置・角度の推定値に対応して推定画像を生成する推定画像生成手段26と、推定画像生成手段26によって生成された推定画像を記憶する推定画像記憶手段27と、推定画像記憶手段27に記憶されている推定画像と情景画像記憶手段21に記憶されている情景画像とを照合すると共に、この照合した結果に応じて位置・角度情報記憶手段25に記憶されている位置情報および角度情報を補正する照合手段28と、位置・角度情報記憶手段25に記憶されている補正後の位置情報および角度情報に基づき指示情報記憶手段23に記憶されている指示情報を加工して指示画像を生成する指示画像生成手段29とから構成されている。
【0048】
情景画像記憶手段21は、装置本体20に拡張ボードとして挿入されたフレームグラバ(図示せず)により実現される。このフレームグラバはカメラ10からの映像信号をディジタル形式の画像データに変換して記憶する機能を持ったものである。
【0049】
また、空間情報記憶手段22、指示情報記憶手段23、位置・角度情報推定手段24、位置・角度情報記憶手段25、推定画像生成手段26、推定画像記憶手段27、照合手段28および指示画像生成手段29の各々は、それぞれの上述した処理又は機能を遂行するための、上記コンピュータで動作するソフトウェア(プログラム)を、上記CPUが上記記憶装置から読み出して実行することにより実現される。
【0050】
次に、かかる映像ナビゲーション装置の処理動作について、図3を参照して説明する。
【0051】
映像ナビゲーション装置では、空間情報記憶手段22への空間情報の設定が行われ(ステップS110)、また、指示情報記憶手段23への指示情報の設定が行われると(ステップS120)、位置・角度情報推定手段24は、位置・角度センサー40からのセンサー情報を基にカメラ10の位置および角度の推定値を決定して、これらの情報を位置・角度情報記憶手段25に記憶する(ステップS130)。
【0052】
次に、推定画像生成手段26は、空間情報記憶手段22に記憶されている空間情報と、位置・角度情報記憶手段25に記憶されているカメラ10の位置および角度の推定値とに基づいて推定画像を生成して、推定画像記憶手段27に記憶する(ステップS140)。
【0053】
次いで、情景画像記憶手段21すなわちフレームグラバが、カメラ10から入力した映像信号を取り込み記憶すると(ステップS150)、照合手段28は、推定画像記憶手段27に記憶されている推定画像と情景画像記憶手段21に記憶されている情景画像とを照合して、位置・角度情報の推定値が正しいかどうかを検証し(ステップS160)、この検証の結果、位置情報および角度情報の推定値に誤差があると判定した場合には、位置・角度情報記憶手段25に記憶されている位置・角度情報の補正を行う(ステップS170)。
【0054】
そして、指示画像生成手段29は、位置・角度情報記憶手段25に記憶されている補正後の位置情報および角度情報に基づき指示情報記憶手段23に記憶されている指示情報を加工すると共に、この加工された指示画像を情景画像記憶手段21に記憶されている情景画像に埋め込むことにより指示画像を生成し、その後、この指示画像を表示装置30に表示する(ステップS180)。
【0055】
次に、上述した映像ナビゲーション装置の処理動作を示す処理手順の各処理内容について詳細に説明する。
【0056】
(1)空間情報の設定(ステップS110の処理)
空間情報記憶手段22には、予め車両が走行する空間をモデル化して記憶しておく。これは3次元コンピュータグラフィックスの分野で知られている手法を用いる。すなわち、空間上の建物などの各構成物を多面体で近似し、多面体を構成する各多角形を各頂点の座標列により記述する。
【0057】
図4に街区の情報を空間情報として記述した例を示す。この例では、図4(a)に示すように各街区の周囲を多角形で記述し、図4(b)に示すように、図4(a)に示される多角形の各頂点の座標を多角形の辺をたどって順番に並べることにより、その街区の位置を示している。同じ要領で建物の壁面なども頂点の座標列により記述することができる。
【0058】
(2)指示情報の設定(ステップS120の処理)
指示情報は、利用者に伝えるべき道順情報であり、進行方向を指示する矢印や目印となる建物の案内情報などが指示情報の例となる。このような指示情報は指示情報記憶手段23に予め記憶される。
【0059】
図5(a)に指示情報の一例を示す。この例では、交差点における進行経路がA→B→Cの順番になるように設定されている。この進行経路を指示するための情報として、図5(a)に示すように、例えば点A、点B、点Cなどの点情報(ポイント情報)と経路情報とからなる情報が設定されている。ここで、点情報は各点の位置情報(座標情報)を含み、また、経路情報は各点を順番(この例ではA、B、Cの順番)に繋いだリストにより表現される。
【0060】
このような指示情報は、地図情報を利用することにより、例えば利用者の目的地の情報に基づき機械的に生成することができる。
【0061】
ここで、図5(a)に示した指示情報を地図に重ねて示した様子を図5(b)に示す。この図5(b)において3つの記号△はそれぞれA、B、Cの各点の位置を示している。
【0062】
(3)位置・角度情報の推定(ステップS130の処理)
位置・角度情報推定手段24は、図6に示すように、カメラ10の現在の位置を示す座標(x,y,z)及びカメラ10の現在の角度を示す3つの角度α、β、γについて周期的に推定を行い、位置・角度情報記憶手段25に記憶する。
【0063】
ここで、(x,y,z)は、図7(a)に示すように所定の基準点を原点とした3次元の座標系(世界座標系と呼ばれる)における座標を示し、α、β、γは、図7(b)に示すように、それぞれカメラ10のパン(pan)、チルト(tilt)、ローテート(rotate)に対応した角度を示している。
【0064】
カメラ10の現在の位置は、外部に接続した位置・角度センサー40としてのGPS位置センサーの出力を周期的に取り込むことにより検知して推定する。ただし、カメラ10の高さyの値は、車両に取り付けた場合はほぼ固定されるので、予め固定値を設定しておいても良い。最新の位置センサーのデータが得られない場合は、直近のいくつかのデータを基に現在の位置を推定する。
【0065】
カメラ10の角度は、直近のいくつかのデータを基に現在の角度を推定する。ここでは、1秒周期で処理を繰り返すものとし、1秒前の角度情報をそのまま推定値として利用するものとする。この場合、最初の角度情報を何らかの方法で設定する必要があるが、例えば、位置情報の変化に基づいて車両の進行方向を推定し、それに基づきカメラの角度の推定値を決定する方法がある。すなわち、時刻tにおける位置がXt、時刻t’における位置がXt’であるとした場合には、(Xt’−Xt)をカメラ10の角度の推定値として設定すれば良い。
【0066】
位置・角度情報推定手段24は、以上のようにしてカメラの位置・角度情報の推定値を決定する。
【0067】
(4)推定画像の生成(ステップS140の処理)
図7(a)に示される、世界座標系における点(x,y,z)と、これに対応する情景画像における点(u,v)との間には、図7(c)に示す関係の式が成立することが知られている。
【0068】
ここで、行列Rは回転行列と呼ばれるカメラの角度α、β、γによって決定される3×3行列である。カメラ定数fはカメラ固有の値であり予め測定して設定しておくことができる。
【0069】
従って、得られたカメラ10の位置および角度の推定値を利用すれば、与えられた3次元空間における座標(x,y,z)に対して情景画像中の座標(u,v)を決定することができる。
【0070】
推定画像生成手段26では、上述した原理を予め設定された空間情報の各構成要素に適用することで推定画像を生成することができるので、このようにして生成した推定画像を推定画像記憶手段27に記憶する。
【0071】
(5)情景画像の取り込み(ステップS150の処理)
装置本体20に拡張ボードとして挿入されたフレームグラバ(情景画像記憶手段21)では、例えば1秒間に1回など所定の周期でカメラ10から入力した映像信号を取り込み記憶する。
【0072】
(6)情景画像と推定画像との照合(ステップS160の処理)
次に、照合手段28は、上記推定画像と上記情景画像とを照合して位置情報および角度情報の推定値が正しいかどうかを検証する。照合手段28による検証処理に際しては、図8に示す処理手順が実行される。
【0073】
すなわち、まず、推定画像において照合のための窓を定義する(ステップS161)。この窓は、空間情報において、頂点として定義されている点、すなわち道路の角や建物の角に対応する点毎にこの点を中心とした小さな領域により定義する。
【0074】
次に、情景画像において、探索領域を定義する(ステップS162)。上記ステップS161において定義した1つの窓の中心を(u0,v0)とすると、これに対応する情景画像側の同じ位置(u0,v0)を中心として窓より少し大きな領域を探索領域として定義する。
【0075】
そして、推定画像における窓の中の画像を情景画像の探索領域の中で少しずつ移動させて最も合致する箇所を探す。いわゆるパターンマッチングを行う(ステップS163)。ここで、合致するか否かを判定する評価関数としては、相互相関係数などが利用できる。最も合致する箇所の情景画像における座標が(u0,v0)であったとすると、(u0,v0)と(u1,v1)との間の差異が、位置情報および角度情報の推定値の正しさを判定する指標となる。このような照合をいくつかの窓に対して行い(すなわち、窓毎に、ステップS161〜S163を繰り返す)、得られた座標の差異の値を総合して(例えば平均値が予め設定した閾値を超えるか否かに応じて)位置情報および角度情報の推定値が正しいか否かを判定する(ステップS164)。
【0076】
一般に、位置および角度が異なる2つのカメラから同じ点に対応する点の組(対応点)を求める処理は多くの計算量を必要とし、また、任意の画像に対して十分精度良く対応点を求めることが容易ではないことが知られている。しかし、この実施形態では、所定の周期(例えば1秒ごと)で同じ処理を繰り返すようにしており、しかも前回(例えば1秒前)の処理結果から得られた位置情報および角度情報の推定値を利用するので、前回の処理結果が正しい場合には、推定値と実際の値との間の誤差はそれほど大きくないことが期待される。このため、対応点の探索もその点の近傍だけを探索すれば良く、少ない計算量で精度良く対応点を求めることができる。
【0077】
ステップS164において位置情報および角度情報の推定値が正しくない場合(これらの情報の推定値に誤差がある場合)には、カメラ10の位置情報および角度情報の補正が成される(ステップS170)。
【0078】
(7)位置・角度情報の補正(ステップS170の処理)
次に、照合手段28は、位置情報および角度情報の推定値に誤差があると判定した場合は、位置情報および角度情報の補正を行う。
【0079】
ここで、図9(a)に示すようにカメラ10の位置情報および角度情報の推定値をそれぞれ(x0,y0,z0)および(α0,β0,γ0)とする。これらの推定値および、推定画像210と情景画像220との照合の結果により、情景画像220に対するカメラ10の位置情報および角度情報として、図9(b)に示すように、それぞれ(x1,y1,z1)および(α1,β1,γ1)を決定することが目標となる。
【0080】
ここでは、位置・角度センサー40としての位置センサーは十分な精度を持っており、誤差は無視しても良い程度小さいものとすると、位置情報(x1,y1,z1)=位置情報(x0,y0,z0)の関係の式が成立する。
【0081】
ここで、世界座標系における点(x,y,z)が、情景画像220においては点(u1,v1)にあり、推定画像210では(u0,v0)にあったとする。図7に示した世界座標とカメラ座標の関係から、(u0,v0)と(u1,v1)の間には図9(c)に示した関係の式が成立する。
【0082】
図9(c)に示した関係の式において、カメラ定数fは予め測定して知ることができる定数なので、十分な数の対応点の組が得られると、最小二乗法等により行列Rを決定することができる。これにより目標とするカメラ10の角度情報(α1,β1,γ1)を決定することができる。
【0083】
以上の処理によって得られた位置情報および角度情報を位置・角度情報記憶手段25に記憶(上書き)することにより位置情報および角度情報の誤差が補正される。この補正された位置情報および角度情報は、指示画像生成手段29によって指示情報を加工して指示画像を生成するために使用されるのに加え、次の周期(例えば1秒後)においてカメラ10の位置情報および角度情報の推定値を得るための基準値として使用される。
【0084】
(8)指示画像の生成・表示(ステップS180の処理)
次に、指示画像生成手段29は、指示情報を加工して情景画像記憶手段に記憶されている情景画像に埋め込む処理を行う。
【0085】
世界座標系における点(x,y,z)と、それに対応する情景画像における点(u,v)との間には、上述したように図7(c)に示す関係の式が成立することが知られている。
【0086】
従って、カメラ10の位置情報および角度情報が得られれば、与えられた3次元空間における座標(x,y,z)に対して情景画像中の座標(u,v)を決定することができる。
【0087】
いま、指示情報として経路「A→B→C」が設定され、各ポイントA,B,Cには世界座標系における座標が与えられているとする。このような前提条件の下で、これらの各座標に上述した図7(c)に示す関係の式を適用した場合に、情景画像における座標(uA,vA)、(uB,vB)、(uC,vC)が得られるものとする。そして、これらの座標間を矢印で結ぶと、情景画像220に対応した経路情報230が得られる(図10参照)。
【0088】
指示画像生成手段29は、このようにして得られた指示情報としての経路情報230を情景画像220と合成することにより、図10に示すような指示画像240を生成する。
【0089】
指示画像生成手段29が、指示情報(例えば経路情報230)が埋め込まれた情景画像(例えば情景画像220)すなわち指示画像240を表示装置30に表示することにより、ドライバーは現在自分が見ている情景に埋め込まれた指示情報により的確に正しい進行方向を知ることができる。
【0090】
なお、上述した実施の形態1では、自動車に映像ナビゲーション装置を組み込んで、当該自動車の搭乗したドライバーに情報を提供する形態について説明したが、本発明はこれに限定されることなく、携帯情報端末に上述した映像ナビゲーション装置を組み込み、当該携帯情報端末を携帯する歩行者に道案内情報を提供するようにしても良い。
【0091】
この場合は、自動車に映像ナビゲーション装置を組み込んだ場合の処理と同様の処理が行われる。
【0092】
以上説明したように実施の形態1によれば、装置本体には位置センサーのみを接続すれば良く、角度センサーを接続しなくてもカメラの位置および角度を正しく把握することができ、これにより情景画像に的確に指示情報を埋め込んだ指示画像を生成することができる。従って、小型・軽量の映像ナビゲーション装置を得ることができる。
【0093】
実施の形態2.
つぎに、この発明の実施の形態2について説明する。この実施の形態2に係る映像ナビゲーション装置は、図1に示した映像ナビゲーション装置の構成において、位置・角度センサー40として角度センサーおよび位置センサーの両方を採用し、これらのセンサーを図示しないケーブルを介して図示しない入出力データインタフェースに接続した構成になっている。なお、位置センサーは例えば実施の形態1の場合と比較して高精度のものでなくても良い。
【0094】
位置・角度センサー40として角度センサーおよび位置センサーの両方を採用するようにしたのは、装置本体に比較的精度の良い位置センサーのみを接続したとしても、位置センサーの種類によっては十分な精度が得られない場合もあるので、位置センサーの精度があまり良くない場合に、角度センサーおよび位置センサーの両方からのセンサー情報に基づいてカメラ10の位置および角度を推定し、この推定した結果を基に情景画像と推定画像と照合し、この照合の結果に応じて位置センサーの誤差を補正するためである。
【0095】
この実施の形態2においては、基本的には上述した実施の形態1と同様の処理が行われるものの、図3に示した処理手順のステップS130、170が上述した実施の形態1の場合とは多少異なっている。そこで、その異なっている点について詳細に説明する。
【0096】
(A)位置・角度情報の推定(ステップS130の処理)
位置・角度情報推定手段24は、原則として位置センサーと角度センサーのセンサー出力を取り込んでそのまま推定値として位置・角度情報記憶手段25に記憶する。ただし、状況によって位置センサーまたは角度センサーのセンサー出力が満足に得られない場合は、上述した実施の形態1の場合と同様に現在までの位置情報および角度情報の履歴を基に推定するようにしても良い。
【0097】
(B)位置・角度情報の補正(ステップS170の処理)
この実施の形態2では角度センサーの誤差は無視しても差し支えないものとする。すると、角度情報(α1,β1,γ1)=角度情報(α0,β0,γ0)の関係の式が成立するので、カメラ10の角度情報(α1,β1,γ1)は決定されることとなり、カメラ10の位置情報(x1,y1,z1)を決定することが目標となる。
【0098】
ここで、世界座標系における点(x,y,z)が、情景画像220においては点(u1,v1)にあり(図11(b)参照)、推定画像210では(u0,v0)にあったとする(図11(a)参照)。図7(c)に示した世界座標とカメラ座標の関係を考慮すれば、(u0,v0)と(u1,v1)の間には図11(c)に示した関係の式が成立する。
【0099】
図11(c)に示した関係の式において、カメラ定数fは予め測定して知ることができる定数なので、十分な数の対応点の組が得られると、最小二乗法等により目標とするカメラ10の位置情報(x1,y1,z1)を決定することができる。
【0100】
以上説明したように実施の形態2によれば、角度センサーおよび位置センサーの両方からのセンサー情報に基づいてカメラ10の位置および角度を推定し、この推定した結果を基に情景画像と推定画像と照合し、この照合の結果に応じて位置センサーの誤差を補正するようにしたので、高精度の位置センサーを使用する必要がなくなり、安価に装置を構成することができるという利点が得られる。
【0101】
実施の形態3.
つぎに、この発明の実施の形態3について説明する。図12は、実施の形態3に係る映像ナビゲーション装置の構成図を示したものである。この実施の形態3に係る映像ナビゲーション装置は、図1に示した映像ナビゲーション装置の構成において、空間情報記憶手段22を削除し、実写画像記憶手段300を追加した構成になっている。なお、同図12において、図1に示した構成要素と同様の機能を果たす部分には同一の符号を付すものとする。
【0102】
実写画像記憶手段300は、カメラ10の位置情報および角度情報と、その位置から撮影された実写画像とを組にして予め記憶しておくものである。実写画像記憶手段300には、予め複数の地点で撮影された実写画像が記憶される。
【0103】
このように位置情報および角度情報と実写画像とを組にして予め記憶するようにしているのは、上記実施の形態1、2の如くコンピュータグラフィックスの分野で用いられる手法を用いて予め3次元の空間情報を作成しておき、その空間情報とカメラの位置および角度の推定値とに基づき推定画像を作成する形態にあっては、道案内を行う広い範囲について予め3次元の空間情報を作成しておくのは多大な労力を必要とするので、比較的少ない労力で道案内のためのデータを準備するためである。
【0104】
この実施の形態3では、車載情報端末(映像ナビゲーション装置を自動車に組み込む場合の形態)、携帯情報端末のいずれにも適用することができるが、ここでは歩行者に案内情報を提供する携帯情報端末を想定している。
【0105】
ここでは、携帯情報端末は、図13に示すように装置本体20と表示装置30とが一体化されている(装置本体兼表示装置310を有する)ものとする。カメラ10は装置本体20とは別になっており、歩行者の帽子、メガネ、または衣服などに取り付けて常に歩行者の前方の情景が取り込めるように配置しておく。また、装置(装置本体兼表示装置310)を小型化するため、装置本体20には情景画像記憶手段21としてのフレームグラバを挿入するのではなく、カメラ10において直接ディジタル画像を生成し、ディジタル画像データとして装置本体20に転送する形態とする。さらに、カメラ10は装置本体20からの指示により自由に向きが変えられるものとし、歩行者の動きに関わらず、所定の向きを維持することができるものとする。
【0106】
次に、かかる映像ナビゲーション装置の処理動作について、図14を参照して説明する。映像ナビゲーション装置では、実写画像記憶手段300への実写画像の設定が行われ(ステップS410)、また、指示情報記憶手段23への指示情報の設定が行われると(ステップS420)、位置・角度情報推定手段24は、指示情報として設定された経路情報と、現在の歩行者の位置情報と、実写画像記憶手段300に記憶されている実写画像情報とに基づき、カメラ10の位置および角度の推定値を決定して、これらの情報を位置・角度情報記憶手段25に記憶する(ステップS430)。
【0107】
次に、推定画像生成手段26は、実写画像記憶手段300の中からカメラ10の位置および角度の推定値に対応する実写画像を選択し、これを推定画像として推定画像記憶手段27に記憶する(ステップS440)。
【0108】
次いで、カメラ10は、例えば1秒間に1回など所定の周期で画像を取り込み装置本体20に転送する。装置本体20では、転送された画像を情景画像記憶手段21に記憶する(ステップS450)。すると、照合手段28は、推定画像記憶手段27に記憶されている推定画像(実際には実写画像)と情景画像記憶手段21に記憶されている情景画像とを照合して、位置・角度情報の推定値が正しいかどうかを検証し(ステップS460)、この検証の結果、位置・角度情報の推定値に誤差があると判定した場合には、位置・角度情報記憶手段25に記憶されている位置情報および角度情報の補正を行う(ステップS470)。
【0109】
そして、指示画像生成手段29は、位置・角度情報記憶手段25に記憶されている補正後の位置情報および角度情報に基づき指示情報記憶手段23に記憶されている指示情報を加工すると共に、この加工された指示画像を推定画像記憶手段27に記憶されている推定画像すなわち実写画像に埋め込むことにより指示画像を生成して、この指示画像を表示装置30に表示する(ステップS480)。
【0110】
次に、上述した映像ナビゲーション装置の処理動作を示す処理手順の各処理内容について詳細に説明する。
【0111】
(1)実写画像の設定(ステップS410の処理)
歩行者を案内する経路に沿って、例えば10メートル程度の間隔で地点を選んで写真撮影し、これを実写画像として収集する。撮影地点は、看板や建物、モニュメントなど、歩行時に目印となる特徴的な対象物が視野に入るように選ぶことが望ましい。
【0112】
図15(a)に、実写画像の設定例を示す。この例では、地点A〜Eの5地点で撮影を行い、それぞれの地点における実写画像とカメラ10の位置情報および角度情報とを組にして実写画像記憶手段300に記憶している。この例では、目標物として、地点Aでは看板P、地点Bでは建物Qが視野に入るようにカメラ10の位置および角度を調節している。
【0113】
また、ビデオカメラを持って経路に沿って移動し、得られたビデオ映像の中から適当に画像を取り出して、これを実写画像としても良い。
【0114】
さらに、撮影と同時に、カメラ10の位置情報および角度情報を記録しておき、これを実写画像と組にして実写画像記憶手段300に記憶する。カメラ10の位置情報および角度情報は、例えば撮影時に位置センサーおよび角度センサーの出力を記録することにより得ることができる。
【0115】
(2)指示情報の設定(ステップS420の処理)
この場合は実施の形態1と同様の処理であるので、ここではその説明を省略する。
【0116】
(3)位置・角度情報の推定(ステップS430の処理)
位置・角度情報推定手段24は、指示情報として設定された経路情報、現在の歩行者の位置情報、および実写画像記憶手段300に記憶されている実写画像情報に基づき、位置および角度の推定を行う。
【0117】
ここでは、現在のカメラ10の位置および角度を推定するのではなく、実写画像が設定されている地点の中から歩行者が次に目標とすべき地点を選択し、その選択された地点での実写画像に対応したカメラ10の位置情報および角度情報を推定値とする。
【0118】
例えば、図15(a)に示す例において、歩行者が、現在、地点Aと地点Bとの間の地点Jに存在しているものとし、また、指示情報には経路「X→Y→Z」が設定されているものとした場合には、実写画像が存在する地点の中で次に目標とすべき地点は地点Bとなる。従って、地点Bにおけるカメラ10の位置情報および角度情報が推定値として設定され、位置・角度情報記憶手段25に記憶される。
【0119】
(4)推定画像の生成(ステップS440の処理)
推定画像生成手段26は、実写画像記憶手段300の中からカメラ10の位置情報および角度情報の推定値に対応する実写画像を選択し、これを推定画像とする。
【0120】
例えば、図15(a)に示す例において、歩行者が、現在、地点Aと地点Bとの間の地点Jに存在しているものとした場合には、カメラ10の位置情報および角度情報の推定値は実写画像Bに対応する値となるので、推定画像としては実写画像Bが選ばれ、推定画像記憶手段27に記憶される。
【0121】
(5)情景画像の取り込み(ステップS450の処理)
カメラ10は、例えば1秒間に1回など所定の周期で画像を取り込み装置本体20に転送する。装置本体20では、情景画像記憶手段21に転送されてきた画像を記憶する。
【0122】
ここで、カメラ10を歩行者に装着して使用する場合は、カメラ10の向きが安定しないという問題がある。また、この実施の形態3では推定画像として実写画像を使用しているので、任意の位置および角度に対して推定画像を生成することができない。そこで、カメラ10は歩行者の体勢や向きに関わらず装置本体20からの指示により自由に向きを変えられるものとし、角度が位置・角度情報推定手段24による推定処理に基づく推定値に等しくなるようにカメラ10の向きを制御するようにする。
【0123】
このようにカメラ10の向きを制御することにより、歩行者が次の目標地点に到達した段階で情景画像と推定画像とは構図が略一致する。
【0124】
図16は、カメラ10の向きの制御を実現するためのカメラ10の構成図を示している。
【0125】
カメラ10はカメラ可動部11とカメラ固定部12に分かれる。歩行者はカメラ固定部12を衣服や帽子、メガネなどに固定する。カメラ可動部11はレンズ部分を含み、モーター13によって撮像する向きを変えられるように設定されている。理想的にはカメラ10のパン(pan)、チルト(tilt)、ローテート(rotate)の3つの軸についてそれぞれ自由に向きを変えられることが望ましい。カメラ10のカメラ固定部12に角度センサー500が設けられており、この角度センサー500のセンサー出力は制御部14に入力される。
【0126】
次に、制御部14によるカメラ10に対する向きの制御処理について図17を参照して説明する。
【0127】
制御部14は、位置・角度情報記憶手段25から角度の推定値(すなわち次に目標とする地点で実写画像と一致するような情景画像を得ることができるカメラの角度)を取得し(ステップS510)、これに基づきカメラ10の向きを制御する。
【0128】
ここで、角度の推定値をd=(α,β,γ)とする。この推定値dは世界座標系を基準にした角度である。ところで、カメラ10のモーター13はカメラ固定部12の角度を基準にしてカメラ可動部11の角度を制御するものである。このカメラ固定部12の角度は、歩行者の向きや体勢が変化すると、その変化に応じて変化するものであるから、現在のカメラ固定部12の世界座標系における角度を知る必要がある。そのため、制御部14は、カメラ10のカメラ固定部12に設けられた角度センサー500のセンサー出力(角度情報)を取得する。
【0129】
制御部14は、角度センサー500により計測されたカメラ固定部12からの角度d0を取得すると共に(ステップS520)、カメラ可動部11の角度が推定値dから角度d0を減算つまり「d−d0」を演算した値の角度となるようにモーター13を制御する(ステップS530)。
【0130】
そして、制御部14は、上記(d−d0)の角度を逐次計算してモーター13に指示することにより(ステップS510〜S530の繰り返し)、この指示に従ってモーター13がカメラ可動部11の角度を調整するので、カメラ10の撮像方向は常に所望の向きを向くように制御される。
【0131】
(6)情景画像と推定画像の照合(ステップS460の処理)
この場合の照合の方法は上述した実施の形態1とほぼ同様である。ただし、推定画像は空間情報から生成したものではなく、実写画像なので、照合の基準となる窓をどのように設定すればよいかについて考える必要がある。これに対しては、周囲の画素との輝度の差が大きな画素などを画像処理により特徴点として抽出し、この特徴点を中心とした領域を窓として照合を行う方法がある。
【0132】
照合手段28は、照合した結果得られた情景画像と推定画像との合致度を音などにより歩行者に通知する。これは、照合の結果得られた合致度に応じて音の高さを変化させるなどにより実現する。歩行者は、周期的に通知される合致度の通知音を聞きながら、なるべく合致度が向上するように行動する。歩行者は通知音により合致度が徐々に向上することにより自分が正しい方向に進行していると確信することができる。逆に、合致度が向上しない場合は、道順を再度確認することにより間違いに早く気づくことができる。
【0133】
次に、情景画像と推定画像との合致度の求め方について以下に2通りの方法を説明する。
【0134】
第1の方法は、画像平面上での対応点間の位置のずれによる。上記実施の形態1で説明したように、情景画像と推定画像との間でカメラの位置および角度が一致している場合は、対応点(u0,v0)と対応点(u1,v1)との間のズレすなわち「対応点(u0,v0)−対応点(u1,v1)」を演算した結果(位置のずれ)は0に近くなる。しかし、カメラの位置および角度が一致しない場合は位置のずれが生じるので、この対応点間の距離をすべての対応点の組について平均した値を合致度と定義する。
【0135】
第2の方法は、カメラ位置のずれによる。上述した実施の形態2における位置情報および角度情報の補正の方法と同様の方法により情景画像に対するカメラ位置を推定する。このカメラ位置と推定画像に対するカメラ位置との間の距離を合致度と定義する。
【0136】
いずれの方法でも、情景画像と推定画像とがほぼ完全に一致すると合致度を示す値は約0に近づき、一方、ずれが大きくなるに従って合致度を示す値が大きくなってゆく。したがって、この合致度を示す値またはこの値の変化を示す旨を歩行者に通知することにより、利用者に対して、合致度が向上するように、すなわち合致度を示す値が減少するように行動を促すことができる。
【0137】
次に合致度を歩行者に通知する方法として、以下に2つの方法を示す。第1の方法は、歩行者に合致度の大小を通知する方法である。すなわち、合致度を示す値に対して例えば通知音の高さを対応づける。歩行者はこの音程の変化によって正しい方向に進んでいるかどうかを判断することができる。第2の方法は、歩行者に合致度の変化を通知する方法である。すなわち、音色の違う2種類の通知音「Right」(正当な旨を示す通知音)と通知音「Wrong」(不適当な旨を示す通知音)を用意し、前の周期(例えば1秒前)と比べて合致度が向上した場合は通知音「Right」、合致度が向上しなかった場合は第2の通知音「Wrong」を出すようにする。これにより、歩行者は音色によって正しい方向に進んでいるかどうかを判断することができる。
【0138】
(7)位置・角度情報の補正(ステップS470の処理)
照合手段28では、情景画像と推定画像とを照合した結果得られた合致度を評価することにより、位置情報および角度情報の推定値が正しいか否かを判断することができる。歩行者が情景画像と推定画像との合致度が大きくなるように行動した結果、歩行者の実際の位置と推定値とが一致したと判断された段階で、位置情報および角度情報の更新を行う。この更新に際しては、推定値が、歩行者が次に目標とする地点の値となるようにする。
【0139】
例えば、図15(a)に示す例において、歩行者が地点Bに到達した場合には、その時点で位置情報および角度情報の推定値は実写画像Dに対応するものに更新され、次の周期からは地点Dを新たな目標地点として処理が行われる。
【0140】
(8)指示画像の生成・表示(ステップS480の処理)
この場合、上記実施の形態1と同様の方法で情景画像に指示情報を埋め込んで表示するようにしても良いが、この実施の形態3では、位置情報および角度情報を処理周期毎に補正することは行わず、歩行者が、実写画像が存在する地点に到達した段階で、位置情報および角度情報を設定し直している。従って、位置情報および角度情報は、現在の情景画像ではなく、歩行者が次に目標とすべき地点の実写画像に合致したものとなっている。そこで、実施の形態3では、指示画像は、情景画像ではなく推定画像すなわち予め用意した実写画像に指示情報を埋め込んで表示することにする。
【0141】
図15(b)、(c)に示す例では、実写画像に指示情報に基づき生成した矢印を埋め込んで表示している。例えば、図15(b)に示す例においては、実写画像Bに対して指示情報に基づき生成された矢印が埋め込まれた指示画像が表示されている。
【0142】
以上説明したように実施の形態3によれば、予め用意した実写画像を現在の情景画像と照合することにより歩行者の道案内を行うようにしたので、3次元の空間情報を作成する必要がないこととなり、よって比較的少ない労力で道案内のためのデータを準備することができる。
【0143】
また、実施の形態3によれば、歩行者は、次に目標とすべき地点で目印となる目標物と、その地点における進行方向などを視覚的に知ることができる。
【0144】
さらに、実施の形態3によれば、現在の情景画像と次に目標とすべき地点の実写画像とを照合した結果が音などの通知情報が歩行者に対して通知されるので、歩行者は目標とすべき地点に近づいていることを逐次確認しながら進むことができる。
【0145】
実施の形態4.
つぎに、この発明の実施の形態4について説明する。この実施の形態4に係る映像ナビゲーション装置は、基本的には、図1に示した実施の形態1に係る映像ナビゲーション装置の構成、または図12に示した実施の形態3に係る映像ナビゲーション装置の構成と同様であるが、情景画像記憶手段21には情景画像の系列を蓄積することができるようになっており、また、位置・角度情報記憶手段25には位置情報および角度情報の系列を蓄積することができるようになっている。ここでは、実施の形態4に係る映像ナビゲーション装置の構成は、図1に示した実施の形態1に係る映像ナビゲーション装置と同様であるとする。
【0146】
ところで、実施の形態1〜3においては、1枚の推定画像と1枚の情景画像とを照合することにより位置情報および角度情報を補正するようにしたのに対し、この実施の形態4では、推定画像および情景画像をそれぞれ複数枚用意するようにし、これらの画像を用いて照合処理を実施するようにしている。これにより、より高い照合精度を得ることが期待できる。
【0147】
実施の形態4は、基本点には、図3に示した実施の形態1と同様の処理が行われるものの、その処理手順でのステップS130、S150及びS160の処理が異なっている。そこで、次にその異なる点について説明する。
【0148】
(A)位置・角度情報の推定(ステップS130の処理)
位置・角度情報推定手段24は、実施の形態1と同様にして位置情報および角度情報を推定し、位置・角度情報記憶手段25に記憶する。位置情報および角度情報の推定は例えば1秒間に1回行い、例えば過去10秒間の位置情報および角度情報の系列を常に保持するようにしておく。
【0149】
(B)情景画像の取り込み(ステップS150の処理)
フレームグラバから1秒間に1回などの所定の周期で映像信号を取り込み、情景画像記憶手段21に記憶する。情景画像についても、例えば過去10秒間の情景画像を常に保持するようにしておく。
【0150】
(C)情景画像と推定画像の照合(ステップS160の処理)
照合手段28は、まず、実施の形態1と同様の方法で最新時刻に対応する情景画像と推定画像との照合を行い、位置情報および角度情報の補正を行う。次に、照合手段28は、通常車両は一定速度で進行するという性質を考慮して補正後の位置情報および角度情報の系列を評価する。すなわち、補正後の位置情報および角度情報の系列を調べ、ほぼ一定速度で進行しているとみなせる場合は位置情報および角度情報の系列は正しいものと判断し、一方、急激な速度の変化や方向の変化が見られる場合は位置情報および角度情報の系列に誤りがあるものと判断する。
【0151】
ここで、照合手段28は、位置情報および角度情報の系列に誤りがあると判断した場合は、情景画像と推定画像との照合の処理をやり直す。すなわち、対応点の求め方に別の候補がないか調べ、別の候補が見つかったら、その対応点の組を基に位置情報および角度情報を補正する。
【0152】
このような照合処理のやり直しを実施したにも関わらず、満足な位置情報および角度情報の系列が得られない場合は、過去の適当な系列、例えば1秒前の位置情報および角度情報と情景画像の組まで遡り、照合の処理を系列に沿ってやり直す。
【0153】
ところで、ある時刻で位置情報および角度情報を誤って補正した場合、この誤りに引きずられて、それ以降の処理をすべて誤る可能性があるため、必要に応じて過去に遡って誤りを修正する処理を行うと有効である。
【0154】
このような処理は、現在までの所定の期間について、情景画像の系列と位置情報および角度情報の系列を保持することにより可能となる。
【0155】
以上説明したように実施の形態4によれば、照合手段28は、位置情報および角度情報の系列が所定の条件を満たさない場合は系列を遡って推定画像と情景画像との照合をやり直すので、位置情報および角度情報の補正の精度を高めることができる。
【0156】
実施の形態5.
つぎに、この発明の実施の形態5について説明する。この実施の形態5に係る映像ナビゲーション装置の構成は、基本的には、実施の形態1〜4と同様である。
【0157】
ところで、実施の形態1〜4では、指示画像生成手段29は、空間の特定の位置に関連づけられた指示情報すべてについてそれぞれ位置情報および角度情報に基づく加工を行い指示画像を生成するようにしているので、カメラ10の視野内に存在する全ての指示情報が指示画像に埋め込まれることになる。しかし、空間内に多数の指示情報が関連づけられている場合、指示画像中に多数の指示情報が表示されて画像が見難くなるという問題がある。
【0158】
そこで、この実施の形態5では、指示画像生成手段29は、カメラ10と指示情報に対応する位置と間の距離、および角度情報に基づき指示情報を取捨選択して、指示画像を生成するようにしている。
【0159】
次に、実施の形態5の処理動作に説明する。ここでは、以下に示す処理(A)以外の処理は実施の形態1〜4と同様である。
【0160】
(A)指示画像の生成・表示
指示画像生成手段29は、空間の特定の位置に関連づけられた各々の指示情報について、以下に示す方法で表示するか否かの判断を行い、表示すると判断した指示情報のみについて実施の形態1〜4と同様にして指示画像に埋め込んで表示する。
【0161】
表示するか否かの判断は次のようにして行う。すなわち、指示情報は予め空間内の特定の位置に関連付けられており、この位置(x,y,z)は指示情報記憶手段23から取得できる。また、カメラ10の位置情報(x0,y0,z0)および角度情報(α,β,γ)は位置・角度情報記憶手段25から取得できる。これらの情報から、カメラ10から指示情報に対応する位置までの距離dを求めることができる。また、カメラ位置(x0,y0,z0)から指示情報の位置(x,y,z)に向けて引いた直線の方向とカメラ視線方向との間の角度θを求めることができる。
【0162】
例えば距離dが30メートル以内、角度θが60度以内等の条件を満たす指示情報は表示し、それ以外の指示情報は表示しないことにする。
【0163】
また、ビルなど空間上の構成物に対して向こう側の指示情報は表示しないようにすることも考えられる。空間上の構成物の位置は空間情報記憶手段に記憶されているので、カメラ位置(x0,y0,z0)と指示情報に対応する位置(x,y,z)との間に構成物が存在するか否かを判定し、構成物が存在する場合は指示情報を表示しないようにする。
【0164】
以上説明したように実施の形態5によれば、カメラ10と指示情報に対応する位置との間の距離、角度情報、またはカメラ10、指示情報、空間上の構成物の位置関係を考慮することにより、表示する指示情報を少なくし、見やすい指示画像を生成することができる。
【0165】
ところで、上述した実施の形態1乃至5では、カメラ10として情景画像の撮像には通常の可視カメラを使用することを前提としているが、本発明はこれに限定されることなく、夜間の使用を考慮して赤外線カメラを使用しても良く、また、超音波センサーやミリ波レーダーなどを使用しても良い。
【0166】
実施の形態6.
つぎに、この発明の実施の形態6について説明する。図18は、実施の形態6に係る映像ナビゲーション装置の構成図を示したものである。この映像ナビゲーション装置は、図1に示した実施の形態1の場合と同様に、カメラ10と、装置本体20と、表示装置30と、位置・角度センサー40とから構成されている。装置本体20は、情景画像記憶手段601と、推定手段602と、推定値記憶手段603と、作業手順記憶手段604と、進行状況記憶手段605と、指示情報生成手段606と、指示画像生成手段607とから構成されている。
【0167】
情景画像記憶手段601、推定手段602および推定値記憶手段603は、それぞれ図1に示した情景画像記憶手段21、位置・角度情報推定手段24および位置・角度情報記憶手段25と同様の機能を有している。
【0168】
作業手順記憶手段604は、作業手順を示す作業手順情報を記憶する。進行状況記憶手段605は、作業の進行状況を示す進行状況情報を記憶する。指示情報生成手段606は、作業手順記憶手段604に記憶された作業手順情報と進行状況記憶手段605に記憶された進行状況情報とに基づき指示情報を生成する。指示画像生成手段607は、推定値記憶手段603に記憶されているカメラ10の位置を示す位置情報および角度を示す角度情報に基づき指示情報生成手段606によって生成された指示情報を加工して指示画像を生成する。
【0169】
なお、装置本体20は、実施の形態1の場合と同様に、CPUと記憶装置とを含むコンピュータにより構成されている。また、装置本体20は、表示装置30と一体化して構成するようにしても良いし、表示装置30とは別の装置として構成して、ドライバーの足元の空間などに配置するようにしても良い。さらに、装置本体20を構成する上記構成要素602〜607の各々は、それぞれの上述した処理又は機能を遂行するための、上記コンピュータで動作するソフトウェア(プログラム)を、上記CPUが上記記憶装置から読み出して実行することにより実現される。
【0170】
次に、かかる映像ナビゲーション装置の処理動作について、図19を参照して説明する。
【0171】
図19に示すように、映像ナビゲーション装置では、予め設定される作業手順を示すデータを作業手順記憶手段604に記憶すると共に(ステップS610)、情景画像記憶手段601すなわちフレームグラバが、カメラ10から入力した映像信号を取り込み記憶し(ステップS620)、さらに、推定手段602が、位置・角度センサー40からのセンサー情報を基にカメラ10の位置および角度の推定値を決定して、これらの情報を推定値記憶手段603に記憶する(ステップS630)。
【0172】
次に、指示情報生成手段606が、作業手順記憶手段604に記憶されている作業手順情報と進行状況記憶手段605に記憶されている進行状況情報とに基づき指示情報を生成すると(ステップS640)、指示画像生成手段607は、推定値記憶手段603に記憶されているカメラ10の位置を示す位置情報および角度を示す角度情報に基づき指示情報生成手段606によって生成された指示情報を加工して指示画像を生成し、その後、この指示画像を表示装置30に表示する(ステップS650)。
【0173】
次に、上述した映像ナビゲーション装置の処理動作を示す処理手順の各処理内容について詳細に説明する。ここでは、フォークリフトに当該映像ナビゲーション装置を積み、貨物の積み下ろしの作業手順をドライバーに指示する形態について説明する。
【0174】
(1)作業手順の設定(ステップS610の処理)
図20(a)は作業手順の一例を示したものであり、図20(b)はその作業手順にしたがった作業内容を説明するための図を示したものである。
【0175】
さて、図20(a)に示す作業手順例では、地点Aから地点Bまで貨物Xを運んだあと、地点Cへ移動して貨物Yを積み込むという作業を6つの手順に分けて記述している。各手順は、作業の種類と作業の対象を示したものとなっている。作業の種類としては、「移動」、「貨物を積む」、「貨物を下ろす」、の3つがある。さらに、移動に対しては「対象として目的地」を記述し、貨物の積み下ろしに対しては「対象として貨物の名前」を記述している。
【0176】
このような作業手順を示すデータ(作業手順情報)は、人為的に作成して映像ナビゲーション装置内の記憶装置に予め記憶させておいても良いし、または、通信手段を用いて外部のコンピュータから送りこむようにしても良い(すなわち、映像ナビゲーション装置が、通信手段を介して外部のコンピュータから作業手順を示すデータをダウンロードする)。
【0177】
(2)情景画像の取り込み(ステップS620の処理)
この処理では、情景画像記憶手段601すなわちフレームグラバが、実施の形態1〜5の場合と同様に、例えば1秒間に1回など所定の周期でカメラ10から画像を取り込む。
【0178】
(3)位置・角度情報の推定(ステップS630の処理)
この処理では、推定手段602が、位置・角度センサー(位置センサーおよび角度センサー)40の出力を取り込み、カメラ10の現在の位置を示す位置情報(x、y、z座標値)および角度を示す角度情報(パン、チルト、ローテートに対応した角度)を推定する。なお、この実施の形態6においても、実施の形態1〜5の場合と同様に、推定値に基づき推定画像を生成し、この生成した推定画像と、情景画像記憶手段601に記憶されている情景画像とを照合することにより推定値を補正するようにしても良い。この場合、より一層、精度の向上または装置の小型化を図ることができる。
【0179】
(4)指示情報の生成(ステップS640の処理)
作業の進行状況に応じた指示画像を生成するためには、現在、作業がどこまで進行しているかを管理する必要がある。そこで進行状況記憶手段605には、「次に実行すべき手順」を記憶しておくこととする。これは例えば以下のようにして実現する。
【0180】
まず、当該映像ナビゲーション装置において現在の位置情報および角度情報並びに現在の車両(作業車)の状態を常に把握できるようにしておく。現在の位置情報および角度情報は推定値記憶手段603に記憶されている情報を用いる。一方、現在の車両の状態としては、貨物を積んでいる状態か貨物を下ろした状態かを機械的に検知するようにする。ところで、作業手順を示すデータを基に、現在実行中の作業手順が完了したときの位置、角度、車両状態がわかる。すなわち、現在の位置、角度、車両状態を、次に実行すべき手順が完了したときの位置、角度、車両状態と比較し、一致した場合に、この手順(次に実行すべき手順)が完了したものとし、さらに、次に実行すべき手順を次の手順に更新する。
【0181】
例えば、進行状況記憶手段605には、図21に示すように、次に実行すべき手順は手順2であることを示す情報たとえば「次の手順:手順2」という情報が記憶されているとする。また、図21に示す作業手順記憶手段604の記憶内容は、図20(a)に示した作業手順例と同一であるものとする。さて、手順2が完了したときは、図20(b)に示したように、車両(つまりカメラ10)の位置は地点A、角度は北方向、車両状態は貨物を積んでいる状態であるはずである。したがって、進行状況記憶手段605は、現在の状態を定期的に調べて、この状態になったことを検知した段階で手順2が完了したと判断する。そして進行状況記憶手段605は、次に実行すべき手順は手順3であることを示す情報たとえば「次の手順:手順3」という情報を記憶する。このようにすれば、進行状況記憶手段605には、常に、次に実行すべき手順が示されていることになる。
【0182】
そして、指示情報生成手段606は、作業手順記憶手段604に記憶されている作業手順を示すデータ、および進行状況記憶手段605に記憶されている情報に基づき指示情報を生成する。例えば、次に実行すべき手順が手順2であるとすると、指示情報として図21中符号660で示される指示情報が生成される。すなわち、地図上の地点A(図20(b)参照)に対応する地点に、貨物を積むことを意味する上向きの矢印を挿入する。また、貨物Xを積むことを示すために、貨物Xの位置に「貨物X」という文字列を挿入する。
【0183】
さらに次に実行すべき手順が進行して、次に実行すべき手順が手順4であるとすると、地点B(図20(b)参照)に対応する地点に貨物を下ろすことを意味する下向きの矢印を挿入する。また、貨物Xを下ろすことを示すために、貨物を下ろすべき位置に「貨物X」という文字列を挿入する。
【0184】
(5)指示画像の生成・表示(ステップS650の処理)
この処理では、指示画像生成手段607は、指示情報生成手段606によって生成された指示情報に基づき、指示画像を生成する。ここで、図20(a)に示した作業手順中の手順2に対して生成された指示画像の一例を、図22(a)に示し、また、前記作業手順中の手順4に対して生成された指示画像の一例を、図22(b)に示す。これらの指示画像の生成方法は、実施の形態1〜5の場合と同様である。すなわち、世界座標系により設定された矢印や文字列などの指示情報をカメラ10の位置および角度に対応して座標変換し、これを情景画像と重ね合わせることにより指示画像が生成される。
【0185】
因みに、図22(a)においては、貨物Xを積むことを示す旨の上向きの矢印が示されており、一方、図22(b)においては、貨物Xを下ろすことを示す旨の下向きの矢印が示されている。
【0186】
以上説明したように実施の形態6によれば、指示情報生成手段606が、予め設定された作業手順情報と、現在の作業の進行状況情報とに基づき指示情報を生成すると、指示画像生成手段607が、この生成された指示情報と情景画像とに基づいて指示画像を生成するので、一連の作業手順を、その順を追って指示することができる。よって、作業車のドライバーは、作業手順における各手順に応じて表示される指示画像を参照しながら、作業操作を実施することができることとなり、作業効率を向上させることができる。
【0187】
また、実施の形態6によれば、進行状況記憶手段605が、作業手順記憶手段604に記憶された作業手順情報と位置または角度の推定値とに基づき、または前記作業手順情報と現在の作業車(車両)の状態とに基づき、作業の進行状況を判断するので、作業の進行状況を自動的に把握して次の作業手順を指示することができる。
【0188】
【発明の効果】
以上説明したように、この発明によれば、照合手段は、推定画像と情景画像とを照合して位置情報および角度情報を補正するので、位置情報および角度情報の精度を向上することができ、利用者の正確な位置や向きに適応した指示画像を生成して提供することができる。また、高精度の位置センサーや角度センサーを用いなくても位置情報および角度情報を正確に知ることができるので、映像ナビゲーション装置の小型化及び軽量化を図ることができる。
【0189】
つぎの発明によれば、指示画像生成手段は、撮像手段の位置情報および角度情報に基づき指示情報を加工し、この加工した結果と情景画像または推定画像とを合成して指示画像を生成するので、実際の情景と指示情報との関係を直感的に把握することができる。
【0190】
つぎの発明によれば、推定手段は現在までの位置情報および角度情報の履歴を基に位置および角度を推定するので、推定値の誤差を抑制(小さく)することができ、よって情景画像と推定画像との照合における処理量を削減し、かつ照合の精度を高めることができる。これにより少ない計算量で正確な位置情報および角度情報を得ることができる。
【0191】
つぎの発明によれば、推定画像生成手段は、予め設定される空間情報に基づき撮像手段の位置および角度の推定値に対応した推定画像を生成するので、撮像手段の任意の位置および角度に対して推定画像を生成することができる。
【0192】
つぎの発明によれば、推定画像生成手段は撮像手段の位置および角度の推定値に対応した実写画像を推定画像として生成するので、比較的少ない労力で予めデータを準備することができる。
【0193】
つぎの発明によれば、推定手段は、指示情報に基づき次に利用者が目標とすべき位置を推定値とするので、生成された推定画像は利用者が次に目標とすべき対象物を表したものとなり、この推定画像と情景画像を照合することにより利用者が次の目標位置に近づいているか否かを判定することができる。
【0194】
つぎの発明によれば、撮像手段は利用者が次に目標とすべき所定の角度に維持されるので、利用者が次に目標とすべき位置に到達したときは、撮像手段によって確実に対象物を捕らえることができる。
【0195】
つぎの発明によれば、照合手段は、情景画像と推定画像との合致度を利用者に通知して、利用者が情景画像と推定画像との合致度が向上するように行動を促すので、当該利用者を的確に次に目標とすべき位置に誘導することができる。
【0196】
つぎの発明によれば、照合手段は、位置情報および角度情報の系列が所定の条件を満たさない場合は系列をさかのぼって推定画像と情景画像との照合をやり直すので、位置情報および角度情報の補正の精度を高めることができる。
【0197】
つぎの発明によれば、撮像手段と指示情報に対応する位置との間の距離および角度、または撮像手段、指示情報に対応する位置、空間上の構成物の位置関係に基づき指示情報を取捨選択するので、表示すべき指示情報の数を抑制した(減らした)、見やすい指示画像を生成することができる。
【0198】
つぎの発明によれば、指示情報生成手段が、予め設定された作業手順情報と、現在の作業の進行状況情報とに基づき指示情報を生成すると、指示画像生成手段が、この生成された指示情報と情景画像とに基づいて指示画像を生成するので、一連の作業手順を、その順を追って指示することができる。よって、作業車のドライバーは、作業手順における各手順に応じて表示される指示画像を参照しながら、作業操作を実施することが可能となる。
【0199】
つぎの発明によれば、進行状況記憶手段は作業手順情報と位置または角度の推定値とに基づき、作業の進行状況を判断するので、作業の進行状況を自動的に把握して次の作業手順を指示することができる。
【0200】
つぎの発明によれば、作業手順情報と現在の車両の状態とに基づき、作業の進行状況を判断するので、作業の進行状況を自動的に把握して次の作業手順を指示することができる。
【図面の簡単な説明】
【図1】 この発明の実施の形態1である映像ナビゲーション装置の構成を示すブロック図である。
【図2】 この発明の実施の形態1である映像ナビゲーション装置の概略外観を示す外観図である。
【図3】 図1に示した映像ナビゲーション装置の処理手順を示すフローチャートである。
【図4】 図1に示した映像ナビゲーション装置の空間情報記憶手段に記憶される空間情報の一例を説明するための図である。
【図5】 図1に示した映像ナビゲーション装置の指示情報記憶手段に記憶される指示情報の一例を説明するための図である。
【図6】 図1に示した映像ナビゲーション装置の位置・角度情報記憶手段に記憶される位置情報および角度情報の一例を説明するための図である。
【図7】 各座標系の関係について説明する図である。
【図8】 図1に示した映像ナビゲーション装置の照合手段の処理手順を示すフローチャートである。
【図9】 図1に示した映像ナビゲーション装置の照合手段の照合処理過程を説明するための図である。
【図10】 図1に示した映像ナビゲーション装置の指示画像生成手段の指示画像生成処理過程を説明するための図である。
【図11】 本発明の実施の形態2である映像ナビゲーション装置の照合手段の照合処理過程を説明するための図である
【図12】 この発明の実施の形態3である映像ナビゲーション装置の構成を示すブロック図である。
【図13】 この発明の実施の形態3である映像ナビゲーション装置の概略外観を示す外観図である。
【図14】 図12に示した映像ナビゲーション装置の処理手順を示すフローチャートである。
【図15】 図12に示した映像ナビゲーション装置における情景画像の取り込み処理、指示画像の生成及び表示処理を説明するための図である。
【図16】 図12に示した映像ナビゲーション装置のカメラの構成を示すブロック図である。
【図17】 図16に示したカメラの制御部の処理手順を示すフローチャートである。
【図18】 この発明の実施の形態6である映像ナビゲーション装置の構成を示すブロック図である。
【図19】 図18に示した映像ナビゲーション装置の処理手順を示すフローチャートである。
【図20】 図18に示した映像ナビゲーション装置の作業手順記憶手段に記憶される作業手順情報の一例を説明するための図である。
【図21】 図18に示した映像ナビゲーション装置の指示情報生成手段により生成される指示情報の一例を説明するための図である。
【図22】 図18に示した映像ナビゲーション装置の指示画像生成手段により生成される指示画像の一例を示す図である。
【図23】 従来の映像ナビゲーション装置の構成を示すブロック図である。
【符号の説明】
10 カメラ、11 カメラ可動部、12 カメラ固定部、13 モーター、14 制御部、20 装置本体、21,601 情景画像記憶手段、22 空間情報記憶手段、23 指示情報記憶手段、24 位置・角度情報推定手段、25位置・角度情報記憶手段、26 推定画像生成手段、27 推定画像記憶手段、28 照合手段、29,607 指示画像生成手段、30 表示装置、40 位置・角度センサー、300 実写画像記憶手段、310 装置本体兼表示装置、500 角度センサー、602 推定手段、603 推定値記憶手段、604作業手順記憶手段、605 進行状況記憶手段、606 指示情報生成手段。

Claims (12)

  1. 情景を撮像する撮像手段と、
    前記撮像手段の位置および角度を推定する推定手段と、
    前記推定手段によって推定された撮像手段の位置および角度の推定値に対応して推定画像を生成する推定画像生成手段と、
    前記推定画像生成手段によって生成された推定画像と前記撮像手段によって撮像された情景画像とを照合すると共に、この照合した結果に応じて前記推定手段によって推定された推定値を補正する照合手段と、
    前記照合手段による補正処理された後の前記撮像手段の位置を示す位置情報および当該撮像手段の角度を示す角度情報に基づき予め指示される指示情報を加工して指示画像を生成する指示画像生成手段と、
    前記指示画像生成手段によって生成された指示画像を表示する表示手段と、
    を備えたことを特徴とする映像ナビゲーション装置。
  2. 前記指示画像生成手段は、
    前記位置情報および角度情報に基づき前記指示情報を加工し、この加工した結果と前記撮像手段により撮像された情景画像または前記推定画像生成手段により生成された推定画像のいずれかの画像とを合成して指示画像を生成する
    ことを特徴とする請求項1に記載の映像ナビゲーション装置。
  3. 前記推定手段は、
    現在までの撮像手段の位置および角度の情報の履歴をもとに現在の撮像手段の位置および角度を推定する
    ことを特徴とする請求項1に記載の映像ナビゲーション装置。
  4. 前記推定画像生成手段は、
    予め設定される空間情報に基づき、前記撮像手段の位置および角度の推定値に対応した推定画像を生成する
    ことを特徴とする請求項1に記載の映像ナビゲーション装置。
  5. 前記推定画像生成手段は、
    前記撮像手段の位置および角度の推定値に対応した実写画像を推定画像として生成する
    ことを特徴とする請求項1に記載の映像ナビゲーション装置。
  6. 前記推定手段は、
    前記指示情報に基づき次に利用者が目標とすべき位置を推定値とする
    ことを特徴とする請求項1に記載の映像ナビゲーション装置。
  7. 前記撮像手段に対して、前記指示情報に基づき決定される所定の角度を維持するように制御する制御手段
    を更に備えたことを特徴とする請求項1に記載の映像ナビゲーション装置。
  8. 前記照合手段は、
    前記情景画像と前記推定画像との合致度または当該合致度の変化を示す情報を利用者に報知する
    ことを特徴とする請求項1に記載の映像ナビゲーション装置。
  9. 前記撮像手段の位置および角度を示す情報の系列を記憶する第1の記憶手段と、
    前記情景画像の系列を記憶する第2の記憶手段と、
    を更に備え、
    前記照合手段は、
    前記第1の記憶手段に記憶されている撮像手段の位置および角度を示す情報の系列が所定の条件を満たさない場合は、前記第1及び第2の記憶手段の記憶内容に基づいて、当該系列をさかのぼって推定画像と情景画像との照合をやり直す
    ことを特徴とする請求項1に記載の映像ナビゲーション装置。
  10. 前記指示画像生成手段は、
    前記撮像手段と前記指示情報に対応する位置との間の距離および前記撮像手段と前記指示情報に対応する位置とを結ぶ直線の方向と当該撮像手段の視線方向との成す角の角度、または前記撮像手段、前記指示情報に対応する位置および空間上の構成物の位置関係に基づき指示情報を取捨選択し、この取捨選択した指示情報を加工して指示画像を生成する
    ことを特徴とする請求項1に記載の映像ナビゲーション装置。
  11. 情景を撮像する撮像手段と、
    前記撮像手段の位置および角度を推定する推定手段と、
    予め設定される作業手順を示す作業手順情報と当該作業手順に基づいて実施される作業の進行状況を示す進行状況情報とに基づき指示情報を生成する指示情報生成手段と、
    前記推定手段によって推定された前記撮像手段の位置を示す位置情報および当該撮像手段の角度を示す角度情報に基づき前記指示情報生成手段によって生成された指示情報を加工して指示画像を生成する指示画像生成手段と、
    前記指示画像生成手段によって生成された指示画像を表示する表示手段と、
    を備え、
    前記作業手順情報と前記推定手段によって推定された前記位置情報または角度情報の推定値とに基づき、作業の進行状況を判断し、この判断した結果を記憶する進行状況記憶手段
    を更に備えたことを特徴とする映像ナビゲーション装置。
  12. 情景を撮像する撮像手段と、
    前記撮像手段の位置および角度を推定する推定手段と、
    予め設定される作業手順を示す作業手順情報と当該作業手順に基づいて実施される作業の進行状況を示す進行状況情報とに基づき指示情報を生成する指示情報生成手段と、
    前記推定手段によって推定された前記撮像手段の位置を示す位置情報および当該撮像手段の角度を示す角度情報に基づき前記指示情報生成手段によって生成された指示情報を加工して指示画像を生成する指示画像生成手段と、
    前記指示画像生成手段によって生成された指示画像を表示する表示手段と、
    を作業する車両に搭載し、
    前記作業手順情報と現在の前記車両の状態とに基づき、作業の進行状況を判断し、この判断した結果を記憶する進行状況記憶手段
    を更に備えたことを特徴とする映像ナビゲーション装置。
JP2001180477A 2001-04-26 2001-06-14 映像ナビゲーション装置 Expired - Fee Related JP4672190B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2001180477A JP4672190B2 (ja) 2001-04-26 2001-06-14 映像ナビゲーション装置
PCT/JP2002/004079 WO2002089091A1 (fr) 2001-04-26 2002-04-24 Dispositif de navigation dans des images
US10/311,570 US7405746B2 (en) 2001-04-26 2002-04-24 Image navigation device
EP02722745A EP1383099B1 (en) 2001-04-26 2002-04-24 Image navigation device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001-130140 2001-04-26
JP2001130140 2001-04-26
JP2001180477A JP4672190B2 (ja) 2001-04-26 2001-06-14 映像ナビゲーション装置

Publications (2)

Publication Number Publication Date
JP2003014477A JP2003014477A (ja) 2003-01-15
JP4672190B2 true JP4672190B2 (ja) 2011-04-20

Family

ID=26614314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001180477A Expired - Fee Related JP4672190B2 (ja) 2001-04-26 2001-06-14 映像ナビゲーション装置

Country Status (4)

Country Link
US (1) US7405746B2 (ja)
EP (1) EP1383099B1 (ja)
JP (1) JP4672190B2 (ja)
WO (1) WO2002089091A1 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7440845B1 (en) 2003-03-26 2008-10-21 Garmin Ltd. Navigational device for installation in a vehicle and a method for doing same
US7623958B1 (en) 2003-03-26 2009-11-24 Garmin Ltd. Navigational device for installation in a vehicle and a method for doing same
US7650230B1 (en) 2003-03-26 2010-01-19 Garmin Ltd. Navigational device for mounting on a support pillar of a vehicle and a method for doing same
WO2005064569A1 (ja) * 2003-12-25 2005-07-14 Toshihiro Fukumoto 簡易安全自動車操縦装置
JP4343723B2 (ja) * 2004-01-30 2009-10-14 オリンパス株式会社 挿入支援システム
ES2298681T3 (es) * 2004-04-15 2008-05-16 Robert Bosch Gmbh Procedimiento y dispositivo para la representacion de informacion para el conductor teniendo en cuenta otros objetos moviles.
US7460953B2 (en) * 2004-06-30 2008-12-02 Navteq North America, Llc Method of operating a navigation system using images
US20060002590A1 (en) * 2004-06-30 2006-01-05 Borak Jason M Method of collecting information for a geographic database for use with a navigation system
US8751156B2 (en) 2004-06-30 2014-06-10 HERE North America LLC Method of operating a navigation system using images
JP4596566B2 (ja) * 2005-03-31 2010-12-08 アイシン・エィ・ダブリュ株式会社 自車情報認識装置及び自車情報認識方法
US7451041B2 (en) 2005-05-06 2008-11-11 Facet Technology Corporation Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
FI117835B (fi) * 2005-06-22 2007-03-15 Sime Oy Paikoitusmenetelmä
US8666661B2 (en) * 2006-03-31 2014-03-04 The Boeing Company Video navigation
JP4938351B2 (ja) * 2006-05-16 2012-05-23 トヨタ自動車株式会社 車両用測位情報更新装置
DE102006062061B4 (de) * 2006-12-29 2010-06-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
JP4895857B2 (ja) * 2007-02-22 2012-03-14 日立オートモティブシステムズ株式会社 車両挙動再現方法
CN101334285B (zh) * 2007-06-29 2012-12-19 鸿富锦精密工业(深圳)有限公司 车辆导航装置及导航方法
WO2009136969A2 (en) * 2008-01-22 2009-11-12 Carnegie Mellon University Apparatuses, systems, and methods for apparatus operation and remote sensing
US8803966B2 (en) 2008-04-24 2014-08-12 GM Global Technology Operations LLC Clear path detection using an example-based approach
US8890951B2 (en) * 2008-04-24 2014-11-18 GM Global Technology Operations LLC Clear path detection with patch smoothing approach
JP5054718B2 (ja) 2009-03-03 2012-10-24 日立Geニュークリア・エナジー株式会社 水中移動体の位置検知装置及び位置検知方法
US8896686B2 (en) * 2009-06-23 2014-11-25 Here Global B.V. Determining a geometric parameter from a single image
US8854453B2 (en) * 2009-06-23 2014-10-07 Here Global B.V. Determining geographic position information from a single image
US8838381B1 (en) * 2009-11-10 2014-09-16 Hrl Laboratories, Llc Automatic video generation for navigation and object finding
TWI416073B (zh) 2009-11-16 2013-11-21 Ind Tech Res Inst 移動攝影機對路景影像的處理方法及系統
US8694051B2 (en) * 2010-05-07 2014-04-08 Qualcomm Incorporated Orientation sensor calibration
US8634852B2 (en) * 2011-01-04 2014-01-21 Qualcomm Incorporated Camera enabled headset for navigation
JP5803273B2 (ja) * 2011-05-25 2015-11-04 日産自動車株式会社 目的地設定システム及び目的地設定方法
KR20130084720A (ko) * 2012-01-18 2013-07-26 삼성전기주식회사 영상 처리 장치 및 방법
US9299118B1 (en) * 2012-04-18 2016-03-29 The Boeing Company Method and apparatus for inspecting countersinks using composite images from different light sources
KR20140056593A (ko) * 2012-10-30 2014-05-12 한국전자통신연구원 3차원 정보 기반의 화물 이동 경로 탐색 장치 및 방법
US9729767B2 (en) * 2013-03-22 2017-08-08 Seiko Epson Corporation Infrared video display eyewear
CN103968846B (zh) * 2014-03-31 2017-02-08 小米科技有限责任公司 定位导航方法和装置
US9818196B2 (en) 2014-03-31 2017-11-14 Xiaomi Inc. Method and device for positioning and navigating
WO2015167610A1 (en) * 2014-04-29 2015-11-05 Razmik Karabed Dynamically adjustable mirrors
US10891502B1 (en) * 2017-01-19 2021-01-12 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for alleviating driver distractions
CN107656961B (zh) * 2017-08-04 2020-03-27 阿里巴巴集团控股有限公司 一种信息显示方法及装置
KR102552490B1 (ko) * 2018-01-03 2023-07-06 현대자동차주식회사 차량용 영상 처리 장치 및 방법
US11293769B2 (en) * 2018-05-14 2022-04-05 Qualcomm Incorporated Techniques for route selection
KR102627453B1 (ko) 2018-10-17 2024-01-19 삼성전자주식회사 위치 추정 장치 및 방법
JP7275556B2 (ja) * 2018-12-14 2023-05-18 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
US11412350B2 (en) * 2019-09-19 2022-08-09 Apple Inc. Mobile device navigation system
JP2022123783A (ja) * 2021-02-12 2022-08-24 トヨタ自動車株式会社 車両外装撮像装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05149756A (ja) * 1991-11-29 1993-06-15 Mazda Motor Corp 移動車の走行路認識装置
JPH0777431A (ja) * 1993-09-08 1995-03-20 Sumitomo Electric Ind Ltd カメラ姿勢パラメータ算出方法
JPH0933271A (ja) * 1995-07-21 1997-02-07 Canon Inc ナビゲーション装置及び撮像装置
JPH09152348A (ja) * 1995-12-01 1997-06-10 Pioneer Electron Corp カーナビゲーション装置
JPH11108684A (ja) * 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd カーナビゲーションシステム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
EP0807352A1 (en) * 1995-01-31 1997-11-19 Transcenic, Inc Spatial referenced photography
US5862511A (en) * 1995-12-28 1999-01-19 Magellan Dis, Inc. Vehicle navigation system and method
US5999866A (en) * 1996-11-05 1999-12-07 Carnegie Mellon University Infrastructure independent position determining system
JPH1166488A (ja) * 1997-08-21 1999-03-09 Honda Motor Co Ltd 白線認識装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05149756A (ja) * 1991-11-29 1993-06-15 Mazda Motor Corp 移動車の走行路認識装置
JPH0777431A (ja) * 1993-09-08 1995-03-20 Sumitomo Electric Ind Ltd カメラ姿勢パラメータ算出方法
JPH0933271A (ja) * 1995-07-21 1997-02-07 Canon Inc ナビゲーション装置及び撮像装置
JPH09152348A (ja) * 1995-12-01 1997-06-10 Pioneer Electron Corp カーナビゲーション装置
JPH11108684A (ja) * 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd カーナビゲーションシステム

Also Published As

Publication number Publication date
EP1383099A4 (en) 2009-11-11
EP1383099A1 (en) 2004-01-21
US20030151664A1 (en) 2003-08-14
JP2003014477A (ja) 2003-01-15
EP1383099B1 (en) 2012-05-23
US7405746B2 (en) 2008-07-29
WO2002089091A1 (fr) 2002-11-07

Similar Documents

Publication Publication Date Title
JP4672190B2 (ja) 映像ナビゲーション装置
CN110312912B (zh) 车辆自动停车系统和方法
CN109690623B (zh) 用于识别场景中的相机的姿势的系统和方法
US7423553B2 (en) Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method
JP5588812B2 (ja) 画像処理装置及びそれを用いた撮像装置
JP2018124787A (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
WO2007148546A1 (ja) 測位装置
WO2020133172A1 (zh) 图像处理方法、设备及计算机可读存储介质
KR102006291B1 (ko) 전자 장치의 이동체 포즈 추정 방법
CN107643759A (zh) 从无人机拍摄移动图像的具有目标跟踪和定位的自主系统
CN109443348A (zh) 一种基于环视视觉和惯导融合的地下车库库位跟踪方法
JP2022016908A (ja) 俯瞰画像生成装置、俯瞰画像生成システム及び自動駐車装置
KR102219843B1 (ko) 자율주행을 위한 위치 추정 장치 및 방법
JPWO2004048895A1 (ja) 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
JP2008032596A (ja) 3次元マップマッチング処理装置、3次元マップマッチング処理方法、3次元マップマッチング処理プログラム、ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラム、および、自動車
CN109520495B (zh) 导航定位装置及应用其的导航定位方法
KR20210051030A (ko) 센서 바이어스 보정 방법 및 장치
TWI798789B (zh) 導航裝置、導航系統、導航方法及記錄有導航程式的記錄媒體
JP2016139914A (ja) 表示装置、携帯端末及び制御方法
JP5333861B2 (ja) 風景画像認識を用いた自車位置検出システム
EP3795952A1 (en) Estimation device, estimation method, and computer program product
TWI657230B (zh) 導航定位裝置及應用其之導航定位方法
JP2021136009A (ja) 情報処理装置、情報処理方法およびプログラム
US20190204455A1 (en) Method of adaptive weighting adjustment positioning
JP4515884B2 (ja) カメラスタビライザ目標位置補正方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110119

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees