JP2008022545A - Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置 - Google Patents

Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置 Download PDF

Info

Publication number
JP2008022545A
JP2008022545A JP2007158288A JP2007158288A JP2008022545A JP 2008022545 A JP2008022545 A JP 2008022545A JP 2007158288 A JP2007158288 A JP 2007158288A JP 2007158288 A JP2007158288 A JP 2007158288A JP 2008022545 A JP2008022545 A JP 2008022545A
Authority
JP
Japan
Prior art keywords
image
unit
region
region image
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007158288A
Other languages
English (en)
Other versions
JP5090797B2 (ja
Inventor
Kazuo Iwane
和郎 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2007158288A priority Critical patent/JP5090797B2/ja
Publication of JP2008022545A publication Critical patent/JP2008022545A/ja
Application granted granted Critical
Publication of JP5090797B2 publication Critical patent/JP5090797B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】 動画像を、CV値を基準として画像分割し一括追跡してCV領域画像を生成して、当該画像をCGのように扱えるようにする。
【解決手段】 動画像を取得する画像取得装置1と、画像中の特徴点からカメラの三次元位置と姿勢を示すCV値を求めるCV演算装置3と、各フレームにCV値を付加した画像を生成するCV画像生成装置4と、CV演算時に同時に副次的に求まるFP座標を付加したFP付加CV画像を生成するFP付加CV画生成装置6と、CV画像を隙間無く幾何学的なハードCV領域画像に分割するハードCV領域画像分割装置8と、分割された各CV領域画像の対応点を隣接画像に亘って追跡してTV値を求めるTV演算装置9と、各フレームにCV値とTV値を付加したハードCV領域画像を生成するハードCV領域画像生成装置16を備える。
【選択図】 図23

Description

本発明は、本願発明者の提案による特開2005−295495号公報に示されたカメラベクトル演算装置と、このカメラベクトル演算装置に備えられる揺れ成分検出装置、画像安定化装置、位置姿勢安定化装置、目的対象物ロックオン装置及び実写対象物属性呼び出し装置、特許公開2005−295495号におけるCV画像の考えを発展させ、さらに画像処理に適した、加工をより容易にした画像処理前置装置に関する。
これまで、動画像の全フレームに亘って、その画像を取得したカメラの三次元位置と姿勢を演算で検出することができるCV(カメラベクトル)画像生成装置が本願発明者により提案され、実用化されている(特許文献1参照)。
このCV画像生成装置では、動画映像の複数のフレーム画像から充分な数の特徴点を自動検出し、各フレーム間で特徴点を自動追跡することで、当該動画映像のカメラ位置と回転角を示すCV(カメラベクトル)値データを高精度に求めることができるものであり、そこから発展的に生み出される様々な技術が実用化されている。
なお、CV値を取得する手段として、カメラの位置と姿勢を検出するには本願発明者により実用化されている方法以外に、本来的に位置と姿勢を計測するIMU装置を用いることも原理的には可能であるが、動画像全フレームとの完全な同期が必要であり、現在の所は実用化されてはいない。
このCV画像生成装置で生成されるCV領域画像と比較されるものとしては、単に領域に分割しているという点で、MPEG1、MPEG2、MPEG4等の技術があるが、いずれもCV値やそれに類する技術は使用されていない。
特開2005−295495号公報
ところで、動画像間の対応点を求めるためには、特徴点抽出を行い、それを動画の各フレームに追跡(トラッキング)することがしばしば行われる。
画像内に特徴点を求める手法は複数存在し、それらの手法により特徴点、又は小領域画像からなる小領域画像特徴点を、隣接する複数フレームに亘って追跡(トラッキング)すると小領域画像特徴点の対応点が求まる。
ところが、ここでの問題点の一つは、画像内の多くの特徴点を追跡することで演算時間が掛かることである。特徴点を増加させて精度を上げようとすると演算時間の壁によりリアルタイム処理ができなくなる。
また、他の問題点として、特徴点は画像の一部図形であり、追跡するブロックは特徴点を含む面であるために、結果は面としては追跡されても、図形としては必ずしも正しく追跡されていないという点がある。これは追跡フレームが増加するについて顕著となる。
なお、このような問題に対して、図形そのもので追跡しようとすると、対応点が無数に出てきて、どれが追跡点かの判別ができなくなる。
このため、特徴点は小領域画像面で追跡することが必要になる。
上述した本願発明者により提案されたCV演算法(特許文献1)やそれ以外の方法においても、追跡精度を上げることがそのまま計測精度の向上となるので、高精度の追跡方法が常に求められている。
また、追跡フレーム画像が増加すれば、三角測量の原理で底辺が長くなり、精度が高まるはずであるが、実際にはフレーム画像が増加することで、小領域画像を追跡することによる追跡誤差が発生して精度が低下するという二律背反的な問題を抱えている。
そこで、本願発明者は、以上のような追跡点誤差の問題を解決するために、先ず関数特徴点を求め、次にCV値を用いて追跡点を小領域画像面で予想し、その予想小領域画像内に、再度関数特徴点を求めることで、関数特徴点追跡を正確に行う技術を生み出した。
すなわち、本発明は、上述した従来の技術が有する課題を解決するために提案されたものであり、画像をCV値基準として、CV領域画像に分割し、各CV領域画像にCV値のみならず、TV演算によりTV値を、RV演算によりRV値を、JV演算でJV値を持たせることで、画像を自由に扱えるようにしたCV領域画像前置装置の提供を目的とする。
高精度のCV値を取得することで、様々な画像処理が可能となり、本願発明に示すような様々な装置が実現できることになる。そこで、本発明では、動画像から直接高精度なCV値を求める手段として、本願発明者により既に実用化されているCV演算装置の精度を向上させることで、良い精度の高い画像処理装置が実現できることになる。ここでは、既に実用化されているCV演算装置の高精度化を実現したものである。
また、動画像から直接高精度なCV値を取得するためには、精度の高い特徴点トラッキング(特徴点追跡)が必要になる。そこで、本発明では、動画像についてCV演算を施し、各種演算に必要な複数の関数特徴点を求め、次に既知のCV値から追跡開始フレームにおいて各関数特徴点の追跡予想位置を求める。
追跡予想位置は関数特徴点周囲の小領域画像であり、そのサイズは自由に決定できる。十分小さい小領域画像を選択すれば、その中には関数特徴点は一つしか存在しないと仮定できる。
そこで、隣接する複数の小領域画像に対してスタート時のフレームの関数特徴点と同じと関数特徴点を探索すると、通常は一個の関数特徴点が検出できる。このような操作が数十から数百の関数特徴点に関して検出されるので、もし小領域画像内に複数の関数特徴点が存在した場合には、その小領域における演算を破棄しても何ら問題は生じないことは明らかである。
このような作業により、画像フレーム追跡が多くのフレームに亘っても、誤差が生じることはなくなったことになる。そのことで追跡精度が飛躍的に高まり、CV再演算を行うことでCV演算精度もさらに高まることになる。
また、これまでのCV領域画像においては、TV値(追跡データ)を求める場合、揺れ止め処理が必要であったが、本発明によれば揺れ止め処理が必要ないという点でも優れている。ただし、揺れ止め処理を併用すればさらに効率的な演算が可能となる。
また、動画像から直接CV値を求めるには、特徴点追跡装置とそのTV値を用いてCV演算を行うCV演算装置が必要であり、そのためには特徴点のTV値(追跡データ)を求めることが必要である。本発明のCV値基準一括追跡装置は、このTV値(追跡データ)を高精度に求めて、高精度のCV演算装置を構成するようにしたものである。
なお、本発明に係るCV値基準一括追跡の技術によらないCV演算装置であっても、精度の問題はあるが、特徴点のTV値(追跡データ)を求めることは可能である。従って、本発明の請求項7以下に示すCV領域画像前置装置及びこれを用いた各種装置においては、本発明のCV値基準一括追跡装置を用いることなく特徴点のTV値(追跡データ)を求めることで実現することができる。
さらに、画像から直接CV値を取得する特徴点追跡装置とCV演算装置によらなくても、原理的にはGPSとジャイロとの組み合わせやIMU装置等の従来技術でCV値を求めることも可能であり、そのようにして求めたCV値を用いて新たにTV値(追跡データ)を取得することも可能であり、そのようなTV値(追跡データ)によって、本発明の請求項7以下の全ての装置を実現することもできる。
また、これまでのCV画像データベースは、道路管理用システムとして既に実用化されているが、データ量が莫大となり、製造工程のみならず、システムとしても多量のデータを管理する必要がる。本発明においては、CV画像のデータ量を可能な限り小さくすることができ、データベース管理の容易化や記憶資源の削減・有効活用を図ることができるようになる。
また、従来のCV画像はCGと比較して長所が多いが、視点変更が自由にできないという欠点もあった。本発明においては、これまでのCV画像をさらに発展させ、CGと同じように切り貼り、パーツ交換、視点変更なども自由に行えるCV画像を提供することができる。
なお、上述したように、CV領域画像と比較されるMPEG1、MPEG2、MPEG4は、いずれも、画像を二次元として扱っている点で、画像を三次元として扱う本発明とは根本的に異なるが、処理の過程で領域に分割されている点でのみ共通点がある。MPEG1、MPEG2、MPEG4はいずれも、動画像を二次元として扱っているので、冗長が多く圧縮には自ずと限界があるだけでなく、二次元である以上本発明ともCGとも異なり、決して視点移動はできない。
具体的には、本発明のCV値基準一括追跡装置は、請求項1に記載するように、動画像にCV演算を施す等により、画像の各フレームにCV値を付加したCV画像を取得するCV画像取得部と、追跡を始める画像フレームを定め、当該画像フレームに追跡すべき複数の特徴点を選択して指定する初期画像特徴点選択部と、当該複数特徴点を隣接フレームに追跡して、当該複数特徴点の各追跡データを取得する隣接フレーム追跡部と、前記各追跡データとCV値とから取得される前記複数特徴点の概略三次元座標とから、当該複数特徴点に隣接する前記複数フレームに亘る概略追跡位置を前記複数フレームに関して一括して予想する特徴点追跡予想部と、前記予想により制限された前記複数フレームの中の前記概略追跡位置付近において、前記特徴点との対応位置を前記複数フレームに亘り、一括して詳細に検出する対応位置一括決定部とを備える構成としてある。
また、本発明のCV値基準一括追跡装置は、請求項2に記載するように、前記初期画像特徴点選択部において、CV演算により、前記CV画像を取得する際に用いた特徴点を選択して指定する構成とすることができる。
また、本発明のCV値基準一括追跡装置は、請求項3に記載するように、前記初期画像特徴点選択部において、初期画像を定め、再度検出した特徴点を取得して、指定する構成とすることができる。
また、本発明のCV値基準一括追跡装置は、請求項4に記載するように、前記初期画像特徴点選択部において、関数特徴点を検出し、前記特徴点追跡予想部において、選択指定した関数特徴点の時系列上の多数フレームに亘り、CV値を用いて追跡予想位置を小面積で予想し、前記特徴点追跡位置検出部において、前記小面積内に、新たに関数特徴点を抽出し、当該関数特徴点と前記選択指定した関数特徴点とを、同一特徴点として一括して対応させ、対応位置一括決定部において、一括して対応関係を決定し、追跡データを求める構成とすることができる。
また、本発明の一括追跡装置は、請求項5に記載するように、動画像にCV演算を施す等により、画像の各フレームにCV値を付加したCV画像を取得するCV画像取得部と、前記CV画像取得部からの出力に対し、付加されたCV値の回転成分により、画像に逆回転を与えて、揺れ止め画像を生成する揺れ止め画像生成部と、前記CV値から、隣接する画像に対する湧きだし点と吸い込み点を求める湧きだし点抽出部と、前記CV画像をブロック画像に分割するブロック分割部と、追跡を始める画像フレームを定め、当該画像フレームの画像ブロック内に追跡すべき一乃至複数の特徴点を選択して指定する初期画像特徴点選択部と、湧きだし点基準を導入し、当該複数特徴点を湧きだし点から予想される経路に沿って隣接フレームに追跡して、当該特徴点の各追跡データを取得する隣接フレーム追跡部と、前記各追跡データとCV値とから取得される前記複数特徴点の三次元座標とから、当該複数特徴点に隣接する前記複数フレームに亘る概略追跡位置を前記複数フレームに関して、湧きだし点から吸い込み点に向かって予測されるライン上に、一括して予想する特徴点追跡予想部と、前記予想により制限された前記複数フレームの中の前記概略追跡位置付近において、前記特徴点との対応位置を、関連する前記複数フレームに亘り一括して検出する対応位置一括決定部と、を備える構成とすることができる。
また、本発明の高精度CV演算装置は、請求項6に記載するように、自由に移動するビデオカメラで撮影した動画像を取得し、記録する画像取得装置と、画像の中に多数の特徴点を検出し、複数フレームに亘って追跡することで対応点を検出し、複数の特徴点とその対応関係から、撮影時のカメラの三次元位置と姿勢を全フレームについて求めるカメラベクトル(CV)を演算(CV演算)して求め、同時に使用した特徴点の三次元座標を求める三次元特徴点記録部と、各フレーム画像のカメラベクトル値(CV値)を記録する概略CV値取得部と、画像の各フレームにカメラベクトル値(CV値)を付加した画像を生成するCV画像生成装置と、前記画像の中に検出した三次元座標を持つ多数の特徴点を用いて、特徴点の対応点を前記CV値基準一括追跡装置により、多くの隣接画像に亘ってCV値基準一括追跡処理するCV基準一括追跡部と、多数の特徴点の精度の高い前記追跡処理を行い、再度特徴点の追跡データを取得する特徴点追跡データ取得部と、前記特徴点追跡データから精度の高いCV値を演算で求める高精度CV演算部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置は、請求項7に記載するように、画像の各フレームにカメラベクトル値(CV値)を付加した画像を生成するCV画像生成装置と、前記CV画像生成装置の出力から、得られたCV画像を隙間無く幾何学的なハードCV領域画像に分割するハードCV領域画像分割装置と、前記ハードCV領域画像分割装置によって分割された各CV領域画像の中に特徴点を検出し、若しくは前記CV演算時に使用した特徴点を利用し、その対応点を前記CV値基準一括追跡装置やその他の手段により、隣接画像に亘って追跡し、全CV領域画像のトラッキングベクトル値(TV値)を求めるTV演算装置と、画像の各フレームに前記CV値と、前記TV値とを付加したハードCV領域画像を生成するハードCV領域画像生成装置と、を備える
構成とすることができる。
また、本発明のCV領域画像前置装置は、請求項8に記載するように、前記ハードCV領域画像生成装置の出力から、複数のハードCV領域画像を結合するなどして、若しくは前記ハードCV領域画像生成装置を介さずに直接同種テクスチャーCV領域画像を分離するなどして、画像内容に沿った複数のソフトCV領域画像から画像を再構成するソフトCV領域画像分割装置と、前記ソフトCV領域画像に分割された画像の各ソフトCV領域画像に関して、前記ソフトCV領域画像をCV値から得られる予想位置をCV値基準一括追跡方法によって追跡し、基準となる座標系に対する位置及び姿勢、及び運動を演算し、前記ソフトCV領域画像のCV領域画像ベクトル値(RV値)を求めるRV演算装置と、画像を構成する全CV領域画像が前記CV値と、前記CV領域画像ベクトル値(RV値)を付加して持つ画像を生成するソフトCV領域画像生成装置と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置は請求項9に記載するように前記ソフトCV領域画像生成装置の出力から、複数のソフトCV領域画像を所属する対象物毎に結合するなどして、若しくは前記ソフトCV領域画像生成装置を介さずに直接同種対象物CV領域画像を分離するなどして、複数のソフトCV領域画像からなる対象物により、画像を再構成する対象物認識装置と、前記対象物CV領域画像に分割された画像の各対象物CV領域画像に関して、前記対象物を構成する各ソフトCV領域画像は、対象物としての関係を保ち、対象物として基準となる座標系に対する位置及び姿勢、及び運動を演算し、複数のソフトCV領域画像の複合体としての複数のCV領域画像ベクトル(RV)を統合し、対象物別にソフトCV領域画像を分類したJV(ジョイントベクトル)を求め、対象物毎の分類データを取得するJV演算装置と、画像を構成する対象物及び対象物を構成するソフトCV領域画像が、前記CV値と、前記CV領域画像ベクトル値(RV値)と、前記JV値と、で統合された画像を生成する対象物CV領域画像生成装置と、を備える構成とすることができる。
また、本発明の高精度TV演算装置を備えるCV領域画像前置装置は、請求項10に記載するように、画像をブロックに分割するブロック分割部と、前記ブロックを、特徴ブロック、及びそれ以外のブロックに分類するブロック分類部と、全てのブロックをその配列順番を変えずにゴム紐状に柔軟に結合するゴム紐結合部と、前記特徴ブロックと前記それ以外のブロックに対してもゴム紐状に結合し、一時的に形成される抜けのない全ブロックによる画像を生成するブロック画像生成部と、からなるハードCV領域画像分割装置と、前記ハードCV領域画像分割装置の出力のゴム紐状に結合したブロック画像の特徴ブロックを請求項1記載のCV値基準一括追跡方法等を用いて追跡する特徴ブロック追跡部と、特徴ブロックの追跡データを前記それ以外のブロックにも演算して適切に配分する一次TV演算部と、複数フレームから一次TVの誤差を検出する補正ブロック検出部と、前記誤差の分布するCV領域画像を補正CV領域画像として、再追跡して高精度なTVデータを取得する二次TV演算部と、からなる高精度TV演算装置と、前記TV演算装置の出力に関して、TV値が同一となる隣接ブロックを結合する同一TV値統合部と、画像のCV値、及びハードCV領域画像のTV値を画像に付加するCV・TV付加部と、ブロック画像を表示目的に適した図法に変換する図法再変換部と、前記CV値とTV値とを付加したブロック画像を出力するハードCV領域画像出力部と、からなるハードCV領域画像生成装置と、を備える構成とすることができる。
また、本発明のRV演算装置を備えるCV領域画像前置装置は、請求項11に記載するように、前記ハードCV領域画像生成装置の出力から、特徴ブロックを選択し、独立特徴ブロック、境界線上特徴ブロック、境界線上ブロック、及びそれ以外のCV領域画像内ブロックの3種類に再分類するブロック再分類部と、境界線上特徴ブロック、境界線上ブロックを結合し、ソフトCV領域画像を生成するソフトCV領域画像生成部と、輪郭線ベクトル化装置の出力を用い、CV領域画像境界を補正するCV領域画像境界線の抜けを補正し、ブロック単位で構成されているソフトCV領域画像を、ベクトル線で切り分けてCV領域画像境界線を補強して明確なソフトCV領域画像を生成するCV領域画像境界線補正部と、からなるソフトCV領域画像分割装置と、前記ソフトCV領域画像分割装置の出力を、再度隣接画像に亘って追跡するCV領域画像トラッキング部と前記隣接画像に亘るCV領域画像の追跡からRV値を求めるRV演算部と、からなるRV演算装置と、前記RV演算装置の出力に対して、CV値、及びRV値をソフトCV領域画像に付加するCV・RV付加部と、前記CV値・RV値を付加されたソフトCV領域画像を生成して出力するソフトCV領域画像出力部と、からなるソフトCV領域画像生成装置とを備え、前記輪郭線ベクトル化装置は、画像の輪郭を直接求める輪郭線抽出部と、前記輪郭線を細線化してベクトル化するベクトル細線化部と、細線化ベクトルの延長線上の輪郭線検出の閾値を下げて、再度輪郭線を検出して細線を延長する可変閾値輪郭補強部と、補強されたベクトル輪郭線を生成するベクトル輪郭線生成部と、からなり、これら各装置を備える構成とすることができる。
また、本発明のJV値演算装置を備えるCV領域画像前置装置は請求項12に記載するように、
ソフトCV領域画像の中で、認識対象となる対象物の概略範囲を選択指定するソフトCV領域画像範囲選択部と、前記範囲を指定したソフトCV領域画像のRV値を選択指定するRV選択部と、予想される複数の対象物のRV値をデータベース化して記憶している部品DB部と、前記範囲のソフトCV領域画像のRV値と候補部品のRV値とを比較し、部分一致か不一致かを決定し、不一致の場合は他の部品候補を自動選択し、完全一致の場合はそれを決定部品とし、部分一致した場合は他の候補部品と一致度合いを比較し、最も一致度の高いRV値を持つ部品を決定部品とするRV比較部と、前記決定部品を認識した対象物として、取得する対象物認識部と、前記範囲のCV領域画像内において、CV画像からソフトCV領域画像の形状を形成する要素を検出する要素分解部と、前記要素を隣接画像に追跡し、対応位置を求める要素追跡部と、要素のCV値とRV値から三次元形状を求める要素三次元化部と、要素の部品データベースとなる要素部品DB部と、画像から検出した要素と部品要素の形状を比較して一致を求める要素比較部と、一致した部品要素を画像から検出した要素に置換する対象物要素認識部と、からなる対象物認識装置と、前記対象物認識装置の出力から、対象物認識されたCV領域画像を対象物単位で再結合するCV領域画像再結合部と、それぞれの対象物毎にソフトCV領域画像の幾何学的三次元結合状況を表すJV値を求めるJV演算部と、からなるJV演算装置と、前記JV演算装置で求められた対象物単位のJV値は、複数の対象物がそれぞれ区別されて配置されるように、全ソフトCV領域画像にJV値を付加するJV付加部と、対象物認識が一部又は全て済ませた対象物認識CV領域画像を生成する対象物CV領域画像生成部と、からなる対象物分離画像生成装置と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置によるVD画像表示装置は、請求項13に記載するように、CV値基準一括追跡装置からの出力を、若しくはCV値基準一括追跡装置からの出力と同等の出力をする他の機器からの出力を、CV領域画像と共にVDを分離して取得するCV領域画像・VD取得部と、画像の表示方法を指定する表示指定部と、VDを基にして、CV領域画像を再結合して再結合画像を生成するCV領域画像再結合部と、前記再結合画像を各フレームに配分して、各フレームに対応した画像を生成する画像フレーム生成部と、前記画像フレームを表示する表示部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置によるCV領域画像データベース装置は、請求項14に記載するように、前記CV領域画像前置装置から出力される各CV領域画像であるハードCV領域画像出力、ソフトCV領域画像出力、及び対象物CV領域画像出力の中の全ての画像出力、若しくは前記三者の中間段階の画像出力を、各ベクトルデータ(VD値)共に取得するCV領域画像・VD取得部と、前記CV領域画像・VD取得部で取得したVD値の成分であるCV値、TV値、RV値、JV値の全て、若しくはそれら何れかの内で、CV領域画像単位で、及び画像フレーム単位で重複するデータを近似化し単純化して、圧縮する重複データ圧縮部(座標系分離画像圧縮装置)と、前記圧縮データによる圧縮画像データとの対応を保持して、各CV領域画像をCV領域画像圧縮して記録するCV領域画像圧縮記録部と、前記各CV領域画像内に、画像及びCV領域画像を検索して指定する検索指定部と、前記検索部で検索して選択した画像及びCV領域画像を、前記CV領域画像圧縮記録部に記録された全画像データの中から呼び出し、解凍し、前記重複データ整理部で再構成したCV値、TV値、RV値、JV値の全て、若しくはそれらの何れかを付加した複数種類のCV領域画像が混在するCV領域画像を出力する解凍・出力部と、を備え、前記CV領域画像前置装置からの出力に代わって、出力する構成とすることができる。
また、本発明のCV領域画像前置装置による視点変更装置は請求項15に記載するように、前記CV領域画像データベース装置からの出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、視点変更地点を、若しくは視点変更経路を、CV値で指定する視点変更指定部と、前記CV値で指定された視点変更CV値から、視点変更時の他のVDを演算で求める視点変更演算部と、視点変更演算により取得されたVDを各画像、及び各CV領域画像に対応をつける変更VD取得部と、対応のついた前記各画像、及び各CV領域画像の画像を再構成し生成し、出力する視点変更画像生成部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置によるCV領域画像CG合成装置は、請求項16に記載するように、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、前記CV領域画像に合成するべきCGを入力するCG入力部と、前記CGのVDを演算するVD演算部と、前記CV領域画像の視点座標とCGの視点座標を合致させて座標を統合する視点座標統合部と、CV領域画像のVDと前記CGのVDを比較演算して、表示の前後関係を決定する前後関係形成部と、視点が合致し、前後関係が決定された、前記CV領域画像と前記CGとを合成して、同一座標系で表現するCV領域画像CG合成部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置による三次元形状生成装置は、請求項17に記載するように前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、三次元形状生成を行う範囲を指定する範囲指定部と、CV領域画像に付加されたVD値から三次元ポリゴンに変換演算するポリゴン変換演算部と、前記ポリゴン変換されたデータから三次元形状を生成する三次元形状生成部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置による画角拡大装置は、請求項18に記載するように、カメラを車載するなどして移動するカメラから撮影した画像の、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、画角拡大画像を観察する時の画角と視点方向を指定する拡大画角指定部と、画角拡大画像を観察する時の前記カメラ位置からの視点の移動位置を指定する仮想観察視点指定部と、前記拡大画角と、前記視点方向と、前記視点移動位置を指定された時間軸上に並ぶ複数フレームのCV領域画像を、指定の視点位置に視点変更演算する時間軸画像視点変更部と、前記視点変更演算により、視点変更されて視点位置が同一となった現在から過去に亘る時間軸上に並ぶ複数フレームのCV領域画像を結合する複数画像結合部と、時間の進行と共に移動進行する前記カメラの位置と方向を追従し、時間軸上に並ぶ複数フレームのCV領域画像を次々指定された視点位置に視点変更を次々繰り返すことで、画角拡大画像を連続して生成し続ける繰り返し生成部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置によるロックオン表示装置は、請求項19に記載するように、カメラを車載するなどして移動するカメラから撮影した画像の、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、VDを指定することにより、ロックオンすべき対象物の座標を指定する対象物座標指定部と、ロックオン表示のための視点移動経路と範囲を指定する視点移動指定部と、指定された視点移動経路に沿って、CV領域画像の視点変更を求める視点及び視点方向変換部と、変換されたCV領域画像を指定経路に従って表示するロックオン表示部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置による座標系分離装置は、請求項20に記載するように、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、VDから座標系を分離し、座標系毎のCV領域画像とVDとに分類する座標系別VD処理部と、
各座標系のVDを単純な関数に近似して単純化し、若しくは必要であれば、前記近似したVDと前記CV領域画像のVDとの関係を示す関数をも持ち続ける各座標系VD近似処理部と、単純な関数に近似されたことで、通信又は記録される、各座標系分離通信装置、又は各座標系分離画像記録部と、各座標系単位で画像を生成する各画像系別画像生成部と、各座標系を再度結合合成して表示する必要があれば、再結合のための各座標系合成画像生成部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置による画像部分更新装置は、請求項21に記載するように、更新する画像情報を含む画像を、前記CV値基準一括追跡装置から出力して、CV領域画像とそのVDを取得する更新CV領域画像・VD取得部と、更新される旧画像情報を含む画像を、前記CV値基準一括追跡装置から出力して、CV領域画像とそのVDを取得する旧CV領域画像・VD取得部と、更新範囲を指定する更新範囲指定部と、VD値を合致させることで、更新画像の視点を旧画像の視点に変更する更新領域視点変更部と、旧画像側の更新部分を削除する更新範囲削除部と、更新部分のCV領域画像を切り取って、旧CV領域画像に貼り付けて更新CV領域画像を生成する更新部分CV領域画像生成部と、最終的に領域結合して、更新画像を生成する更新画像生成部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置によるオルソ画像生成装置は、請求項22に記載するように、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、計測機器により鉛直方向を精度良く取得する鉛直補正部と、CV領域画像の複数ポイントで絶対座標を取得する高精度位置決め部と、前記計測機器で取得した高精度の鉛直データにより、取得したVD値を補正する補正VD値演算部と、前記補正VD演算部で補正されたVD値と対応するCV領域画像により、オルソ化対象を三次元化する三次元面生成部と、三次元化されたオルソ化対象のCV領域画像をオルソ面に投影するオルソ面投影部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置による画像高解像度化装置は、請求項23に記載するように、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、再生表示しようとする動画像を取得したカメラ移動経路、若しくは仮想カメラ移動経路をCV値で指定する仮想カメラ移動経路指定部と、前記動画像の各フレームを構成する各CV領域画像に関して、最も解像度の高いCV領域画像を、若しくは最もカメラの近くで取得しているCV領域画像を、若しくは最も目的に適合したCV領域画像を、既に取得している視点の異なる全CV領域画像データから選択する全範囲探索選択部と、前記全範囲探索選択部で選択したCV領域画像を、カメラ経路を意味する前記指定CV値に前記選択したそれぞれのCV領域画像を視点変更する高解像度視点変更部と、視点変更されたCV領域画像から各フレーム画像を生成する高解像度化画像結合部と、記録の必要が有れば、さらに視点変更を可能とするVD値を取得したCV領域画像の状態で記録保存する高解像度化画像データベースと、高解像度化された動画映像を表示する場合の表示部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置による運動抽出・解析装置は、請求項24に記載するように、前記CV領域画像データベース装置から出力される、若しくは前記視点変更装置から出力されるCV領域画像を、元となる動画像を構成する複数の座標系に分離する座標系分離装置と、前記複数の座標系の中で、目的の運動する対象物のCV領域画像をそのVDと共に選択し、抽出する運動領域抽出部と、前記抽出された運動領域のVDから、対象となる運動領域の運動を6自由度で表す運動領域VD解析部と、必要が有れば、前記運動領域を指定の座標系に変換して示す指定座標表示部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置によるCV領域画像検索装置は、請求項25に記載するように、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、検索すべきCV領域画像、又はその一部、又はそれを内部に含むCV領域画像を検索すべき部品として指定する検索CV領域画像部品指定部と、基準座標系における前記部品のVDを演算で求める検索CV領域画像部品VD演算部と、検索されるCV領域画像の基準座標系におけるVDと、検索部品のCV領域画像の基準座標系におけるVDとを比較し、一致度を求める基準座標VD比較部と、CV領域画像全体の中の一致度の高いCV領域画像を検索結果として出力する検索CV領域画像出力部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置によるノイズリダクション装置は、請求項26に記載するように、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、目的フレーム画像に属するCV領域画像と、それに隣接するフレーム画像に属するCV領域画像とで、対応する複数のCV領域画像を選択する最適CV領域画像選択部と、前記隣接するフレーム画像に属するCV領域画像を、前記目的フレーム画像のCV値に視点変更する同一視点変更部と、前記目的フレームの視点に統一して変更したCV領域画像を、重ね合わせて加算平均する領域加算平均演算部と、前記加算平均によりノイズが減少した領域を目的フレームに属するCV領域画像として取得する平均CV領域画像生成部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置による対象物認識装置は、請求項27に記載するように、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、認識対象となる部分をCV領域画像内に指定する認識CV領域画像指定部と、認識候補となる複数のCV領域画像からなる部品をデータベースとして記録している部品データベース部と、認識が完了するまで、次々部品を送り出す部品送り出し部と、比較される部品のVDを演算で求める部品VD演算部と、前記認識対象となるCV領域画像と、前記部品を基準座標系のVD値で比較する基準座標VD比較部と、前記部品送り出し部から送られてくる複数の部品の中で、最も一致度の高い部品を選択して、特定する認識画像出力部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置による位置決め装置は、請求項28に記載するように、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、取得したCV領域画像から、三次元地図として精度良く利用できる複数のCV領域画像部分を自動選択する地図利用選択部と、前記三次元地図として精度よく利用できるCV領域画像部分を指定し、前記CV領域画像・VD取得部で取得したCV領域画像内に、検索し、呼び出し、前記地図利用選択部に送る内部検索指定部と、前記地図利用選択部で選択された前記精度よく利用できる複数のCV領域画像部分を、二次元特徴点、三次元特徴領域、特徴対象物等に分類し、若しくはVD値等を用いて変換し、地図として生成する地図生成部と、地図と比較するため、及び表示のためのリアルタイム画像を車両等に積載したカメラから取得するリアルタイム画像取得部と、取得した前記リアルタイム画像を、CV演算、GPSを用いた概略位置合わせ、画像明るさ調整、等の前記三次元地図と比較しやすくし、検索しやすくするための画像処理を施すリアルタイム画像処理部と、前記二次元特徴点、三次元特徴領域、特徴対象物等を前記リアルタイム画像の中に検索指定する外部検索指定部と、前記検索指定により、前記二次元特徴点、三次元特徴領域、特徴対象物等を、前記リアルタイム画像前処理部で比較しやすく処理されたリアルタイム画像の中に検索して、対応部分を検出する外部検索検出部と、前記二次元特徴点、三次元特徴領域、特徴対象物等との対応部分が検出されたリアルタイム画像の対応部分と三次元地図上の前記二次元特徴点、三次元特徴領域、特徴対象物等から、リアルタイム画像のCV値を演算で求めるリアルタイム画像CV値取得部と、前記リアルタイム画像CV値取得部で取得した前記リアルタイム画像のCV値から、リアルタイム画像を取得したカメラの位置と姿勢を絶対座標で求めて車両位置を決定する車両位置決め部と、前記特徴対象物が持っている車両運行に関係する属性を前記リアルタイム画像内に表示するリアルタイム画像内属性表示部と、前記車両位置決めに利用し、リアルタイム画像で確認された前記二次元特徴点、三次元特徴領域、特徴対象物等を、次回に利用する三次元地図として記録しておく、三次元地図データベース部と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置による複合人工知能記憶装置は、請求項29に記載するように、複合人工知能装置を構成する個々の人工知能装置において、自ら取得したカメラ映像、及び認識結果を記録し、認識結果を記録する前記CV領域画像前置装置と、個々の人工知能装置から他の人工知能装置で、相互に情報をやり取りするための送信装置、及び受信装置と、他の人工知能から検索の問い合わせがあれば、前記CV領域画像前置装置のCV領域画像内に検索して、前記送信機で送り返すCV領域画像検索装置と、他の人工装置から対象物認識の依頼があれば、前記CV領域画像前置装置のCV領域画像内で対象物認識して、前記送信機で送り返すCV領域画像認識装置と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置によるCVタグ入出力検索装置は、請求項30に記載するように、管理しようとする現実の管理対象物があり、前もって、前記管理対象物及び周辺を撮影した画像の、前記CV領域画像データベース装置の出力を取り入れ一時記録したCV領域画像記録部と、画像取得時のカメラ位置近傍への視点変更画像を生成する前記視点変更装置と、前記CV領域画像を表示し、動画として画像フレームが移動しても、画像とCVタグの三次元的位置関係を保持したまま、CVタグを表示し、及びCVタグを開封しその内容を表示できるようにしたCVタグ表示装置と、前記CVタグ表示装置で表示された前記CV領域画像の中の前記管理対象物の位置に対して、CV領域画像の中にCVタグを直接貼り付けるか、若しくはCV領域画像中の前記管理対象物の三次元的位置を確認できるように、矢印などで特定できるようにしたCVタグを、CV領域画像の中に三次元的に配置するようにしたCVタグ入力装置と、CVタグと前記管理対象物とを関連づける諸データを格納するCVタグデータベース装置と、前記CVタグ表示装置、及び前記検索装置でCVタグを選択することで、若しくは表示されたCV領域画像中の前記管理対象物をCV領域画像の中にタッチスクリーンにタッチし、又はマウス等でCVタグをクリックして、CVタグを選択することで、前記CVタグデータベース装置からCVタグに対応する管理対象物のデータを読み出して管理するCVタグ対象物管理装置と、を備える構成とすることができる。
また、本発明のCV領域画像前置装置によるCVタグ入出力検索装置は、請求項31に記載するように、前記CVタグ入力装置と、前記CVタグデータベース装置と、前記CVタグ対象物管理装置とを車両等に積載し、管理地域、及び管理対象物周辺を移動する積載移動手段を備え、前記積載移動手段にはビデオカメラを積載し、リアルタイム画像を取得し、前記リアルタイム画像にCV演算を施し、リアルタイムCV領域画像を取得するリアルタイムCV領域画像取得装置を備え、文字、座標、属性等で検索し、CV領域画像中に管理対象物を示すCVタグそのものを、若しくはCV領域画像中の管理対象物の画像そのものを、色の変化やフラッシュ効果等の何らかの視覚効果のある三次元座標を持つ印として、動画としてのCV領域画像上に三次元的に矛盾無く呈示するCVタグ自動検索装置と、当該CVタグ入出力検索装置の外側にあって、記録媒体により、若しくは通信により、当該CVタグ入出力検索装置内側の管理地域及びその周辺のCV領域画像地図を前記CV領域画像記録部に一時記憶して保持させる、外部CV領域画像地図データベース部と、当該CVタグ入出力検索装置の外側にあって、記録媒体により、若しくは通信により、当該CVタグ入出力検索装置内側の管理地域及びその周辺のCVタグとその属性情報を前記CVタグデータベース装置に一時記憶して保持させる、外部CVタグデータベース部とからなる外部データベース装置と、を備え、前記移動体には、移動体の絶対座標を取得するGPS位置決め装置と、取得した前記リアルタイムCV領域画像と前記CV領域画像地図から、位置あわせをして取得した新旧画像更新装置とを保持する移動体位置決め手段を備え、前記移動体位置決め手段と時刻、及び入力した走行目的等より、車両の現在時刻と現在位置と現在状況に関係している管理対象物のCVタグを選択的に自動表示するCVタグ自動表示装置とを備え、若しくは、前記全ての装置と前記全ての手段の内の、その一部装置と一部手段を選択的に備える構成とすることができる。
さらに、本発明のCV領域画像前置装置によるCVタグ入出力検索装置は、請求項32に記載するように、前記CVタグ表示装置の機能を含み、選択及び検索した管理対象物を、管理対象物を画像の決められた位置に固定して表示する動画ロックオン機能と、縮尺の異なる複数のCV領域画像地図を表示し、しかも座標系を統一して、同じCVタグを前記複数のCV領域画像地図上に表示する機能と、CV領域画像地図と二次元地図を同時に表示し、二次元地図上にもCVタグを表示する機能と、選択及び検索した管理対象物を、前記CV領域画像地図と同じように、前記リアルタイムCV領域画像にCVタグを表示する機能と、選択及び検索した管理対象物を、CV領域画像上に表示せずに、ヘッドマウント、又はハーフミラー等により、移動する車両等から直接観察する現実世界の管理対象物に重複して合成した、CVタグや案内矢印や看板を示す機能と、選択及び検索した管理対象物に関するCVタグの内容を、音声で案内表示する機能と、前記各機能の全部又は一部の機能を有するCVタグ表示装置を備える構成とすることができる。
以上のような構成からなる本発明のCV値基準一括追跡装置及びCV領域画像前置装置によれば、これまでのCV画像をさらに発展させ、CGと同じように切り貼り、パーツ交換、視点変更も自由にできる画像に進化させ、画像を、CV値基準として、CV領域画像に分割し、各CV領域画像にCV値のみならず、TV演算によりTV値を、RV演算によりRV値を、JV演算でJV値を持たせることで、画像を自由に扱えるようになる。
これにより、一つのCV領域画像をあたかも一つのCV画像として扱うことで、画像を自由自在の扱うことが可能となる(TV、RV、JVの詳細については後述する)。
また、本発明は、CV値を用いた三次元処理をしているが、CGのような三次元データではないので、データ量もかなり圧縮できることになった。
本発明は、本願発明者の提案による全周画像によるCV画像の利用(特開2005−295495号)と、おけるCV値基準の概念を導入したものである。
本発明の元となっているCV演算及びCV値(特開2005−295495号)は、全周カメラによる動画像の球面画像から生まれた。動画像を球面画像として扱うことで焦点距離及び光軸の概念から解放され、動画像を視覚に適したかたちで二次元面を持ったまま、古典的な三角測量の原理に戻って三次元化し、簡単に取り扱うことができるようになった。さらに動画像における単純化されたCV値基準の概念の導入により、動画像処理が面のまま単純化されて三次元化し、動画像の領域分割及びそのトラッキングが容易となり、全画素トラッキングも可能となったことで一気に進展した。
また、処理後のデータの扱いを容易にするため、CV演算から発展した各演算によって取得したCV、TV、RV、JV値、(まとめてCTRV値と表現・それぞれをベクトルデータ「VD」と呼称する)を持つデータベースを構築することで全てを解決しようとしている。
そのデータの持ち方には進化に応じた複数段階があり、それぞれのデータベースを構築し、目的に応じて選択する。
最終段階では対象物認識をしているので、人工知能に近いものとなっている。
CV領域画像は画像を三次元として扱うことが可能となり、様々な応用展開が可能となる。
CV値のみのCV画像データベース装置による応用例としては、図31に示すように、○動画像とCGの合成装置(31)、○動画像からの三次元座標取得(32)、対象物を常に定位置で観察するロックオン表示装置(33)、回転揺れ止め画像生成装置・揺れ止め制御装置(34)、○画像内計測・画像間計測装置(35)、○新旧画像更新装置(36)、○CV画像地図(37)、○車載カメラによる自動車位置決め、及びその応用による実写ナビゲーションシステム(41)、○画像の三次元ポリゴン化システム(42)、○路面オルソ化地図生成システム(43)、等を実現することができる。
ここで、上記列挙した応用例はCV画像DBによるが、CV領域画像データベース装置によれば、さらに効率化されて実現されることになる。
以下に、CV領域画像データベースではじめて実現される様々な応用例について列挙する(図31参照)。
○座標系分離画像圧縮・記録装置(51)、○視点移動・中間フレーム生成装置(52)、○移動体抽出・運動解析装置(53)、○高解像度化画像生成装置(54)、○CV領域画像運動抽出・検索・解析装置(55)、○ノイズリダクション装置(61)、○CV領域画像差し換え画像生成装置(62)、○対象物運動抽出・解析装置(71)、○PRM画像圧縮装置(72)、○対象物運動解析装置(73)○複合人工知能記憶装置(74)、○VD画像表示装置(75)等を実現することができる。
このようにして、本発明によれば、種々の分野に応用が可能であり、多くの新産業を生み出し、確実に未来技術の核となり得る、産業のプラットホームとして位置づけることができる。
本発明のCV値基準一括追跡装置と、これを利用したCV領域画像前置装置によれば、画像をCV値基準と湧きだし点基準として、CV領域画像に分割し、各CV領域画像にCV値のみならず、TV演算によりTV値を、RV演算によりRV値を、JV演算でJV値を持たせることで、画像を自由に扱うことができる。
以下、本発明に係るCV値基準一括追跡装置と、この一括追跡装置を用いたCV領域画像前置装置の好ましい実施形態について、図面を参照しつつ説明する。
ここで、以下に示す本発明のCV値基準一括追跡装置やCV領域画像前置装置、その他の装置は、いずれもプログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示すような所定の処理や機能、例えば、映像中からの基準点や特徴点の自動抽出,抽出した基準点の自動追跡,基準点の三次元座標の算出,CV(カメラベクトル)値の演算等を行わせる。
このように、本発明における各処理や手段は、プログラムとコンピュータとが協働した具体的手段によって実現される。
なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ,その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラムがコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
[用語の定義]
まず、本明細書で用いられる特殊用語の定義と解説について説明する。
「CV演算、CV値、CV画像」
CVはカメラベクトルの略称であり、CV値はCV演算の結果得られたカメラベクトルを表す6変数で、各フレームにCV値を付加した画像をCV画像という。
すなわち、画像を取得したカメラ位置と姿勢の三次元座標と角度を6変数で、画像の各フレームについて求めたものがCV値であり、それを求める演算がCV演算であり、CV値が求められた画像をCV画像という。参考資料ではCV映像と呼称した。
代表する座標系とカメラ位置と姿勢が既知となったことで、複数のフレームから対象の三次元座標が求められる。
なお、回転揺れ止めしたCV値は回転に属する3変数が定数となるため、回転揺れ止めした画像においては、CV値を残りの位置に関する3変数で表すことがある。
このCV演算(CV値、CV画像)については、図1〜図13を参照して後に詳述する(特開2005−295495号、特開2005−122315号も参照)。
「湧きだし点」
カメラ移動による動画像、又は相対的に対象物とカメラの位置関係が刻々変化する場合には、着目する座標系おいて、湧きだし点から吸い込み点に向かって画像が湧き出してくるように見える。これを「湧きだし点」という。この湧きだし点は、元々回転静止した二画面の間に定義される二次元画像上の一点であり、CV値から求められる。
動画像において回転揺れ止めが成されていなければ湧きだし点は求められない。
a地点及びb地点の揺れ止めされた回転静止系におけるCV値は、
CVa=(Xa,Ya,Za) CVb=(Xb,Yb,Zb)
とすると、湧きだし点ベクトルSVは、それぞれの成分の差
SV=(ΔX,ΔY,ΔZ)
で表される。
「湧きだし点」と「吸い込み点」の概念は、本願発明者がはじめて提案した新しい概念である。
さらに、湧きだし点の概念を動画像に発展させ、動画像を湧きだし点基準で近似し、分類整理することで、動画像の動きを単純化して、整理することができる。
動画像において湧きだし点を求めるには画像の回転揺れ止めを行う必要がある。CV値の回転成分から回転成分を取得し、動画像に回転補正を施し、回転揺れ止め(特開2005−295495号参照)を行った動画像間の移動ベクトルは吸い込み点方向から湧きだし点方向を示している。
湧きだし点と、その反対側には吸い込み点がある。両者は画像内にある場合と無い場合がある。静止している場合には湧きだし点も吸い込み点も特定できない。カメラが移動する場合には必ず存在している。
画像を球面で表したメルカトール図法では、画像の中に湧きだし点と吸い込み点の両方が位置する。全周画像において、画像の各点は湧きだし点から大円上を移動して吸い込み点に至る放射状に出る曲線上を移動する。全周画像以外の部分画像であっても、全周画像の一部として扱えば全周画像とまったく同じように処理可能である。
メルカトール図法では移動の軌跡は曲線となるが、大円上を移動するので、最終的に一次関数にまで変換可能である(一次関数への変換については後述する「TV値」参照)。
(特開2005−295495号、特開2005−122315号参照)
具体的には、図14(a)に示すように、回転揺れ止めした画像311を遠近法図法(平面展開図法)で表現した場合には、画像の各画素313は湧きだし点から湧き出る直線314となる。
また、一般に平面展開図法では、湧きだし点、吸い込み点の両方が同時に画像に現れることはなく、どちらも画像に現れないときもある。
トラッキング時にはブロック化して画像上を追跡するのが一般的であるが、その方法は無数にある。一例として図14(b)には、湧きだし点から放射状に出る直線と垂直線が作るブロックを単位として、ブロック315を生成することができる。
「CV領域画像」
CV領域画像とは、CV画像から生成される分割されたCV画像であり、CV値基準による追跡による領域画像、と湧きだし点基準によってその生成方法からTV値が既知となったCV領域画像の二種類がある。
湧きだし点基準によるCV領域画像は回転揺れ止めされた映像であり、CV値基準のCV領域画像は揺れ止め画像に限定はされない。ただし、利用する上では、撮影時に忠実な画像を再現するためには揺れ止めしないまま処理が可能である。また、カーナビ等に利用するためには揺れ止めされた画像である方が使いやすい場合がある。
なお、CV領域画像には、湧きだし点基準のCV領域画像と、CV値基準によるCV領域画像とがあり、本発明は、主にCV値基準によるCV領域画像によるCV領域画像前置装置を対象とする。もちろん、両者によって生成されたCV領域画像は本質的に同じものである。
また、CV領域画像にはハードCV領域画像、ソフトCV領域画像、対象物CV領域画像の三種類があり、これらを区別しないときは単にCV領域画像という。
ただし、CV領域画像を生成する過程で、未だCV領域画像化されていない部分の領域も一つのCV領域画像として扱うこともある。
「ハードCV領域画像」
ハードCV領域画像とは、画像を分割したブロック形状のCV領域画像のことである。
画像処理を目的として画像を決まった形で分割する場合、通常は8*8〜10*10程度の矩形ブロックに分割するが、以下のソフトCV領域画像と区別するため、画像や画像内の対象物に依存せずに決まった形に分割したCV領域画像をハードCV領域画像という。
具体的処理の場合には分割した矩形をブロックと称することもある。正確にはハードCV領域画像の一部にブロックは含まれる。
「ソフトCV領域画像」
ソフトCV領域画像とは、画像を画像中の対象物に依存する形で、柔軟に分割した場合のCV領域画像の意味であり、通常、一つの対象物は複数のソフトCV領域画像からなる。
ハードCV領域画像と区別して、画像と画像中の対象物に依存して分割されたCV領域画像をソフトCV領域画像という。
「ブロック」
ハードCV領域画像の具体的な分割した矩形の形状をブロックという。
処理上、ハードCV領域画像は幾何学的に単純化する必要があり、ブロック化されることがほとんどなので、ブロックと呼称する場合がある。
「TV演算、TV値、TV画像」
動画像において、その代表座標系に属する全ての対象物が画像中を移動する位置と軌跡は、対象物の三次元座標が分かれば、CV値により、全てのフレーム内の微少範囲内に予測することができる。
隣接するフレーム間で概略三次元座標を求めることで、関連する前フレームの概略位置関係を一括して求めることができるので、追跡は微少範囲に絞り込むことが可能である。そのようにして求めた追跡データがTV値であり、TV値を求める演算をTV演算という。
TV演算には、先ず画像の各点を、動画を構成している隣接フレームに亘って追跡する作業、すなわちトラッキングが必要である。
通常トラッキングをするには画像を小領域のブロックに分割して、それを画像上に追跡する。8*8〜10*10程度が通常使われるブロックのサイズである。
ところで、小領域のブロックは隣接画像において一度追跡ができれば、CV値を用いて、概略三次元座標が分かることになる。この概略三次元座標が一括追跡の場合の予想値を生成することになる。
もちろん正確な三次元座標が求まれば、それは予想値ではなく決定値とすることができるが、隣接する二フレームの追跡では、精度が取れず三次元座標値は概略値となるために、決定値ではなく、予想値として扱うことにする。
この予想値の近傍に追跡点があるはずであり、しかも、それは前フレームでバラバラ求められる地点ではなく、あるフレームで正確な地点が求められたときには、同時に全てのフレームで正確な追跡地点を取得できることになる。
また、ある一点の追跡データを持っていれば、CV値を同時に持つことで、全てのフレームの当該一点の位置関係が何時でも取得できることになる。
さらに、揺れ止め画像である必要はなく、揺れ止め画像であっても良いということが、本発明のCV値一括追跡装置においてきわめて重要なこととなる。
これによって追跡データが求まったことになり、その後はブロック又は特徴点の追跡は画像内での画像フレームの時間の単位で進行する画像内距離として取得されるので、TV値も画像内距離として表現できるが、その後の画像処理のためにはTV値は時間及び速度に依存しない方が良い場合が多い。
そこで、追跡データを移動距離で微分して、カメラの単位移動当たりの画素として、すなわちカメラ移動距離の関数としてTV値を表現するのが好ましい。
ここで、湧きだし点基準の場合は、カメラ軌跡が直線から大きくずれると直線近似できなくなり、湧きだし点処理ができなくなるために、近似できる区間を一セグメントとしたが、CV値基準一括追跡装置では、その制限がないことになる。これも本発明の重要かつ特に優れた特徴である。
以上のような追跡演算をTV演算、その値をTV値、画像の各部分にTV値を付加した画像をTV画像と呼ぶものとする。
このようにして、元々二次元である追跡データを一括して同時にTV値として取得し、しかもそこから三次元データとして扱うVDを生み出すことが本発明の重要な特徴である。
TV値は、追跡範囲を微少領域にまで絞り込み、自由度を0近くにまで、ギリギリ追い込んで決定することができることになり、演算が単純化され精度も向上し、エラーが少なくなり、画像処理上きわめて有利となる。
なお、本発明に係るCV値基準一括追跡の技術によらないCV演算装置であっても、精度の問題はあるが、特徴点のTV値(追跡データ)を求めることは可能である。従って、本発明のCV領域画像前置装置及びこれを用いた各種装置においては、本発明のCV値基準一括追跡装置を用いることなく特徴点のTV値(追跡データ)を求めることで対応することも可能である。
さらに、画像から直接CV値を取得する特徴点追跡装置とCV演算装置によらなくても、原理的にはGPSとジャイロとの組み合わせやIMU装置等の従来技術でCV値を求めることも可能であり、そのようにして求めたCV値を用いて新たにTV値(追跡データ)を取得することも可能であり、そのようなTV値(追跡データ)によって、本発明のCV領域画像前置装置及びこれを用いた各種装置を実現することもできる。
「関数特徴点」
画像中に特徴点検出を行う場合、画像中の特徴ある部分を抽出し、それを特徴点とし、その特徴点周囲の小領域画像を切り取り、その小領域画像を他のフレームに追跡することで架空フレームの対応点を求めることが通常である。小領域は点ではないために、マッチングや相関によって一致を得ても、正しい追跡点にはならない。
そこで、特徴点を検出する際に、数学的演算によって求められた画素一点を示す特徴点を「関数特徴点」という。
具体的には、関数特徴点は、図17A〜17Cに示すように、例えば画像上の一点が周囲よりも明るい点となれば、関数特徴点であり、座標上の一点で定義できる。一方前記小領域画像特徴点は一点ではなく、ある微少面積を持った小領域が特徴点として定義される。
また、関数特徴点は、例えば二方向に移動させた地点の明るさが同時に極値を持つような地点を検索することでも求められる。
以下に、関数特徴点検出の一例を示す。
図17Aに示すように、画像の各画素の明るさをPとする。
関数特徴点条件を満たす座標を(x,y)とする。
座標(x,y)の明るさはP(x,y)と表す。
3*3のブロックで平均Pを取る。(ノイズカット)
移動は1/10ピクセル単位とする。
ここで、(x,y)が関数特徴点となりうる条件は
1.関数特徴点の明るさp(x,y)は、a〜d方向移動において、二つ以上の方向で極値を持つ。
ΔP=0
2.関数特徴点の明るさp(x,y)の微分値ΔP(x,y)は、a〜d方向移動において、二つ以上の方向で極値を持つ。
ΔΔP=0
3.pが少なくとも一つの方向で極値を持ち、同時にΔPが異なる方向で極値を持つ。
ここで、特徴点の種類は上記の3種類となる。上記関数特徴点の分類はトラッキング時の情報となる。
また、関数特徴点の周囲の小領域画像も特徴点ではあるが、これは関数特徴点ではない。
抽出は関数特徴点であるが、追跡は小領域画像特徴点であり、一般に同じ物ではない。
「RV演算、RV値、RV画像」
カメラの位置及び姿勢とソフトCV領域画像において、カメラと画像との関係は相対的であり、カメラを固定して画像の一部分の位置と姿勢の三次元ベクトルで表すことが可能である。このように、カメラを固定として、画像の一部分の三次元ベクトルをRV値という。その6自由度変数を求めることをRV演算という。
RVは
Regional Vectorの頭文字である。
CV値付きのTV値とRV値とは常に座標系の分類を示す定数項を介在して、一対一の関係にあり、座標系を選択すれば何時でも互いに変換できる関係にある。
あるCV領域画像においては、CV値とRV値は互いに変換できる関係にある。
なお、画像を構成する複数の座標系それぞれにCV値を定義することが可能であるが、CV値はこれまで動画像を代表する一個の座標系に対して一個のCV値を定義してきたので、しかも、カメラ側に定義してきたベクトルであるので、ここで複数の座標系に対して複数のCV値を定義すると、理解の混乱を起こす危惧があるため、ここではCV値は従来通り動画像を代表する座標系に対してのみ定義し、それ以外はRV値として、座標系とカメラの関係をCV値と同じ6自由度の変数で表示する。従って、次元及びその意味合いはCV値と同等であり、変換可能なものである。
また、RV値は基準となる画像では、代表座標系と一致し、その後時間と共に代表座標系から移動するように初期値を取ることが好ましい。
このようにすることで、静止座標系に一致しているときは、6変数全て静止座標系と一致するので、データとして扱いやすくなる。
一般に、RV画像はTV値から演算で求められるので、TV値はRV値と重複するデータである。
「JV演算、JV値、JV画像」
対象物認識後にソフトCV領域画像の各関係を求める演算をJV演算といい、認識された対象物を構成する複数のCV領域画像及びそのRV値を、対象物単位で区別する結合変数である。
一般に、認識された対象物は複数のCV領域画像から構成されており、その時各CV領域に与えられ、同一対象物に属するCV領域画像の三次元関係を求めることをJV演算、その値をJV値、JV値を取得した画像をJV画像という。
JV画像は、CV値、RV値と同時に扱われる。
「VD(ベクトルデータ)」
CV値、TV値、RV値、JV値を総称してVD(ベクトルデータ)と呼ぶ。
VDは、独立に決まるVDと重複する従属変数とからなる。
また、CV値とRV値はTV値から演算で求められるので、CV領域画像がVDを持つ場合、既にRV値を持つ場合はその中にTV値を含まない場合もある。
「ゴム紐結合、ゴム紐切断」
画像をブロック分割して、それぞれの追跡データを求めようとする場合、自己相関値がピークを持つような特徴点ブロックは追跡可能であるが、それ以外のブロックは追跡点が一義的には定まらない。
そこで、特徴ブロックとそれ以外のブロックに対して、後の処理において特徴点が移動してもその二次元配列順番を変えずにゴム紐状に伸び縮みするように、柔軟結合しておくことをゴム紐結合部と呼ぶ。
ゴム紐結合することで、特徴点ブロック以外のブロックでも仮想の追跡データを取得することができるようになった。
ただし、ゴム紐結合したために却って追跡データに矛盾が発生することがある。その時にはその矛盾の発生した場所で、ゴム紐を切断する作業を行う必要がある。このように一旦ゴム紐結合した一部分を切断することをゴム紐切断という。
「PRM」
PRMとは、Parts Reconstruction Method(3D対象物認識方法)の略であり、本願発明者により開発された対象物を認識するための技術である(国際出願PCT/JP01/05387号(国際公開WO 02/01505)参照)。具体的には、PRM技術は、前もって予想される対象物の形状と属性を部品(オペレータ部品)としてすべて用意しておき、それら部品と現実の実写映像を対比して、一致する部品を選択して対象物を認識する技術である。例えば、走行車輌等に必要となる対象物の「部品」は、道路標示としての車線、白線、黄線、横断道、道路標識としての速度標識、案内標識などであり、これらは定形のものであるので、PRM技術によりその認識は容易に行える。また、対象物をCV映像中に検索する場合においても、その対象物の存在する予想三次元空間を狭い範囲に限定することが可能となり、認識の効率化が可能となる。
具体的には、信号機であれば、その三次元形状を取得しただけでは「検出」であり、座標と姿勢まで分かれば「特定」であるが、信号機という名称が分かり、3個のライトが赤青黄に変化し、それぞれの交通上の意味を理解しているときに、属性を理解(認識)したということができる。
なお、PRM認識によって、あらゆる監視対象物(予測される対象物、障害物、不審物等)が認識されるとは限らない。すなわち、記憶となるデータベースに情報が存在しない対象物は認識できない。しかし、これは特に問題となるものではない。人間であっても記憶にないものは認識できないのと同様である。認識とはそのもの、あるいは、そのものに近いものの記憶との対比によって得られるものであるからである。
(特開2000−295611号、国際公開WO02/01505号参照)
「複合人工知能記憶装置」
現実世界の中の複数の対象物にカメラを取り付け、CV画像を取得し、互いに位置関係を確認し、属性を持ち、互いに情報をやり取りし、判断する人工知能を複合人工知能記憶装置という。
「CVタグ」
CV画像中に情報の出入り口として、CVタグを配置することができる。特開2005−295495号、特開2005−122315号に本願発明者によるCVタグに関する発明が提案されている。
CVタグは、実写アイコン、CGアイコンとも呼ばれる、機能としては、CVタグはCGアイコン及び実写アイコンと基本的に同じである。
CVタグの置き方としては、CV画像の中の対象物に重ねて、又は対象物から多少話した仮想位置に対象物を特定する位置に設置し、情報の出入り口とする。
CV画像には、アイコンの様に情報のやり取りをするタグを貼り付けることができる。また、CV画像では、画像の中の対象物、又は画素そのものが三次元座標を持っていることから、対象物そのものをタグとして利用することができる。
CVタグとしては、本願発明者による特開2005−295495号及び特開2005−122315号から明らかなように、CVタグには実写をそのままCVタグとして利用する方法と、小型のCGをタグとして貼り付ける方法の二種類がある。
CVタグとして、実写画像をそのままCVタグとして用いる方法の特徴は、画像中の対象物全てがCVタグとして利用できることである。画像の持つ座標系とCVタグの座標系を共通にすることで、三次元座標そのものがタグの位置であり、目に見えないタグとして配置することができる。ただし、CVタグの位置がピンポイントでは検索が困難となるので、二次元的にあるいは三次元的に範囲を指定して、その範囲をタグ領域とすればよい。
実写型CVタグは実写そのものを用いるので、タグは目では見えないことになり、映像を観察するときに障害とはならない点がCG方式に比べて有利である。また、CV画像からタグの位置を指定したり検索するためには、画像内でその都度三次元計測をしなければならない。この点がCG方式に比べて不利である。
一方、CGによるCVタグは、三次元計測した位置にタグとしてのCGを配置することになる。配置するには三次元計測する点では実写方式と同じであるが、また、読み出しや検索の場合はCGが既に三次元座標を持っていることから、その場での再度三次元計測をせずにCGを直接クリックすることで、その三次元座標を取得できるので、処理が簡単になる。この点が実写型と比較して有利な点である。
ところで、CGを用いたCVタグは、実写型と異なりタグが映像中に見えることになる。映像観察上不利になることはあるが、見えた方が都合の良いこともある。ただし、CGを透明化することで、目では見えないが、クリックすればそこでCGの三次元座標を取得し、タグを特定できることになる。従って実写方式でなくCG方式でも、タグそのものを映像中に隠して、置くことが可能となる。透明であれ可視であれ、CV画像中に配置されたCVタグであるCGは、既に三次元座標を持っているので、その場で三次元座標を計測する必要はないことになり、実写方式に比較して、呼び出しや検索に有利となる。
以下、図面を参照して、本発明に係るCV値基準一括追跡装置及びこれを用いたCV領域画像前置装置、その他の各種装置の具体的な実施形態について説明する。
[CV演算]
まず、本発明のCV値基準一括追跡装置やCV領域画像前置装置における処理の前提となるCV演算について図1〜図13を参照しつつ説明する。
CV演算とはCV値を求める方法の一つであり、CV演算により求められた結果をCV値,CVデータと呼ぶ。CVという表記は、カメラベクトル:Camera Vectorの略記であり、カメラベクトル(CV)とは計測等のために映像を取得するビデオカメラ等のカメラの三次元位置と3軸回転姿勢を示す値である。
CV演算は、動画像(ビデオ映像)を取得し、その映像内の特徴点を検出し、それを隣接する複数のフレームに追跡し、カメラ位置と特徴点の追跡軌跡とが作る三角形を画像内に数多く生成し、その三角形を解析することで、カメラの三次元位置とカメラの3軸回転姿勢を求めるものである。
CV演算では、CV値を求める過程で、同時に映像内の特徴点(基準点)についても三次元座標が同時に求まることが重要な特性である。
また、動画像から演算で求められるCV値は、動画像の各フレームに対応して、三次元のカメラ位置と三次元のカメラ姿勢とが同時に求まる。しかも、原理的には一台のカメラで、映像と対応してCV値が求められる特性は、CV演算でしか実現し得ない、優れた特徴である。
但し、CV値は、例えば、他の方法による計測手段(GPSとジャイロ、又はIMU等)より求めることもできる。従って、CV値の取得はCV演算による場合には限られない。
なお、GPSとジャイロ、又はIMU等によりCV値を取得する場合には、動画像の各フレームと、その三次元的カメラ位置と三次元的カメラ姿勢とを同時に取得するためには画像フレームと計測サンプリング時刻を高精度で、かつ完全に同期させる必要がある。
動画像から演算で求められるCVデータは、加工しない段階では相対値であるが、短区間であれば高精度で三次元位置情報と3軸回転の角度情報を取得できる。
また、CVデータを画像から取得する場合は、取得されたデータは相対値であり、絶対値に変換するには既知の地点でのキャリブレーションが必要であるが、CV値と同時に取得される特徴点三次元位置座標と姿勢により、又は新たに画像内に指定して取得した特徴点により、画像内の任意の対象物との位置関係を計測することができるという、他の方法では実現困難な優れた特性を備える。
また、画像に対応したCV値が求まるので、画像との相性が良く、画像から取得したCV値である限り、その画像内では矛盾が無いので、画像以外から求めるCV値と比較して、画像から直接にカメラ位置とその3軸回転姿勢を求めることができるCV演算は画像内計測や画像内測量に好適となる。
そして、本発明のCV値基準一括追跡装置は、このCV演算により得られたCV値データに基づいて一括追跡(トラッキング)処理を行うものである。
[CV演算部]
CV演算は、後述する本発明のCV値基準一括追跡装置200のCV画像取得部201(図15参照)として機能するCV演算部2で行われる。
CV演算部2は、図1に示すように、全周ビデオ映像部1から入力されるビデオ映像について所定のCV演算処理を行うことでCV値を求めるようになっており、具体的には、特徴点抽出部2-1と、特徴点対応処理部2-2と、カメラベクトル演算部2-3と、誤差最小化部2-4と、三次元情報追跡部2-5と、高精度カメラベクトル演算部2-6とを備えている。
まず、CV演算に使用する映像としては、原理的にはどのような映像でもよいが、画角の限られた映像では視点方向を移動した場合に映像がとぎれてしまうので、実用的には全周映像(図2〜図4参照)か、広角映像を全周映像の一部として扱うことが望ましい。なお、動画映像は連続する静止画と同様であり、複数の静止画として扱うことができる。
また、映像は、一般には予め記録した動画映像を使うことになるが、自動車等の移動体の移動に合わせてリアルタイムに取り込んだ映像を使用することも勿論可能である。
そこで、本実施形態では、CV演算に使用する映像として、車輌等の移動体の360度の全周囲を撮影した全周映像(図2〜図4参照)か、又は全周映像に近い広角映像を用いて、その全周映像を視点方向に平面展開することにより、全周映像の一部として扱うことができる。
全周映像の平面展開とは、全周映像を、通常の画像として遠近法的に表現するものである。ここで、「遠近法」と呼称するのは、全周画像のそのものはメルカトール図法や球面投影図法のように、遠近法とは異なる方法で表示されているので(図4参照)、これを例えば等距離図法のように平面展開表示することで、通常の遠近法映像に変換表示できるからである。
全周ビデオ映像部1において全周映像を生成するには、まず、図2及び図3に示すように、全周ビデオカメラ1-1を使用して、CV値データを取得する目的で、走行車輌等の移動体1-1aに固定された全周ビデオカメラ1-1で、移動体1-1aの移動とともに移動体周辺を撮影する。
なお、移動体1-1aには、その位置座標を取得する目的で、例えば、絶対座標を取得するGPS機器単独やIMU機器を付加したもの等により構成した位置計測機器等を備えることができる。
また、移動体1-1aに搭載される全周ビデオカメラ1-1としては、広範囲映像を撮影,取得するカメラであればどのような構成であってもよく、例えば、広角レンズや魚眼レンズ付きカメラ、移動カメラ、固定カメラ、複数のカメラを固定したカメラ、360度周囲に回転可能なカメラ等がある。本実施形態では、図2及び図3に示すように、車輌に複数のカメラが一体的に固定され、移動体1-1aの移動に伴って広範囲映像を撮影する全周ビデオカメラ1-1を使用している。
そして、以上のような全周ビデオカメラ1-1によれば、図3に示すように、移動体1-1aの天井部に設置されることで、カメラの360度全周囲の映像を複数のカメラで同時に撮影することができ、移動体1-1aが移動することで、広範囲映像を動画データとして取得できる。
ここで、全周ビデオカメラ1-1は、カメラの全周映像を直接取得できるビデオカメラであるが、カメラの全周囲の半分以上を映像として取得できれば全周映像として使用できる。
また、画角が制限された通常のカメラの場合でも、CV演算の精度としては低下するが、全周映像の一部分として取り扱うことが可能である。
なお、全周ビデオカメラ1-1で撮影された広範囲映像は、一枚の画像として、撮影時の画角に一致する仮想球面に貼り付けることができる。
仮想球面に貼り付けられた球面画像データは、仮想球面に貼り付けた状態の球面画像(360度画像)データとして保存・出力される。仮想球面は、広範囲映像を取得するカメラ部を中心点とした任意の球面状に設定することができる。
図4(a)は球面画像が貼り付けられる仮想球面の外観イメージであり、同図(b)は仮想球面に貼り付けられた球面画像の一例である。また、同図(c)は、(b)の球面画像をメルカトール図法に従って平面展開した画像例を示す。
そして、以上のように生成・取得された全周ビデオ映像が、CV演算部2に入力されてCV値データが求められる(図1参照)。
CV演算部2では、まず、特徴点抽出部2-1が、全周ビデオ映像部1の全周ビデオカメラ1-1で撮影されて一時記録された動画像データの中から、十分な数の特徴点(基準点)を自動抽出する。
特徴点対応処理部2-2は、自動抽出された特徴点を、各フレーム間で各フレーム画像内において自動的に追跡することで、その対応関係を自動的に求める。
カメラベクトル演算部2-3は、対応関係が求められた特徴点の三次元位置座標から各フレーム画像に対応したカメラベクトルを演算で自動的に求める。
誤差最小化部2-4は、複数のカメラ位置の重複演算により、各カメラベクトルの解の分布が最小になるように統計処理し、誤差の最小化処理を施したカメラ位置方向を自動的に決定する。
三次元情報追跡部2-5は、カメラベクトル演算部2-3で得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで順次画像の一部として得られる三次元情報に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレームの画像に沿って自動追跡を行う。ここで、三次元情報(三次元形状)とは、主に特徴点の三次元分布情報であり、すなわち、三次元の点の集まりであり、この三次元の点の集まりが三次元形状を構成する。
高精度カメラベクトル演算部2-6は、三次元情報追跡部2-5で得られた追跡データに基づいて、カメラベクトル演算部2-3で得られるカメラベクトルより、さらに高精度なカメラベクトルを生成,出力する。
そして、以上のようにして得られたカメラベクトルが、後述するCV値基準一括追跡装置200に入力され、CVタグの生成や貼り付け処理に利用されることになる。
複数の画像(動画又は連続静止画)の特徴点からカメラベクトルを検出するにはいくつかの方法があるが、図1に示す本実施形態のCV演算部2では、画像内に十分に多くの数の特徴点を自動抽出し、それを自動追跡することで、三角測量幾何学、及びエピポーラ幾何学により、カメラの三次元ベクトル及び3軸回転ベクトルを求めるようにしてある。
特徴点を充分に多くとることにより、カメラベクトル情報が重複することで、三地点の座標で構成される単位の三角形を、その十倍以上の多くの特徴点から求めることになり、重複する情報から誤差を最小化させて、より精度の高いカメラベクトルを求めることができる。
カメラベクトルとは、移動するカメラの持つ六個の自由度のベクトルである。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトルをいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度から微分して導き出すことができる。
このように、本実施形態のカメラベクトルの検出とは、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の自由度を決定することである。
以下、CV演算部2における具体的なカメラベクトルの検出方法について、図5以下を参照しつつ説明する。
まず、上述した全周カメラ映像部10の全周ビデオカメラ1-1で取得された画像データは、間接に又は直接に、CV演算部2の特徴点抽出部2-1に入力され、特徴点抽出部2-1で、適切にサンプリングされたフレーム画像中に、特徴点となるべき点又は小領域画像が自動抽出され、特徴点対応処理部2-2で、複数のフレーム画像間で特徴点の対応関係が自動的に求められる。
具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図5〜図7に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図7に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図8に示すように、各画像中に充分に多くの特徴点を指定,抽出することが望ましく(図8の○印参照)、例えば、100点程度の特徴点を抽出する。
続いて、カメラベクトル演算部2-3で、抽出された特徴点の三次元座標が演算により求められ、その三次元座標に基づいてカメラベクトルが演算により求められる。具体的には、カメラベクトル演算部2-3は、連続する各フレーム間に存在する、十分な数の特徴の位置と、移動するカメラ間の位置ベクトル、カメラの3軸回転ベクトル、各カメラ位置と特徴点をそれぞれ結んだベクトル等、各種三次元ベクトルの相対値を演算により連続的に算出する。
本実施形態では、例えば、360度全周画像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。また、これを三角測量として説明すれば、方位と俯角仰角を測量する機器を車載して、対象となる複数の測量地点を、移動する測量機器により同一対象物を計測して取得したデータから、各対象地点の座標と測量機器の移動の軌跡を求める場合と同じである。
図7に示す画像1,2は、360度全周画像をメルカトール展開した画像であり、緯度φ、軽度θとすると、画像1上の点は(θ1,φ1)、画像2上の点は(θ2,φ2)となる。そして、それぞれのカメラでの空間座標は、z1=(cosφ1cosθ1,cosφ1sinθ1,sinφ1)、z2=(cosφ2cosθ2,cosφ2sinθ2,sinφ2)である。カメラの移動ベクトルをt、カメラの回転行列をR、とすると、z1T[t]×Rz2=0がエピポーラ方程式である。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
ここで、カメラベクトルの演算に利用する画像としては、360度全周画像を用いることが好ましい。
カメラベクトル演算に用いる画像としては、原理的にはどのような画像でも良いが、全周映像は対象物の方向がそのまま緯度経度で表現されていることから、きわめて有利である。図7に示す360度全周画像のような広角レンズによる画像の方が特徴点を数多く選択し、複数フレームに渡って追跡し易くなる。また、狭角レンズによる映像あっても、同一対象物の周りを移動しながら様々な方向から撮影する場合には特徴点が視界から逃げないので有効である。
そこで、本実施形態では、CV演算に360度全周画像を用いており、これによって、特徴点の追跡距離を長くでき、特徴点を十分に多く選択することができ、遠距離、中距離、短距離それぞれに都合の良い特徴点を選択することができるようになる。また、回転ベクトルを補正する場合には、極回転変換処理を加えることで、演算処理も容易に行えるようになる。これらのことから、より精度の高い演算結果が得られるようになる。
なお、図7は、CV演算部2における処理を理解し易くするために、1台又は複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際のCV演算では、必ずしもメルカトール図法による展開画像である必要はない。
次に、誤差最小化部2-4では、各フレームに対応する複数のカメラ位置と複数の特徴点の数により、複数通り生じる演算方程式により、各特徴点に基づくベクトルを複数通り演算して求めて、各特徴点の位置及びカメラ位置の分布が最小になるように統計処理をして、最終的なベクトルを求める。例えば、複数フレームのカメラ位置、カメラ回転及び複数の特徴点について、Levenberg-Marquardt法により最小自乗法の最適解を推定し、誤差を収束してカメラ位置、カメラ回転行列、特徴点の座標を求める。
さらに、誤差の分布が大きい特徴点については削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
図9〜図11に、CV演算により得られる特徴点の三次元座標とカメラベクトルの例を示す。図9〜図11は、本実施形態のCV演算によるベクトル検出方法を示す説明図であり、移動するカメラによって取得された複数のフレーム画像によって得られるカメラ及び対象物の相対的な位置関係を示す図である。
図9では、図7の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトル(X,Y,Z)が示されている。
図10及び図11は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
ここで、CV演算部2におけるCV演算は、より高精度な特徴点とカメラ位置の三次元情報を高速に得るために、図12に示すように、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行うようにする。
具体的には、CV演算部2では、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返すことができる。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
そして、特徴点のm値による分類を、十分にオーバーラップさせながら、複数段階のmを設定し、画像の進行とともにnが連続的に進行するのにともなって、演算を連続的に進行させる。そして、nの進行とmの各段階で、同一特徴点について複数回重複演算を行う。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
m枚毎の精密カメラベクトル演算に誤差がないとすれば、m枚のフレームのカメラベクトルの両端は、高精度演算をしたFnとFn+mのカメラベクトルと重なることになる。従って、FnとFn+mの中間のm枚の最小単位のフレームについては簡易演算で求め、簡易演算で求めたm枚の最小単位フレームのカメラベクトルの両端を、高精度演算で求めたFnとFn+mのカメラベクトルに一致するように、m枚の連続したカメラベクトルのスケール調整をすることができる。
このようにして、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定することができる。これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
ここで、簡易演算としては、精度に応じて種々の方法があるが、例えば、(1)高精度演算では100個以上の多くの特徴点を用いる場合に、簡易演算では最低限の10個程度の特徴点を用いる方法や、(2)同じ特徴点の数としても、特徴点とカメラ位置を同等に考えれば、そこには無数の三角形が成立し、その数だけの方程式が成立するため、その方程式の数を減らすことで、簡易演算とすることができる。
これによって、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整する形で統合し、距離演算を行い、さらに、誤差の分布が大きい特徴点を削除し、必要に応じて他の特徴点について再演算することで、各特徴点及びカメラ位置での演算の精度を上げることができる。
また、このように高速な簡易演算を行うことにより、カメラベクトルのリアルタイム処理が可能となる。カメラベクトルのリアルタイム処理は、目的の精度をとれる最低のフレーム数と、自動抽出した最低の特徴点数で演算を行い、カメラベクトルの概略値をリアルタイムで求め、表示し、次に、画像が蓄積するにつれて、フレーム数を増加させ、特徴点の数を増加させ、より精度の高いカメラベクトル演算を行い、概略値を精度の高いカメラベクトル値に置き換えて表示することができる。
さらに、本実施形態では、より高精度のカメラベクトルを求めるために、三次元情報(三次元形状)の追跡を行うことができる。
具体的には、まず、三次元情報追跡部2-5で、カメラベクトル演算部2-3,誤差最小化部2-4を経て得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで生成される画像の一部として得られる三次元情報(三次元形状)に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレーム間で連続的に追跡して三次元形状の自動追跡を行う。
そして、この三次元情報追跡部2-5で得られた三次元情報の追跡結果から、高精度カメラベクトル演算部2-6においてより高精度なカメラベクトルが求められる。
上述した特徴点抽出部2-1及び特徴点対応処理部2-2では、特徴点を複数のフレーム間画像内に自動追跡するが、特徴点が消失するなどして特徴点の追跡フレーム数に制限が出てくることがある。また、画像は二次元であり、追跡途中で形状が変化するために追跡精度にも一定の限界がある。
そこで、特徴点追跡で得られるカメラベクトルを概略値と位置づけ、その後のプロセスで得られる三次元情報(三次元形状)を各フレーム画像上に追跡して、その軌跡から高精度カメラベクトルを求めることができる。
三次元形状の追跡は、マッチング及び相関の精度を得やすく、三次元形状はフレーム画像によって、その三次元形状も大きさも変化しないので、多くのフレームに亘って追跡が可能であり、そのことでカメラベクトル演算の精度を向上させることができる。これはカメラベクトル演算部2-3により概略のカメラベクトルが既知であり、三次元形状が既に分かっているから可能となるものである。
カメラベクトルが概略値の場合、非常に多くのフレームに亘る三次元座標の誤差は、特徴点追跡による各フレームに関係するフレームが少ないので、誤差が累積して長距離では次第に大きな誤差になるが、画像の一部分を切り取ったときの三次元形状の誤差は相対的に少なく、形状の変化と大きさに及ぼす影響はかなり少ないものとなる。このため、三次元形状での比較や追跡は、二次元形状追跡の時よりも極めて有利となる。追跡において、二次元形状での追跡の場合、複数のフレームにおける形状の変化と大きさの変化を避けられないまま追跡することになるので、誤差が大きかったり、対応点が見つからないなどの問題があったが、三次元形状での追跡においては形状の変化が極めて少なく、しかも原理的に大きさの変化もないので、正確な追跡が可能となる。
ここで、追跡の対象となる三次元形状データとしては、例えば、特徴点の三次元分布形状や、特徴点の三次元分布形状から求められるポリゴン面等がある。
また、得られた三次元形状を、カメラ位置から二次元画像に変換して、二次元画像として追跡することも可能である。カメラベクトルの概略値が既知であることから、カメラ視点からの二次元画像に投影変換が可能であり、カメラ視点の移動による対象の形状変化にも追従することが可能となる。
以上のようにして求められたカメラベクトルは、全周ビデオカメラ1-1で撮影されたビデオ映像中に重ねて表示することができる。
例えば、図13に示すように、車載カメラからの映像を平面展開して、各フレーム画像内の目的平面上の対応点を自動で探索し、対応点を一致させるように結合して目的平面の結合画像を生成し、同一の座標系に統合して表示する。
さらに、その共通座標系の中にカメラ位置とカメラ方向を次々に検出し、その位置や方向、軌跡をプロットしていくことができる。CVデータは、その三次元位置と3軸回転を示しており、ビデオ映像に重ねて表示することで、ビデオ映像の各フレームでCV値を同時に観察できる。CVデータをビデオ映像に重ねて表示した画像例を図13に示す。
なお、ビデオ映像内にカメラ位置を正しく表示すると、CV値が示すビデオ映像内の位置は画像の中心となり、カメラ移動が直線に近い場合は、すべてのフレームのCV値が重なって表示されてしまうので、例えば図13に示すように、敢えてカメラ位置から真下に1メートルの位置を表示することが適切である。あるいは道路面までの距離を基準として、道路面の高さにCV値を表示するのがより適切である。
[CV値基準一括追跡装置]
次に、以上のようにして求められたCV値に基づいてCV映像の一括追跡(トラッキング)処理を行う本発明に係るCV値基準一括追跡装置の実施形態について、図面を参照しつつ具体的に説明する。
[基本構成]
まず、図15を参照して、本発明の一実施形態に係るCV値基準一括追跡装置の基本構成について説明する。
図15は、本発明の一実施形態に係るCV値基準一括追跡装置の基本構成を示すブロック図である。
図15に示すように、本実施形態に係るCV値基準一括追跡装置200は、上述したCV演算や、GPSとジャイロ、又はIMU等の計測手段などにより取得されるCV値が付加されたCV映像を、複数フレームにわたってトラッキング(追跡)処理するための装置であり、具体的には、CV画像取得部201と、初期画像特徴点選択部202と、隣接フレーム追跡部203と、特徴点追跡予想部204と、対応位置一括決定部205とを備えている。
CV画像取得部201は、予め上述したCV演算を行うなどしてCV値が求められたCV画像を生成・取得する。
CV画像から特徴点を取得し、追跡を始めるにあたり、初期画像を定める。
初期画像特徴点選択部202は、初期画像から複数の特徴点を検出する。
ここで初期画像とは特徴点を検出したフレーム画像のことであるが、特徴点は時系列上で新たに複数抽出するので、全ての特徴点を同一画像で検出するとは限らないので、全てのフレームが初期画像となることもあり得る。初期画像とは特徴点を検出した画像であり、特徴点から見た呼称である。従って追跡して得た各特徴点にはその特徴点の初期画像があることになる。
隣接フレーム追跡部203は、初期画像の特徴点を隣接画像に追跡する。この場合、原則として処理画像の隣の一フレームのみの追跡でよい。一フレームのみの追跡で、当該初期画像の中の特徴点の概略三次元値が取得できるからである。
なお、初期画像において最初の追跡が行われ、その追跡データが基準となって三次元座標が取得されることになるが、この最初の初期画像における追跡データは、次の工程の追跡予想のために必要な三次元概略データを取得するためのものであり、最終的に採用される追跡データとはならない。ここでは予想位置の周囲に正しい追跡位置があるという仮定に基づいている。
特徴点追跡予想部204は、各追跡データとCV値とから取得される複数特徴点の概略三次元座標とから、当該複数特徴点に隣接する複数フレームに亘る概略追跡位置を複数フレームに関して一括して予想する。
概略三次元値が分かれば、CV値から全てのフレームへの追跡予想位置が分かるということが重要である。
初期画像内の特徴点の概略三次元座標が既知となれば、CV値が既知であることから、特徴点の三次元座標が明らかになり、また、その三次元座標が関連するフレームのどの位置に二次元特徴点として投影されるかを演算で求められ、結果として二次元画像内に二次元特徴点として追跡位置を一括して予測して表示することができる。
このようにして初期画像の全ての特徴点が映り込んでいる全ての関連フレームにおける追跡位置の予測位置が演算で求められる。
なお、特徴点追跡予想部204による特徴点の関連フレームの予測は関連画像内に小領域の範囲として示されることになる。追跡予想位置を示す範囲はブロックでも良いし、円形領域でも良いが、ブロックが演算上は単純で扱いやすい。
対応位置一括決定部205は、特徴点追跡予想部204の予想により制限された複数フレームの中の概略追跡位置付近において、特徴点との対応位置を複数フレームに亘り、一括して詳細に検出する。
すなわち、対応位置一括決定部205では、既に特徴点追跡予想部204の予想により特徴点追跡の概略位置が求まっているので、範囲内に再度特徴点を検出するか、若しくは特徴点に対応する小領域の位置を再確認のため、再度範囲内で相関やマッチング処理により対応点を詳細に求める。
追跡位置が予想された後は、最初の初期画像で取得して隣接フレームに追跡した追跡データは破棄される。追跡が必要な全フレームに亘って、初期画像に最初の追跡も含めて再度詳細に関連する複数フレームに亘り、一括して、しかも同時に対応点を求めることになる。
一個の特徴点を複数のフレームに亘って追跡処理する場合、その位置が予想されていることはきわめて有利である。予想するためにはCV値が必要であるから、前もってCV演算しておくことが必要になる。この想定は十分に現実的な想定であり、もしCV値が未知の場合であっても、初期画像における少数の特徴点(20個程度)により複数画像に亘るCV演算をすることで、他の多数の特徴点(100〜300個)の特徴点の予測位置を取得できるので効率的である。
さらに、効率的であるだけでなく、予測範囲をきわめて狭い小面積内に予想することで、追跡ミスを極端に減少させることができ、また、対応点位置をきわめて狭い範囲にのみ探すことで、精度の向上と演算時間の縮小が同時に可能となる。
このように、本実施形態にかかるCV値基準一括追跡装置200では、複数のフレームに亘る追跡予想範囲を小面積に限定し、CV値基準一括追跡することで、追跡エラーを減少させ、追跡精度を向上させ、演算時間を短縮することができることが最も特徴とするところである。
すなわち、一括して同時に予想し、一括して同時に検出できることが本実施形態のCV値基準一括追跡装置200の重要な特徴となる。
例えば、10フレーム一括して予想することで、10フレームを同時に検証できることになり、原理的に対応するときは10フレーム同時に対応し、一フレームだけ対応しないことはないので、対応点が明確になり、エラーが減少する。
なお、最初の追跡が行われる初期画像は、必ずしも前もって決められたフレームという意味ではなく、新たな特徴点が追加された時点で、その新たに追加された特徴点の存在するフレームが当該特徴点にとって初期画像となる。
特徴点の追跡を始めるフレームが初期画像であり、全フレームに新たな特徴点が検出されれば、全フレームが初期画像となる。
[特徴点追跡予想]
以下、図16を参照して、本実施形態のCV値基準一括追跡装置200における既知の特徴点を使用したCV値基準一括追跡方法(特徴点予想)について、より具体的に説明する。
図16は、本実施形態のCV値基準一括追跡装置において既知の特徴点を使用したCV値基準一括追跡方法の原理を説明するための説明図である。
同図において、符号721,722,732.724〜731は、複数のフレームF1,F2,F3,F4〜Fnであり、721は特徴点Aの初期画像となるフレームF1であり、特徴点A701を含む小領域702が存在する。
ここでは、隣接する複数のフレーム722、723、724、〜731に亘って小領域702を一括追跡する場合を説明する。
追跡は、概略CV値を使って追跡位置を予測することになるが、ここでは、説明を単純化するために、一つの小領域に一個の特徴点とし、その追跡予想値を三通りと設定した。
三通りの予想はそれぞれAB方向、AC方向、AD方向となる。実際にはもっと多数の方向とするのが適切である。
さらに、図16では一つの小領域に含まれる特徴点はAの一個としたが、必ずしも一個である必要はなく、複数個の特徴点でもかまわない。
以下、図16を参照して、上述した概略CV値による特徴点追跡予想部204の働きである特徴点追跡予想について詳細について説明する。
以下に示す特徴点追跡予測により、複数フレームに亘って特徴点の追跡予想できることが理解できる。
概略CV値は最終的に求められるCV値より精度が悪いのが一般的である。ただし、目的によっては、例えば座標系分離を目的とする場合は、CV値を求めることではなく、座標系分離が目的であるために、同等の精度でも良い場合がある。
概略CV値が分かれば、図16に示す特徴点A(701)の各フレームにおける位置はCV値から求められる。何故なら、各フレームに於ける特徴点からCV値が求められているので、また特徴点の三次元座標もCV値と同時に求められているので、初期画像となる特徴点の位置が分かれば、逆演算をすることで元の特徴点の位置に戻すことができる。
ただし、通常のCV画像は、CV値は既知であっても、同時に求めた特徴点は既に破棄されているため、CV基準一括追跡のための特徴点は新たに求められることになる。図16の特徴点Aは新たに抽出された特徴点であってもよい。
そして、さらにその新たに求められた三次元座標は隣接するフレームに亘って追跡するという行程を経て、その特徴点の三次元座標を取得することができる。
もちろん、概略CV演算時の特徴点が破棄されずに残っていれば、その特徴点の三次元座標が使えるので、このように特徴点Aを新たに抽出する必要はなく、そのまま三次元座標の分かっている特徴点としてAと同じ意味で使えることになる。
ここで、特徴点の三次元座標は既知となっても、概略CV値であることから精度は目的の精度より低いと考えるのが適切である。
何故ならもし目的の精度が出ているのであればわざわざCV値を求める必要はないからである。
ただし、上述したように、例えば座標系分離を目的とする場合は、目的が高精度のCV値を求めることではなく、座標系分離が目的であるために同等の精度でも良い場合がある。
さて、特徴点の概略三次元座標が既知となったことから、その特徴点が各フレームのどの位置に存在しているかをCV値から演算により求められる。何故なら、特徴点の各フレームの特徴点位置からCV値が求められたのだから、その逆演算をすればCV値が求められる。
ここでは、概略CV値であるために特徴点の三次元座標値も概略値となる。概略だからこそ追跡予想なのであって、精度が高ければ追跡予想ではなく追跡決定となる。この追跡予想によって特徴点が各フレームで対応する範囲を絞り込むことができるのであり、それが本発明のCV値基準一括追跡の基本原理である。
さらに、ここに揺れ止め画像による湧きだし点基準を導入すると、予測範囲は狭い範囲の二次元だった予測範囲が、さらに狭い範囲の一次元領域に限定されてくる。予想範囲は狭い方が有利であり、CV基準一括追跡にはさらに好都合になる。
以上のような追跡予想の原理により、以下、実際の追跡方法について具体的に説明する。
図16に示すように、フレーム731までCV値基準一括追跡して、その予想範囲内に特徴点Aを含むのは、せいぜいフレーム724程度までであり、全てのフレームの予想範囲内に特徴点Aを含むのはAB方向のみであり、他の方向のものはAを含まないことが読み取れる。
従って、追跡はAB方向のみが正しいと判定する。この時にはフレーム731のみならず、全てのフレーム722、723、724、725、726、727、728、729、730全てのフレームにおいて追跡が完了していることになる。
このようにしてCV値基準一括追跡は行われ、CV値基準一括追跡が成功すればその時同時に追跡値も求まり、同時にその追跡値によりCV演算もできることになる。
ここで、もしCV値基準一括追跡ではなく、各フレーム個別に追跡すると、上述した三方向とも隣の3フレームまでは追跡できたことになり、誤差の多い追跡データが取得されてしまう。
このことからも、本発明のCV値基準一括追跡方法が優れていることが理解できる。
[既知特徴点の使用]
上述のように、CV値を求めるときには同時に多数の特徴点を用いているが、CV画像として記録するときにはカメラ位置のみの座標と姿勢を記録するが、多数の特徴点の三次元座標はデータとして残していない。
そこで、CV値基準一括追跡をCV演算からの一連の作業として行うときには、多数の特徴点の三次元座標を記録しておくことで、新たに特徴点検出をしなくても、前記特徴点対応位置予測が可能となる。
従って、図15に示した初期画像特徴点選択部202において、既に概略CV演算に用いた特徴点を再利用することになる。
また、追跡予想は元々予想であり、正確な追跡そのものではないので、概略CV値でもよい。そこで中間的処理として、概略CV値は少数の特徴点(10〜20個程度)により取得できるので、少数の特徴点を利用して概略CV値を求め、次に特徴点を追加して全ての特徴点(100〜300個)を一旦隣接するフレームまで一回の追跡処理をすることで、その後の複数フレームに亘る特徴点の追跡を全て予想することができる。
このようにすることで、追跡エラーを減少させ、追跡精度を向上し、演算時間を短縮することができる。
[新規特徴点の使用]
上述したように、CV値を求めるときには、同時に多数の特徴点を用いているが、CV画像として記録するときにはカメラ位置のみの座標と姿勢を記録するが、多数の特徴点の三次元座標はデータとして残していない場合が多い。このようにCV画像は、一般にCV演算時に用いた特徴点は破棄しているので、新たに初期画像を定め、特徴点を抽出する必要がある。
CV演算時に用いた特徴点を用いず、新たに多数の特徴点を検出して、複数フレームに亘り、対応位置を予測することでも、一括特徴点対応を求めることができる。
これは、CV画像におけるデータの持ち方に由来する現状対応である。
[関数特徴点の指定]
次に、上述した本実施形態のCV値基準一括追跡装置において、小領域画像による予想と関数特徴点の指定を行う場合について具体的に説明する。
小面積で予想した特徴点の予想範囲に特徴点の対応点を求める場合は、従来は特徴点を含む小面積画像そのものを相関又はマッチングで対応点を求めることで追跡データを求めるのが一般的であるが、小領域は点ではないために、マッチングや相関によって一致を得ても、正しい追跡点にはならない。
本発明では、予想した小面積内に関数特徴点抽出操作を行い、対応する小面積において新たに得られた一個の関数特徴点は、初期画像における関数特徴点と一対一に対応するという仮定の下に、追跡データを取得するようにしてある。
関数特徴点とは、特徴点を検出する際に、数学的演算によって求められた画素一点を示す特徴点である。
具体的には、関数特徴点は、図17A〜Cに示すように、例えば画像上の一点が周囲よりも明るい点となれば、関数特徴点であり、座標上の一点で定義できる。一方小領域画像特徴点は一点ではなく、ある微少面積を持った小領域が特徴点として定義される。
また、関数特徴点は、例えば二方向に移動させた地点の明るさが同時に極値を持つような地点を検索することでも求められる。
一個の関数特徴点の周りを切り取った少領域画像により、対応位置の予測を行うことから、予想小面積内には通常一個の関数特徴点が見つかると考えられるが、特徴点が複数個見つかる場合は、閾値を制限して一個の特徴点に制限する必要がある。ただし、複数個見つかる場合はその特徴点を破棄しても全体の演算には大きな影響を与えない。
また、はじめから一小面積内に、複数の関数特徴点を抽出し、複数の関数特徴点を追跡しても良い。
また、関数特徴点として複数の種類を定義し、種類別に検出できるので、種類の一致を導入すれば、対応特徴点を1対1に絞り込むことが十分可能である。
このようにすることで、これまで複数フレーム追跡によって発生していたフレーム累積誤差をほぼゼロにすることができる。
トラッキングエラーを少なくし、複数のフレームに亘る追跡においても、誤差無く追跡することが可能となる。
なお、「関数特徴点」の名称は、一般のブロック「小領域画像特徴点」との対比として用いているが、本発明における追跡予想、対応点決定においては、関数特徴点と小領域画像特徴点とをどちらも特徴点として扱う。
原理的に、特徴点を関数特徴点のみに限定する必要はないからである。
ただし、精度の観点からは関数特徴点を検出し、その周囲を切り取った小領域画像特徴点を追跡して概略位置を求め、次に再び関数特徴点により一致を求めることで、それぞれの特徴を活かして、精度を向上させることが可能である。
以下、図17〜図20を参照して、関数特徴点による高精度CV値基準一括追跡装置の前処理としての関数特徴点を有効に抽出する具体的方法を説明する。
図17A〜Cに示すように、関数特徴点とは、例えば画像上の一点が周囲よりも明るい点となれば関数特徴点であり、座標上の一点で定義できる。一方、小領域画像特徴点とは一点ではなく、ある微少面積を持った小領域が特徴点として定義される。
また関数特徴点は、例えば二方向に移動させた地点の明るさが同時に極値を持つような地点を検索することでも求められる。
関数特徴点検出の一例を示す。
画像の各画素の明るさをPとする。
関数特徴点条件を満たす座標を(x,y)とする。
座標(x,y)の明るさはP(x,y)と表す。
3*3のブロックで平均Pを取る。(ノイズカット)
移動は1/10ピクセル単位とする。
ここで、(x,y)が関数特徴点となりうる条件は
1.関数特徴点の明るさp(x,y)は、
a〜d方向移動において、二つ以上の方向で極値を持つ
ΔP=0
2.関数特徴点の明るさp(x,y)の微分値ΔP(x,y)は、
a〜d方向移動において、二つ以上の方向で極値を持つ
ΔΔP=0
3・pが少なくとも一つの方向で極値を持ち
同時にΔPが異なる方向で極値を持つ
ここで、特徴点の種類は上記の3種類となる。上記関数特徴点の分類は追跡(トラッキング)時の情報となる。
図18は、一括追跡前の処理として関数特徴点を検出する検出装置の一例を示すブロック図である。
同図に示す関数特徴点検出装置400では、まず、概略CV画像取得部401は、概略CVが既に求められているCV画像を用いる。以降の演算時間を短縮するために、非関数特徴点領域抽出部403で、特徴点とはなり得ない領域を先に削除しておいて、次の作業に進む。
画像内で明るさの差の無い領域は特徴点とはなり得ないので、領域毎削除する。空の部分やビルの白い壁の部分などはそれに相当する。
明るさの差のある部分のみが特徴点候補として残ることになる。明るさの差が検出閾値となるが、その閾値を決めるのが非関数特徴点検出閾値設定部402である。
ここで検出閾値を自由に設定し最適な値に設定することができる。
次に、関数特徴点領域範囲選択部404においては、削除されずに残った領域において、関数特徴点を検出する範囲を設定する。
関数特徴点の検出の閾値を関数特徴点検出閾値設定部405で設定する。閾値を適切に設定することで適切な関数特徴点が適切な数だけ検出できることになる。また、画像全域から関数特徴点を検出する場合は、画像の部分や方向で異なる閾値を設定することが望ましい。
また、関数特徴点検出が明るさに依存しないように、明るさ規格化部406において、平均の明るさを揃えておく必要がある。
そこで、上述した「条件1,2,3」を満たす関数特徴点を関数特徴点検出部407において検出する。
このようにして検出した関数特徴点は、関数特徴点種類特定部408において、その条件分類と移動方向の種類の分類による各種組み合わせにより関数特徴点の種類が特定される。
条件分類される関数特徴点の種類の例を、図17Bの308〜321に示す。
以上のようにして得られる関数特徴点は、図19に示すように、初期画像11内に多数検出される。その中の一つの関数特徴点(1131)に着目して説明する。なお、説明は関数特徴点1131と初期画像であるフレーム11について行うが、他の関数特徴点1132〜1147においてもまったく同様である。また、フレーム12〜14に関しても関数特徴点が検出されればフレーム11と同様である。
ここでは、フレーム11で検出された関数特徴点が、フレーム12〜14に対応点を求めることになる。
図19に示すように、一個の関数特徴点1131は、図形41の一部である。この関数特徴点の周囲を10*10程度の面積で切り取り、その小領域画像を21とする。これにより、関数特徴点は小領域画像に置換されたことになる。
また、関数特徴点を中心とする定型のブロックを51とする。初期画像においては小領域画像21とブロック51は一致している。
図20に、関数特徴点の周りを切り取った小領域画像21を時系列のフレーム12〜17に向かって追跡した状態を示す。
同図に示すように、関数特徴点の周りを切り取った小領域画像21は時系列のフレーム12〜17に向かって追跡するのであるが、従来方法で小領域画像を追跡すると、その追跡結果は符号22〜27に示すようになるが、正しくは、関数特徴点を囲む本来の範囲は符号52〜57で示すものでなければならない。この差は、関数特徴点は本来一点であるにもかかわらず、追跡のために小領域画像として追跡した結果生じるものである。
そこで、本実施形態においては、小領域画像21の隣のフレームの22のみをマッチングによって追跡し、21と22の対応から小領域画像の三次元座標を求め、CV値が既知であることから、関連する前フレーム(ここでは12〜17)の追跡予想位置を求める。
ここではCV値は既に求められているとしているが、もし未知の場合は、小数の小領域画像追跡により求めることができる。
ここで、予測される関連フレームの関数特徴点位置は、上述した従来方法による小領域画像の追跡によって取得された範囲(22〜27)とほぼ一致する。そこで、ここでは関数特徴点の追跡22〜27を予想範囲として説明する。
すなわち、関数特徴点はフレーム12〜17に追跡した場合に22〜27の範囲に入ると予想したことになる。もし、実際にこの範囲に入らない場合があるとすれば、そのときは、最初に設定した小領域画像の面積を多少大きくすればよいだけである。
そこで、予想範囲に関して、この予想範囲の中に初期画像の関数特徴点の正しい対応地点が存在するとして、再度22〜27に関数特徴点を検出する処理を行う。
このときに求まる関数特徴点が、図20に示す1132〜1137である。同図において、求まった関数特徴点が作るブロックは52〜57であり、22〜27における小領域画像との差が、従来方法による誤差であることになる。
なお、21〜27の範囲で再度特徴点を検出するときに、一個以上の関数特徴点が求まることもないとはいえない。そのときには、関数特徴点の条件と移動方向3の自由度による複数の種類に分類できるので、その分類の一致を確認することで一個に絞り込むことができる。また、それでも複数となる場合には、この関数特徴点を破棄すればよい。他に十分の数の特徴点を検出しておくことで、演算上はまったく問題ない。
このようにして複数フレームに亘る対応する特徴点検出が成されたことでCV値基準一括追跡が行われたことになる。
その後は、この精度良く抽出された特徴点を使って、従来通りのCV演算を行うことになる。
[高精度CV演算装置]
次に、本発明にかかるCV値基準一括追跡装置を用いた高精度CV演算装置の一実施形態について、図21を参照して説明する。
図21に高精度CV演算装置500は、画像取得装置501と、三次元特徴点記録部502と、概略CV値取得部503と、CV画像生成装置504と、CV基準一括追跡部505と、特徴点追跡データ取得部506と、高精度CV演算部507とを備えている。
画像取得装置501は、自由に移動するビデオカメラで撮影した動画像を取得し、記録する。
三次元特徴点記録部502は、画像の中に出来るだけ均一に、数百点程度の特徴点を検出する。特徴点を複数フレームに亘って追跡することで対応点を検出し、複数の特徴点とその対応関係から、撮影時のカメラの三次元位置と姿勢を全フレームについて使用した特徴点の三次元座標を求める。
概略CV値取得部503は、同時にカメラベクトル(CV)を演算(CV演算)して前記各フレーム画像のカメラベクトル値(CV値)を求める。
CV画像生成装置504は、CV値を画像の各フレームに付加した画像を生成する。
ここまでの構成は、上述したCV演算(図1〜図13参照)とその演算過程で取得した特徴点の三次元座標を記録する部分である。
CV基準一括追跡部505は、画像の中に検出した三次元座標を持つ多数の特徴点を用いて、特徴点の対応点を本発明にかかるCV値基準一括追跡装置により、多くの隣接画像に亘ってCV値基準一括追跡処理する。
このCV基準一括追跡部505は、上述した図15に示した本発明にかかるCV値基準一括追跡装置200と同様の構成となる。
ここでは先に求めた三次元特徴点記録部502の三次元特徴点を再利用するが、さらに新たに特徴点を追加取得して、その三次元座標を求めて利用することができる
ここで、新たな特徴点を追加すれば、それだけCV演算の精度を増す原因となるが、もし追加取得しないで概略CV値を求めるときに用いた特徴点を再利用する場合であっても、CV値基準一括追跡部505により追跡されるフレーム数が圧倒的に増加することになるので、結果としてフレーム当たりの有効特徴点数が大幅に増加することになる。
特徴点追跡データ取得部506は、CV演算で使用した多数の特徴点についてCV基準一括追跡方法により再度特徴点の追跡データを高精度で取得し直す。
一つの特徴点に着目した場合、連続する多くのフレームに亘って追跡データが取得されることになる。このことからフレーム当たりの特徴点数が増大するのみならず、フレーム間隔で決まるCV演算時のカメラ間距離が増大することになる。
さらに、高精度CV演算部507は、特徴点追跡データから精度の高いCV値を演算で求める。
既に詳しく述べているが、CV演算の原理とは特徴点を底辺とし、カメラ移動によるフレーム間のカメラ距離を底辺とする三角形を多数用いて行う三角測量であり、三角測量時の三角形の数が多く、底辺距離が長ければ精度は向上することになる。概略CV値を求める従来のCV演算では、追跡距離が短いため底辺距離が短距離となり、頂点が鋭角の三角形になり、高い精度が取れない。
しかしながら、本発明にかかるCV値基準一括追跡方法によれば、特徴点数が増大するだけでなく、精度の高い前記底辺距離が長距離で取れることになり、CV演算時の精度が大きく向上することになる。
こうして得られたCV値は、初めに取得した概略CV値と比較して数段精度が高くなっている。従って、高精度のCV画像が必要な場合はこのような本実施形態の高精度CV演算装置500を用いることが好ましい。
[リアルタイム高精度CV演算装置]
次に、本発明にかかるCV値基準一括追跡装置を用いたリアルタイム高精度CV演算装置の一実施形態について、図22を参照して説明する。
図22に示すリアルタイム高精度CV演算装置600は、基本構成は図18で示した関数特徴点検出装置400と殆ど共通するが、本実施形態では、CV値が既知ではないために、特徴点検出と同時にCV演算も求めている点が異なる。
具体的には、リアルタイム高精度CV演算装置600は、まず、リアルタイム画像取得部611が、動画をリアルタイム画像として取得する。
次に、関数特徴点抽出部612は、関数特徴点を検出する。
ここで、本実施形態では、関数特徴点画像置換部609において、関数特徴点から概略CV値を求める追跡処理のために、20個程度の関数特徴点を小領域画像に置換する。
次に、置換画像追跡部613により、20個程度の小領域を追跡し、概略CV演算部614でCV演算を行い、概略CV値を求める。
これにより、概略CV画像取得部401で、概略CV値を持ったCV画像を取得したことになる。なお、ここでの小領域は20個程度のため、精度は十分ではないが、概略位置を予測するには十分である。
これによって条件は図18で示した関数特徴点検出装置400とまったく同一となったことになる。
従って、これ以降は図18で示した関数特徴点検出装置400の場合とまったく同様の構成からなる関数特徴点検出部615により、関数特徴点による高精度CV値基準一括追跡がなされる(図18及び該当説明参照)。
関数特徴点検出部615により、結果として精度の高い特徴点が取得され、同時に関数特徴点一括追跡部616においてCV値基準による一括追跡が行われる。
追跡結果として追跡データ取得部617で高精度の追跡データが得られたことになる。
高精度の追跡データが取得できれば、最終的に高精度CV演算部618により、精度の高いCV値を、短時間に求めることができる。
以上により、本実施形態のリアルタイム高精度CV演算装置600によれば、精度の高い特徴点による一括追跡により精度の高い追跡データが取得できたことで精度の高いCV値が得られることになる。
[CV領域画像前置装置]
次に、以上説明した本発明のCV値基準一括追跡装置等を用いて実現される本発明に係るCV領域画像前置装置について、図面を参照しつつ具体的な実施形態を説明する。
[ハードCV領域画像生成装置]
まず、図23を参照して、本発明の一実施形態に係るCV領域画像前置装置を構成する構成要素のうち、ハードCV領域画像生成装置までを説明する。
同図に示すように、ハードCV領域画像生成装置は、自由に移動するビデオカメラで撮影した動画像を取得し、記録する画像取得装置1と画像の中に特徴点を検出し、特徴点を複数フレームに亘って追跡することで対応点を検出し、複数の特徴点とその対応関係から、撮影時のカメラの三次元位置と姿勢を全フレームについて求めるカメラベクトル(CV)を演算して求め、各画像のカメラベクトル値(CV値)を求めるCV演算装置3を備える。
CV値は一般に静止座標系を基準として求められるが、必ずしも静止座標系に限定されるものではない。監視対象物が移動体であれば、移動体とカメラとの関係のCV値を求めることもまったく同様に可能である。運動は相対的であり、基準を何処に置くかは全くの自由であるからである。さらに正確に表現すれば、対象物を構成するソフトCV領域画像毎にCV値が定義されることになる。従って画像の中の複数の対象物にたいして個々にCV値を求めることも可能である。このことは同一画面に複数のCV値を与えることを意味するが、ここでは説明上画像を代表する一個の座標系に対するCV値を用いている。
後述するRV値又は、JV値で結合されたRV値は、前記対象物毎に与えた複数のCV値と数学的に同等であり、常に変換可能である。
CV画像生成装置4は、画像の各フレームにカメラベクトル値(CV値)を付加した画像を生成する。
FP付加CV画生成装置6は、CV演算時に同時に副次的に求まるFP座標(特徴点三次元座標)をCV画像生成装置4の出力に、付加したFP付加CV画像を生成する。ここでFP座標は三次元座標を持つので、三次元座標として付加するのが有利であるが、画像上の二次元座標として持つことでも効果はある。
FP値は何時でも画像から抽出できるので、画像の記録や伝送においては、FP値を付加しないのが常である。CV値が分かっていれば追跡は狭い範囲に限定されるので、FP値は比較的簡単に求められるので、必要な時に画像から直接求めることが可能である。ただし、FP値を付加した方が、再演算しないで済むので、目的によっては好都合となる。
そして、CV画像にさらに以下の処理を加えることで、新しい画像処理の世界が開ける。
ハードCV領域画像分割装置8は、CV画像生成装置4の出力から、若しくは前記FP付加CV画像生成装置の出力から、得られたCV画像を隙間無く幾何学的なハードCV領域画像に分割する。
一般には矩形のブロックを用いるが、これは画像を表す図法により様々な形状となる。
CV値基準一括追跡方法と手段においては、台形ブロックを前記ハードCV領域画像分割装置によって分割された各CV領域画像の対応点を隣接画像に亘って、上述したCV基準一括追跡方法等により追跡(トラッキング)する。
TV演算装置9は、上述したCV基準一括追跡方法等によりにより全CV領域画像のトラッキングベクトル値(TV値)を求める。
なお、TV値は、精度の問題はあるものの、上述した本発明に係るCV値基準一括追跡の技術によらなくて求めることは可能である。従って、本実施形態に係るCV領域画像前置装置や、これを用いた後述する各種装置(図28以下を参照)においては、本発明に係るCV値基準一括追跡装置を用いることなく特徴点のTV値(追跡データ)を求めることで対応することも可能である。
また、上述したように、画像から直接CV値を取得する特徴点追跡装置とCV演算装置によらなくても、原理的にはGPSとジャイロとの組み合わせやIMU装置等の従来技術でCV値を求めることも可能であり、そのようにして求めたCV値を用いて新たにTV値(追跡データ)を取得することも可能であり、そのようなTV値(追跡データ)によって、本実施形態に係るCV領域画像前置装置や、これを用いた各種装置を実現することもできる。
ハードCV領域画像生成装置10は、画像の各フレームにCV値と、TV値を付加した画像を生成するハードCV領域画像を生成する。
画像の全てのCV領域画像をトラッキングすることは容易ではない。そこで、本実施形態では、画像を分割したブロックCV領域画像の移動に関する法則性を見いだし、全ブロックCV領域画像に追跡データを与える。
ここで、原理的にはCV演算装置3は、図23に示す位置ではなく、TV演算装置9の次の行程に設置することも可能である。TV値からは直ちにCV値を演算できるため、図23に示す本実施形態のようにCV値とTV値を別々に演算することは無駄があるようにも思える。
しかしながら、現実的な装置の実現上、前もって代表する座標系のCV値を取得することで画像の回転揺れ止めが可能となり、回転揺れ止め画像を用いることでその後の処理がきわめて容易になることから、ここではCV値を先に求め、そのCV値と回転揺れ止め画像を用いてハードCV領域画像分割をする処理工程が行える構成としてある。当然、再度JV値から精度の高いCV値を求めることは可能である。
ここで追跡データとしては、隣接特徴点との追跡値とCV値から全てのフレームについて概略値が得られる。このようにCV値基準により、追跡地点をかなり小領域の範囲に絞り込むことができる。
本発明においては、画像がCV値と共にハードCV領域画像のTV値を持つことに特徴がある。
追跡の予想範囲がきわめて微少な範囲に限定されることで、演算時間の短縮というメリットのみならず、追跡エラーが発生する確率が大きく減少するというメリットが生じる。
本発明のようにCV値基準とすると同時に、CV値とTV値とを持つ場合には、CV値は画像を代表する座標系に対して一義的に決まる。
CV値が決まれば、CV値基準とすることで追跡はきわめて限定された範囲の中に求められる。
さらにCV値無しの二次元画像の二次元トラッキング値取得演算と比較して、追跡がきわめて容易になり、高速化され、画像の再構成が単純化され、そのことでデータ量を大幅に減少できることになる。
また、代表座標系(代表座標系は静止座標系とするのが一般的であるが、移動体に代表座標系を取ることも可能である)以外の対象に対しては、一般には二次元検索が必要となるが、代表する座標系以外の対象に対するCV値を個別に求めれば、同じように予想範囲を微少範囲に限定できることになる。
しかし、一般画像の性質として、代表する座標系の対象物のみのCV値で表現できる範囲が画像の大部分を占めているので、CV値は代表座標系の一つで十分である。一般には世界座標系となる静止座標系を代表座標系とする場合が多い。また、目的部分が静止座標系でない場合は、移動する対象物を第二の代表座標系とすることができる。
さらに、このようにして代表座標系を増加せしめることは可能であるが、全てを代表座標系とすることは現実的ではないので、複数の代表座標系を用いても、それら代表座標系に属さないCV領域画像が生じる場合がある。
そこで、代表座標系以外の部分は小領域限定が不可能となるが、その部分のみ二次元検索をしたとしても、検索範囲は静止座標系と仮定した検索範囲から扇形に広がる範囲であり、微少領域の検索範囲からそう大きくずれる確立はきわめて少なく、部分的に二次元検索したとしても、演算時間はかなり短縮されることになる。
一方、代表座標系以外の部分を二次元検索することなく、一括追跡とする場合は、後述する「座標系分離装置」とその実施例に示すように、対象となる領域の座標系を検出して、その座標系で検索することで一括追跡が可能となり、最終的には解決される。
この代表座標系の関する事実は、以下のソフトCV領域画像、対象物CV領域画像に関しても同じ共通理解が成り立つことは重要である。
[ソフトCV領域画像生成装置]
次に、図23を参照して、本発明の一実施形態に係るCV領域画像前置装置を構成する構成要素のうち、ソフトCV領域画像生成装置までを説明する。
同図に示すように、ハードCV領域画像生成装置10の出力から、複数のハードCV領域画像を結合するなどして、CV領域画像の境界線を形成し、ソフトCV領域画像を決定する。
あるいは、ハードCV領域画像生成装置を介さずに、同種の色を塗り絵のように埋めていき、又は輪郭線を抽出して情報を付加し、直接同種テクスチャーCV領域画像を分離する。
これらの機能を組み合わせることでさらにCV領域画像抽出の精度は向上する。
具体的には、ソフトCV領域画像分割装置12は、このようにして画像内容に沿った複数のソフトCV領域画像からなる画像を再構成する。このことで画像はソフトCV領域画像の結合体として再構成されたことになる。
また、RV演算装置13は、ソフトCV領域画像に分割された画像の各ソフトCV領域画像に関して、ソフトCV領域画像をCV値基準により一括追跡し、基準となる座標系に対する位置及び姿勢、及び運動を演算し、ソフトCV領域画像のCV領域画像ベクトル値(RV値)を求める。
RV値はTV値と互換関係にあるが、TV値のみで扱うと元のハードCV領域画像の数だけ用意しなければならなくなり、データ量も増加し煩雑になるので、ソフトCV領域画像の数のRV値として画像を表現することになる。
ただし、何時でもCV領域画像単位のTV値に変換することは可能である。また画像の内容をRV値として扱う方が人間の視覚の認識における状況とよく類似していることから単純され、しかも理解が得られやすいという長所がある。
TV値はRV値に整理されたことになるので、RV値を持つ画像はTV値を持つ必要はない。RV値を求められなかった部分はTV値を持つことでRV値の代用とすることができる。
さらに、ソフトCV領域画像生成装置14は、画像を構成する全CV領域画像が、CV値とCV領域画像ベクトル値(RV値)を付加して持つ画像を生成する。
[対象物画像生成装置]
次に、図23を参照して、本発明の一実施形態に係るCV領域画像前置装置を構成する構成要素のうち、対象物画像生成装置までを説明する。
図23に示すように、対象物認識装置16は、ソフトCV領域画像生成装置14の出力から、複数のソフトCV領域画像を所属する対象物毎に結合するなどして、若しくは前記ソフトCV領域画像生成装置を介さずにCV画像生成装置4から直接同種対象物CV領域画像を分離するなどして、画像内容に沿った複数のソフトCV領域画像から画像を再構成する。
対象物認識に関する技術として、本願発明者は、上述した特開2000−295611号等でPRMを提案している。この方法によれば、例えば、画像の中から、複数のCV領域画像からなる対象物が認識されることになる。それと同時にその対象物に属するソフトCV領域画像が分類されることになる。すなわち、対象物を認識すると同時にその対象物に所属するソフトCV領域画像が自動的に選択される。このようにここでは対象物は複数のソフトCV領域画像からなるとの前提が存在している。さらに、画像はその一部又はその全てを複数の対象物から再構成される。
次に、JV演算装置17は、対象物CV領域画像に分割された画像の各対象物CV領域画像に関して、対象物を構成する各ソフトCV領域画像は、一対象物としての関係を保ち、対象物として基準となる座標系に対する位置及び姿勢、及び運動を演算し、複数のソフトCV領域画像の複合体としての複数のCV領域画像ベクトル(RV)を統合し、対象物別にソフトCV領域画像を分類したJV(ジョイントベクトル)を求め、対象物毎の分類データを取得する。
このことで対象物の位置と対象物を構成しているソフトCV領域画像との関係をベクトルで表現できることになる。
そこで、対象物CV領域画像生成装置18では、画像を構成する対象物及び対象物を構成するソフトCV領域画像が、CV値と、RV値(CV領域画像ベクトル値)と、JV値とで統合された画像を生成する。
画像は最終的に複数の対象物の集合として表現され、さらにそれぞれの対象物は複数のソフトCV領域画像の集合として表現されたことになる。
[CV領域画像生成装置]
次に、図24及び図25を参照して、上述したハードCV領域画像の生成を行うハードCV領域画像分割装置8、TV演算装置9、及びハードCV領域画像生成装置10の各部の具体的な構成について説明する。
[ハードCV領域画像分割装置]
ハードCV領域画像分割装置8は、図24に示すように、以下の各部を備える。
ブロック分割部84は、画像をなるべく簡単な幾何学的ブロックに分割する。
ここではブロック分割によりハードCV領域画像を生成したことになる。一般には矩形は幾何学的に単純なのでよく使われるが、ここでは使用する図法によってブロックの形状は変化するので、必ずしも直線の結合とはならないが、便宜上、ハードCV領域画像として台形ブロック、又は当該台形ブロックを含む最小の矩形ブロックがしばしば用いられる。
処理の過程で、ブロック分割により、ブロックがそのままハードCV領域画像となることもあるが、一部においてはブロックが複数集まって、あるいはブロックがさらに分割されて、ハードCV領域画像となることがあるので、ここではあえてハードCV領域画像とブロックを使い分けて説明する。
ブロック分類部85は、ブロックを自己相関処理により、その相関値のピークの有無から、特徴ブロック、及びそれ以外のブロックに分類する。
ゴム紐結合部86は、特徴ブロックと前記それ以外のブロックに対して、後の処理において特徴点が移動してもその二次元又は一次元の配列順番を変えずにゴム紐状に伸び縮みするように、柔軟結合しておく。
ブロック画像生成部87は、全てのブロックについて、抜けなくその順番を変えずに、ゴム紐状に柔軟に結合した画像を一時的に生成する。
以上により、ハードCV領域画像分割装置8が構成される。
ここで、図25に示すように、本発明にかかるCV値と湧きだし点の双方を基準としてCV値基準一括追跡処理を行う場合には、ハードCV領域画像分割装置8は、上述したブロック分割部84、ブロック部分類部85、ゴム紐結合部86、ブロック画像生成部87の各部に加えて、揺れ止め画像生成部81と湧きだし点抽出部82を備えるようにする。
揺れ止め画像生成部81は、CV画像生成装置4からの出力に対し、付加されたCV値の回転成分により、画像に逆回転を与えて、揺れ止め画像を生成する。ここで、3軸回転揺れ止めで十分ではあるが、3軸回転揺れのみならず、3軸位置揺らぎに対しての揺れ止め画像を生成することがより好ましい。
湧きだし点抽出部82は、CV値から、隣接する画像に対する湧きだし点と吸い込み点を求める(湧きだし点については図14参照)。ただし、本発明に係るCV値基準一括追跡処理を行う場合には、揺れ止め画像生成部81と湧きだし点抽出部82は必ずしも必要ではないが、実施形態としては揺れ止め画像生成部と湧きだし点抽出部82がある方が有利である。
追跡は演算時間がかかることから、できるだけ効率的な追跡方法をとるのが好ましい。
ここでは特に、CV値基準による場合において、揺れ止め画像と湧きだし点抽出は絶対条件ではないことが重要である。
[TV演算装置]
TV演算装置9は、図24に示すように、以下の各部を備える。
まず、TV演算装置9は、特徴点ブロック一括追跡部91を備える。
特徴ブロック一括追跡部91は、ゴム紐状に結合したブロック画像の特徴ブロックを、本発明にかかるCV値基準一括追跡装置により関係フレームを一括して追跡する。
すなわち、特徴ブロック一括追跡部91は、図15に示したCV値基準一括追跡装置200と同様の構成となっている(詳細は図15及び該当説明参照)。
なお、この特徴ブロック一括追跡部91における特徴ブロックの追跡については、上述したように、本発明に係るCV値基準一括追跡装置200によらず、他の方法により行うことも可能である。
また、TV演算装置9は、一次TV演算部92、補正ブロック検出部93、二次TV演算部94を備える。
一次TV演算部92は、追跡するのは特徴ブロックのみであるが、ゴム紐結合により、それ以外のブロックも特徴ブロックに引き込まれて移動し、何らかのTV値を持つことになる。そこで、追跡データをそれ以外のブロックにも演算して適切に配分する。
補正ブロック検出部93は、複数画像を利用するなどして、一次TVから生成する画像の追跡誤差を検出する。
また、二次TV演算部94は、誤差が分布するCV領域画像を再度ブロック分割するなどして、補正CV領域画像として、再追跡してTVデータを取得する。
これらによりTV演算装置9が構成される。
[ハードCV領域画像生成装置]
ハードCV領域画像生成装置10は、図24に示すように、以下の各部を備える。
まず、同一TV値統合部101は、TV演算によるTV値が同一となる隣接ブロックを結合する。この隣接ブロックの結合処理は必ずしも必要ないものであるが、処理の効率化のためには有った方がより好ましい。
CV・TV付加部102は、画像のCV値、及びハードCV領域画像のTV値を画像に付加する。ここではブロックの全てにTV値が付加されたことになる。
図法再変換部103は、ブロック画像を表示目的に適した図法に変換する。最終的に、例えば記録が目的であればメルカトール図法が良いが、見ることが目的であればゆがんで見えるので、遠近法に変換するなどして目的に合った適切な図法に再変換する。計測や画像処理が目的であればそれに適した図法に再変換する。
ハードCV領域画像出力部104は、CV値とTV値とを付加したブロック画像を出力する。
以上によりハードCV領域画像生成装置10が構成される。
以上のように、本発明にかかるCV値基準一括追跡装置によって得られたCV領域画像は、湧きだし点を基準として取得されたCV領域画像と何ら変わらないし、結果で区別することはできない。
従って、湧きだし点基準CV領域画像前置装置の全てを、CV値基準一括追跡装置を用いたCV領域画像前置装置に置き換えることができることは明らかである。
また、湧きだし点基準CV領域画像前置装置においては、揺れ止め処理を必要としたが、CV値基準一括追跡装置を用いたCV領域画像前置装置においては、揺れ止め処理を必要としない点が優れた特徴である(図24及び図25参照)。
ただし、揺れ止め処理を用いれば、多少演算効率が向上する効果は存在する。
[ソフトCV領域画像生成]
次に、図26を参照して、本発明の一実施形態に係るCV領域画像前置装置において、ソフトCV領域画像の生成を行う各部について説明する。
同図に示すように、まず、ソフトCV領域画像分割装置12は以下の各部を備える。
ブロック再分類部121は、ハードCV領域画像生成装置10の出力から、特徴ブロックを選択し、単独で存在する独立特徴ブロック、境界線上に特徴ブロック同士が隣接して存在する境界線上特徴ブロック、CV領域画像の境界を構成するが特徴ブロックとはなり得ない境界線上ブロック、及び未特定を含めたそれ以外のCV領域画像内ブロックの3種類に再分類する。
ソフトCV領域画像生成部122は、境界線上特徴ブロック、境界線上ブロックを結合し、ソフトCV領域画像を生成する。
ここで、境界線は閉じない場合が発生するが、閉じない端末の両端を強引に結合しても問題は発生しない。ソフトCV領域画像が細分化されたことになるだけである。
一方、できるだけ閉じたソフトCV領域画像を生成するために、CV領域画像境界線補正部123は、後述する輪郭線ベクトル化装置20の出力を用いて、ソフトCV領域画像境界を補正するCV領域画像境界線の抜けを補正し、ブロック単位で構成されているソフトCV領域画像を、ベクトル線で切り分けてCV領域画像境界線を補強して明確なソフトCV領域画像を生成する。
ブロックのみの境界はピクセル単位で凸凹しているが、CV領域画像境界線補強部で強化されたソフトCV領域画像境界はベクトル化した輪郭線となり、画像の内容の性質に適したより適した境界線となる場合が多い。
これらによりソフトCV領域画像分割装置12が構成される。
RV演算装置13は、図26に示すように、ソフトCV領域画像分割装置12の出力を、再度隣接画像に亘って追跡するCV領域画像トラッキング部131と、隣接画像に亘るCV領域画像の追跡からRV値を求めるRV演算部132を備える。
既にハードCV領域画像は追跡処理されているので、この処理は省略することができるが、補強されたソフトCV領域画像を再度CV値基準一括追跡方法により、追跡することで、次のRV演算により適した追跡データを取得することができる。
より正確なRV値を求めるにはソフトCV領域画像について隣接CV領域画像と共有する6個以上(隣接CV領域画像と共有可)の特徴ブロックの痕跡が存在することが望ましい。
ソフトCV領域画像生成装置14は、図26に示すように、CV・RV付加部141と、ソフトCV領域画像出力部142を備える。
CV・RV付加部141は、RV演算装置13の出力に対して、CV値、及びRV値をソフトCV領域画像に付加する。
ここで、TV値は省略されているが、RV値はTV値をソフトCV領域画像単位で整理したものであり、TV値を省略したRV値を持つことで十分である。
全てのCV領域画像のRV値が無くても、ソフトCV領域画像は隣接していることから、その位置は決められるので、RV値に抜けがあってもソフトCV領域画像は成立する。
ソフトCV領域画像出力部142は、ソフトCV領域画像生成装置14は、CV値・RV値を付加されたソフトCV領域画像を生成して出力する。
これらによりソフトCV領域画像生成装置14が構成される。
輪郭線ベクトル化装置20は、図26に示すように、以下の各部を備えて構成される。
輪郭線抽出部201は、画像の輪郭を直接求める。
ベクトル細線化部202は、輪郭線を細線化してベクトル化する。
可変閾値輪郭補強部203は、細線化ベクトルの延長線上の輪郭線検出の閾値を下げて、再度輪郭線を検出して細線を延長する。
さらに、ベクトル輪郭線生成部204は、補強されたベクトル輪郭線を生成する。
[対象物CV領域画像生成]
次に、図27を参照して、本発明の一実施形態に係るCV領域画像前置装置において、対象物CV領域画像生成を行う各部について説明する。
[対象物認識装置]
同図に示すように、対象物認識装置16は以下の各部を備える。
ソフトCV領域画像範囲選択部161は、ソフトCV領域画像の中で、認識対象となる対象物の概略範囲を選択指定する。この場合、多少広めに自動指定するのが好ましい。ただし、範囲指定しなくても全範囲の指定によっても演算時間は掛かるが、いずれにしても認識は可能である。
指定範囲RV選択部162は、範囲を指定したソフトCV領域画像比較部に送り、当該CV領域画像のRV値を指定する。
部品DB部163は、予想される複数のRV値を持つ対象物の三次元部品が、データベース化して記憶されている。部品は三次元形状そのものでも良いが、部品のRV値を前もって演算して部品の属性として与えておくことが好ましい。
RV比較部164は、範囲のソフトCV領域画像のRV値と候補部品のRV値とを比較し、一致か不一致かを決定し、不一致の場合は他の部品候補を自動選択し、完全一致の場合は決定部品とし、部分一致の場合は他の候補部品と一致度合いを比較し、最も一致度の高いRV値を持つ部品を決定部品とする。
ソフトCV領域画像の範囲と部品の比較は部品優先で成されるのが望ましい。先に予想される部品を選択して、範囲のソフトCV領域画像が一致するか否かを求めることが効率がよい。あるいは前記範囲のソフトCV領域画像のRV値に一致する部品のRVを検索して求めるのがよい。
ここで、範囲のソフトCV領域画像と部品は三次元形状での比較でも良いが、そのためには画像側も三次元化しておく必要があるので、RV値で比較するのが単純で効率的である。ましてや、複数CV領域画像と複数CV領域画像の比較であれば、RV値による比較がきわめて効果的である。
対象物認識部165は、決定部品を認識した対象物として取得する。
ここでは、一致した最大のCV領域画像範囲が部品と範囲が一致した範囲であり、この範囲が部品に対応するCV領域画像の範囲である。
この範囲を切り取ることで、その部分を認識した部品に置き換えることができる。すなわち対象物認識が完了したことになる。このとき、部品は座標と回転姿勢と移動速度とを取得したことになる。
一方、部品は属性をデータとして持っているので、そのソフトCV領域画像の範囲は属性を取得したことにもなる。
これがここでいう認識である。
また、部品に完全置き換えではなく、色等の部品の一部の属性の置き換えでも良い。
要素分解部166は、上記範囲内に、対象物を構成するCV画像から線分要素、コーナー要素、曲線要素、等の要素を検出する。
要素追跡部167は、要素を隣接画像に追跡し、対応位置を求める。これは要素のTV値となる。
さらに、要素RV化部168は、要素のCV値とTV値から要素RV値を求める。
要素は形状が小さいので単独のRV値を求めるには適さないが、組み合わせた要素のRV値は存在するので、TV値を省略せずに、TV値及び複合要素RV値及び複合要素JV値を求めておくことは意味がある。
要素部品DB部169は、要素の部品データベースとなる。
要素比較部173は、画像から検出した要素と部品要素を三次元比較して一致を求める。要素部品は独立した要素部品とすることも可能であるが、部品から作られる要素部品とするのが望ましい。
ここで、要素部品単独ではRV値を持たないが、部品から取得した複数の要素が集合すればRV値もJV値も持つので、集合した要素の比較においてはRV値による比較はきわめて有効である。
要素比較した結果はRV比較部において部品の一部として比較対象となる。情報は一部重複するが、重複することは認識精度を向上させることになり好都合である。
さらに、対象物要素認識部174は、一致した部品要素を検出した要素に置換する。
以上の各部により対象物認識装置16が構成される。
[JV演算装置]
JV演算装置17は、図27に示すように、CV領域画像再結合部171と、JV演算部172を備える。
CV領域画像再結合部171は、対象物認識装置16の出力から、対象物認識されたCV領域画像を対象物単位で再結合する。
CV領域画像の大きさの分類は複数の組み合わせによる複数の選択肢があるので、部品と範囲は、そのままで完全一致しないが、両者の内どちらかがどちらかを含む形で一致するので、必ずしもCV領域画像の大きさと種類を完全に一致させなくても良い。部分一致でも十分認識は可能である。部品の大きさに合わせるのが適切である。
JV演算部172は、それぞれの対象物毎にソフトCV領域画像の幾何学的三次元結合状況を表すJV値を求める。
[対象物分離画像生成装置]
対象物分離画像生成装置18は、図27に示すように、JV付加部181と、対象物CV領域画像生成部182を備える
JV付加部181は、JV演算装置17で求められた対象物単位のJV値は、複数の対象物がそれぞれ区別されて三次元的に6自由度で配置されるように、全ソフトCV領域画像にJV値を付加する。
対象物CV領域画像生成部182は、対象物分離画像生成装置18は、対象物認識が一部又は全て済ませた対象物認識CV領域画像を生成する。
最終的には、RV値とJV値とを完全に合致した状態でCV領域画像データベース装置20(図23参照)に収納するために、決定した部品のソフトCV領域画像と前記範囲のソフトCV領域画像とを種類まで含めて統一しておくことが望ましい。
[CV領域画像前置装置を用いたその他の装置]
次に、以上説明したような本発明に係るCV領域画像前置装置を用いた様々な応用装置について、その好ましい実施形態を説明する。
[CV領域画像表示装置]
まず、図28を参照して、本発明のCV領域画像前置装置を用いたCV領域画像表示装置の一実施形態について説明する。
CV画像はフレーム単位の画像であったが、CV領域画像は領域単位の画像である。そこでCV領域画像から動画にして再生するには、各CV領域画像から動画の各フレームを生成しなければならない。動画の生成には、CV領域が持つVD値を使って行う。
そこで、本実施形態のCV領域画像表示装置1002は、以下のような各部を備えて構成される。
CV領域画像・VD取得部1003は、CV値基CV領域画像前置装置1001からの出力を、CV領域画像と共にVDを分離して取得する。
表示指定部1004は、画像の表示方法を指定する。この表示指定部1004により、画枠、画角、フレーム数、解像度、視点方向、視点位置、表示図法などを指定する。
CV領域画像再結合部1005は、VDを基にして、指定部の指示に合ったCV領域画像を再結合して再結合画像を生成する。再結合された画像は既にVDを失い、通常画像となっている。領域は失うが、新たにフレームが生成されているので、再結合された画像の各フレームにCVを持たせることは可能である。
画像フレーム生成部1006は、再結合画像を各フレームに配分して、各フレームに対応した画像を生成する。
さらに、表示部1007は、通常画像となった画像フレームを表示する。
表示装置は全てのCV領域画像(ハードCV領域画像、ソフトCV領域画像、対象物CV領域画像)において共通に示している。
画像の再結合及び、画像フレームの生成は前記CV領域画像前置装置1001の過程の逆であり、理解は容易である。
上述した図23の矢印の方向を逆向きにすることで、再結合は理解できる。図23の矢印を逆方向に付け替えた図が図29である。
なお、逆方向の場合には装置名に関して必ずしも適切ではない場合が生じるが、理解の上では同じ名称の方がよいのでそのままとしてある。
[CV領域画像データベース装置]
次に、図30及び図23を参照して、本発明のCV領域画像前置装置を用いたCV領域画像データベース装置の一実施形態について説明する。
CV画像はフレーム単位の動画像であったが、CV領域画像では、領域単位の画像となる。
図30に示すCV領域画像データベース装置1012の本質は、CV領域画像とCV領域画像に対応したベクトルデータを持ち、出力も又CV領域画像とベクトルデータを持つことにある。ベクトルデータとはVDで表し、CV値、TV値、RV値、JV値はそれぞれVDある。
まず、図23の符号20で示したようにCV領域画像データベース装置を位置づけする。
同図に示すように、ハードCV領域画像生成装置10からの画像出力を記録し、更新し、検索し、出力するデータベースを、ハードCV領域画像DB11とする。
また、ソフトCV領域画像生成装置14からの画像出力を、記録し、更新し、検索し、出力するデータベースをソフトCV領域画像DB15とする。
さらに、対象物CV領域画像生成装置18からの画像出力を、記録し、更新し、検索し、出力するデータベースを対象物CV領域画像DB19とする。
また、上記三者のDBの中間段階の画像出力をデータベース化することもできる。ハードCV領域画像とソフトCV領域画像とが混在するデータベースも可能であり、ソフトCV領域画像と対象物CV領域画像が混在するデータベースも可能である。
データベースはどの形式のDB、あるいはその中間のDBであっても、CV値、TV値、RV値、JV値はCV領域画像で、あるいは隣接する画像間で、重複しており、整理することでデータ量は圧縮できる。
次に、図30を参照して、以上のようなCV領域画像データベース装置の一実施形態をより具体的に説明する。
同図に示すCV領域画像データベース装置1012では、まず、CV領域画像・VD取得部1014が、CV値基CV領域画像前置装置1001からの出力である各CV領域画像、すなわちハードCV領域画像出力、ソフトCV領域画像出力、及び対象物CV領域画像出力の中の全ての画像出力、若しくは前記三者の中間段階の画像出力を、各ベクトルデータ(VD値)共に取得する。
CV値、TV値、RV値、JV値は動画としての性質から、フレームを跨いでかなりの重複部分を持つ。重複を無くすことで、最終的にはCV領域画像は静止画と、移動により生まれる新しいCV領域画像と、それらのCV値、TV値、RV値、JV値にまで圧縮可能である。
なお、CV領域画像データベース装置1012では、重複の程度とその圧縮の程度については示していない。
重複データ圧縮部1016は、CV領域画像・VD取得部1014で取得したVD値の成分であるCV値、TV値、RV値、JV値の全て、若しくはそれら何れかの内で、CV領域画像単位で、及び画像フレーム単位で重複するデータを近似化し単純化して、圧縮する。
なお、これらデータの中で重複するデータをさらにまとめて整理する重複データ圧縮部1016に関しても、具体的には示していない。すなわち、重複データの圧縮には様々な方法があるので、どのような手法でどのように圧縮するかに関しては、ここでは限定していない。
圧縮の具体例の一つとしては、本願発明者の提案による特願2004−364223号の「座標系分離画像圧縮再生装置」や、後述する「座標系分離装置」とその実施例に詳しく述べている。画像圧縮を設置しなくても多少非効率になるが、CV領域画像データベース装置の本質は失われない。
次に、CV領域画像単位で従来の画像圧縮手段例えばDCT等の従来技術により圧縮記録するCV領域画像圧縮記録部1017は、従来技術でもあり特に設置せずにCV領域画像を圧縮せずに記録したとしても、多少非効率にはなるがCV領域画像データベース装置の本質は失われない。
CV領域画像を、単に画像としてみて、従来方法で圧縮することでも、かなりの圧縮が期待される。
ここでは、単なる従来方法の圧縮と、前記CV領域画像特有の性質を利用した重複データを整理することによる圧縮とを敢えて分離して記述している。その理由は、従来方法の圧縮とCV領域画像の重複データの圧縮は両立し、CV画像領域の重複データ圧縮を先にやり、その後に従来方法圧縮をすることが可能であり、又その逆でも可能であることによる。
例えば、重複データ圧縮部1016には後述する「座標系分離装置」の実施例(後述する実施例2参照)を用い、このCV領域画像圧縮記録部にはJPEG1、JPEG2、JPEG4及びその方法を用いて、圧縮効果を高めることも可能である。
検索指定部1018では、画像のCV値は三次元座標を持つので、座標で、又はCV値で画像を検索することができる。さらにRV値はCV領域画像内の特定の部分のCV領域画像まで指定することが可能であるので、画像及びハードCV領域画像、ソフトCV領域画像、対象物CV領域画像による検索が可能となる。
ここでは、CV領域画像データベース装置1012の外側に用意したCV値やCV領域画像やRV値で、当該CV領域画像データベース内に検索される対象物を探すこと以外に、当該CV領域画像データベース内で検索すべき対象物を指定し、他のCV画像内に検索することもできることは明らかである。
検索装置については、さらに後で詳しく述べる。
従って、CV値、及びRV値の比較により、座標による検索、及び形状での検索が可能となる。またCV値を利用した新旧画像更新やさらにRV値を利用した新旧CV領域画像更新、新旧対象物更新も可能となる。これらを可能とする更新する指定部を設けることも可能である。
ただし、この検索・更新部は設置しない場合は多少非効率になるがCV領域画像データベースの本質は失われない。
解凍・出力部1019は、圧縮記録したCV領域画像を解凍し、重複データ整理部で整理されたCV値、TV値、RV値、JV値の全て、若しくはそれらの何れかを付加した複数種類のCV領域画像が混在するCV領域画像を出力する。
ここで整理とは、全てのCV領域画像に同一のデータを付加する必要はないことから、データが重複しないように、必要な画像のフレームに対して、及び必要なCV領域画像について、効率的にCV値、TV値、RV値、JV値の全て又はいずれかの組み合わせを付加することで、画像の記録及び送信、配信の効率を上げることができる。
出力時のCV領域画像が、元々画像の持つCV値、TV値、RV値、JV値の全て、又はいずれかの組み合わせを持つことが本データベースの本質である。
このように、CV領域画像化され再構成可能な画像をDCT等で圧縮記録し、更新し、検索し、解凍出力するデータベースを持つことを総称してCV領域画像データベース装置という。
なお、当然入力するCV領域画像と出力するCV領域画像を表示して監視する入出力監視モニタを設置することが好ましい。
また、CV領域画像単位で圧縮(従来技術で可)をすることでCV領域画像データベースは効率的になる。
さらに、CV値、TV値、RV値、JV値はCV領域画像単位、若しくは対象物単位で持つので、隣接画像及び隣接CV領域画像と共有(従来技術)できる場合が多い。そこでCV領域画像を時空間の固まりに束ねることで、重複を無くし、より効率的なCV領域画像データベース装置が実現できる。
CV領域画像データベース装置からの出力はCV値、TV値、RV値、JV値の全て又はそのいずれかの組み合わせを付加したCV領域画像単位の画像であり、ここから目的に合わせた様々な画像処理を行うことができるので、新産業のプラットホームとしてきわめて有用であり、産業的応用が期待される。
CV領域画像データベース装置1012は、CV領域画像前置装置の出力と同じ信号形式とし、信号には互換性を持たせることが望ましい。そうすることでCV領域画像前置装置の出力をさらに当該CV領域画像データベース装置を通過させることで、より圧縮されて扱いやすくなった信号を出力することができる。
以降、後述する各装置では全てCV領域画像前置装置からの出力を用いるが、当該CV領域画像データベース装置を通過させることでさらなるデータ量の圧縮がなされ、いかなるCV領域画像においても、より有効利用しやすくなる。
CV領域画像前置装置の出力はハードCV領域画像、ソフトCV領域画像、対象物CV領域画像が個別に出力されるが、当該CV領域画像データベース装置を通過させることでブロック化されないで残ったCV領域画像、ハードCV領域画像、ソフトCV領域画像、対象物CV領域画像がミックスされた状況で出力が可能となる。
具体例としては、フレーム情報は消失して、あるいはフレーム画像そのものが消失して、CV領域画像とVDのみのデータと言うこともあり得る。さらに一部分対象物認識されたのみのCV画像、ハードCV領域画像とソフトCV領域画像がミックスされた画像などの出力が可能となる。
図31に、以上のようなCV領域画像データベース装置1012から応用可能ないくつかの例を示す。
同図に示すように、CV値のみのCV画像データベース装置による応用例は、○動画像とCGの合成装置31、○動画像からの三次元座標取得装置32、対象物を常に定位置で観察するロックオン表示装置33、回転揺れ止め画像生成装置・揺れ止め制御装置34、○画像内計測・画像間計測装置35、○新旧画像更新装置36、○CV画像地図47、○車載カメラによる自動車位置決め、及びその応用による実写ナビゲーションシステム41、○画像の三次元ポリゴン化装置42、○路面オルソ化地図生成システム43等が実現できる。
ここで、上記応用例はCV画像DBによるが、CV領域画像データベース装置によれば、さらに効率化されて実現されることになる。
次に、当該CV領域画像データベースではじめて実現される様々な応用例について以下に列挙する。
図31に示すように、○座標系分離画像圧縮・記録装置51、○視点移動・中間フレーム生成装置52、○移動体抽出・運動解析装置53、○高解像度化画像生成装置54、○CV領域画像運動抽出・検索・解析装置(ハードCV領域画像・ソフトCV領域画像・対象物CV領域画像を含む)55、○ノイズリダクション装置61、○CV領域画像差し換え画像生成装置62、○対象物運動抽出・解析装置71、○PRM画像圧縮装置72、○対象物運動解析装置73○複合人工知能記憶装置74等が実現可能である。
以上のような応用例のいくつかについては、以下の実施形態において適宜取り上げて説明するが、まず、以下に三次元地図としての利用について説明する。
[三次元地図としての利用]
CV値を持つCV画像(CV映像)は三次元地図としてそのまま利用できることは、本願発明者の提案による特開2005−295495号で既に明らかにされている。従って、それを領域化したCV領域画像データベースであっても、より効率的に三次元CV画像地図としてそのまま利用できることは明らかである。
さらに、車載したカメラによるリアルタイムで取得した画像との特徴点自動比較により、車両の現在位置を取得できることも、本願発明者の提案による特願2005−303952号で明らかにされている。
そこで、上記特願2005−303952号に示されているように、CV領域画像データベースを三次元CV領域画像地図として、リアルタイムで車両の現在位置を三次元で求めるカーナビに利用する場合は、それは人間が見る地図ではなく、機械(PC)が見る地図であることから、地図としてのデータはCV領域画像全域である必要はなく、地図として特徴有る部分のみのCV領域画像であればよいことになる。そうすることで地図として所持するデータ量を極端に減少させることができて効率的である。
一つの地点に対して、二次元特徴点の場合は最低10〜20個程度、三次元座標まで取得していれば4個〜10個程度で、車両の現在地点の位置決めは可能である。
つまり、CV領域画像において、数個〜20個程度の画像の断片(CV領域画像)を持てば三次元地図として利用できることになる。これは現実的な数字である。
このように、本発明のCV領域画像データベースによれば、CV領域画像の種類により、様々な利用方法が生まれる。
ハードCV領域画像においては、二次元特徴点、及び三次元特徴点として、ソフトCV領域画像においては、形状を持つ明確な二次元特徴点、及び三次元特徴点として、対象物CV領域画像においては、認識済の対象物はそのまま特徴点となり得るだけではなく、交通標識、道路表示、行き先看板等、その意味も理解しているので、地図としての利用価値はさらに高まることになる。
[視点変更装置]
次に、図32を参照して、本発明に係るCV領域画像前置装置を用いた視点変更装置の一実施形態について説明する。
本発明では、CV領域画像とはハードCV領域画像、ソフトCV領域画像、対象物CV領域画像の全てを含んでいることが重要である。以下に示す実施形態についても全てこの事実に基づいている。
全ての演算はCV領域画像単位で処理されるため、CV領域画像が一枚の画像として扱われる。従ってCV領域画像が移動体であるか否かを特に区別する必要はない。CV領域画像が一枚の画像として扱われる。このことは本発明の全てに言えることである。
変更したCV値を与えることで視点変更を指示することにより、CV値以外のVD(TV値、RV値、JV値)を変換演算して、視点変更画像を生成することが本実施形態で示す視点変更装置1021の本質である。
以下、図32に示す本実施形態に係る視点変更装置1021の各部について説明する。
CV領域画像・VD取得部1022は、CV領域画像データベース装置からの出力を取り入れ、CV領域画像とVDとを分離して取得する。これは上述したCV領域画像表示装置1002におけるCV領域画像・VD取得部1003と同様のものでよい(図28参照)。
視点変更指定部1023は、視点変更地点を、若しくは視点変更経路を、CV値で指定する。CV値は視点の三次元座標、回転姿勢を含んだVDなので、CV値を与えることで始点を指定できる。
視点変更演算部1024は、CV値で指定された視点変更CV値から、視点変更時の他のVDを演算で求める。
また、変更VD取得部1025は、指定されたCV値に従い、CV領域画像のCV値以外のVD値等を変換演算し、視点変更演算により取得されたVDを各画像、及び各CV領域画像に対応をつける。
視点変更画像生成部1026は、対応のついた前記各画像、及び各CV領域画像の画像を変更VDに従ってCV領域画像結合し、指定の画像フレーム生成し、出力する。
なお、視点変更指定部1023は様々な指定が可能である。
図32に示すように、例えば、中間フレーム指定部1027を設置して、フレーム間のCV値を等間隔に分割するように視点変更指定部1023に指示すれば、動画像の複数の中間フレームが生成できることになる。これで視点変更装置は中間フレーム生成装置となる。
例えば、毎秒15FPsのフレームレートで撮影した画像を毎秒60FPsに変換できることになる。
このように撮影時又は記録時の画像フレームを間引いて、再生時に中間フレームを生成することで基準のフレームレートを確保するような画像圧縮を行う画像フレーム圧縮解凍装置も可能である。
ただし、中間フレーム生成の目的においては、単にCV値を分割するだけでよいが、時間配分として利用してもよい。
また、CV領域画像生成においては、視点変更時の画像を見やすくするために、図32に示すように、揺れ止め指定部1028を設置して、回転のみならず位置座標の揺れに対してもCV値で位置座標の揺れがない人工の経路を設定し、その経路上に目的のカメラ移動のみを実現するように視点変更を指定することで、回転のみならず位置座標の揺れまで完全に揺れ止めができる完全揺れ止め装置1030が実現できる。
このように視点変更を広義に解釈することで、様々な応用が可能である。以下の実施形態でも、視点変更を利用してさまざまな画像処理を実現している。
なお、視点変更装置の出力は既に通常映像となっているので、通常の表示装置でよい。もちろん、上述した表示装置を用いることで実現できる。
また、視点変更装置の出力は、表示のためにはもはやVDは必要ないが、その他の応用に利用するためにはVDを付加して出力できるようにしておくのが好ましい。
[CV領域画像CG合成装置]
次に、図33を参照して、本発明のCV領域画像前置装置を用いたCV領域画像CG合成装置の一実施形態について説明する。
CV値を持つ画像とCGとの合成装置に関しては、本願発明者の提案による特開2005−122315号で既に示されている。
CV領域画像となったことで、CG合成はより単純化され、視点変更も可能となり、また、前後関係も簡単に決定できるようになった。
基本的には、CGを対象物認識されたCV領域画像として扱うことで、合成が可能となる。
ここでは、本発明のCV領域画像前置装置を用いたCV領域画像CG合成装置についての一実施形態について説明する。
以下、図33に示すCV領域画像CG合成装置1031の各部について説明する。
CV領域画像・VD取得部1032は、CV領域画像データベース装置1012の出力を、若しくは視点変更装置1021の出力を取り入れ、CV領域画像とVDとを分離して取得する。
視点変更装置を経由させれば、視点変更のCG合成が可能となる。そのときは視点変更表示装置を用いる。
CG入力部1034は、CV領域画像に合成するべきCGを入力する。これは通常のCGであり、合成すべきCGを入力する。
VD演算部1035は、CGのVDを演算する。
CGはVD演算部で、CV値、RV値、JV値等を持つことになる。ここではCGのVDは、必ずしも画像と同種のVD値を持つ必要はなく、合成は可能である。一般にCGは既に対象物認識された画像と同じ意味を持つから、対象物CV領域画像として扱うのが好ましい。
視点座標はどちらもCV値で指定することになる。
視点座標統合部1036は、CV領域画像の視点座標とCGの視点座標を合致させて座標を統合する。視点座標がCV値で指定されたことで、CV領域画像とCGの視点は統合されたことになる。
前後関係形成部1037は、CV領域画像のVDと前記CGのVDを比較演算して、表示の前後関係を決定する。
視点座標を示すCV値とCGとCV領域画像のRV値の比較から、視点位置からの三次元方向と距離が明確になり、CV領域画像とCGとの前後関係は明確になる。
CV領域画像CG合成部1038は、視点が合致し、前後関係が決定された、前記CV領域画像と前記CGとを合成して、同一座標系で表現する。座標系は統合されているので、そのまま合成が可能である。
ここで、表示装置は、図33に示すように、視点変更表示装置1003を用いるのが好ましい。
[三次元形状生成装置]
次に、図34を参照して、本発明のCV領域画像前置装置を用いた三次元形状生成装置の一実施形態について説明する。
VD値は既に三次元データと言えるものであるが、通常使用される三次元座標を持ったポリゴンに変換するだけで、三次元形状は簡単に生成される。
図34に示す三次元形状生成装置1041では、まず、CV領域画像・VD取得部1042が、CV領域画像データベース装置の出力を、若しくは視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
範囲指定部1043は、三次元形状生成を行う範囲を指定する。
ポリゴン変換演算部1044は、CV領域画像に付加されたVD値から三次元ポリゴンに変換演算する。これは単純な変換の演算であり、CV値とTV値、若しくはRV値からリアルタイム変換も可能である。また、RV値そのものが既に三次元データを持っていると考えられるから、変換と言ってもRV値でポリゴンをそのまま表現することも可能である。
さらに、三次元形状生成部1045が、ポリゴン変換されたデータから三次元形状を生成する。
以上により、CV領域画像データベース装置の出力から三次元形状を生成することができる。
ここで、取得された三次元形状はポリゴンの形状をとるのが一般的なので、ここで取得したポリゴンデータにテクスチャーを貼り付け、最適な画像として観察することができる。その場合には、以下に示すような最適CV領域画像選択部1046及びテクスチャー貼付部1047を更に備えることができる。
図34に示すように、最適CV領域画像選択部1046は、上記のようにして取得した全体の三次元ポリゴンデータに関して、あるいは個別の各三次元ポリゴンデータに関して、既に取得しているCV領域画像(図33に示すCV領域画像前置装置1001又はCV領域画像・VD取得部1032参照)の中から、(1)最も解像度の高いCV領域画像、(2)又は最も仮想カメラ位置の近くで取得しているCV領域画像を、(3)又は最も仮想カメラからの視点方向の近いCV画像、(4)あるいは最も目的に適合したCV領域画像を、既に取得している視点の異なる全CV領域画像データから選択する。
次に、テクスチャー貼り付け部1047は、選択されたCV領域画像データの全三次元ポリゴン、又は三次元形状を構成する各三次元ポリゴンに、テスクチャーを貼り付ける。
表示部1048では、それを仮想カメラ位置を視点とした画像として表示する。
以上により、三次元形状にテクスチャーを貼り付けたより最適な画像を生成・表示することができる。
なお、ここで「ポリゴン」の意味を辞書から引用すると、ポリゴン(polygon)とは「3次元コンピュータグラフィックスで、立体の形状を表現するときに使用する多角形。計算のしやすさから、ほとんどの場合に三角形が使われる。コンピュータで立体図形を扱う場合、物体表面を微小な三角形のポリゴンに分割して数値データ化することにより、様々な視点や環境による物体の見え方を計算によって生成し、画像として描画することができる。ポリゴンの数を増やせば増やすほど表現が精細になっていくが、計算量が増えるため、描画に時間がかかるようになる。」とある。
本発明における上述したソフトCV領域画像生成装置、及び対象物CV領域画像生成装置においては、上記のポリゴンの意味と完全に一致している。ただし、本発明においてのハードCV領域画像生成装置においては、引用した説明よりは広義の意味でポリゴンという表現を使用している。
本発明におけるハードCV領域画像生成装置から生成する三次元形状は、物体表面形状とは無関係にブロック化し、画像処理に用いた矩形のブロックをそのままポリゴンとして扱い、その元々二次元形状のブロックの三次元座標を取得し、それをポリゴンとして三次元に配置することにより、三次元形状を表現することができるようになっている。
三次元的に配置されたポリゴンは、既に3DCGと同じ扱いが可能であり、上述したCV領域画像前置装置による視点変更装置(図32参照)によらずとも、従来技術により視点変更が自由にできることはいうまでもない。
[画角拡大装置]
次に、図35を参照して、本発明のCV領域画像前置装置を用いた画角拡大装置の一実施形態について説明する。
画角を拡大するために、広角レンズを用いれば、カメラのCCDが同一である限り、カメラの角度の分解能、すなわち解像度は落ちてしまう。
そこで、画角の小さいカメラで高い解像度で撮影した画像を過去のフレームで補うことで画角を拡大して広角表示する。カメラ視点位置を決定し、そのカメラ視点を車両に沿って移動させ、過去の画像フレームを全て現在視点に視点変更する。視点変更された全ての画像は現在のカメラ視点で矛盾のない結合が可能となり、結合することで広角映像が取得できる。
ここで、視点とはCV値であり、移動体の場合はTV値やRV値から視点情報に変換できる。
ここでの特徴は、複数フレームを用いるので、画角を拡大してもほぼ元の精細さを保てると言うことである。過去の映像は時間遅れの映像であるから、そのままでは移動体が有ればその部分の結合は正しく結合しないが、移動体もTV値やRV値を持つことから、移動体部分の動きを含めた視点変更演算できるので、移動体に対しても矛盾無く結合できることになる。これがCV領域画像の優れた特徴である。
以下、図35に示す画角拡大装置1051の各部について説明する。
CV領域画像・VD取得部1052は、カメラを車載するなどして移動するカメラから撮影した画像の、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
拡大画角指定部1053は、画角拡大画像を観察する時の画角と視点方向を指定する。
仮想観察視点指定部1058は、画角拡大画像を観察する時の前記カメラ位置からの視点の移動位置を指定する。
時間軸画像視点変更部1054は、拡大画角と、視点方向と、視点移動位置を指定された時間軸上に並ぶ複数フレームのCV領域画像を、指定の視点位置に視点変更演算する。この演算により、視点変更されて視点位置が同一となる。ここでの視点変更は、上述した視点変更装置1021における視点変更そのものである(図33参照)。
複数画像結合部1055は、視点変更演算により、視点変更されて視点位置が同一となった現在から過去に亘る時間軸上に並ぶ複数フレームのCV領域画像を結合する。常に指定された視点位置と視点方向で視点変更を行うことで、現時点の画像と過去の画像が矛盾無く結合できることになる。
ここで、もし現時点の視点位置と視点方向を指定すれば、現時点の画像に過去の画像の視点を合わせて画枠拡大していることになる。
カーナビとして車両に積載する場合には、現時点の視点ではなく、多少過去の視点位置に始点を指定することで、自車両の背後から自車両を含む視点で画枠拡大画像を表示できることになる。
繰り返し生成部1056は、時間の進行と共に移動進行する前記カメラの位置と方向を追従し、時間軸上に並ぶ複数フレームのCV領域画像を次々指定された視点位置に視点変更を次々繰り返すことで、画角拡大画像を連続して生成し続ける。
画角拡大された画像は、視角拡大画像表示装置1057で表示される。
なお、本実施形態により画角拡大された画像は、既に結合されているので、通常の画像として扱うことができるので通常の表示装置で表示することができる。
[ロックオン表示装置]
次に、図36を参照して、本発明のCV領域画像前置装置を用いたロックオン表示装置の一実施形態について説明する。
ロックオン表示とは同一対象物を画枠内の中心部に固定して表示し、カメラの移動によっても常に画枠の中心に表示することを言う。
CV画像によるロックオンは本願発明者の提案に係る特開2005−295495号に示されているが、ロックオン表示はカメラの移動範囲に限られていた。
本発明のCV領域画像前置装置を利用すれば、視点移動をしながら、カメラ近傍であれば、カメラ移動経路以外であっても自由な視点移動経路を指定してロックオン表示が可能となる。
また、視点位置と経路を指定し、ロックオン表示が可能となる。
さらに、CV画像では不可能であったが、CV領域画像では、各CV領域が移動ベクトルを持つので、容易にロックオン指定ができる。
ロックオンだけであれは、座標系分離までは必要なく、移動体分離までも必要ないが、後述するように、座標系分離や移動体抽出と組み合わせることでも、直接座標系単位で表示したり、移動体単位で表示して、その中でロックオン表示することが可能となる。
以下、図36に示すロックオン表示装置1061の各部について説明する。
CV領域画像・VD取得部1062は、カメラを車載するなどして移動するカメラから撮影した画像の、CV領域画像データベース装置の出力を、若しくは視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
対象物座標指定部1063は、ロックオンすべき対象物の座標を取得して指定する。指定する対象は静止物体でなくても、移動体でも良い。移動体に代表座標系をとることで移動体ロックオンを可能とする。
視点移動指定部1064は、ロックオン表示のための視点移動経路と範囲を指定する。
視点及び視点方向変換部1065は、指定された視点移動経路に沿って、CV領域画像の視点変更を求める。
そして、ロックオン表示部1066は、変換されたCV領域画像を指定経路に従って表示する。
以上により、本発明のCV領域画像前置装置を用いたロックオン表示装置1061が実現される。
[座標系分離装置]
次に、図37を参照して、本発明のCV領域画像前置装置を用いた座標系分離装置の一実施形態について説明する。
本発明に係る座標系分離装置は、動画像から、画像を構成する座標系毎にCV領域画像を分類する装置である。
画像解析において、座標系毎に分離したCV領域画像は様々な利用が考えられるが、その代表的な例は、後述する運動抽出・解析装置(図42参照)であり、また、本願発明者による特願2004−364223号の「座標系分離記録再生装置」がある。この「座標系分離記録再生装置」を実現するためには画像を構成する座標系を検出して分離し、それぞれを単独処理して、再度合成する必要があるが、その一つの手段が、本実施形態に示す座標系分離装置である。
座標系別に分類されたCV領域画像は、座標系別に記録され、送信されることで画像圧縮が可能である。なお、座標系分離装置を用いた画像圧縮技術そのものについては上記の特願2004−364223号に示されている。
以下、図37に示す座標系分離装置1071の各部について説明する。
CV領域画像・VD取得部1072は、車載されたカメラから撮影された動画像の出力を、又はCV領域画像データベース装置の出力を、若しくは視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
座標系別VD処理部1073は、VDから座標系を分離し、座標系毎のCV領域画像とVDとに分類する。
各座標系VD近似処理部1074は、各座標系のVDを単純な関数に近似して単純化し、若しくは必要であれば、近似したVDとCV領域画像のVDとの関係を示す関数をも持ち続ける。
ここで、CV領域画像・VD取得部1072で取得したVD値の成分であるCV値、TV値、RV値、JV値は、もともとCV値を元にして求められたデータであり、完全に独立したものではなく、それぞれ関連した関係にある。従って、各データを独立して持つよりは、関連づけて持つ方がデータ量が軽くなることは明らかである。但し、独立して持つことで目的別利用は単純化される。
そこで、カメラの移動を示すCV値を単純化し、座標系毎に分離されたRV値を単純化することで、VD値を単純化することができる。VD値が単純化されることの映像における意味は、カメラの移動を直線近似し、映像内の移動体の動きを直線近似するということになる。複雑な運動をするカメラの動きや移動体の動きを、ある範囲内で直線近似することによりVDが単純化され、そのことは視覚的にも単純化されて好都合であり、結果としてデータ量が軽くなることは勿論である。
各座標系分離通信装置1076、及び各座標系分離画像記録部1075は、単純な関数に近似されたVDを通信し、記録する。
各画像系別画像生成部1077は、各座標系単位で画像を生成する。
必要であれば、各座標系を再度合成して表示する各座標系合成画像生成部1078を備えることができる。
以上のような構成からなる座標系分離装置1071においては、CV領域別にRV値を持つ座標系が定義されることになる。もともとCV値は静止座標系において定義したベクトルであるが、それを移動体に拡張して定義したものがRV値であり、座標系から見たカメラの移動のベクトルということもできる。各CV領域の持つRV値は、移動体をも含む各座標系の移動ベクトルであり、各座標系毎に分離して通信し、あるいは記録再生することにより座標系分離の効果と威力を発揮する。
ここで、通信と記録における画像の圧縮は同じ意味を持つので特に区別をしない。
ところで、最も単純化されたモデルは、(1)進行方向が一定で、回転揺れが無く直線移動するカメラから撮影された動画像であり、この場合の画像伝送又は記録においては、固定した湧きだし点を定義できる。この場合は、TV値(湧きだし点、CV値はTV値に従属する)と初期静止画像にCV値を付加することで、動画像を伝送できることは上述した通りである。移動量を指定できることも上述した通りであり、さらに、TV値からCV演算によりCV値を求めることも上述した通りである。
次に、(2)カメラが回転揺れを含んで直線運動しない場合は、CV値により揺れ止めを施し、回転揺れは回転揺れデータとして取得し、最後に付加することで元の画像を再現できる。直進運動と近似できる範囲で湧きだし点を扱うことで、上記(1)の場合におけるつなぎ合わせ画像として扱うことができる。
さらに、(3)対象物として移動物体を含む場合がある。この場合には、画像を適切な領域に分割し、移動体はこの領域の複数の集合となるように領域を定義する。それがCV領域であることは上述した通りである。ここで、それぞれの領域毎にカメラベクトル値を持たせることにより、適切なCV領域に分割された各座標系に対応した座標系毎に圧縮をするのが本発明の特徴である。なお、対象物認識技術を導入しない段階では、CV領域と移動する対象物は必ずしも一対一に対応しないが、その時でも対象物は複数のCV領域から構成されることになり、それは圧縮効率に関係するだけで矛盾は生じない。
さて、CV値は、もともと静止座標系とカメラ間に定義したベクトルであるので、移動座標系に関してはRV値を新しく定義し、この中にはCV値も含むことができるものとする。このようにRV値を定義すれば複数の移動体を含む静止座標系にまで拡張して座標系分離を行い、画像圧縮を扱うことができる。
すなわち、先ず動画像を最小単位の矩形のブロックに分割し、その最小単位のブロックを複数集めてCV領域を生成し、さらにそれらのCV領域を集めて座標系単位に分類し、それぞれの座標系単位で画像伝送し、あるいは画像記録し、それを受信再生側又は解凍再生側において、それらを座標系単位で画像を生成し、それを再構成することで一連の動画像を再構築することができる。
座標系を分離するために湧きだし点を利用することが本発明に係る湧きだし点基準CV領域画像装置であり、本願発明者による先の出願に係る座標系分離装置の一つの回答でもある(特願2004−364223号参照)。
以上により、CV領域画像前置装置を用いた座標系分離を行うことができる。
なお、この座標系分離通信装置のより具体的な実施例についてはさらに後述する(実施例2及び図58〜図60参照)。
ここで、上述した本願発明者の提案による特願2004−364223号の「座標系分離記録再生装置」について、その概略を説明する。
特願2004−364223号の「座標系分離記録再生装置」においては、その基本方式として、現実世界を構成する複数の座標系を検出し、座標系毎に対象物を記録する座標系分解記録構成部と、記録された信号を再生し、各座標系毎に対象物を構築し、複数の座標系を合成して、現実世界をバーチャル世界に再構築する座標系合成再生構成部とを備える座標系分離記録再生装置が提案されている。
そして、この特願2004−364223号の「座標系分離記録再生装置」においては、その画像圧縮の具体的手段として、以下のような構成を備えている。
まず、座標系分解記録構成部は、複数のフレーム画像から構成される動画像を取得する動画像取得部と、動画像取得部で取得された動画像を構成する複数のフレーム画像から基準フレーム画像を選択し、当該基準フレーム画像を分割し、分割された各領域が属する複数の座標系を検出し、動画像の全体に渡って画像を構成する複数の座標系を検出する座標系検出部と、動画の進行とともに基準フレーム画像を適宜変更しながら選択し、選択された基準フレームを順次各領域に分割して分割画像信号を生成し、分割画像の各領域が複数の座標系のうちのいずれかの座標系に属するように特定して分類し、分割画像の各領域が属する座標系を特定する座標系特定信号を生成し、複数の座標系の間の関係と、各座標系における三次元のカメラ位置と三次元のカメラ回転姿勢関係を示す座標系別カメラベクトル信号を生成し、基準フレーム画像に関する分割画像の各領域が動画像中を移動する量を検出して移動ベクトル信号を生成し、生成された各信号を画像圧縮信号として記録する座標系分離信号記録部とを備えている。
また、座標系合成再生構成部は、座標系分離信号記録部で記録された信号を座標系別に読み取り、画像圧縮信号を再生する座標系別信号再生部と、再生された各信号を座標系別に組み立てて各座標系画像を合成し、視点を決定して各フレーム画像を再構築する座標系分離信号再構築部と、再構築された画像を指定された再生動画像として出力する再生解凍画像出力部とを備えている。
また、この特願2004−364223号の「座標系分離記録再生装置」の画像圧縮の具体的方法において、差分信号を付加して効率化を上げた装置として、座標系分解記録構成部が、座標系合成再生構成部と同様の座標系分離信号再構築部を備え、当該座標系分離信号再構築部が、上記の各信号を一旦再生解凍して各フレーム画像を再構築し、元画像である動画像を構成しているフレーム画像と比較して差分を取り、所定の差分信号を生成する差分信号付加部を構成するとしている。
さらに、この特願2004−364223号の「座標系分離記録再生装置」の画像圧縮の具体的方法においては、代表座標系として静止座標系を採用し、その差分信号を付加して移動する車両から撮影した道路映像に対応させた装置として、差分信号付加部が、複数座標系において、静止座標系のみを採用し、全分割画像を静止座標系で表現し、移動体等の本来他の座標系に分類されるべき分割画像によって生じる誤差を差分信号として扱うように構成されている。
[CV値基準による座標系分離方法]
以上のような本願発明者による当該特願2004−364223号の「座標系分離記録再生装置」の基本原理に基づいて、上述した本発明にかかるCV値基準一括追跡装置を用いた高精度CV演算装置(図21参照)を用いたCV値基準による座標系分離の方法について以下に説明する。
CV値基準によって座標系分離を行うには、目的の画像から求める複数の座標系と、それを示す複数のCV値を検出する必要がある。
そこで、本発明によるCV値基準一括追跡装置を用いた高精度CV演算装置(図21参照)により、それぞれの座標系を示す複数のCV値を求める方法を以下に説明する。
上述したように、本発明のCV値基準一括追跡装置を用いた高精度CV演算装置(図21参照)によってCV値を求めると、それは画像の代表座標系におけるCV値である。通常、代表座標系としては静止座標系を採用することが多い。
より具体的に説明すれば、静止座標系とは、車載したカメラで周囲を撮影した画像においては、周囲のビルや道路であり、対向車線を走行する車両は当該代表座標系には含まれない。
本発明のCV基準一括追跡には、原理的に必ず多くの特徴点が係わっていることは明らかである。そこで、高精度CV演算装置においてCV値取得に係わった特徴点と係わらなかった特徴点を分離することは可能である。この点について、図38を参照しつつ以下説明する。
図38は、本発明のCV値基準一括追跡装置を用いた高精度CV演算装置による座標系分離方法を示す説明図である。
図38(a)に示すように、CV演算を行うためには先に多くの特徴点601が抽出される。
例えば、一フレーム内の特徴点は一般に数百個程度だが、図では単純化のために1/10程度に省略されている。
特徴点は、様々な座標系に属する特徴点601が含まれているが、概略CV値を用いCV値基準一括追跡をすることで、図38(b)に示すように、特徴点601から特徴点602のみが選択される。
換言すれば、代表座標系(ここでは静止座標系とする)に属する特徴点602のみを使用してCV演算が行われることになり、さらに言い換えれば、CV値基準一括追跡によりCV演算することで自動機に特徴点602を選択することができるのである。
CV値基準一括追跡では特徴点の選択によってCV演算が行われるのでどちらの表現も正しいことになる。
上述した図16の基本原理に示したように、本発明のCV値基準一括追跡では、CV値基準一括追跡と特徴点選択は同時に行われる。また、特徴点が分離できたことは共通の座標系の特徴点を分離したことになり、それはすなわち座標系分離を意味することになる。
従って、ここでは、原理的にCV値基準一括追跡する過程で代表座標系に属する特徴点のみが自動的に選択されることになる。何故なら同一座標系(ここでは静止座標系)に属さない特徴点は予想値からずれるためにCV値基準一括追跡できないからである。
CV値基準一括追跡できるということは、それらの特徴点は同一座標系に属していることを示している。
この処理により、図38(c)に示すように、代表座標系に属する特徴点602と、代表座標系に属さない特徴点611とを分離することができる。すなわち、静止座標系のために使用した特徴点602を削除し、使用しなかった特徴点611を分離することができる。
ここで分離した特徴点611が代表座標系には属さないことは明らかである。
次に、この代表座標系に属さない特徴点611のみを選択し、CV値基準一括追跡により追跡データを取得してCV演算を行うと、上述した代表座標系のときとまったく同じ原理で、新たな座標系(例えば、対向車線を走行する一台の車両の座標系)の特徴点が選択される。
このようにして、座標系毎に特徴点が分類されたことになる。
すなわち、任意に取得した多数の特徴点が座標系単位で分類選択されることから、特徴点を画像全域に抽出することで、その特徴点が属する範囲の小領域画像が座標系単位に分類されたことになる。そして、座標系単位で分類された小領域画像を結合して大面積の領域を構成すれば、画像は座標系単位で分類されたことになる。
物理的に複数の対象物の運動は相対的であり、どの対象物の座標系を代表座標系とするかは自由であることから、代表座標系として扱った静止座標系と、残った特徴点から求めた運動座標系とはまったく対等であり、物理的又は数学的には同じ扱いが可能であることは明らかである。
すなわち、ここまでの作業で、ビルや道路を示す静止座標系と対向車線を走行する一台の車両の運動座標系とを分離して、それぞれのCV値を分離して検出したことになる。
次に、図38(d)〜(e)に示すように、上記の対向車線を走行する一台の車両の座標系のCV演算時に用いた特徴点612と、それに係わらなかった特徴点621を分離し、係わらなかった特徴点621のみを用いて、再再度、CV値基準一括追跡装置を用いた高精度CV演算装置(図21)による処理を行う。
その結果として、ここで使われた特徴点は、図38(f)に示すように、622である。この作業ではさらに別のCV値を取得し、同時に別の座標系を分離したことになる。
この作業を繰り返すことで、いくつものCV値、すなわちいくつもの座標系を検出することができることになる。
なお、ここでは、時系列の作業として説明したが、これを同時に処理することもできることは明らかである。
[画像部分更新装置]
次に、図39を参照して、本発明のCV領域画像前置装置を用いた画像部分更新装置の一実施形態について説明する。
動画像の部分更新は、カメラ位置の異なる画像の更新であり、一般には不可能とされてきたが、本発明のCV領域画像による視点変更技術を用いると簡単に実現できる。
旧画像のカメラ視点に更新画像の視点を合致させ、更新部分を切り取り入れ替えることで実現される。動画の自由な切り貼りが可能となったことになる。
以下、図39に示す画像部分更新装置1081の各部について説明する。
更新CV領域画像・VD取得部1082は、更新する画像情報を含む画像を、CV領域画像前置装置1001から出力して、CV領域画像とそのVDを取得する。
旧CV領域画像・VD取得部1083は、更新される旧画像情報を含む画像を、CV領域画像前置装置1001から出力して、CV領域画像とそのVDを取得する。
更新範囲指定部1084は、更新範囲を指定する。
更新CV領域視点変更部1086は、VD値を合致させることで、更新画像の視点を旧画像の視点に変更する。この部分が本装置の重要部分である。これは上述したCV領域画像前置装置を用いた視点変更装置1021そのものである(図32参照)。
更新範囲削除部1085は、旧画像側の更新部分を削除する。更新部分は必ずしも旧画像を削除してから更新画像を貼り付ける必要はないが、論理的に説明するために、一旦旧画像を削除してから更新画像を貼り付けるとした。実際のプログラム上は、上書きすることで同時に削除も行われることになる。
更新部分CV領域画像生成部1087は、更新部分のCV領域画像を切り取って、旧CV領域画像に貼り付けて更新CV領域画像を生成する。
更新画像生成部1088は、最終的に領域結合して、更新画像を生成する。
CV領域画像のまま出力しても良いが、一般的には通常画像として利用することが多いので、CV領域画像を再度結合して解消し、通常画像とした。
表示装置1089は、CV領域画像を表示するには、上述したCV領域画像用のCV領域画像表示装置1002(図28参照)が必要となるが、通常画像として表示するには通常の表示装置でよいことになる。
以上により、本発明のCV領域画像前置装置を用いた画像部分更新装置1081が実現される。
[オルソ画像生成装置]
次に、図40を参照して、本発明のCV領域画像前置装置を用いたオルソ画像生成装置の一実施形態について説明する。
同図に示すように、本実施形態のオルソ画像生成装置1091は以下の各部を備える。
CV領域画像・VD取得部1092は、CV領域画像データベース装置の出力を、若しくは視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
高精度鉛直取得部1092は、計測機器により鉛直方向を精度良く取得する。
地図を生成するには鉛直方向が重要であり、鉛直が狂うと地図の精度に直接悪影響を及ぼすので、本実施形態では、鉛直は専用の機器とした。具体的には、高精度の鉛直系でCV領域画像の鉛直方向を補正し、次に、CV値の誤差が累積するので、数百メートル毎に高精度GPS等で絶対座標を取得する。
補正VD値演算部1094は、計測機器で取得した高精度の鉛直データと絶対座標データにより、取得したVD値を補正する。VD値のみから求める座標及び鉛直は誤差が累積するので、補正が必要となる。
三次元面生成部1095は、補正VD演算部で補正されたVD値と対応するCV領域画像により、オルソ化対象を三次元化する。
この三次元面生成部1095は、上述した三次元形状生成装置1041(図34参照)そのものである。
CV領域画像は三次元画像であるから、二次元化するのは容易である。数百メートル単位で正しい座標と鉛直が分かっているから、単純にオルソ面に投影すればよい。
オルソ面投影部1096は、三次元化されたオルソ化対象のCV領域画像をオルソ面に投影する。
CV画像では、道路面のオルソ化しかできなかったが、CV領域画像では全ての現像物を含めて、オルソ面を生成できることになる。
なお、数百メートルごとに位置と鉛直を補正するのは、CV値を含むVDの精度と現在のGPS及び鉛直の精度との比較から区割り出した補正区間の数字である。近距離ではCV値の精度が十分高いので、GPSの補正を近距離で行うのは却って精度をおとすことになり、不利である。
また、高精度位置決め部1097においては、高精度GPSでなくても良い。画像内に絶対座標が既知である点がCV領域画像(CV画像でも良い)として写っていれば、その点の座標を画像内計測により取得して、若しくはRV値と比較して、画像内の一点で絶対座標を取得することが可能である。画像内に写っている三角点や測量の基準点がそのまま三次元基準点となる。
以上のような本実施形態のオルソ画像生成装置1091によれば、CV領域画像を取得すれば、実測することなく、直接地図を生成できることになる。
[画像高解像度化装置]
次に、図41を参照して、本発明のCV領域画像前置装置を用いた画像高解像度化装置の一実施形態について説明する。
CV領域画像からフレーム画像を生成して動画再生する場合に、各フレームの画像を構成する領域は複数存在するが、その中の最も高解像度の画像を選択して、各フレーム画像を構成することで、高解像度の動画像を生成することができる。
以下、図41に示す画像高解像度化装置1101の各部について説明する。
CV領域画像・VD取得部1102は、CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
仮想カメラ移動経路指定部1103は、再生表示しようとする動画像を取得したカメラ移動経路、若しくは仮想カメラ移動経路をCV値で指定する。
CV領域画像は、上述した視点変更装置(図32参照)により、視点変更が自由にできるために、実際のカメラ経路以外のカメラ近傍の経路を設定できる。実際のカメラ経路と大きく離れてしまうと、情報の抜けが生じて画像が完成しないことになる。
全範囲探索選択部1104は、動画像の各フレームを構成する各CV領域画像に関して、最も解像度の高いCV領域画像を、若しくは最もカメラの近くで取得しているCV領域画像を、若しくは最も目的に適合したCV領域画像を、既に取得している視点の異なる全CV領域画像データから選択する。
高解像度化が目的であれば、カメラから最も近い位置のCV領域画像を利用するのが適している。また、画像中の色の精度や障害物排除等により、どのCV領域画像を選択するかは変わってくるが、ここでは解像度を最も高く取る目的で選択する。
高解像度視点変更部1105は、全範囲探索選択部1104で選択したCV領域画像を、カメラ経路を意味する指定CV値に選択したそれぞれのCV領域画像を視点変更する。
カメラ位置が与えられれば、どのようなCV領域画像でも、その位置に視点変更することは既に視点変更装置で示したとおりである。
高解像度化画像結合部1106は、視点変更されたCV領域画像から各フレーム画像を生成する。VD表示装置(図28参照)であれば、そのまま表示可能であるが、視点変更されたままではまだCV領域画像なので、それを表示可能な通常画像に変化すれば通常の表示装置で観察できる。
もし、記録の必要が有れば、さらに視点変更を可能とするVD値を取得したCV領域画像の状態で記録保存する高解像度化画像データベース1108を備えることができる。
表示部1107は、高解像度化された動画映像を表示する。単なる記録であれば表示装置への入力信号をそのまま記録すればよい。
以上により、本発明のCV領域画像前置装置を用いた画像高解像度化装置1101が実現される。
[運動抽出・解析装置]
次に、図42を参照して、本発明のCV領域画像前置装置を用いた運動抽出・解析装置の一実施形態について説明する。
同図に示すように、本実施形態の運動抽出・解析装置1111は以下の各部を備える。
座標系分離装置1112は、CV領域画像データベース装置から出力される、若しくは前記視点変更装置から出力されるCV領域画像を、元となる動画像を構成する複数の座標系に分離する。この座標系分離装置は、上述した座標系分離装置1071(図37参照)そのものである。
運動領域抽出部1113は、複数の座標系の中で、目的の運動する対象物のCV領域画像をそのVDと共に選択し、抽出する。
運動領域VD解析部1114は、抽出された運動領域のVDから、対象となる運動領域の運動を6自由度で表す。
VDはそのまま6自由度で領域の運動を示していることから、運動解析には最適である。
もし必要が有れば、運動領域を指定の座標系に変換して示す指定座標表示部1115を備えることができる。
以上により、本発明のCV領域画像前置装置を用いた運動抽出・解析装置1111が実現される。
[CV領域画像検索装置]
次に、図43を参照して、本発明のCV領域画像前置装置を用いたCV領域画像検索装置の一実施形態について説明する。
同図に示すように、本実施形態のCV領域画像検索装置1121は以下の各部を備える。なお、繰り返しになるが、ここでCV領域画像とは常にハードCV領域画像・ソフトCV領域画像・対象物CV領域画像の全てを含む。
CV領域画像・VD取得部1122は、CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得する。
検索CV領域画像部品指定部1123は、検索すべきCV領域画像、又はその一部、又はそれを内部に含むCV領域画像を検索すべき部品として指定する。
検索CV領域画像部品VD演算部1124は、基準座標系における前記部品のVDを演算で求める。一般にVDはカメラ位置を基準としているため、比較のためには全てカメラ位置に変換して比較するか、共通化された基準座標系での比較が求められる。
そこで、本実施形態では、図43に示すように、検索されるCV領域画像の基準座標系におけるVDと、検索部品のCV領域画像の基準座標系におけるVDとを比較し、一致度を求める基準座標VD比較部1125を備える。
検索CV領域画像出力部1126は、CV領域画像全体の中の一致度の高いCV領域画像を検索結果として出力する。
以上により、本発明のCV領域画像前置装置を用いたCV領域画像検索装置1121が実現される。
[ノイズリダクション装置]
次に、図44を参照して、本発明のCV領域画像前置装置を用いたノイズリダクション装置の一実施形態について説明する。
上述した視点変更装置(図32参照)により、動画像において、視点位置と姿勢を示すCV値により、隣接フレームを目的フレームの視点位置と姿勢とを完全に重ねることができる。すなわち、隣接する数フレームを同一のCV値に視点変更すれば、画像は完全に重ね合わせることができることになる。
一旦重なれば、複数の同一位置と姿勢の静止画と同じであり、加算平均でノイズを減少させることができる。加算平均は線形処理であるが、その他非線形処理を含めて、従来技術のノイズリダクションを行うことができる。ここでは特に線形処理と非線形処理の種別を問わない。
以下、図44に示すノイズリダクション装置1131の各部について説明する。
CV領域画像・VD取得部1132は、CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得する。
最適CV領域画像選択部1133は、目的フレーム画像に属するCV領域画像と、それに隣接するフレーム画像に属するCV領域画像とで、対応する複数のCV領域画像を選択する。
同一視点変更部1134は、隣接するフレーム画像に属するCV領域画像を、目的フレーム画像のCV値に視点変更する。ここにおいても視点変更装置が主役となる。
領域加算平均演算部1135は、目的フレームの視点に統一して変更したCV領域画像を、重ね合わせて加算平均する。
平均CV領域画像生成部1136は、加算平均によりノイズが減少した領域を目的フレームに属するCV領域画像として取得する。
以上により、本発明のCV値基準湧きだし点CV領域画像前置装置を用いたノイズリダクション装置1131が実現される。
[対象物認識装置]
次に、図45を参照して、本発明のCV領域画像前置装置を用いた対象物認識装置の一実施形態について説明する。
上述したCV領域画像検索装置において、部品に属性を付加しておけば、検索結果は対象物の属性を示すことになり、対象物認識ができたことになる。
また、CV領域画像を固定し、部品を複数用意しておき、一致する部品を探すことで、目的CV領域画像を認識したことになる。
ここで一致度を評価するのはVD値のみではなく、色、テクスチャー等が比較の対象となる。
以下、本実施形態に係る対象物認識装置1141について説明する。
なお、本実施形態の対象物認識装置は、上述した本願発明者の提案による特開2000−295611号、国際公開WO02/01505号に提案されているPRM技術を利用している。
CV領域画像・VD取得部1142は、CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
認識CV領域画像指定部1143は、認識対象となる部分をCV領域画像内に指定する。
ここで、対象の属性等が不明である場合には、当該認識対象を固定して、属性の既知である複数の部品を次々比較して、一致する部品をさがして認識する。
一方、属性の分かっている部品(既に認識されてるCV領域画像の部品)が何処にあるかを探す場合は、上述したCV領域画像検索装置(図43参照)を用いる。
部品データベース部1144は、未知のCV領域画像を認識する本装置においては、前もって認識候補となる複数のCV領域画像からなる部品をデータベースとして記録している。ここで、データベースに無い部品は認識できないことになる。しかしこれは決して不合理ではなく、人間も又記憶のない対象物は認識できないのである。
部品送り出し部1145は、認識が完了するまで、次々部品を送り出す。
部品VD演算部1146は、比較される部品のVDを演算で求める。
基準座標VD比較部1147は、認識対象となるCV領域画像と、部品を基準座標系のVD値で比較する。これは同一座標系の同一地点からのVDで比較するためである。
認識画像出力部1148は、部品送り出し部1145から送られてくる複数の部品の中で、最も一致度の高い部品を選択して、特定する。
これはVD値で比較するのであるが、最終的に比較はVD値だけではなく、VD値が接近していて特定できない場合は、他の要素、例えば色やテクスチャー等の属性で比較して一致度の高い部品を選択することが望ましい。
以上により、本発明のCV領域画像前置装置を用いた対象物認識装置1141が実現される。
[位置決め装置]
次に、図46を参照して、本発明のCV領域画像前置装置を用いた位置決め装置の一実施形態について説明する。
同図に示す本実施形態の位置決め装置1181は、GPSやIMUやジャイロに代わって、自分の位置を正確に取得する装置である。
以下、本実施形態に係る位置決め装置1181を構成する各部について説明する。
CV領域画像・VD取得部1182は、CV領域画像データベース装置の出力を、若しくは視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。ここには、車両走行する場所のCV領域画像が存在している。この情報量は膨大であるので、目的に必要な部分のみ検出して利用しようとするものである。
地図利用選択部1183は、取得したCV領域画像から、三次元地図として精度良く利用できる複数のCV領域画像部分を自動選択する。これは各CV領域のTV値を求める際のトラッキング時の相関値を参考にして、決めるか、再度自己相関及び相互相関により、相関値の大きいものを選択することができる。また、部分的に偏らずに全体に分散して選択することで、以下の位置決め時の精度が向上する。
内部検索指定部1186は、三次元地図として精度よく利用できるCV領域画像部分を指定し、前記CV領域画像・VD取得部で取得したCV領域画像内に、検索し、呼び出し、前記地図利用選択部に送る。
手動で目的の画像を検索させることもできる。前もって分かっている対象物、例えば40km制限標識のみ選択的に検索して、三次元地図として利用することができる。
ただし、内部検索指定部は本装置を構成する絶対条件ではなく、無くても本装置の本質は失われない。
地図生成部1184は、地図利用選択部1183で選択された「精度よく利用できる複数のCV領域画像部分」を、二次元特徴点、三次元特徴領域、特徴対象物等に分類し、若しくはVD値等を用いて変換し、地図として生成する。
車両位置決定のためには、三次元座標が既知である方が都合がよいが、二次元点でも車両位置決定の精度に貢献する。認識済の対象物は既に三次元点で構成されるので、位置決定の精度にはきわめて大きく貢献する。
リアルタイム画像取得部1187は、地図と比較するため、及び表示のためのリアルタイム画像を車両等に積載したカメラから取得する。
これはカーナビや自動案内装置を念頭に置いて、リアルタイム画像を取得することを前提としているが、もちろん記録映像でも同様に撮影時点のカメラ位置の決定が可能であることはいうまでもない。
リアルタイム画像前処理部1190は、取得したリアルタイム画像を、概略CV演算、GPSを用いた概略位置合わせ、画像明るさ調整、等の前記三次元地図と比較しやすくし、検索しやすくするための画像処理を施す。
外部検索指定部1185は、二次元特徴点、三次元特徴領域、特徴対象物等を前記リアルタイム画像の中に検索指定する。
外部検索検出部1188は、外部検索指定部1185での検索指定により、二次元特徴点、三次元特徴領域、特徴対象物等を、リアルタイム画像前処理部で比較しやすく処理されたリアルタイム画像の中に検索して、対応部分を検出する。
リアルタイム画像CV値取得部1189は、二次元特徴点、三次元特徴領域、特徴対象物等との対応部分が検出されたリアルタイム画像の対応部分と三次元地図上の二次元特徴点、三次元特徴領域、特徴対象物等から、リアルタイム画像のCV値を演算で求める。
車両位置決め部1191は、リアルタイム画像CV値取得部1189で取得したリアルタイム画像のCV値から、リアルタイム画像を取得したカメラの位置と姿勢を絶対座標で求めて車両位置を決定する。
リアルタイム画像内属性表示部1193は、特徴対象物が持っている車両運行に関係する属性をリアルタイム画像内に表示する。
三次元地図データベース部1192は、車両位置決めに利用し、リアルタイム画像で確認された前記二次元特徴点、三次元特徴領域、特徴対象物等を、次回に利用する三次元地図として記録しておく。ここで、三次元地図データベースは次回以降の検索検出を様にする目的で設置したものであり、必ずしも必要ではない。
以上により、本発明のCV領域画像前置装置を用いた位置決め装置1181が実現される。
[複合人工知能記憶装置]
次に、図47を参照して、本発明のCV領域画像前置装置を用いた複合人工知能記憶装置の一実施形態について説明する。
同図に示す本実施形態の複合人工知能装置1152は、本願発明者による特開2005−322002号に提案されている複合信号知能装置であり、複数の人工知能装置が情報のやり取りをするように設計されていて、人工知能装置1171は、ホスト的役割を持ち、やや大きめのデータベースを持つように設計されている。
複合人工知能装置1152を構成する複数の人工知能装置1171・1153・1154において、自ら取得したカメラ映像、及び認識結果をCV領域画像前置装置にCV領域画像として記録する。
さらに個々の人工知能装置1171から他の人工知能装置1153・1154へ、送信装置1156により、カメラ映像、及び認識結果が送られる。
また、CV領域画像前置装置1151は、他の人工知能装置1153・1154で取得されたカメラ画像及び認識結果は受信装置1155を通して、情報を受信し、認識結果をCV領域画像として記録する。
送られた画像データはCV領域画像となり、CV領域画像前置装置1151に記録される。
なお、各装置間の通信はWEB1170を経由して行われる。
同様に、他の人工知能装置1153・1154から検索の問い合わせがあれば、CV領域画像前置装置1151のCV領域画像内を検索するCV領域画像検索装置1158に送られて検索される。検索結果を記録すると同時に、問い合わせ先に送信する。
同様に、他の人工知能装置1153・1154から対象物認識の依頼があれば、CV領域画像前置装置1151のCV領域画像内で対象物認識する対象物認識装置1157(図27参照)に送られる。認識結果は記録すると同時に、問い合わせ先に送信される。
人工知能装置1171は、他の人工知能装置1153・1154に比較し、一部ホストの役割を与えられているため、認識のための部品DB装置1159を別に備えている。周囲の関連する複数の人工知能装置で認識されたデータはこの装置に記録され、整理されている。
認識された対象物はその配置と隣接する対象物から抽象化装置1161で抽象化され、抽象概念認識装置1164により抽象概念として認識される。
具体的には、関連関数装置1160により、認識した対象物の部品の配列を数学的な線の結合として隣接関係を表現し、抽象概念認識装置1164ではその形状から危険であるとか、安全であるとかを判断する。
さらに、一つの抽象概念の認識結果を一つのフラグとして、抽象概念地図DB装置1167にCVタグ装置1166(後述する図48参照)を配置する。
抽象概念地図DB装置1167は、抽象概念の地図であり、配列関係を示す線構成のN次元形状と、抽象概念認識結果を示すCVタグによって記録保存されている。
CVタグが増加していくにつれて、さらに抽象部品DB装置1168では複数のCVタグによって形成されるM次元形状により、抽象部品を生成することになる。例えば、「危険」を意味するCVタグと、「近い」を意味するCVタグから、「停止せよ」という判断を行動指示装置1163が生み出すことがこれに相当する。
一方、抽象概念検索装置1165では、「安全」というCVタグ側から、それを満たす抽象概念を検索する。「安全」を意味するCVタグを検索して、次に「安全」を構成する抽象M次元形状を検索し、それを具体的に満たす具象化装置1162により、CV領域画像内に、それを満たす状況を探し出すことができる。
自動運転は前記「安全」状況を確認しながら、走行することになる。
以上により、本発明のCV領域画像前置装置を用いた複合人工知能装置1152が実現される。
[CV領域画像によるCVタグ入出力検索装置]
次に、図48を参照して、本発明のCV領域画像前置装置を用いたCV領域画像によるCVタグ入出力検索装置の一実施形態について説明する。
まず、本実施形態に係るCVタグ入出力検索装置1204の基本形であるALV(Active
Link Vision)機能について説明する。
図48に示すように、まず、CVタグ入出力検索装置1204により管理しようとする現実の管理対象物1203がある。
管理対象物1203とは、道路管理目的であれば、路面、街路灯、ガードレール、電柱、道路表示、標識、行き先表示などであり、カーナビゲーション目的であれば信号機、道路表示、車線、標識、行き先表示板、障害物、他車両、等である。
具体的には、CVタグ入出力検索装置1204は、図48に示すように、以下の各部を備える。
CV領域画像記録部1205は、前もって、管理対象物1203及び周辺を撮影して記録し、CV値を付加したCV領域画像から生成したCV領域データベース装置1012の出力を一時的に保持する。
視点変更装置1206は、画像取得時のカメラ位置近傍への視点変更画像を生成する。この視点変更装置1206は、上述した視点変更装置(図32参照)を用いることで、CV領域画像の視点を変更し、見やすい位置に視点を設定することができる。CV領域画像を用いることで視点変更を可能としているという点で視点変更装置は重要である。
CVタグ表示装置1207は、CV値を付加したCV領域画像を表示し、動画として画像フレームが移動しても、画像とCVタグの三次元的位置関係を保持したまま、CVタグを表示する。
動画像をCV演算することで三次元的に扱うことができる。CV領域画像とCGとの合成については、上述したように本願発明者による特開2005−122315号に詳しく示されている。
CVタグ入力装置1208は、CVタグ表示装置1207で表示されたCV領域画像の中の管理対象物1203の位置に対して、CV領域画像の中にCVタグを直接貼り付けるか、若しくはCV領域画像中の管理対象物1203の三次元的位置を確認できるように、矢印などで特定できるようにしたCVタグを、CV領域画像の中に三次元的に配置する。
具体的には、CVタグ入力装置1208は、CV領域画像中の管理対象物1203に直接CVタグを入力する。CV領域画像地図を用いて管理対象物1203を三次元計測し、CVタグの三次元座標を管理対象物1203の三次元座標と合致させるか、あるいはCVタグが管理対象物1203を隠さないように、管理対象物1203の近傍に設置することでCVタグの座標設定は完了する。次に、CVタグを開封し、リンクしたファイルに管理対象物1203に関連する画像やテキストデータ等の諸データを書き込む。このことでCVタグのデータ入力は完了する。
CVタグデータベース装置1210は、CVタグと管理対象物1203とを関連づける諸データを格納する。
CVタグを開封して、リンクしたファイルに管理対象物1203に関する画像やテキストデータ等の諸データを書き込む作業をすることで、直接CVタグデータベース装置1210に書き込むことなく、CVタグ関連の前記諸データは自動的にCVタグデータベース装置1210に記録され、検索や選択により呼び出される。
CVタグ自動検索装置1211は、CV領域画像中に管理対象物を示すCVタグそのものを、若しくはCV領域画像中の管理対象物1203の画像そのものを、色の変化や対象物面の点滅によるフラッシュ効果等の何らかの視覚効果のある三次元座標を持つ印として、動画としてのCV領域画像上に三次元的に矛盾無く呈示する。
CV領域画像上で管理対象物1203を特定するには、自動検索によるか、画像上の管理対象物1203を直接マウスでクリックすることで完了する。
CVタグ対象物管理装置1212は、CVタグ表示装置1207により、検索装置でCVタグを検索することで、管理対象物1203を自動的に特定することができ、若しくは表示されたCV領域画像中の管理対象物1203をCV領域画像の中にタッチスクリーンにタッチし、又はマウス等でCVタグをクリックして、CVタグを選択することで、CVタグデータベース装置1210からCVタグに対応する管理対象物1203のデータを読み出して管理する。
以上のような構成からなる本実施形態のCVタグ入出力検索装置1204は、さらに、カーナビ仕様として以下のような構成を備えることができる。
以下、カーナビゲーション目的のCV領域画像前置装置を用いたCVタグ入出力検索装置について説明する。
このCV領域画像前置装置を用いたCVタグ入出力検索装置1204は次世代のカーナビゲーションを対象として構成される。
具体的には、上述したCVタグ入力装置1208と、CVタグデータベース装置1210と、CVタグ対象物管理装置1212とを車両等に積載し、管理地域1201、及び管理対象物1203周辺を移動する積載移動手段1202を備える。
積載移動手段1202にはビデオカメラを積載し、リアルタイム画像を取得し、リアルタイム画像にCV演算を施し、リアルタイムCV領域画像を取得するリアルタイムCV領域画像取得装置1220を備える。リアルタイム画像は単なるモニタとしてのみならず、直接CV演算するか、又はCV領域画像地図との位置あわせにより、CV値を取得することができるので、本発明において様々に利用される。
リアルタイム画像に対しては、文字検索、座標検索、属性検索等で、未登録の管理対象物1203を検索し、あるいは既に登録されている管理対象物1203を検索し、CV領域画像上にフラッシュ等でその三次元位置を呈示することができる。
例えば、カーナビ仕様で説明すれば、40km速度制限と文字検索をすれば、CV領域画像上にその標識が明るく表示される。また、緯度経度を数字で打ち込んで検索すれば、その緯度経度の所に画像が移動して、その地点を矢印で示す。また、時速40km制限と検索すれば40km制限の道路の側帯部分がフラッシュして、その範囲を示す。等の例が上げられる。
ここで、文字検索は画像の中から文字を自動認識する技術による。また、座標検索は地図として用いるCV領域画像は絶対座標を持っているので、動画であっても座標を特定して検索することが可能となる。
ただし、未登録の管理対象物1203の検索は対象物認識の技術が必要となり、検索には時間が掛かるので、前もって入力してある管理対象物1203に関する諸データから検索するのが適している。
登録されていれば当然ですが、登録されていない管理対象物1203に対しても、画像の中から検索する画像検索、対象物認識技術により、検索することができます。例えば、交通標識で一方通行の標識の画像を用意しておき、この一方通行の標識の画像で検索すると、画像中の一方通行の標識を全て検索して、その位置を示すことができる。
また、本実施形態では、リアルタイム画像から管理対象物1203を自動認識する管理対象物自動認識装置を保持する対象物認識装置1213を備える。
座標検索はCV領域画像が三次元座標を持つことから、動画であっても座標を特定して検索することが可能となる。
上述したように、CVタグ自動検索装置1211は、CV領域画像中に管理対象物を示すCVタグそのものを、若しくはCV領域画像中の管理対象物1203の画像そのものを、色の変化やフラッシュ効果等の何らかの視覚効果のある三次元座標を持つ印として、動画としてのCV領域画像上に三次元的に矛盾無く呈示する。
また、本実施形態では、外部データベース装置1217を備え、内部のCV領域画像記録部1205は、CVタグ入出力検索装置1204の外側にあるCV領域画像地図データベース部1218と通信をする。そのためには、DVD、ハードディスク等の記録媒体、若しくはWEB等の通信により、管理地域1201及びその周辺のCV領域画像地図を外部から取得する外部CV領域画像地図データベース部1218を備える。
同様に、CVタグ入出力検索装置1204は、記録媒体、若しくは通信により、管理地域1201及びその周辺のCVタグとその属性を示す情報を取得し、CVタグデータベース装置1210に記録し、さらに、外部CVタグデータベース部1219とデータのやり取りをする。
なお、端末のCVタグ入出力検索装置1204で取得したデータを外部データベース装置1217に送るか否かは、端末側の判断による。
また、移動体には、移動体の絶対座標を取得するGPS位置決め装置1215と、取得したリアルタイムCV領域画像とCV領域画像地図から、位置あわせをして取得した新旧映像更新装置1216とを保持する移動体位置決め手段1214を備える。新旧映像更新装置1216は、本願発明者による特開2005−303952号に示されている。
また、本実施形態では、移動体位置決め手段1214により、現在地点が取得され、同時に時刻が取得され、前もって走行目的を入力しておき、その走行目的等より、車両の現在時刻と現在位置と現在状況に関係している管理対象物1203のCVタグを選択的に自動表示するCVタグ自動表示装置1209を備える。
走行目的とは、ドライブ、道路路面管理、標識管理、路面性状調査、などであり、その目的によって表示されるCVタグは異なるので、目的にあったCVタグを自動表示するようにする。
GPSにより現在位置を取得して、又は、上記の特開2005−303952号に示す新旧映像更新装置1216により、車両の現在地点を絶対座標で取得して、その地点の画像を表示する。
ここで、本実施形態で示した各装置及び手段は全てを備える必要はなく、その一部装置と一部手段を選択的に備えることが好ましい。
そして、以上のような構成からなる本実施形態に係るCVタグ入出力検索装置1204では、CVタグ表示装置1207により以下のような各種の表示機能(表示手段)が実現される。
[動画ロックオン表示]
動画ロックオン表示は、選択及び検索した管理対象物1203を、管理対象物を画像の決められた位置に固定して表示する機能である。
ロックオン表示は、ロックオンすべき任意の対象物を画像内に指定すると、CV演算で得られたカメラベクトルに基づいて、画像内に指定した対象物を実写座標系で計測してその三次元座標を求め、三次元座標が求められた指定対象物が、常に画枠の中心位置(又は任意の所定位置)に表示されるように、画像表示又はカメラ(カメラが固定される固定物)の位置及び姿勢を制御することができる。
これにより、例えば、画像内にあらかじめ画像と一致している三次元座標系を設定しておき、画像内の目的対象物をマウス等で画像内に指定し、CV演算により、目的対象物の概略の三次元座標を求め、求められた目的対象物の三次元座標が画像内の指定位置に常に来るように画像表示位置を制御することができる。
あるいは、目的対象物を画像内の指定位置に常に表示するようにカメラを制御することができる。
このロックオン機能により、CVタグ、若しくは管理対象物をCV領域画像地図上で直接指示すれば、選択した管理対象物をロックオンで画像中央に常に表示することができるので、視認および操作が容易となる。
[複数CV映像表示]
複数CV映像表示は、CV領域画像地図は縮尺の異なる複数のCV領域画像地図を同期表示し、又は非同期で表示し、しかも座標系を統一して、同じCVタグを複数のCV領域画像地図上に表示する機能である。
なお、上述したように、CVタグはCGアイコンにより構成される場合と、実写アイコンにより構成される場合がある。また、アイコン機能を持たない単なるCGを表示することができることは勿論である。
[地図同期表示]
地図同期表示は、CV領域画像地図と二次元地図を同時に表示し、二次元地図上にもCVタグを表示する機能である。
CVタグはもともと三次元座標を持つので、二次元化することは容易に行える。
[リアルタイムCV領域画像表示]
リアルタイムCV領域画像表示は、選択及び検索した管理対象物1203を、CV領域画像地図と同じように扱い、リアルタイムCV領域画像にCVタグを表示する機能である。これは現時点の現実映像であり最もリアリティーがある表示となる。なお、リアルタイム演算となるために、処理には一定の制限があり得る。
[現実重複表示]
現実重複表示は、選択及び検索した管理対象物1203を、CV領域画像上に表示せずに、ヘッドマウント、又はハーフミラー等により、移動する車両等から直接観察する現実世界の管理対象物に重複して合成した、CVタグや案内矢印CG、看板CG等を示す機能である。
[音声案内表示]
音声案内表示は、選択及び検索した管理対象物1203に関するCVタグの内容を、音声で案内表示する機能である。これは、特にカーナビゲーションシステムには必要な機能となる。
なお、以上のような各機能は、目的に応じてすべてを行わせることもできるが、少なくともいずれか一部の機能を有するものであってもよい。
[実施例]
次に、以上のような本発明のCV値基準CV一括追跡装置及びCV領域画像前置装置の具体的な実施例について説明する。
[実施例1]
まず、本発明のCV領域画像前置装置を利用した装置として、ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する領域画像結合画像生成装置の実施例について、図49〜図51を参照して説明する。
上述したように、本発明のCV領域画像前置装置では、ハードCV領域画像生成部分とソフトCV領域画像生成部分とが、対等な位置づけとして明確に区別されている。
ところが、以下の実施例に示すソフト領域生成部分は、ハードCV領域画像生成部分とソフトCV領域画像生成部分とが明確に区別されていない。
その第一の理由は、ソフトCV領域画像生成部分を設計する場合は、当然のこととしてその内部にハードCV領域画像生成部分を含むようになるのが自然だからである。
上述した各実施形態では、この二者の区別を明確にしているが、実際にソフトCV領域画像生成部分を設計する場合には、その内部にハードCV領域画像生成部分を含む以下に示す実施例の方が実際的である。
このことは上述した本発明の各実施形態とは矛盾しないものであり、以下の基本設計とそれに基づく実施例では、ソフトCV領域画像生成部分の内部にハードCV領域画像生成部分を含むように説明する。
第二の理由は、以下の設計及び実施例と同様に、ハードCV領域画像生成部分とソフトCV領域画像生成部分とを区別せずに上述した各実施形態を説明することは可能であるが、ハードCV領域画像生成部分とソフトCV領域画像生成部分とが明確に区別されないと各実施形態の特徴が不明瞭となるため、上記各実施形態では両者を区別して説明したためである。
結果として、上記各実施形態では二者を明確に区別して説明したが、以下の基本設計及びその実施例では、実際に則して、ハード領域画像生成は、ソフト領域画像の一部に含まれる形で説明する。
[基本設計]
本発明の中心部分である、「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する」部分に特化して、以下に詳細に説明する。
[基本形]
ビデオカメラ等で動画映像を取得し、画像圧縮、画像伝送、画像記録、視点移動、画像三次元化、等の画像処理において必要となる画像のソフトCV領域画像分割を画像に依存して効率よく行う基本形を示す。
従来技術の画像分割は画像を画像の内容にはよらず、単に機械的に8*8程度の矩形に分割して処理するのが常であった。
本発明においては、ブロック分割においてさえも、単純なブロックではなく、画像を取得したカメラの座標と姿勢を6自由度で表すCV値と、二次元画像でありなから、微少範囲にまで単純化処理されたTV値(追跡データを付加することで、これまで不可能であった画像処理を可能とする。さらに、ブロックを画像に固有の同一のテクスチャー(ソフトCV領域画像)で束ねてソフトCV領域画像のもつ三次元位置と姿勢を表すRV値で整理することで画像処理はより進化することになる。
例えば8*8の微少ハードCV領域画像(ブロック)を束ねて、ソフトCV領域画像境界線を検出し、ソフトCV領域画像を形成し、追跡データ(TV値)(追跡データ)を持つソフトCV領域画像を生成し、そのソフトCV領域画像を結合し、全体をソフトCV領域画像で再構成する。
最終的に画像はソフトCV領域画像の結合を示すJV値でまとめられ、対象物単位で表現され、CV値、RV値、JV値とで表現される。
すなわち画像は複数の対象物からなり、その対象物は複数のソフトCV領域画像からなるが、対象物の個々の部分のソフトCV領域画像の動きまで三次元的に解析されることになる。
[輪郭線検出]
一般に、輪郭線抽出によって生成されるソフトCV領域画像と、ハードCV領域画像(ブロック)分割によって生成される一次ソフトCV領域画像とは検出方法が異なるので検出された範囲は異なる。
両者によるソフトCV領域画像の定義には、いくつか考えられるが、大きくは以下の3種類考えられる。
(1)両者どちらかを満たせばソフトCV領域画像とする。
(2)どちらか小さい範囲をソフトCV領域画像とする。
(3)どちらか大きい範囲をソフトCV領域画像とする。
境界線によって閉じた範囲をソフトCV領域画像と定義する。完全には閉じない境界線を閉じるために輪郭線を用いることを可能とするのが適している。閉じない場合であっても、両端を結合してCV領域画像と定義しても、特に問題は生じない。
輪郭線抽出により、境界線抽出によるソフトCV領域画像生成の補助をする。微少ソフトCV領域画像を生成せずに、輪郭抽出により直接ソフトCV領域画像の輪郭を生成し、一次ソフトCV領域画像を生成し、若しくは既に生成された一次ソフトCV領域画像を補う。
特に、輪郭線抽出においては、ソフトCV領域画像境界部分に関して詳細情報を取得し、ソフトCV領域画像分離に貢献する。
ここでは、特に一次ソフトCV領域画像生成におけるソフトCV領域画像を基準とする都合上、輪郭線抽出を補助的に表現してあるが、両者の立場は対等であり、輪郭線抽出によってソフトCV領域画像抽出することも十分可能である。
[輪郭線によるソフトCV領域画像検出]
輪郭線抽出した後、輪郭線の種類を決定して認識し、ソフトCV領域画像生成の補助をする。輪郭線認識により、輪郭線の抜けを補正し、輪郭線をより完全に生成することで、ソフトCV領域画像抽出をより完全に行おうとしている。
一般に、輪郭線と境界線とは一致する部分と一致しない部分があり、異なる。ただし、ソフトCV領域画像はそのどちらでも、又は中間でも定義できる。
ここでも同様に、特に一次ソフトCV領域画像生成におけるソフトCV領域画像を基準とする都合上、輪郭線認識を補助的に表現してあるが、両者の立場は対等であり、輪郭線抽出によってソフトCV領域画像抽出することも十分可能である。
[ゴム紐結合条件]
ゴム紐結合によれば、ハードCV領域画像がその配列順番を変えないように、柔軟に結合することで、トラッキング可能なハードCV領域画像によって、トラッキング不可能なハードCV領域画像にも追跡データを与えることができる。
ゴム紐結合条件とは、隣接するハードCV領域画像の各ブロックが、ゴム紐結合において、結合状態にあるか、切断状況にあるか、の区別を示している。
ゴム紐切断は、隣接するハードCV領域画像に連続性がなく、元々の配置において三次元的に独立している場合には、ゴム紐結合は誤差を発生されるので、ゴム紐結合を切断しなければならない。
切断の方法は、ゴム紐結合により得られた追跡データを正しいものとして、隣接画像を生成し、隣接画像との差分をとり、その差分の大きいところに誤差が集中していると判断することができる。誤差の集中している部分のゴム紐を切断することで、ゴム紐切断が可能となり、その部分の追跡データを再度演算することで、全体として正しい追跡データを主とすることができる。
[基本設計の図解による説明]
次に、上述した各実施形態を組み合わせて、「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する」部分のシステムを構築する場合の原理とその説明を以下に行う。
上述したように、上記の各実施形態では、ハードCV領域画像とソフトCV領域画像を明確に分離して記述しているが、実際にソフトCV領域画像分離画像のシステムを構築する場合には、そのためのハードCV領域画像分離生成画像を明確に分離せずに、ソフトCV領域画像生成の中でハードCV領域画像を扱うことになる。
そのために、ソフトCV領域画像生成の準備をハードCV領域画像生成時に行うこととなる。例えばブロック分類は、ハードCV領域画像においては特徴ブロックとそれ以外のブロックの2種類のみで可能だが、ソフトCV領域画像生成においては、3又は4種類(独立特徴ブロック・境界線上特徴ブロック・境界線上ブロック・その他ブロック)の分類が必要であるため、それをハードCV領域画像のためのブロック分類時において行うことで効率化がはかられる。このことでハードCV領域画像生成ソフトCV領域画像生成の区別が曖昧となる。
以下はソフトCV領域画像生成の一部としてハードCV領域画像生成が位置づけられている。ただし、この位置づけにより各実施形態の構成が統合されるのみであり、矛盾は存在しない。
基本設計1について、図49には対象物CV領域画像結合画像の構成を示す。
同図に示す基本設計1は、画像取得装置501、一次ソフトCV領域画像生成装置502、二次ソフトCV領域画像生成装置503、ソフトCV領域画像結合装置504からなる。
この基本設計1にCV演算装置505を付加した基本設計2を図50に示す。基本設計2は、基本設計1にCV演算装置を追加している。
CV演算については、経過の過程で演算することになるが、最初にCV演算を済ませ、画像を代表する座標系に関するCV値を持っていることはその後に処理に有益である。
基本設計3を図51に示す。
同図に示すように、輪郭線抽出装置506と輪郭線認識装置507とを追加して、視覚的な輪郭を明確にすることと、輪郭線を認識し、輪郭線が接するコーナーを検出し、対象物を認識する機能を追加する。
また、得られた輪郭線と一次ソフトCV領域画像又は二次ソフトCV領域画像として得られたソフトCV領域画像の境界線と比較し、境界線情報として利用することが可能である。
以下に、本発明において重要な核技術となる一次ソフトCV領域画像生成装置と二次ソフトCV領域画像生成装置について、図52を参照しつつ説明し、さらに、ソフトCV領域画像分割画像生成装置の好ましい実施例について説明する。
[一次ソフトCV領域画像生成装置]
図52に示すように、まず、一次領域生成装置502では、ハードCV領域画像(ブロック)分割部521によって、先ず基準とする画像をハードCV領域画像(ブロック)に分割する。
生成された画像ハードCV領域画像(ブロック)のすべてに関して、ハードCV領域画像(ブロック)分類部によって各ハードCV領域画像(ブロック)は自己相関演算を行い、特徴ハードCV領域画像(ブロック)となり得るハードCV領域画像(ブロック)が抽出される。
自己相関値が十分大きなピークを持つ場合の特徴ハードCV領域画像(ブロック)として分類される。
特徴ハードCV領域画像(ブロック)はそのまま隣接する他のフレームに亘り追跡することが可能であり、この特徴ハードCV領域画像(ブロック)を追跡してCV演算を行うことができる。
また、図53〜図57に示すように、特徴ハードCV領域画像(ブロック)となる画像ハードCV領域画像(ブロック)は、さらに境界線の一部となり得るハードCV領域画像(ブロック)205と、孤立した特徴ハードCV領域画像(ブロック)206となる特徴ハードCV領域画像(ブロック)とに分類される。
図53は、湧きだし点基準を同時に採用した画像分割の一例を示している。CV値基準においては絶対条件ではないが、湧きだし点基準の分割をすることは演算上有利である。
さらに、上記の特徴ハードCV領域画像(ブロック)以外は、ハードCV領域画像(ブロック)内にピークを持たないが、ハードCV領域画像(ブロック)端でピークを持つような境界線となり得る境界ハードCV領域画像(ブロック)208と、相関値が閾値より低い場合のソフトCV領域画像内ハードCV領域画像(ブロック)207として、そのソフトCV領域画像点が抽出される(図53〜図57参照)。
この特徴ハードCV領域画像(ブロック),境界点,ソフトCV領域画像点を三種の点要素と呼ぶ。
図54に、全ハードCV領域画像(ブロック)について特徴ハードCV領域画像(ブロック)、境界点、ソフトCV領域画像点を定義して分類したものを示す。
図54(a)は、湧きだし点基準を採用して、画像をハードCV領域画像(ブロック)に分割した場合の一例を示す。図54(b)は、各ハードCV領域画像(ブロック)を自己相関により、3種類のハードCV領域画像(ブロック)に分類した状況を示す。
図55(a)は、特徴ハードCV領域画像(ブロック)を境界線上にある場合と孤立した場合をさらに分類して示した。図55(b)は、分類を基準画像に重ねて示した。
図56(a)は、分類したハードCV領域画像(ブロック)だけを示し、図56(b)は、特徴ハードCV領域画像(ブロック)を連結することでソフトCV領域画像及びソフトCV領域画像内部を生成する状況を示す。塗り分けられた領域がソフト領域である。
図56におけるハードCV領域画像(ブロック)は、図52のソフトCV領域画像ゴム紐結合部524において、ゴム紐結合され、図57に示すように、それぞれのハードCV領域画像(ブロック)はその配列順番を変えずに自由に距離関係を変更できるように結合される。
図57にはその二次元ゴム紐結合状況が示してある。
なお、画像ハードCV領域画像(ブロック)は単純に長方形のハードCV領域画像(ブロック)に分割することでも、特徴ハードCV領域画像(ブロック)、境界線上拘束ハードCV領域画像(ブロック)、ソフトCV領域画像内ハードCV領域画像(ブロック)分類は可能である。
もし、画像ハードCV領域画像(ブロック)分割が長方形のような単純分割である場合には、ゴム紐結合はハードCV領域画像(ブロック)の順番を変えずに、垂直水平両方向へのゴム紐結合が必要となる。これは次のソフトCV領域画像追跡処理で大きな効果を発揮する。
以上のように、一次ソフトCV領域画像生成装置では、機械的に分割した画像ハードCV領域画像(ブロック)が、画像の中の対象物の形状に則したソフトCV領域画像に分割されたことを意味する。
[二次ソフトCV領域画像生成部]
図52に示すように、二次領域生成装置503のソフトCV領域画像追跡部531は、ソフトCV領域画像の形状を柔軟に保ったまま、既に特徴ハードCV領域画像(ブロック)及び境界線上拘束ハードCV領域画像(ブロック)は一次ソフトCV領域画像として扱われ、湧き出し点方向に、隣接する複数のフレームの中に追跡することで、ソフトCV領域画像追跡が可能となる。
ソフトCV領域画像形成が不完全なところは、輪郭線検出装置506及び輪郭認識装置507からの追加情報でより完全な輪郭を形成できる。
一つの一次ソフトCV領域画像を追跡する場合には複数の特徴ハードCV領域画像(ブロック)が含まれるソフトCV領域画像を扱うことになり、ソフトCV領域画像単位での追跡が可能となる。
実際には特徴ハードCV領域画像(ブロック)を追跡することになるが、ゴム紐結合により、ソフトCV領域画像全体か伸び縮みしながら追跡され、対応ソフトCV領域画像が求められる。ここで、ゴム紐はソフトCV領域画像境界で切断され易く結合させている。強い力が掛かればゴム紐はソフトCV領域画像境界線で切断される。
また、ソフトCV領域画像境界の一部に大きな変更が成されるような作用が生じた場合には、ゴム紐がソフトCV領域画像境界で切断され、次にソフトCV領域画像としてではなく、元の個々の画像ハードCV領域画像(ブロック)に戻って再追跡することで、画像全体をもれなく追跡処理を行う。
結果として、ゴム紐で結合されたままのソフトCV領域画像群とゴム紐が切断されたソフトCV領域画像群とから画像が構成されることになる。
さて、それでもまだ追跡誤差が存在するのが一般的である。
そこで、補正ソフトCV領域画像検出部532において、追跡誤差を減少するように、基準画像のソフトCV領域画像追跡結果から隣接するフレームの順番で画像を進行させた適切な比較フレームにまで画像を進行させ、基準フレームのソフトCV領域画像と追跡データ(TV値)(追跡データ)から前記比較フレームに対応する画像を生成し、前記比較フレームと比較する。
追跡データ(TV値)(追跡データ)が正しければ、二者は完全に一致するが、追跡データ(TV値)(追跡データ)に誤差が含まれれば、ソフトCV領域画像にずれが生じる。そこでその差分を取るなどして、誤差を検出し、誤差の発生するソフトCV領域画像を誤差範囲として決定する。
再追跡補正部533では前記誤差範囲において、特徴ハードCV領域画像(ブロック)抽出からやり直す。誤差範囲においては特徴点を多く検出し、再追跡することで、詳細な特徴点を取得する。基準画像だけではなく、前記比較画像において特徴点検出を再度行い、追跡処理することで、ソフトCV領域画像を修正し、正しい追跡データ(TV値)(追跡データ)を取得することができる。
二次ソフトCV領域画像決定部534においては、上記の様にして求められた追跡データ(TV値)(追跡データ)をもつ二次ソフトCV領域画像として次の行程に出力する。
以下、図52を参照して、本発明に係る画像処理を用いたソフトCV領域画像分割画像生成装置の実施例について、各部の機能、処理動作とともに詳細に説明する。
まず、画像取得装置501において、動画像取得部511は、ビデオカメラ等で動画像を取得して記録する。この場合広角画像を必要とし、狭角画像の場合は、一体化された狭角レンズを持つカメラによる画像と共に広角レンズを付けた画像とを同時に取得する。
次に、基準画像指定部512は、得られた動画像の中から以後の処理の基準となる静止画を基準画像として選択する。これはとりあえず最初の画像を基準画像とする。
CV演算装置505においては、CV演算部551が、扱う動画像の全てに、取得した各フレームを代表する座標系とカメラ位置との関係を示すCV値を求めるCV演算を行う。CV値は取得した画像のカメラ位置と姿勢の関係を示す6自由度のパラメータを持つ。
次に、CV画像変換部552は、各画像フレームについて、取得されたCV値を付加したCV画像を生成する。
さらに、追跡範囲指定部553が、後の処理を効率的に行うために画像各点の追跡方向と範囲を制限する。
一次ソフトCV領域画像生成装置502においては、ハードCV領域画像(ブロック)分割部521が、基準画像の画像フレームに関し、画像全体を若しくは、必要部分を単純に微少のピクセルからなる複数のハードCV領域画像(ブロック)に分割する。
ハードCV領域画像(ブロック)は縦11ピクセル、横11ピクセル程度とする。
次に、ハードCV領域画像(ブロック)分類部522が、複数のハードCV領域画像(ブロック)の全てを、境界線上特徴ハードCV領域画像(ブロック)、孤立特徴ハードCV領域画像(ブロック)、境界線上拘束ハードCV領域画像(ブロック)、ソフトCV領域画像内ハードCV領域画像(ブロック)、未特定ハードCV領域画像(ブロック)、の何れかに分類する。
ハードCV領域画像(ブロック)は自己相関を演算し、取得された二次元の相関値において二次元相関値の内部に独立したピークを持つものを特徴ハードCV領域画像(ブロック)とし、ピークは有るが二次元相関値の縁に偏っているハードCV領域画像(ブロック)については、境界線上拘束ハードCV領域画像(ブロック)とし、差異のあるピークを持たないハードCV領域画像(ブロック)はソフトCV領域画像内ハードCV領域画像(ブロック)とし、その他ノイズの大きいハードCV領域画像(ブロック)については未特定ハードCV領域画像(ブロック)として分類する。
次に、一次ソフトCV領域画像生成部523が、特定線状特徴ハードCV領域画像(ブロック)と境界線上拘束ハードCV領域画像(ブロック)と、からソフトCV領域画像を生成する。若しくはそれに未特定ハードCV領域画像(ブロック)を加えて最適なソフトCV領域画像を生成する。
さらに、ソフトCV領域画像ゴム紐結合部524が、各ハードCV領域画像(ブロック)をゴム紐結合で処理する。各ハードCV領域画像(ブロック)を柔軟に結合し、その配列順番を変更しないで距離関係に多少の変更のゆとりを与えた結合方法をゴム紐結合という。
ここまでは画像をハードCV領域画像(ブロック)化し、そのソフトCV領域画像を決めただけであり二次元情報しか持たない。
次に、二次ソフトCV領域画像生成部503において、まず、ソフトCV領域画像追跡部531が、ゴム紐結合された前記各ハードCV領域画像(ブロック)の中の前記境界上特徴ハードCV領域画像(ブロック)及び境界線上拘束ハードCV領域画像(ブロック)を隣接する複数の画像フレームに亘って追跡し、対応点を求めることでソフトCV領域画像追跡する。
次いで、補正ソフトCV領域画像検出部532が、追跡したソフトCV領域画像に対応する隣接フレームのソフトCV領域画像及びその近傍における誤差を検出し、その誤差の発生範囲を求める。誤差の発生範囲に入る全ハードCV領域画像(ブロック)について、基本画像を変更して前記範囲についてハードCV領域画像(ブロック)化する。
次に、再追跡補正部533が、基準画像、若しくは新たな基準画像のフレーム以外の隣接する他の画像フレームに亘って追跡して、境界線上特徴ハードCV領域画像(ブロック)、孤立特徴ハードCV領域画像(ブロック)、境界線上拘束ハードCV領域画像(ブロック)、ソフトCV領域画像ハードCV領域画像(ブロック)、未特定ハードCV領域画像(ブロック)、の何れかに分類し、前記誤差範囲ではゴム紐結合を解除して再度追跡し、追跡データを取得する。
誤差の発生部分の範囲はゴム紐結合を解除して、各ハードCV領域画像(ブロック)単位で追跡をする。
隣接するハードCV領域画像(ブロック)が連続するハードCV領域画像(ブロック)と、関係が不連続のハードCV領域画像(ブロック)を選別することができる。この作業で全ての二次ソフトCV領域画像に関して、各ソフトCV領域画像の境界線を共通とする部分と、又は共通としない部分に分類する。
再度追跡により誤差の発生範囲を再度詳細に追跡して、誤差の少ないソフトCV領域画像が生成される。このようにすることで画像全体のハードCV領域画像(ブロック)が何らかのソフトCV領域画像に所属し、何らかの種類別に分類されることになる。
ソフトCV領域画像は境界線を含み、境界線は隣接するソフトCV領域画像と共有することになる。そこで一つのソフトCV領域画像には複数の特徴ハードCV領域画像(ブロック)を持つことから、各ソフトCV領域画像は複数の追跡データ(TV値)(追跡データ)を持つことになる。
また、未特定ハードCV領域画像(ブロック)のみで特徴ハードCV領域画像(ブロック)画を持たないソフトCV領域画像であっても、ソフトCV領域画像自体が一つの追跡データ(TV値)(追跡データ)を持つことになる。
これら追跡データ(TV値)(追跡データ)をもつソフトCV領域画像を二次ソフトCV領域画像と定義する。
これら二次ソフトCV領域画像を二次領域決定部534で決定する。
次に、ソフトCV領域画像結合装置504においては、まず、ノイズ消去部540が、取得された二次ソフトCV領域画像に関して、取得された各ソフトCV領域画像の追跡データ(TV値)(追跡データ)から、フレーム間のソフトCV領域画像対応が完全にできたことになり、画像の平均化や、重ね合わせが可能となる。そこで各フレームの対応する複数ソフトCV領域画像を加算平均等によりノイズリダクション(ノイズ消去)を行う。
ノイズ消去には線形処理である加算平均処理以外にも、非線形処理として多数決テクスチャー決定法を提案できる。この方法はテクスチャーを平均で決めるのではなく、複数フレームで最も共通性のあるソフトCV領域画像のテクスチャーを共通のテクスチャーとする方法である。
あるいは複数の適正テクスチャーを選択し、その加算平均をとることができる。これは請求項26に記載した発明にかかる技術である。
このとき、輪郭線は一致しているのでぼけることはない。
また、RV演算部541で、各ソフトCV領域画像の追跡データ(TV値)(追跡データ)から、視点変更した仮想カメラの位置及び姿勢の三次元関係意味するRV演算を行う。
ここで、フレームに対してのカメラ位置を求めることをCV演算と定義したが、各フレーム内の各二次ソフトCV領域画像はやはり独自のCV値を持つことになる。しかし一般にフレームを代表する静止座標であればCV値は同一であるが、移動する物体についてはその移動する物体を構成する画像のソフトCV領域画像がそれぞれ独自のCV値と特徴ハードCV領域画像(ブロック)との関係を持つことになる。
最終的には、フレームを撮影したカメラとソフトCV領域画像を撮影したカメラは同一カメラなので、代表する座標系に関してはカメラ位置を示すCV値は一致することになる。
また、一致するカメラ位置となる二次ソフトCV領域画像の位置と姿勢を求めることで、ソフトCV領域画像の動きが三次元的に6自由度で表現できることになる。
ソフトCV領域画像が基準画像のフレームが代表している座標系に所属していない場合、例えば人間が静止座標中を歩いて移動する動きのように、人間の各部分が別々に移動して形としては統合されている対象を二次ソフトCV領域画像に分割して、それぞれのCV値が一致する各特徴ハードCV領域画像(ブロック)を求めることで、人間の形状の時間変化を追ってその画像を表現できることになる。
また、境界線再構成部542が、動画として連続して変化する画像を複数の二次ソフトCV領域画像の移動として解釈し、結合した二次ソフトCV領域画像を一体の対象物とし、あるいは分割した対象物として再分割する等して、適切なソフトCV領域画像の結合体に再構成する。
さらに、結合ソフトCV領域画像生成部543が、変更CV演算により取得された二次ソフトCV領域画像を適切に結合して画像を再構成する。
次に、輪郭線検出装置506においては、基準画像の画像フレームに関して、ソフトCV領域画像を構成する境界線とほぼ同じ意味を持つ画像中の輪郭線を抽出して、ソフトCV領域画像を構成する境界線の情報として加えることでソフトCV領域画像生成の精度を高めるために、輪郭線抽出部561が、エッジ強調等の処理により、画像中の対象物の不完全な輪郭線を抽出する。
また、ベクトル細線化部562が、輪郭線を方向別直線、曲線、等に分類しながら適切に分割し、それぞれを細線化処理し、ベクトル化する。
エッジ強調等の処理においては、画像の明るさや色の変化を抽出するので、変化を検出する閾値によって、得られるエッジ情報が異なる。閾値を下げればエッジが求めやすいが、ノイズの影響をノイズの中にエッジが埋もれてしまう。そこで閾値は高めに設定し、そこで取得されたノイズの少ないエッジから不完全な輪郭線を求める。この場合輪郭線は完全に閉じた線とならずに、切れ切れになることが多い。
そこで、その切れ切れの端点において、輪郭線のベクトルの線上を延長し、その延長線上にはさらに輪郭線がある可能性が高いという予想の下に、閾値を下げて、再度エッジ検出を行う。また動画であることから、同じ処理を他の隣接するフレームにおいても行うことで、エッジ検出の確率を上げ、その結果としてより完全な輪郭線を検出できる。
このために、可変閾値処理部563により輪郭線検出閾値を下げる処理を行う。
さらに、輪郭線延長部564において、閾値を下げた端点の延長上で輪郭線を再検出し、対象物の輪郭線を延長させ、延長輪郭線を取得する。
ここで、取得された輪郭線は画像の視覚的な意味合いが強い。輪郭線は細線化され、テクスチャーや視覚的輪郭線を決定し、画像のボケを修正し、視覚的エッジを生成する。また、PRMによる認識では、画像はCGと対比されることが多いので、生成された細線の輪郭線が意味を持つ。
一方、ソフトCV領域画像境界線は画像処理場の特徴ハードCV領域画像(ブロック)の存在する場所であり、座標に関する演算上重要な場所である。座標として保証されているのは輪郭線ではなく、境界線である。
境界認識装置507においては、要素認識部571が、輪郭線、及び延長輪郭線に関して、得られた輪郭線から、それらを直線、線分、曲線、T字コーナー、L字コーナー等の各要素に分類して認識する。
対応する各要素を部品として用意し、それらと対比して、対応する要素を決定し、認識する。認識技術には、本願発明者の提案によるPRMを利用することができる(特開2000−295611号、国際公開WO02/01505号参照)。
要素認識部571では、部品との比較により、要素の認識がなされるか、それら要素は対象物の一要素であることから、要素の複合体である対象物の認識が可能となる。
次に、対象物認識部575において、複数の要素認識とそれら構成要素の組み合わせにより、対象物を認識する。対象物を認識したことで、輪郭線は対象物に属するもののみで構成することができる。この情報はソフトCV領域画像結合装置504に送られる。
また、要素追跡部572は、各要素を隣接するフレームに追跡して、対応点を確認し、追跡データを取得する。
次いで、隣接輪郭線補正部573が、追跡により、誤差の発生する範囲を求め、その範囲において、誤差の顕著な画像フレームを基準画像として、再度輪郭線検出から再演算することで精度を高め、対象物の輪郭線をより完成に近づける。
さらに、輪郭線規定部574が、取得されたより精度の高められた輪郭線により、一つの輪郭線に囲まれた範囲を仮に規定する。
以上により、各部品により認識された輪郭線は、ソフトCV領域画像の一部分か、若しくは輪郭線の一部分がソフトCV領域画像となる。互いに補うことで、より完全なソフトCV領域画像を生成することができる。
また、認識が済んでいるので、一つの対象物に属するソフトCV領域画像のみを分離することが可能となる。
また、PRMにより、画像中の対象物のいくつかが対象物認識まで進み、その三次元位置も決定されることになる。ソフトCV領域画像の三次元位置の演算は変更CV演算部と重複するが、座標取得手段を複数持つことは一般的に好都合なことである。
なお、本実施例では、輪郭検出装置及び輪郭認識装置を対象物認識と画像のテクスチャー生成を主目的としているが、本来的には輪郭線抽出とソフトCV領域画像境界線検出とは同じ目的であって良い。
対象物認識された場合は、画像中の対象物を自動的にCGと入れ替えることができる。実際にそのような需要は多い。
例えば、道路走行画像中の道路標識、看板、路面標示、等を自動的に認識し、自動的にCG化し、分類し、属性を与え、画像中に自動表示することは既に人工知能応用の範疇にはいるが、道路管理上きわめて有効である。
[実施例2]
次に、本発明のCV値基準及び湧きだし点基準CV領域画像前置装置の実施例2として、カーナビゲーションを目的とした画像データベースを念頭に置き、CV値基準湧きだし点基準CV領域画像前置装置の最も単純化された実施例として、「ハードCV領域画像生成装置」と、「ハードCV領域画像生成装置を用いた座標系分離装置」の実施例を示す。
本実施例2は、上述した本願発明者による特願2004−364223号の「座標系分離記録再生装置」に対しても、一つの解決手段を追加するものとなる。
本実施例に係るカーナビゲーションにおいて特徴的な点は以下のとおりである。
(1)揺れ止めした湧きだし点基準によるCV画像における座標系分離装置は、本願発明者の提案による特願2004−364223号の「座標系分離画像圧縮再生装置」において既に示され、その実施例では揺れ止め処理をした画像を必要としているが、本発明ではわざわざ揺れ止めせずに、しかも湧きだし点も検出すること無しに、座標系分離を実現し、しかも画像圧縮を実現しようとするものである。
(2)全周カメラを積載した車両から全周動画像を取得し、座標系分離をする過程で、代表座標系を静止座標系とする。
(3)そのときに、座標系分離された静止座標系以外は破棄してもまったく問題がないばかりでなく、破棄することになるのは静止座標系以外の対象物である走行する車両等であり、カーナビゲーションには不必要なものであることから、代表座標系のみを座標系分離し、他の座標系として取得された信号は全てノイズとして破棄される。
以上のような特徴を有する本実施例のカーナビゲーション応用の「ハードCV領域画像生成装置を備えた座標系分離装置」について、図58〜図59を参照しつつ、以下詳細に説明する。
[詳細説明]
上述した知識と理解を前提として、以下の実施例を説明する。なお、送信受信再生のプロセスと、記録解凍再生のプロセスは基本的に同じことであり、ここでは区別せずに伝送受信再生としてのみ説明する。
図58A及び図58Bに具体的例を示す。
ここで対象となる動画の元画像は、図58A中の符号301、302、・・・・・307、・・・・と連続する連続静止画から構成される動画である。
この元画像をCV演算して、各フレームに対応させたCV画像を生成する。
元画像の各フレームに対応したCV値とTV値は、各フレームに対応してCVx、TVxとして図中に示してある。
元画像の最初のフレームを基準画像として扱い、基準画像を静止画伝送装置341で伝送し、受信側でも基準画像361として扱う。
また、差分検出装置352で元画像が途中で不連続に大きく変化したと判断されたときには、変化後の最初のフレーム317を静止画伝送し、新たな基準画像367と再設定する。あるいは、直前の画像との差分を送り、基準画像とすることもできる。
ここでまず、301〜305までを一区切りの座標系分離区間(セグメント区間)として、この一区切りをセグメントといい、その区間をセグメント区間という。
湧きだし点基準においては直線近似できる区間が制限となったが、CV値基準ではセグメント区間の原理的制限は特になく、データの取得、誤差修正、及び保存の制限から決められることになる。
上述した本発明の実施形態で示したハード領域画像分割装置8(図24及び図26参照)により、元画像301〜305までの全画素追跡(又は全ブロック追跡)することで、各フレーム画像の追跡データとCV値を持つ324を取得する。
ここで、324は301から305までの総合追跡量である。
図58Aに示すように、追跡可能な範囲で最大追跡フレーム数となるように305を選択することが望ましい。実際問題としては、カーナビゲーション用の道路画像を想定した場合、500〜1000フレーム程度の基準移動ライン設定が可能と考えられる。
また、送信するデータとしては、基準画像の最終フレーム画像の座標と位置関係を示すCV値、各CV領域画像のTV値、差分信号、差分信号から生成されたTV値である(後述する図59に示す記録データ構造参照)。
なお、受信側での画像再構築のためには共通のセグメント区間を約束しなければならないが、それは上述した基準画像の最終フレーム画像の座標と位置関係を示すCV値から直ぐに取得できるので特に送信の必要はない。
最終的に伝送信号となるのは送信VDとして、最終的に送信される有効データは、以下のように整理される。
(1)基準画像(301、306・・・・・)
(2)基準画像とセグメント最終画像のCV値、及びTV値。
(3)セグメント区間の最終画像における生成画像と実画像との差分画像。
(4)基準画像に含まれないCV領域画像としての差分画像のCV領域のTV値。
この例はセグメント区間内の途中の画像フレームは全て省略され、フレームレートの指定もない。再生時に自由にフレームレートを指定することになる。
また、再生側では、送られた上記VD情報から視点移動も可能となる。
図58A中、差分画像351は送信側においてTV画像から生成したCV領域画像と元画像との差分である。差分画像によりトラッキングミスが多少有っても修復可能であり、有効である。
なお、図58Aにおいては、処理の過程をフレーム画像の進行とともに記載して説明したが、同図において、太枠は伝送情報であり、図中太枠で示した伝送情報は結局、311、324、351のみである。
ところで、画像データは311と351であり、324は画像データではなくVDであることが重要である。
この処理により、この間のフレーム数500〜1000は全て省略されることになる。これはかなりの画像圧縮率となる。
また、基準画像及び差分画像の伝送は、従来技術のJPEG等の圧縮技術を併用できるので、総合的にはかなりの圧縮率となる。
各フレーム間で求められたCV値は代表する座標系を示すので、一般には静止座標系となる。このCV値を通限り、TV値を解析し、静止座標系を分離したことになる。
一方、静止していない座標系は一括追跡ができないことになる。静止していない座標系を取得するには、ここでは静止座標系のみのCV値に着目したので移動体はノイズとして削除されてしまう。つまり、カーナビ仕様には移動体が削除された方がよい結果を生み出すことになる。
一方、座標系は相対的であり、どの座標系も物理的に本質的区別はできない。そこで移動する対象物の座標系を分離するには、移動する座標系のCV値を求める必要がある。CV値の求め方は静止座標系の場合とまったく同じである(図1〜図13及び該当説明参照)。
次に、差分信号について説明をする。
図58Aに示すように、基準フレームのCV値及びTV値から、逆追跡をして揺れ止めCV画像314を生成することができる。
その結果得られたCV領域画像331とする。331は座標系分離及び追跡時の誤差を含んでいるので、一般には正しく揺れ止めCV画像314が生成されない。
そこで、生成CV画像331と生成目的の揺れ止めCV画像314の差分を、差分信号351として求める。
生成CV画像331と差分CV画像(差分信号351)とから誤差のない補正CV画像365を生成することができる。これは原理的に基となっている揺れ止めCV画像314に対応する画像である。
さて、信号を伝送する場合にはできるだけ小さいデータ量で送ることが適切であるので、生成CV画像331を伝送することは適切ではない。
そこで、331は送らずに、361と324から受信再生側で生成CV画像331を生成して再生するのが適している。
図58Aに太枠で示した伝送信号として361、324、351から、受信再生側で365、また、図58Bに揺れ成分まで再現した画像として371〜377を示してある。なお、図58B中、破線で囲んだ部分が図58Aに相当する部分である。
このとき、揺れ止めしない撮影時の揺れ成分に忠実な元画像を伝送するには、位置と湧きだし点情報として、321〜326を伝送してもよい。
さらに、図58A中、324のVD値から何時でも中間フレーム画像362〜364のさらに中間フレームをも生成することができる。
ここでは中間のCV値は全て省略されているので中間フレーム画像はCV値を均等配分した画像となり、元画像とは微少分そのCV値が異なる。
その差は微少で、一般には視認しにくいが、視認できたとしても、CV値が均等配分された画像の方が揺らぎも揺れも無くなり、視覚的にはより見やすくなると言う実に都合の良い効果を生み出す。
もし、揺れまで含めて中間の正しい画像が必要な場合は、各フレームに相当するCVを全て送ればよい。このことによるデータ量の増加は微々たるものである。
受信側では、代表座標系の画像を再生できることになる。
中間フレームのフレーム数を自由に設定できることが特徴である。
また、画像に映り込んだ歩行者や走行車両は、代表座標系には含まれないので、ノイズとして扱われることになる。
図58Aでは、306以降のフレームについては、再度基準画像を用意して、上述した301からの処理と同じ処理を繰り返すことで、切れ目の無い動画像全体を送信することができる。
また、座標系分離した代表座標系以外の物体、例えば画像に映り込んだ歩行者や走行車両は、全て削除できることになる。
図59には、本実施例の記録データ構造を示す。
セグメント区間は、フレーム画像としては基準画像としての最初の301のみ送り、最後の307におけるTV値生成画像との差分のみ差分画像351と、そのTV値を送る。
CV演算時は隣接画像間のCV値として求めているが、記録データとするときは省略するフレームを飛び越えて基準画像301とセグメント最終画像307間のCV値を記録することになる。それは単純に両者のCV値の差を取って、基準画像301のCV値に加えればよい。
セグメント区間は、CV値は301と307の関係を示す一個のみ。TV値は基準画像361に付加したTV値と、基準画像361には含まれていないが、セグメント最終画像には含まれる部分の差分画像351に対するTV値のみである。
CV値はセグメント区間全域を示すCV値を持つが、撮影時のフレームを再現する必要が有れば、各フレームにCV値を持つことが相応しい。この分で増加するデータ量は微々たるものである。
基準画像301には含まれていないが、セグメント最終画像には含まれる追加CV領域画像分は、必ずしも差分画像351そのものではないが、差分画像351にはその大部分が含まれるので、差分画像351から生成することになる。TV値が重複することは何ら問題がない。
また、差分画像351の一部に付加したTV値は、基準画像301に付加したTV値とは逆方向のTV値となる。
受信再生側では、中間の全ての画像、及び視点変更画像は基準画像301と差分画像351を元として、全てのフレームの画像をこれらのVD値から生成する。
CV値とTV値とは受信側のセグメント区間で自由に比例配分される。毎秒のフレーム数の指定はないから、自由なフレーム数を表現できる。
[実施例3]
さらに、本発明のCV領域画像前置装置の実施例3として、カーナビゲーションを目的とした画像データベースを念頭に置き、CV領域画像前置装置の最も単純化された実施例として「視点変更機能の追加」の実施例を示す。
[視点変更機能の追加]
上述した実施例2では、画像圧縮を主目的とした元も簡略化したカーナビ対応のハードCV領域画像生成装置について述べた。
本実施例では、これを発展させ、視点変更装置を設置して、視点移動をも可能としたものである。ここでは、CGのように視点変更可能な装置を念頭に、図58及び図60を参照しつつ、以下説明する。
また、本実施例では、視点移動も可能とすることで、撮影時の画像から、隣接車線への車線変更表示や高さ変更表示ができるナビゲーションへの応用も含めた多目的の装置であるということができる。
図58Aに示すように、301〜304、305の元画像をCV演算し、全フレームにCV値を付加する。
CV演算の結果として、回転成分の差分CV値dθx,dθy,dθz、位置成分の差分CV値dx,dy,dz、及びこれらCV値からCV画像の最初のフレーム431は従来方法で静止画圧縮されて基準画像361として送られる。
CV画像301、302・・・・・、305をそれぞれ画像領域分割して小領域に分割する。ここでの分割の方法としては矩形ブロックとして分割するハードCV領域画像としている。それはすなわち、CV領域画像そのものである。
従ってCV領域画像そのものを使うことでよい。
さらに、図60では、すべてのフレームのCV値を自由に変更し、視点変更画像501、502、・・・・・507とすることが可能である。
この時、画像は二次元にも係わらず、二次元の制約を完全に離れて、あたかもCGのように三次元画像としての自由視点を得ることができるのである。
そしてこの意味は、画像圧縮装置としてのみならず、視点変更装置、三次元形状生成装置としての意味を持つことは特記すべきで重要な事実である。
また、ここでは伝送、受信再生として画像圧縮を説明したが、記録、解凍再生としてもまったく同様に説明できることは明らかである。
ここで具体的応用例として、車両に積載して走行しながら撮影した動画像を元画像とし、座標系として静止座標系一つのみを選択し、移動体信号を破棄することで、動画像から静止座標系のみを選択的に取得することができる。
つまり移動する車両や歩行者を削除し、道路や周のビルや伝習等のみの画像とすることができるのである。産業上このような用途は多く存在している。
以上、本発明のCV値基準一括追跡装置と、CV領域画像前置装置及びこれを利用した各装置について、好ましい実施形態を示して説明したが、本発明は、上述した実施形態にのみ限定されるものではなく、本発明の範囲で種々の変更実施が可能であることは言うまでもない。
本来二次元情報である画像から三次元情報を求めるには、関連する複数の画像から対応点を求める技術が必要である。それを基本的に解決したのが、本願発明者の提案によるCV演算法である(特開2005−295495号)。高精度のCV演算が確立すれば実測することなく、画像のみからの測量が可能となり、その産業に与える影響は多大である。
本発明は高精度の追跡方法を実現することにより、高精度CV演算手法を確立し、演算時間の掛かる相関やマッチング等の処理を用いないので、演算時間の短縮を可能とし、画像処理技術分野、及び未来産業に新たな可能性を付加するものであると確信する。
また、この技術は本願発明者の提案によるPRM(特開2000−295611号、国際公開WO02/01505号参照)におけるCG部品と画像の対応処理にもそのまま利用できるので、将来の人工知能技術にも貢献することが期待される。
本発明は、例えば、自動車に搭載されるカーナビゲーション装置に備える地図や映像を表示・更新するための映像装置として、また、道路や河川の監視システムとして好適に利用することができる。
また、本発明は、三次元カメラとしての産業的な利用が期待される。すなわち、画像を動画映像として一旦取得し、それを本発明によって座標系分離し、記録し、その記録データを解凍し、座標系単位で再生し、座標統合し、視点移動可能な映像として表示することで、新時代の三次元カメラとして産業的に広範囲に利用することができる。
本発明のCV値基準一括追跡装置のCV画像取得部として機能するCV演算部の一実施形態の基本構成を示すブロック図である。 図1に示すCV演算部で使用する全周ビデオ映像を撮影する手段を示す概略図であり、屋根部に全周カメラを搭載した車輌の斜視図である。 図1に示すCV演算部で使用する全周ビデオ映像を撮影する手段を示す概略図であり、(a)は屋根部に全周カメラを搭載した車輌の正面図、(b)は同じく平面図である。 全周カメラで撮影される映像から得られる変換画像を示す説明図であり、(a)は球面画像が貼り付けられる仮想球面を、(b)は仮想球面に貼り付けられた球面画像の一例を、(c)は(b)に示した球面画像をメルカトール図法に従って平面展開した画像を示している。 本発明の一実施形態に係るCV演算部における具体的なカメラベクトルの検出方法を示す説明図である。 本発明の一実施形態に係るCV演算部における具体的なカメラベクトルの検出方法を示す説明図である。 本発明の一実施形態に係るCV演算部における具体的なカメラベクトルの検出方法を示す説明図である。 本発明の一実施形態に係るCV演算部によるカメラベクトルの検出方法における望ましい特徴点の指定態様を示す説明図である。 本発明の一実施形態に係るCV演算部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。 本発明の一実施形態に係るCV演算部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。 本発明の一実施形態に係るCVデータ演算部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。 本発明の一実施形態に係るCV演算部において、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行う場合を示す説明図である。 本発明の一実施形態に係るCVデータ演算部求められたカメラベクトルの軌跡をビデオ映像中に表示した場合の図である。 本発明における湧きだし点の概念を示すための説明図である。 本発明の一実施形態に係るCV値基準一括追跡装置の基本構成を示すブロック図である。 本発明のCV値基準一括追跡装置におけるCV基準一括追跡方法の基本原理を説明するための説明図である。 本発明のCV値基準一括追跡装置における関数特徴点の検出方法を説明するための説明図である。 本発明のCV値基準一括追跡装置における関数特徴点の検出方法を説明するための説明図である。 本発明のCV値基準一括追跡装置における関数特徴点の検出方法を説明するための説明図である。 本発明のCV値基準一括追跡装置における関数特徴点検出装置の基本構成を示すブロック図である。 本発明のCV値基準一括追跡装置における関数特徴点の追跡方法を説明するための説明図である。 本発明のCV値基準一括追跡装置における関数特徴点の追跡方法を説明するための説明図である。 本発明の高精度CV演算装置の一実施形態の基本構成を示すブロック図である。 本発明のリアルタイム高精度CV演算装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置の一実施形態の基本構成を示すブロック図である。 図23に示すCV領域画像前置装置における、ハードCV領域画像生成のための構成の詳細を示すブロック図である。 図23に示すCV領域画像前置装置における、ハードCV領域画像生成のための構成の詳細を示すブロック図である。 図23に示すCV領域画像前置装置における、ソフトCV領域画像生成のための構成の詳細を示すブロック図である。 図23に示すCV領域画像前置装置における、対象物CV領域画像生成のための構成の詳細を示すブロック図である。 本発明のCV領域画像前置装置を用いたCV領域画像表示装置の一実施形態の基本構成を示すブロック図である。 図28に示すCV領域画像表示装置のCV領域画像再結合部における再結合処理を説明するためのブロック図である。 本発明のCV領域画像前置装置を用いたCV領域画像データベース装置の一実施形態の基本構成を示すブロック図である。 図30に示すCV領域画像データベース装置の応用展開例を示す説明図である。 本発明のCV領域画像前置装置を用いた視点変更装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置を用いたCV領域画像CG合成装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置を用いた三次元形状生成装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置を用いた画角拡大装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置を用いたロックオン表示装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置を用いた座標系分離装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置を用いた座標系分離装置の一実施形態におけるCV値基準による座標系分離方法を説明するための説明図である。 本発明のCV領域画像前置装置を用いた画像部分更新装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置を用いたオルソ画像生成装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置を用いた画像高解像度化装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置を用いた運動抽出・解析装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置を用いたCV領域画像検索装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置を用いたノイズリダクション装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置を用いた対象物認識装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置を用いた位置決め装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置を用いた複合人工知能記憶装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置を用いたCV領域画像によるCVタグ入出力検索装置の一実施形態の基本構成を示すブロック図である。 本発明のCV領域画像前置装置の実施例1の「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」の基本構成を示すブロック図である。 図49に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」にCV演算装置を追加した構成を示すブロック図である。 図50に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」に輪郭線抽出装置と輪郭線認識装置を追加した構成を示すブロック図である。 図49〜51に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」の各部の詳細を示すブロック図である。 図49〜51に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」における画像分割処理の手順を示す説明図である。 図49〜51に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」における画像分割処理の手順を示す説明図である。 図49〜51に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」における画像分割処理の手順を示す説明図である。 図49〜51に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」における画像分割処理の手順を示す説明図である。 図49〜51に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」におけるゴム紐結合を示す説明図である。 本発明のCV領域画像前置装置の実施例2における中間フレーム生成の詳細を示す説明図である。 図58Aに続いて本発明のCV領域画像前置装置の実施例2における中間フレーム生成の詳細を示す説明図である。 本発明のCV領域画像前置装置の実施例2における記録データ構造(送信データ構造)を説明するための説明図である。 本発明のCV領域画像前置装置の実施例3における視点変更フレーム画像生成を説明するための説明図である。
符号の説明
2 CV演算部
200 CV値基準一括追跡装置
201 CV画像取得部
202 初期画像特徴点選択部
203 隣接フレーム追跡部
204 特徴点追跡予想部
205 対応位置一括決定部
400 関数特徴点検出装置
500 高精度CV演算装置
600 リアルタイム高精度CV演算装置
1001 CV領域画像前置装置

Claims (32)

  1. 動画像の各フレームに、撮影時のカメラの三次元位置と姿勢を示すカメラベクトル値(CV値)を付加した画像を生成するCV画像取得部と、
    追跡を始める画像フレームを定め、当該画像フレームに追跡すべき複数の特徴点を選択して指定する初期画像特徴点選択部と、
    当該複数特徴点を隣接フレームに追跡して、当該複数特徴点の各追跡データを取得する隣接フレーム追跡部と、
    前記各追跡データとCV値とから取得される前記複数特徴点の概略三次元座標とから、当該複数特徴点に隣接する前記複数フレームに亘る概略追跡位置を前記複数フレームに関して一括して予想する特徴点追跡予想部と、
    前記予想により制限された前記複数フレームの中の前記概略追跡位置付近において、前記特徴点との対応位置を前記複数フレームに亘り、一括して詳細に検出する対応位置一括決定部と、
    を備えることを特徴とするCV値基準一括追跡装置。
  2. 前記初期画像特徴点選択部において、
    前記CV画像を取得する際に用いた特徴点を選択して指定することを特徴とする前記請求項1記載のCV値基準一括追跡装置。
  3. 前記初期画像特徴点選択部において、
    初期画像を定め、再度検出した特徴点を取得して、指定することを特徴とする請求項1又は2記載のCV値基準一括追跡装置。
  4. 前記初期画像特徴点選択部において、関数特徴点を検出し、
    前記特徴点追跡予想部において、選択指定した関数特徴点の時系列上の多数フレームに亘り、CV値を用いて追跡予想位置を小面積で予想し、
    前記特徴点追跡位置検出部において、前記小面積内に、新たに関数特徴点を抽出し、当該関数特徴点と前記選択指定した関数特徴点とを、同一特徴点として一括して対応させ、
    前記対応位置一括決定部において、一括して対応関係を決定し、追跡データを求めることを特徴とした請求項1乃至3のいずれか一項記載のCV値基準一括追跡装置。
  5. 動画像の各フレームに、撮影時のカメラの三次元位置と姿勢を示すカメラベクトル値(CV値)を付加した画像を生成するCV画像取得部と、
    前記CV画像取得部からの出力に対し、付加されたCV値の回転成分により、画像に逆回転を与えて、揺れ止め画像を生成する揺れ止め画像生成部と、
    前記CV値から、隣接する画像に対する湧きだし点と吸い込み点を求める湧きだし点抽出部と、
    前記CV画像をブロック画像に分割するブロック分割部と、
    追跡を始める画像フレームを定め、当該画像フレームの画像ブロック内に追跡すべき一乃至複数の特徴点を選択して指定する初期画像特徴点選択部と、
    湧きだし点基準を導入し、当該複数特徴点を湧きだし点から予想される経路に沿って隣接フレームに追跡して、当該特徴点の各追跡データを取得する隣接フレーム追跡部と、
    前記各追跡データとCV値とから取得される前記複数特徴点の三次元座標とから、当該複数特徴点に隣接する前記複数フレームに亘る概略追跡位置を前記複数フレームに関して、湧きだし点から吸い込み点に向かって予測されるライン上に、一括して予想する特徴点追跡予想部と、
    前記予想により制限された前記複数フレームの中の前記概略追跡位置付近において、前記特徴点との対応位置を、関連する前記複数フレームに亘り一括して検出する対応位置一括決定部と、
    を備えることを特徴とするCV値基準一括追跡装置。
  6. 移動するビデオカメラで撮影した動画像を取得し、記録する画像取得装置と、
    画像の中に多数の特徴点を検出し、複数フレームに亘って追跡することで対応点を検出し、複数の特徴点とその対応関係から、撮影時のカメラの三次元位置と姿勢を全フレームについて求めるカメラベクトル値(CV値)を演算(CV演算)して求め、同時に使用した特徴点の三次元座標を求める三次元特徴点記録部と、
    各フレーム画像のCV値を記録する概略CV値取得部と、
    画像の各フレームにCV値を付加した画像を生成するCV画像生成装置と、
    前記画像の中に検出した三次元座標を持つ多数の特徴点を用いて、特徴点の対応点を、請求項1乃至5のいずれかに記載のCV値基準一括追跡装置により、多くの隣接画像に亘ってCV値基準一括追跡処理するCV基準一括追跡部と、
    多数の特徴点の精度の高い前記追跡処理を行い、再度特徴点の追跡データを取得する特徴点追跡データ取得部と、
    前記特徴点追跡データから精度の高いCV値を演算で求める高精度CV演算部と、
    を備えることを特徴とする高精度CV演算装置。
  7. 画像の各フレームにカメラベクトル値(CV値)を付加した画像を生成するCV画像生成装置と、
    前記CV画像生成装置の出力から、得られたCV画像を隙間無く幾何学的なハードCV領域画像に分割するハードCV領域画像分割装置と、
    前記ハードCV領域画像分割装置によって分割された各CV領域画像の中に特徴点を検出し、又は前記CV演算時に使用した特徴点を利用し、その対応点を、請求項1乃至5のいずれかに記載のCV値基準一括追跡装置により、隣接画像に亘って追跡し、全CV領域画像のトラッキングベクトル値(TV値)を求めるTV演算装置と、
    画像の各フレームに前記CV値と、前記TV値とを付加したハードCV領域画像を生成するハードCV領域画像生成装置と、
    を備えることを特徴とするCV領域画像前置装置。
  8. 前記ハードCV領域画像生成装置の出力から、複数のハードCV領域画像を結合して、又は前記ハードCV領域画像生成装置を介さずに直接同種テクスチャーCV領域画像を分離して、画像内容に沿った複数のソフトCV領域画像から画像を再構成するソフトCV領域画像分割装置と、
    前記ソフトCV領域画像に分割された画像の各ソフトCV領域画像に関して、前記ソフトCV領域画像をCV値から得られる予想位置を前記CV値基準一括追跡装置によって追跡し、基準となる座標系に対する位置及び姿勢、及び運動を演算し、前記ソフトCV領域画像のCV領域画像ベクトル値(RV値)を求めるRV演算装置と、
    画像を構成する全CV領域画像が前記CV値と、前記CV領域画像ベクトル値(RV値)を付加して持つ画像を生成するソフトCV領域画像生成装置と、
    を備えることを特徴とする請求項7記載のCV領域画像前置装置。
  9. 前記ソフトCV領域画像生成装置の出力から、複数のソフトCV領域画像を所属する対象物毎に結合して、又は前記ソフトCV領域画像生成装置を介さずに直接同種対象物CV領域画像を分離して、複数のソフトCV領域画像からなる対象物により、画像を再構成する対象物認識装置と、
    前記対象物CV領域画像に分割された画像の各対象物CV領域画像に関して、前記対象物を構成する各ソフトCV領域画像は、対象物としての関係を保ち、対象物として基準となる座標系に対する位置及び姿勢、及び運動を演算し、複数のソフトCV領域画像の複合体としての複数のCV領域画像ベクトル(RV)を統合し、対象物別にソフトCV領域画像を分類したJV(ジョイントベクトル)を求め、対象物毎の分類データを取得するJV演算装置と、
    画像を構成する対象物及び対象物を構成するソフトCV領域画像が、前記CV値と、前記CV領域画像ベクトル値(RV値)と、前記JV値と、で統合された画像を生成する対象物CV領域画像生成装置と、
    を備えることを特徴とする請求項8記載のCV領域画像前置装置。
  10. 画像をブロックに分割するブロック分割部と、
    前記ブロックを、特徴ブロック、及びそれ以外のブロックに分類するブロック分類部と、
    全てのブロックをその配列順番を変えずにゴム紐状に柔軟に結合するゴム紐結合部と、
    前記特徴ブロックと前記それ以外のブロックに対してもゴム紐状に結合し、一時的に形成される抜けのない全ブロックによる画像を生成するブロック画像生成部と、からなるハードCV領域画像分割装置と、
    前記ハードCV領域画像分割装置の出力のゴム紐状に結合したブロック画像の特徴ブロックを請求項1乃至5のいずれかに記載のCV値基準一括追跡装置で追跡する特徴ブロック追跡部と、
    特徴ブロックの追跡データを前記それ以外のブロックにも演算して適切に配分する一次TV演算部と、
    複数フレームから一次TVの誤差を検出する補正ブロック検出部と、
    前記誤差の分布するCV領域画像を補正CV領域画像として、再追跡して高精度なTVデータを取得する二次TV演算部と、
    からなる高精度TV演算装置と、
    前記TV演算装置の出力に関して、TV値が同一となる隣接ブロックを結合する同一TV値統合部と、
    画像のCV値、及びハードCV領域画像のTV値を画像に付加するCV・TV付加部と、
    ブロック画像を表示目的に適した図法に変換する図法再変換部と、
    前記CV値とTV値とを付加したブロック画像を出力するハードCV領域画像出力部と、からなるハードCV領域画像生成装置と、
    を備えることを特徴とするCV領域画像前置装置。
  11. 前記ハードCV領域画像生成装置の出力から、特徴ブロックを選択し、独立特徴ブロック、境界線上特徴ブロック、境界線上ブロック、及びそれ以外のCV領域画像内ブロックの3種類に再分類するブロック再分類部と、
    境界線上特徴ブロック、境界線上ブロックを結合し、ソフトCV領域画像を生成するソフトCV領域画像生成部と、
    輪郭線ベクトル化装置の出力を用い、CV領域画像境界を補正するCV領域画像境界線の抜けを補正し、ブロック単位で構成されているソフトCV領域画像を、ベクトル線で切り分けてCV領域画像境界線を補強して明確なソフトCV領域画像を生成するCV領域画像境界線補正部と、からなるソフトCV領域画像分割装置と、
    前記ソフトCV領域画像分割装置の出力を、再度隣接画像に亘って追跡するCV領域画像トラッキング部と前記隣接画像に亘るCV領域画像の追跡からRV値を求めるRV演算部からなるRV演算装置と、
    前記RV演算装置の出力に対して、CV値、及びRV値をソフトCV領域画像に付加するCV・RV付加部と、
    前記CV値・RV値を付加されたソフトCV領域画像を生成して出力するソフトCV領域画像出力部と、からなるソフトCV領域画像生成装置と、
    画像の輪郭を直接求める輪郭線抽出部と、
    前記輪郭線を細線化してベクトル化するベクトル細線化部と、
    細線化ベクトルの延長線上の輪郭線検出の閾値を下げて、再度輪郭線を検出して細線を延長する可変閾値輪郭補強部と、
    補強されたベクトル輪郭線を生成するベクトル輪郭線生成部と、からなる輪郭線ベクトル化装置と、
    を備えることを特徴とする請求項10記載のCV領域画像前置装置。
  12. ソフトCV領域画像の中で、認識対象となる対象物の概略範囲を選択指定するソフトCV領域画像範囲選択部と、
    前記範囲を指定したソフトCV領域画像のRV値を選択指定するRV選択部と、
    予想される複数の対象物のRV値をデータベース化して記憶している部品DB部と、
    前記範囲のソフトCV領域画像のRV値と候補部品のRV値とを比較し、部分一致か不一致かを決定し、不一致の場合は他の部品候補を自動選択し、完全一致の場合はそれを決定部品とし、部分一致した場合は他の候補部品と一致度合いを比較し、最も一致度の高いRV値を持つ部品を決定部品とするRV比較部と、
    前記決定部品を認識した対象物として、取得する対象物認識部と、
    前記範囲のCV領域画像内において、CV画像からソフトCV領域画像の形状を形成する要素を検出する要素分解部と、
    前記要素を隣接画像に追跡し、対応位置を求める要素追跡部と、
    要素のCV値とRV値から三次元形状を求める要素三次元化部と、
    要素の部品データベースとなる要素部品DB部と、
    画像から検出した要素と部品要素の形状を比較して一致を求める要素比較部と、
    一致した部品要素を画像から検出した要素に置換する対象物要素認識部と、からなる対象物認識装置と、
    前記対象物認識装置の出力から、対象物認識されたCV領域画像を対象物単位で再結合するCV領域画像再結合部と、
    それぞれの対象物毎にソフトCV領域画像の幾何学的三次元結合状況を表すJV値を求めるJV演算部と、からなるJV演算装置と、
    前記JV演算装置で求められた対象物単位のJV値は、複数の対象物がそれぞれ区別されて配置されるように、全ソフトCV領域画像にJV値を付加するJV付加部と、
    対象物認識が一部又は全て済ませた対象物認識CV領域画像を生成する対象物CV領域画像生成部と、からなる対象物分離画像生成装置と、
    を備えることを特徴とする請求項9記載のCV領域画像前置装置。
  13. 前記CV値基準一括追跡装置からの出力、又は前記CV値基準一括追跡装置からの出力と同等の出力をする他の機器からの出力を、CV領域画像と共にVDを分離して取得するCV領域画像・VD取得部と、
    画像の表示方法を指定する表示指定部と、
    VDを基にして、CV領域画像を再結合して再結合画像を生成するCV領域画像再結合部と、
    前記再結合画像を各フレームに配分して、各フレームに対応した画像を生成する画像フレーム生成部と、
    前記画像フレームを表示する表示部と、
    を備えることを特徴とする請求項7乃至12のいずれかに記載のCV領域画像前置装置を用いたVD画像表示装置。
  14. 前記CV領域画像前置装置から出力される各CV領域画像であるハードCV領域画像出力、ソフトCV領域画像出力、及び対象物CV領域画像出力の中の全ての画像出力、又は前記三者の中間段階の画像出力を、各ベクトルデータ(VD値)共に取得するCV領域画像・VD取得部と、
    前記CV領域画像・VD取得部で取得したVD値の成分であるCV値、TV値、RV値、JV値の全て、又はそれら何れかのうちで、CV領域画像単位で、及び画像フレーム単位で重複するデータを近似化し単純化して、圧縮する重複データ圧縮部(座標系分離画像圧縮装置)と、
    前記圧縮データによる圧縮画像データとの対応を保持して、各CV領域画像をCV領域画像圧縮して記録するCV領域画像圧縮記録部と、
    前記各CV領域画像内に、画像及びCV領域画像を検索して指定する検索指定部と、
    前記検索部で検索して選択した画像及びCV領域画像を、前記CV領域画像圧縮記録部に記録された全画像データの中から呼び出し、解凍し、前記重複データ整理部で再構成したCV値、TV値、RV値、JV値の全て、又はそれらの何れかを付加した複数種類のCV領域画像が混在するCV領域画像を出力する解凍・出力部と、を備え、
    前記CV領域画像前置装置からの出力に代えて、CV領域画像を出力することを特徴とした請求項7乃至12のいずれかに記載のCV領域画像前置装置を用いたCV領域画像データベース装置。
  15. 請求項14記載のCV領域画像データベース装置からの出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    視点変更地点又は視点変更経路を、CV値で指定する視点変更指定部と、
    前記CV値で指定された視点変更CV値から、視点変更時の他のVDを演算で求める視点変更演算部と、
    視点変更演算により取得されたVDを各画像、及び各CV領域画像に対応をつける変更VD取得部と、
    対応のついた前記各画像、及び各CV領域画像の画像を再構成し生成し、出力する視点変更画像生成部と、
    を備えることを特徴とするCV領域画像前置装置を用いた視点変更装置。
  16. 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    前記CV領域画像に合成するべきCGを入力するCG入力部と、
    前記CGのVDを演算するVD演算部と、
    前記CV領域画像の視点座標とCGの視点座標を合致させて座標を統合する視点座標統合部と、
    CV領域画像のVDと前記CGのVDを比較演算して、表示の前後関係を決定する前後関係形成部と、
    視点が合致し、前後関係が決定された、前記CV領域画像と前記CGとを合成して、同一座標系で表現するCV領域画像CG合成部と、
    を備えることを特徴とするCV領域画像前置装置を用いたCV領域画像CG合成装置。
  17. 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    三次元形状生成を行う範囲を指定する範囲指定部と、
    CV領域画像に付加されたVD値から三次元ポリゴンに変換演算するポリゴン変換演算部と、
    前記ポリゴン変換されたデータから三次元形状を生成する三次元形状生成部と、
    を備えることを特徴とするCV領域画像前置装置を用いた三次元形状生成装置。
  18. 移動するカメラから撮影した画像についての、請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    画角拡大画像を観察する時の画角と視点方向を指定する拡大画角指定部と、
    画角拡大画像を観察する時の前記カメラ位置からの視点の移動位置を指定する仮想観察視点指定部と、
    前記拡大画角と、前記視点方向と、前記視点移動位置を指定された時間軸上に並ぶ複数フレームのCV領域画像を、指定の視点位置に視点変更演算する時間軸画像視点変更部と、
    前記視点変更演算により、視点変更されて視点位置が同一となった現在から過去に亘る時間軸上に並ぶ複数フレームのCV領域画像を結合する複数画像結合部と、
    時間の進行と共に移動進行する前記カメラの位置と方向を追従し、時間軸上に並ぶ複数フレームのCV領域画像を次々指定された視点位置に視点変更を次々繰り返すことで、画角拡大画像を連続して生成し続ける繰り返し生成部と、
    を備えることを特徴とするCV領域画像前置装置を用いた画角拡大装置。
  19. 移動するカメラから撮影した画像についての、請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    VDを指定することにより、ロックオンすべき対象物の座標を指定する対象物座標指定部と、
    ロックオン表示のための視点移動経路と範囲を指定する視点移動指定部と、
    指定された視点移動経路に沿って、CV領域画像の視点変更を求める視点及び視点方向変換部と、
    変換されたCV領域画像を指定経路に従って表示するロックオン表示部と、
    を備えることを特徴とするCV領域画像前置装置を用いたロックオン表示装置。
  20. 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    VDから座標系を分離し、座標系毎のCV領域画像とVDとに分類する座標系別VD処理部と、
    各座標系のVDを単純な関数に近似して単純化し、又は前記近似したVDと前記CV領域画像のVDとの関係を示す関数を持ち続ける各座標系VD近似処理部と、
    単純な関数に近似されたことで、通信又は記録される、各座標系分離通信装置、又は各座標系分離画像記録部と、
    各座標系単位で画像を生成する各画像系別画像生成部と、
    各座標系を再度結合し合成して表示するための再結合を行う各座標系合成画像生成部と、
    を備えることを特徴としたCV領域画像前置装置を用いた座標系分離装置。
  21. 更新する画像情報を含む画像を、前記CV値基準一括追跡装置から出力して、CV領域画像とそのVDを取得する更新CV領域画像・VD取得部と、
    更新される旧画像情報を含む画像を、前記CV値基準一括追跡装置から出力して、CV領域画像とそのVDを取得する旧CV領域画像・VD取得部と、
    更新範囲を指定する更新範囲指定部と、
    VD値を合致させることで、更新画像の視点を旧画像の視点に変更する更新領域視点変更部と、
    旧画像側の更新部分を削除する更新範囲削除部と、
    更新部分のCV領域画像を切り取って、旧CV領域画像に貼り付けて更新CV領域画像を生成する更新部分CV領域画像生成部と、
    最終的に領域結合して、更新画像を生成する更新画像生成部と、
    を備えることを特徴とした請求項7乃至12のいずれかに記載のCV領域画像前置装置を用いた画像部分更新装置。
  22. 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    計測機器により鉛直方向を精度良く取得する鉛直補正部と、
    CV領域画像の複数ポイントで絶対座標を取得する高精度位置決め部と、
    前記計測機器で取得した高精度の鉛直データにより、取得したVD値を補正する補正VD値演算部と、
    前記補正VD演算部で補正されたVD値と対応するCV領域画像により、オルソ化対象を三次元化する三次元面生成部と、
    三次元化されたオルソ化対象のCV領域画像をオルソ面に投影するオルソ面投影部と、
    を備えることを特徴としたCV領域画像前置装置を用いたオルソ画像生成装置。
  23. 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    再生表示しようとする動画像を取得したカメラ移動経路、又は仮想カメラ移動経路をCV値で指定する仮想カメラ移動経路指定部と、
    前記動画像の各フレームを構成する各CV領域画像に関して、最も解像度の高いCV領域画像、又は最もカメラの近くで取得しているCV領域画像、又は最も目的に適合したCV領域画像を、既に取得している視点の異なる全CV領域画像データから選択する全範囲探索選択部と、
    前記全範囲探索選択部で選択したCV領域画像を、カメラ経路を意味する前記指定CV値に前記選択したそれぞれのCV領域画像を視点変更する高解像度視点変更部と、
    視点変更されたCV領域画像から各フレーム画像を生成する高解像度化画像結合部と、
    視点変更を可能とするVD値を取得したCV領域画像の状態で記録保存する高解像度化画像データベースと、
    高解像度化された動画映像を表示する場合の表示部と、
    を備えることを特徴としたCV領域画像前置装置を用いた画像高解像度化装置。
  24. 請求項14記載のCV領域画像データベース装置から出力され、又は請求項15記載の視点変更装置から出力されるCV領域画像を、元となる動画像を構成する複数の座標系に分離する座標系分離装置と、
    前記複数の座標系の中で、目的の運動する対象物のCV領域画像をそのVDと共に選択し、抽出する運動領域抽出部と、
    前記抽出された運動領域のVDから、対象となる運動領域の運動を6自由度で表す運動領域VD解析部と、
    前記運動領域を指定の座標系に変換して示す指定座標表示部と、
    を備えることを特徴としたCV領域画像前置装置を用いた運動抽出・解析装置。
  25. 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    検索すべきCV領域画像、又はその一部、又はそれを内部に含むCV領域画像を検索すべき部品として指定する検索CV領域画像部品指定部と、
    基準座標系における前記部品のVDを演算で求める検索CV領域画像部品VD演算部と、
    検索されるCV領域画像の基準座標系におけるVDと、検索部品のCV領域画像の基準座標系におけるVDとを比較し、一致度を求める基準座標VD比較部と、
    CV領域画像全体の中の一致度の高いCV領域画像を検索結果として出力する検索CV領域画像出力部と、
    を備えることを特徴としたCV領域画像前置装置を用いたCV領域画像検索装置。
  26. 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    目的フレーム画像に属するCV領域画像と、それに隣接するフレーム画像に属するCV領域画像とで、対応する複数のCV領域画像を選択する最適CV領域画像選択部と、
    前記隣接するフレーム画像に属するCV領域画像を、前記目的フレーム画像のCV値に視点変更する同一視点変更部と、
    前記目的フレームの視点に統一して変更したCV領域画像を、重ね合わせて加算平均する領域加算平均演算部と、
    前記加算平均によりノイズが減少した領域を目的フレームに属するCV領域画像として取得する平均CV領域画像生成部と、
    を備えることを特徴としたCV領域画像前置装置を用いたノイズリダクション装置。
  27. 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    認識対象となる部分をCV領域画像内に指定する認識CV領域画像指定部と、
    認識候補となる複数のCV領域画像からなる部品をデータベースとして記録している部品データベース部と、
    認識が完了するまで、次々部品を送り出す部品送り出し部と、
    比較される部品のVDを演算で求める部品VD演算部と、
    前記認識対象となるCV領域画像と、前記部品を基準座標系のVD値で比較する基準座標VD比較部と、
    前記部品送り出し部から送られてくる複数の部品の中で、最も一致度の高い部品を選択して、特定する認識画像出力部と、
    を備えることを特徴としたCV領域画像前置装置を用いた対象物認識装置。
  28. 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    取得したCV領域画像から、三次元地図として精度良く利用できる複数のCV領域画像部分を自動選択する地図利用選択部と、
    前記三次元地図として精度よく利用できるCV領域画像部分を指定し、前記CV領域画像・VD取得部で取得したCV領域画像内に検索して呼び出し、前記地図利用選択部に送る内部検索指定部と、
    前記地図利用選択部で選択された前記精度よく利用できる複数のCV領域画像部分を、二次元特徴点、三次元特徴領域、特徴対象物等に分類し、又はVD値等を用いて変換し、地図として生成する地図生成部と、
    地図と比較するため、及び表示のためのリアルタイム画像を車両等に積載したカメラから取得するリアルタイム画像取得部と、
    取得した前記リアルタイム画像を、CV演算、GPSを用いた概略位置合わせ、画像明るさ調整、等の前記三次元地図と比較しやすくし、検索しやすくするための画像処理を施すリアルタイム画像処理部と、
    前記二次元特徴点、三次元特徴領域、特徴対象物等を前記リアルタイム画像の中に検索指定する外部検索指定部と、
    前記検索指定により、前記二次元特徴点、三次元特徴領域、特徴対象物等を、前記リアルタイム画像前処理部で比較しやすく処理されたリアルタイム画像の中に検索して、対応部分を検出する外部検索検出部と、
    前記二次元特徴点、三次元特徴領域、特徴対象物等との対応部分が検出されたリアルタイム画像の対応部分と三次元地図上の前記二次元特徴点、三次元特徴領域、特徴対象物等から、リアルタイム画像のCV値を演算で求めるリアルタイム画像CV値取得部と、
    前記リアルタイム画像CV値取得部で取得した前記リアルタイム画像のCV値から、リアルタイム画像を取得したカメラの位置と姿勢を絶対座標で求めて車両位置を決定する車両位置決め部と、
    前記特徴対象物が持っている車両運行に関係する属性を前記リアルタイム画像内に表示するリアルタイム画像内属性表示部と、
    前記車両位置決めに利用し、リアルタイム画像で確認された前記二次元特徴点、三次元特徴領域、特徴対象物等を、次回に利用する三次元地図として記録しておく、三次元地図データベース部と、
    を備えることを特徴とするCV領域画像前置装置を用いた位置決め装置。
  29. 複合人工知能装置を構成する個々の人工知能装置が、
    自ら取得したカメラ映像、及び認識結果を記録し、認識結果を記録する前記CV領域画像前置装置と、
    個々の人工知能装置から他の人工知能装置で、相互に情報をやり取りするための送信装置、及び受信装置と、
    他の人工知能から検索の問い合わせがあれば、前記CV領域画像前置装置のCV領域画像内に検索して、前記送信機で送り返すCV領域画像検索装置と、
    他の人工装置から対象物認識の依頼があれば、前記CV領域画像前置装置のCV領域画像内で対象物認識して、前記送信機で送り返すCV領域画像認識装置と、
    を備えることを特徴とした請求項7乃至12のいずれかに記載のCV領域画像前置装置を用いた複合人工知能記憶装置。
  30. 管理しようとする現実の管理対象物及びその周辺を撮影した画像についての、前記CV領域画像データベース装置の出力を取り入れ一時記録したCV領域画像記録部と、
    画像取得時のカメラ位置近傍への視点変更画像を生成する前記視点変更装置と、
    前記CV領域画像を表示し、動画として画像フレームが移動しても、画像とCVタグの三次元的位置関係を保持したまま、CVタグを表示し、及びCVタグを開封しその内容を表示できるようにしたCVタグ表示装置と、
    前記CVタグ表示装置で表示された前記CV領域画像の中の前記管理対象物の位置に対して、CV領域画像の中にCVタグを直接貼り付け、又はCV領域画像中の前記管理対象物の三次元的位置を確認できるように矢印などで特定できるようにしたCVタグを、CV領域画像の中に三次元的に配置するCVタグ入力装置と、
    CVタグと前記管理対象物とを関連づける諸データを格納するCVタグデータベース装置と、
    前記CVタグ表示装置、及び前記検索装置でCVタグを選択し、又は表示されたCV領域画像中の前記管理対象物をCV領域画像の中にタッチスクリーンにタッチし、又はマウス等でCVタグをクリックして、CVタグを選択することで、前記CVタグデータベース装置からCVタグに対応する管理対象物のデータを読み出して管理するCVタグ対象物管理装置と、
    を備えることを特徴とした請求項7乃至12のいずれかに記載のCV領域画像前置装置を用いたCVタグ入出力検索装置。
  31. 前記CVタグ入力装置と、前記CVタグデータベース装置と、前記CVタグ対象物管理装置とを車両等に積載し、管理地域、及び管理対象物周辺を移動する積載移動手段を備え、
    前記積載移動手段にはビデオカメラを積載し、リアルタイム画像を取得し、前記リアルタイム画像にCV演算を施し、リアルタイムCV領域画像を取得するリアルタイムCV領域画像取得装置を備え、
    文字、座標、属性等で検索し、CV領域画像中に管理対象物を示すCVタグそのもの、又はCV領域画像中の管理対象物の画像そのものを、色の変化やフラッシュ効果等の何らかの視覚効果のある三次元座標を持つ印として、動画としてのCV領域画像上に三次元的に矛盾無く呈示するCVタグ自動検索装置と、
    当該CVタグ入出力検索装置の外側にあって、記録媒体又は通信を介して、当該CVタグ入出力検索装置内側の管理地域及びその周辺のCV領域画像地図を前記CV領域画像記録部に一時記憶して保持させる、外部CV領域画像地図データベース部と、当該CVタグ入出力検索装置の外側にあって、記録媒体又は通信を介して、当該CVタグ入出力検索装置内側の管理地域及びその周辺のCVタグとその属性情報を前記CVタグデータベース装置に一時記憶して保持させる、外部CVタグデータベース部と、からなる外部データベース装置と、を備え、
    前記移動体には、移動体の絶対座標を取得するGPS位置決め装置と、取得した前記リアルタイムCV領域画像と前記CV領域画像地図から、位置あわせをして取得した新旧画像更新装置とを保持する移動体位置決め手段を備え、
    前記移動体位置決め手段と時刻、及び入力した走行目的等より、車両の現在時刻と現在位置と現在状況に関係している管理対象物のCVタグを選択的に自動表示するCVタグ自動表示装置を備え、
    前記装置のうち、一部又は全部の装置を選択的に備えることを特徴とした請求項30記載のCVタグ入出力検索装置。
  32. 前記CVタグ表示装置が、
    選択及び検索した管理対象物を、管理対象物を画像の決められた位置に固定して表示する動画ロックオン手段と、
    縮尺の異なる複数のCV領域画像地図を表示し、座標系を統一して、同じCVタグを前記複数のCV領域画像地図上に表示する手段と、
    CV領域画像地図と二次元地図を同時に表示し、二次元地図上にもCVタグを表示する手段と、
    選択及び検索した管理対象物を、前記CV領域画像地図と同じように、前記リアルタイムCV領域画像にCVタグを表示する手段と、
    選択及び検索した管理対象物を、CV領域画像上に表示せずに、ヘッドマウント、又はハーフミラー等により、移動する車両等から直接観察する現実世界の管理対象物に重複して合成した、CVタグや案内矢印や看板を示す手段と、
    選択及び検索した管理対象物に関するCVタグの内容を、音声で案内表示する手段と、
    を有することを特徴とする請求項30又は31記載のCVタグ入出力検索装置。
JP2007158288A 2006-06-15 2007-06-15 Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置 Active JP5090797B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007158288A JP5090797B2 (ja) 2006-06-15 2007-06-15 Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006166339 2006-06-15
JP2006166339 2006-06-15
JP2007158288A JP5090797B2 (ja) 2006-06-15 2007-06-15 Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置

Publications (2)

Publication Number Publication Date
JP2008022545A true JP2008022545A (ja) 2008-01-31
JP5090797B2 JP5090797B2 (ja) 2012-12-05

Family

ID=39078128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007158288A Active JP5090797B2 (ja) 2006-06-15 2007-06-15 Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置

Country Status (1)

Country Link
JP (1) JP5090797B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011102799A (ja) * 2009-11-11 2011-05-26 Northrop Grumman Guidance & Electronics Co Inc ヘディングを決定するためのシステムおよび方法
RU2458407C1 (ru) * 2011-03-02 2012-08-10 Общество с ограниченной ответственностью "ДиСиКон" (ООО "ДСК") Система и способ видеомониторинга леса
JP7409163B2 (ja) 2020-03-06 2024-01-09 株式会社豊田中央研究所 定置センサ較正装置、および、定置センサ較正方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104320638B (zh) * 2014-11-24 2017-10-17 卫芯科技(浙江)有限公司 一种智能化综合监控系统及监控视频处理方法
KR102136924B1 (ko) * 2018-06-08 2020-07-23 한국도로공사 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법 및 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256806A (ja) * 2002-03-01 2003-09-12 Nippon Telegr & Teleph Corp <Ntt> 全方位画像型特徴点探索処理方法,装置,そのプログラムおよびそのプログラムの記録媒体
JP2005295495A (ja) * 2003-10-02 2005-10-20 Kazuo Iwane カメラベクトル演算装置と、このカメラベクトル演算装置に備えられる揺れ成分検出装置,画像安定化装置,位置姿勢安定化装置,目的対象物ロックオン装置及び実写対象物属性呼出装置
JP2005322002A (ja) * 2004-05-07 2005-11-17 Kazuo Iwane 複合人工知能装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256806A (ja) * 2002-03-01 2003-09-12 Nippon Telegr & Teleph Corp <Ntt> 全方位画像型特徴点探索処理方法,装置,そのプログラムおよびそのプログラムの記録媒体
JP2005295495A (ja) * 2003-10-02 2005-10-20 Kazuo Iwane カメラベクトル演算装置と、このカメラベクトル演算装置に備えられる揺れ成分検出装置,画像安定化装置,位置姿勢安定化装置,目的対象物ロックオン装置及び実写対象物属性呼出装置
JP2005322002A (ja) * 2004-05-07 2005-11-17 Kazuo Iwane 複合人工知能装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011102799A (ja) * 2009-11-11 2011-05-26 Northrop Grumman Guidance & Electronics Co Inc ヘディングを決定するためのシステムおよび方法
RU2458407C1 (ru) * 2011-03-02 2012-08-10 Общество с ограниченной ответственностью "ДиСиКон" (ООО "ДСК") Система и способ видеомониторинга леса
JP7409163B2 (ja) 2020-03-06 2024-01-09 株式会社豊田中央研究所 定置センサ較正装置、および、定置センサ較正方法

Also Published As

Publication number Publication date
JP5090797B2 (ja) 2012-12-05

Similar Documents

Publication Publication Date Title
US11710271B2 (en) Three-dimensional data creation method, three-dimensional data transmission method, three-dimensional data creation device, and three-dimensional data transmission device
US11625863B2 (en) Three-dimensional data creation method, client device, and server
Senlet et al. A framework for global vehicle localization using stereo images and satellite and road maps
US10223829B2 (en) Method and apparatus for generating a cleaned object model for an object in a mapping database
US20200401617A1 (en) Visual positioning system
EP2208021B1 (en) Method of and arrangement for mapping range sensor data on image sensor data
CN111542860A (zh) 用于自主车辆的高清地图的标志和车道创建
US20060195858A1 (en) Video object recognition device and recognition method, video annotation giving device and giving method, and program
CN110648389A (zh) 基于无人机和边缘车辆协同的城市街景3d重建方法和系统
US20230162401A1 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
JP4926822B2 (ja) 湧きだし点基準cv領域画像前置装置
CN111462275A (zh) 一种基于激光点云的地图生产方法和装置
US20150138310A1 (en) Automatic scene parsing
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
CN102959946A (zh) 基于相关3d点云数据来扩充图像数据的技术
JPWO2004095374A1 (ja) 映像オブジェクト認識装置および認識方法、映像アノテーション付与装置および付与方法ならびにプログラム
JP2006250917A (ja) 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置
US20230281879A1 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
CN113593017A (zh) 露天矿地表三维模型构建方法、装置、设备及存储介质
JP5090797B2 (ja) Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置
US20240080460A1 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
CN112348887A (zh) 终端位姿确定方法以及相关装置
JP4624000B2 (ja) 複合人工知能装置
Acharya et al. Single-image localisation using 3D models: Combining hierarchical edge maps and semantic segmentation for domain adaptation
JP2004265396A (ja) 映像生成システム及び映像生成方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090616

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090824

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20091201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120913

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5090797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350