JP2008022545A - Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置 - Google Patents
Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置 Download PDFInfo
- Publication number
- JP2008022545A JP2008022545A JP2007158288A JP2007158288A JP2008022545A JP 2008022545 A JP2008022545 A JP 2008022545A JP 2007158288 A JP2007158288 A JP 2007158288A JP 2007158288 A JP2007158288 A JP 2007158288A JP 2008022545 A JP2008022545 A JP 2008022545A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- region
- region image
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004364 calculation method Methods 0.000 claims abstract description 250
- 230000033001 locomotion Effects 0.000 claims abstract description 116
- 238000003709 image segmentation Methods 0.000 claims abstract description 11
- 239000013598 vector Substances 0.000 claims description 163
- 238000000034 method Methods 0.000 claims description 127
- 238000012545 processing Methods 0.000 claims description 90
- 238000007726 management method Methods 0.000 claims description 89
- 230000008859 change Effects 0.000 claims description 74
- 238000001514 detection method Methods 0.000 claims description 51
- 238000000605 extraction Methods 0.000 claims description 51
- 238000007906 compression Methods 0.000 claims description 48
- 230000006835 compression Effects 0.000 claims description 48
- 238000000926 separation method Methods 0.000 claims description 48
- 238000013473 artificial intelligence Methods 0.000 claims description 37
- 238000006243 chemical reaction Methods 0.000 claims description 21
- 238000004458 analytical method Methods 0.000 claims description 20
- 239000002131 composite material Substances 0.000 claims description 19
- 238000012937 correction Methods 0.000 claims description 18
- 230000036961 partial effect Effects 0.000 claims description 18
- 230000002829 reductive effect Effects 0.000 claims description 15
- 238000004891 communication Methods 0.000 claims description 12
- 230000008878 coupling Effects 0.000 claims description 12
- 238000010168 coupling process Methods 0.000 claims description 12
- 238000005859 coupling reaction Methods 0.000 claims description 12
- 230000009467 reduction Effects 0.000 claims description 11
- 238000009826 distribution Methods 0.000 claims description 10
- 230000000694 effects Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 10
- 230000006798 recombination Effects 0.000 claims description 9
- 238000005215 recombination Methods 0.000 claims description 9
- 238000003860 storage Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 8
- 230000010354 integration Effects 0.000 claims description 8
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 230000006837 decompression Effects 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 6
- 238000013144 data compression Methods 0.000 claims description 6
- 230000002441 reversible effect Effects 0.000 claims description 6
- 238000011068 loading method Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000012217 deletion Methods 0.000 claims description 4
- 230000037430 deletion Effects 0.000 claims description 4
- 230000002787 reinforcement Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 161
- 238000010586 diagram Methods 0.000 description 45
- 230000008569 process Effects 0.000 description 43
- 239000000203 mixture Substances 0.000 description 28
- 238000005516 engineering process Methods 0.000 description 16
- 238000005259 measurement Methods 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 14
- 238000007796 conventional method Methods 0.000 description 14
- 238000013461 design Methods 0.000 description 12
- 238000005520 cutting process Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 101000969688 Homo sapiens Macrophage-expressed gene 1 protein Proteins 0.000 description 3
- 102100021285 Macrophage-expressed gene 1 protein Human genes 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002250 progressing effect Effects 0.000 description 2
- 230000000087 stabilizing effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008021 deposition Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 239000012925 reference material Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Abstract
【解決手段】 動画像を取得する画像取得装置1と、画像中の特徴点からカメラの三次元位置と姿勢を示すCV値を求めるCV演算装置3と、各フレームにCV値を付加した画像を生成するCV画像生成装置4と、CV演算時に同時に副次的に求まるFP座標を付加したFP付加CV画像を生成するFP付加CV画生成装置6と、CV画像を隙間無く幾何学的なハードCV領域画像に分割するハードCV領域画像分割装置8と、分割された各CV領域画像の対応点を隣接画像に亘って追跡してTV値を求めるTV演算装置9と、各フレームにCV値とTV値を付加したハードCV領域画像を生成するハードCV領域画像生成装置16を備える。
【選択図】 図23
Description
このCV画像生成装置では、動画映像の複数のフレーム画像から充分な数の特徴点を自動検出し、各フレーム間で特徴点を自動追跡することで、当該動画映像のカメラ位置と回転角を示すCV(カメラベクトル)値データを高精度に求めることができるものであり、そこから発展的に生み出される様々な技術が実用化されている。
なお、CV値を取得する手段として、カメラの位置と姿勢を検出するには本願発明者により実用化されている方法以外に、本来的に位置と姿勢を計測するIMU装置を用いることも原理的には可能であるが、動画像全フレームとの完全な同期が必要であり、現在の所は実用化されてはいない。
このCV画像生成装置で生成されるCV領域画像と比較されるものとしては、単に領域に分割しているという点で、MPEG1、MPEG2、MPEG4等の技術があるが、いずれもCV値やそれに類する技術は使用されていない。
画像内に特徴点を求める手法は複数存在し、それらの手法により特徴点、又は小領域画像からなる小領域画像特徴点を、隣接する複数フレームに亘って追跡(トラッキング)すると小領域画像特徴点の対応点が求まる。
また、他の問題点として、特徴点は画像の一部図形であり、追跡するブロックは特徴点を含む面であるために、結果は面としては追跡されても、図形としては必ずしも正しく追跡されていないという点がある。これは追跡フレームが増加するについて顕著となる。
なお、このような問題に対して、図形そのもので追跡しようとすると、対応点が無数に出てきて、どれが追跡点かの判別ができなくなる。
このため、特徴点は小領域画像面で追跡することが必要になる。
また、追跡フレーム画像が増加すれば、三角測量の原理で底辺が長くなり、精度が高まるはずであるが、実際にはフレーム画像が増加することで、小領域画像を追跡することによる追跡誤差が発生して精度が低下するという二律背反的な問題を抱えている。
すなわち、本発明は、上述した従来の技術が有する課題を解決するために提案されたものであり、画像をCV値基準として、CV領域画像に分割し、各CV領域画像にCV値のみならず、TV演算によりTV値を、RV演算によりRV値を、JV演算でJV値を持たせることで、画像を自由に扱えるようにしたCV領域画像前置装置の提供を目的とする。
また、動画像から直接高精度なCV値を取得するためには、精度の高い特徴点トラッキング(特徴点追跡)が必要になる。そこで、本発明では、動画像についてCV演算を施し、各種演算に必要な複数の関数特徴点を求め、次に既知のCV値から追跡開始フレームにおいて各関数特徴点の追跡予想位置を求める。
追跡予想位置は関数特徴点周囲の小領域画像であり、そのサイズは自由に決定できる。十分小さい小領域画像を選択すれば、その中には関数特徴点は一つしか存在しないと仮定できる。
そこで、隣接する複数の小領域画像に対してスタート時のフレームの関数特徴点と同じと関数特徴点を探索すると、通常は一個の関数特徴点が検出できる。このような操作が数十から数百の関数特徴点に関して検出されるので、もし小領域画像内に複数の関数特徴点が存在した場合には、その小領域における演算を破棄しても何ら問題は生じないことは明らかである。
また、これまでのCV領域画像においては、TV値(追跡データ)を求める場合、揺れ止め処理が必要であったが、本発明によれば揺れ止め処理が必要ないという点でも優れている。ただし、揺れ止め処理を併用すればさらに効率的な演算が可能となる。
なお、本発明に係るCV値基準一括追跡の技術によらないCV演算装置であっても、精度の問題はあるが、特徴点のTV値(追跡データ)を求めることは可能である。従って、本発明の請求項7以下に示すCV領域画像前置装置及びこれを用いた各種装置においては、本発明のCV値基準一括追跡装置を用いることなく特徴点のTV値(追跡データ)を求めることで実現することができる。
さらに、画像から直接CV値を取得する特徴点追跡装置とCV演算装置によらなくても、原理的にはGPSとジャイロとの組み合わせやIMU装置等の従来技術でCV値を求めることも可能であり、そのようにして求めたCV値を用いて新たにTV値(追跡データ)を取得することも可能であり、そのようなTV値(追跡データ)によって、本発明の請求項7以下の全ての装置を実現することもできる。
また、従来のCV画像はCGと比較して長所が多いが、視点変更が自由にできないという欠点もあった。本発明においては、これまでのCV画像をさらに発展させ、CGと同じように切り貼り、パーツ交換、視点変更なども自由に行えるCV画像を提供することができる。
構成とすることができる。
ソフトCV領域画像の中で、認識対象となる対象物の概略範囲を選択指定するソフトCV領域画像範囲選択部と、前記範囲を指定したソフトCV領域画像のRV値を選択指定するRV選択部と、予想される複数の対象物のRV値をデータベース化して記憶している部品DB部と、前記範囲のソフトCV領域画像のRV値と候補部品のRV値とを比較し、部分一致か不一致かを決定し、不一致の場合は他の部品候補を自動選択し、完全一致の場合はそれを決定部品とし、部分一致した場合は他の候補部品と一致度合いを比較し、最も一致度の高いRV値を持つ部品を決定部品とするRV比較部と、前記決定部品を認識した対象物として、取得する対象物認識部と、前記範囲のCV領域画像内において、CV画像からソフトCV領域画像の形状を形成する要素を検出する要素分解部と、前記要素を隣接画像に追跡し、対応位置を求める要素追跡部と、要素のCV値とRV値から三次元形状を求める要素三次元化部と、要素の部品データベースとなる要素部品DB部と、画像から検出した要素と部品要素の形状を比較して一致を求める要素比較部と、一致した部品要素を画像から検出した要素に置換する対象物要素認識部と、からなる対象物認識装置と、前記対象物認識装置の出力から、対象物認識されたCV領域画像を対象物単位で再結合するCV領域画像再結合部と、それぞれの対象物毎にソフトCV領域画像の幾何学的三次元結合状況を表すJV値を求めるJV演算部と、からなるJV演算装置と、前記JV演算装置で求められた対象物単位のJV値は、複数の対象物がそれぞれ区別されて配置されるように、全ソフトCV領域画像にJV値を付加するJV付加部と、対象物認識が一部又は全て済ませた対象物認識CV領域画像を生成する対象物CV領域画像生成部と、からなる対象物分離画像生成装置と、を備える構成とすることができる。
各座標系のVDを単純な関数に近似して単純化し、若しくは必要であれば、前記近似したVDと前記CV領域画像のVDとの関係を示す関数をも持ち続ける各座標系VD近似処理部と、単純な関数に近似されたことで、通信又は記録される、各座標系分離通信装置、又は各座標系分離画像記録部と、各座標系単位で画像を生成する各画像系別画像生成部と、各座標系を再度結合合成して表示する必要があれば、再結合のための各座標系合成画像生成部と、を備える構成とすることができる。
これにより、一つのCV領域画像をあたかも一つのCV画像として扱うことで、画像を自由自在の扱うことが可能となる(TV、RV、JVの詳細については後述する)。
また、本発明は、CV値を用いた三次元処理をしているが、CGのような三次元データではないので、データ量もかなり圧縮できることになった。
本発明の元となっているCV演算及びCV値(特開2005−295495号)は、全周カメラによる動画像の球面画像から生まれた。動画像を球面画像として扱うことで焦点距離及び光軸の概念から解放され、動画像を視覚に適したかたちで二次元面を持ったまま、古典的な三角測量の原理に戻って三次元化し、簡単に取り扱うことができるようになった。さらに動画像における単純化されたCV値基準の概念の導入により、動画像処理が面のまま単純化されて三次元化し、動画像の領域分割及びそのトラッキングが容易となり、全画素トラッキングも可能となったことで一気に進展した。
そのデータの持ち方には進化に応じた複数段階があり、それぞれのデータベースを構築し、目的に応じて選択する。
最終段階では対象物認識をしているので、人工知能に近いものとなっている。
CV値のみのCV画像データベース装置による応用例としては、図31に示すように、○動画像とCGの合成装置(31)、○動画像からの三次元座標取得(32)、対象物を常に定位置で観察するロックオン表示装置(33)、回転揺れ止め画像生成装置・揺れ止め制御装置(34)、○画像内計測・画像間計測装置(35)、○新旧画像更新装置(36)、○CV画像地図(37)、○車載カメラによる自動車位置決め、及びその応用による実写ナビゲーションシステム(41)、○画像の三次元ポリゴン化システム(42)、○路面オルソ化地図生成システム(43)、等を実現することができる。
以下に、CV領域画像データベースではじめて実現される様々な応用例について列挙する(図31参照)。
○座標系分離画像圧縮・記録装置(51)、○視点移動・中間フレーム生成装置(52)、○移動体抽出・運動解析装置(53)、○高解像度化画像生成装置(54)、○CV領域画像運動抽出・検索・解析装置(55)、○ノイズリダクション装置(61)、○CV領域画像差し換え画像生成装置(62)、○対象物運動抽出・解析装置(71)、○PRM画像圧縮装置(72)、○対象物運動解析装置(73)○複合人工知能記憶装置(74)、○VD画像表示装置(75)等を実現することができる。
このようにして、本発明によれば、種々の分野に応用が可能であり、多くの新産業を生み出し、確実に未来技術の核となり得る、産業のプラットホームとして位置づけることができる。
ここで、以下に示す本発明のCV値基準一括追跡装置やCV領域画像前置装置、その他の装置は、いずれもプログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示すような所定の処理や機能、例えば、映像中からの基準点や特徴点の自動抽出,抽出した基準点の自動追跡,基準点の三次元座標の算出,CV(カメラベクトル)値の演算等を行わせる。
このように、本発明における各処理や手段は、プログラムとコンピュータとが協働した具体的手段によって実現される。
なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ,その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラムがコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
まず、本明細書で用いられる特殊用語の定義と解説について説明する。
「CV演算、CV値、CV画像」
CVはカメラベクトルの略称であり、CV値はCV演算の結果得られたカメラベクトルを表す6変数で、各フレームにCV値を付加した画像をCV画像という。
すなわち、画像を取得したカメラ位置と姿勢の三次元座標と角度を6変数で、画像の各フレームについて求めたものがCV値であり、それを求める演算がCV演算であり、CV値が求められた画像をCV画像という。参考資料ではCV映像と呼称した。
代表する座標系とカメラ位置と姿勢が既知となったことで、複数のフレームから対象の三次元座標が求められる。
なお、回転揺れ止めしたCV値は回転に属する3変数が定数となるため、回転揺れ止めした画像においては、CV値を残りの位置に関する3変数で表すことがある。
このCV演算(CV値、CV画像)については、図1〜図13を参照して後に詳述する(特開2005−295495号、特開2005−122315号も参照)。
カメラ移動による動画像、又は相対的に対象物とカメラの位置関係が刻々変化する場合には、着目する座標系おいて、湧きだし点から吸い込み点に向かって画像が湧き出してくるように見える。これを「湧きだし点」という。この湧きだし点は、元々回転静止した二画面の間に定義される二次元画像上の一点であり、CV値から求められる。
動画像において回転揺れ止めが成されていなければ湧きだし点は求められない。
a地点及びb地点の揺れ止めされた回転静止系におけるCV値は、
CVa=(Xa,Ya,Za) CVb=(Xb,Yb,Zb)
とすると、湧きだし点ベクトルSVは、それぞれの成分の差
SV=(ΔX,ΔY,ΔZ)
で表される。
「湧きだし点」と「吸い込み点」の概念は、本願発明者がはじめて提案した新しい概念である。
動画像において湧きだし点を求めるには画像の回転揺れ止めを行う必要がある。CV値の回転成分から回転成分を取得し、動画像に回転補正を施し、回転揺れ止め(特開2005−295495号参照)を行った動画像間の移動ベクトルは吸い込み点方向から湧きだし点方向を示している。
湧きだし点と、その反対側には吸い込み点がある。両者は画像内にある場合と無い場合がある。静止している場合には湧きだし点も吸い込み点も特定できない。カメラが移動する場合には必ず存在している。
メルカトール図法では移動の軌跡は曲線となるが、大円上を移動するので、最終的に一次関数にまで変換可能である(一次関数への変換については後述する「TV値」参照)。
(特開2005−295495号、特開2005−122315号参照)
また、一般に平面展開図法では、湧きだし点、吸い込み点の両方が同時に画像に現れることはなく、どちらも画像に現れないときもある。
トラッキング時にはブロック化して画像上を追跡するのが一般的であるが、その方法は無数にある。一例として図14(b)には、湧きだし点から放射状に出る直線と垂直線が作るブロックを単位として、ブロック315を生成することができる。
CV領域画像とは、CV画像から生成される分割されたCV画像であり、CV値基準による追跡による領域画像、と湧きだし点基準によってその生成方法からTV値が既知となったCV領域画像の二種類がある。
湧きだし点基準によるCV領域画像は回転揺れ止めされた映像であり、CV値基準のCV領域画像は揺れ止め画像に限定はされない。ただし、利用する上では、撮影時に忠実な画像を再現するためには揺れ止めしないまま処理が可能である。また、カーナビ等に利用するためには揺れ止めされた画像である方が使いやすい場合がある。
また、CV領域画像にはハードCV領域画像、ソフトCV領域画像、対象物CV領域画像の三種類があり、これらを区別しないときは単にCV領域画像という。
ただし、CV領域画像を生成する過程で、未だCV領域画像化されていない部分の領域も一つのCV領域画像として扱うこともある。
ハードCV領域画像とは、画像を分割したブロック形状のCV領域画像のことである。
画像処理を目的として画像を決まった形で分割する場合、通常は8*8〜10*10程度の矩形ブロックに分割するが、以下のソフトCV領域画像と区別するため、画像や画像内の対象物に依存せずに決まった形に分割したCV領域画像をハードCV領域画像という。
具体的処理の場合には分割した矩形をブロックと称することもある。正確にはハードCV領域画像の一部にブロックは含まれる。
ソフトCV領域画像とは、画像を画像中の対象物に依存する形で、柔軟に分割した場合のCV領域画像の意味であり、通常、一つの対象物は複数のソフトCV領域画像からなる。
ハードCV領域画像と区別して、画像と画像中の対象物に依存して分割されたCV領域画像をソフトCV領域画像という。
ハードCV領域画像の具体的な分割した矩形の形状をブロックという。
処理上、ハードCV領域画像は幾何学的に単純化する必要があり、ブロック化されることがほとんどなので、ブロックと呼称する場合がある。
動画像において、その代表座標系に属する全ての対象物が画像中を移動する位置と軌跡は、対象物の三次元座標が分かれば、CV値により、全てのフレーム内の微少範囲内に予測することができる。
隣接するフレーム間で概略三次元座標を求めることで、関連する前フレームの概略位置関係を一括して求めることができるので、追跡は微少範囲に絞り込むことが可能である。そのようにして求めた追跡データがTV値であり、TV値を求める演算をTV演算という。
通常トラッキングをするには画像を小領域のブロックに分割して、それを画像上に追跡する。8*8〜10*10程度が通常使われるブロックのサイズである。
ところで、小領域のブロックは隣接画像において一度追跡ができれば、CV値を用いて、概略三次元座標が分かることになる。この概略三次元座標が一括追跡の場合の予想値を生成することになる。
もちろん正確な三次元座標が求まれば、それは予想値ではなく決定値とすることができるが、隣接する二フレームの追跡では、精度が取れず三次元座標値は概略値となるために、決定値ではなく、予想値として扱うことにする。
また、ある一点の追跡データを持っていれば、CV値を同時に持つことで、全てのフレームの当該一点の位置関係が何時でも取得できることになる。
さらに、揺れ止め画像である必要はなく、揺れ止め画像であっても良いということが、本発明のCV値一括追跡装置においてきわめて重要なこととなる。
そこで、追跡データを移動距離で微分して、カメラの単位移動当たりの画素として、すなわちカメラ移動距離の関数としてTV値を表現するのが好ましい。
以上のような追跡演算をTV演算、その値をTV値、画像の各部分にTV値を付加した画像をTV画像と呼ぶものとする。
TV値は、追跡範囲を微少領域にまで絞り込み、自由度を0近くにまで、ギリギリ追い込んで決定することができることになり、演算が単純化され精度も向上し、エラーが少なくなり、画像処理上きわめて有利となる。
さらに、画像から直接CV値を取得する特徴点追跡装置とCV演算装置によらなくても、原理的にはGPSとジャイロとの組み合わせやIMU装置等の従来技術でCV値を求めることも可能であり、そのようにして求めたCV値を用いて新たにTV値(追跡データ)を取得することも可能であり、そのようなTV値(追跡データ)によって、本発明のCV領域画像前置装置及びこれを用いた各種装置を実現することもできる。
画像中に特徴点検出を行う場合、画像中の特徴ある部分を抽出し、それを特徴点とし、その特徴点周囲の小領域画像を切り取り、その小領域画像を他のフレームに追跡することで架空フレームの対応点を求めることが通常である。小領域は点ではないために、マッチングや相関によって一致を得ても、正しい追跡点にはならない。
そこで、特徴点を検出する際に、数学的演算によって求められた画素一点を示す特徴点を「関数特徴点」という。
具体的には、関数特徴点は、図17A〜17Cに示すように、例えば画像上の一点が周囲よりも明るい点となれば、関数特徴点であり、座標上の一点で定義できる。一方前記小領域画像特徴点は一点ではなく、ある微少面積を持った小領域が特徴点として定義される。
また、関数特徴点は、例えば二方向に移動させた地点の明るさが同時に極値を持つような地点を検索することでも求められる。
図17Aに示すように、画像の各画素の明るさをPとする。
関数特徴点条件を満たす座標を(x,y)とする。
座標(x,y)の明るさはP(x,y)と表す。
3*3のブロックで平均Pを取る。(ノイズカット)
移動は1/10ピクセル単位とする。
ここで、(x,y)が関数特徴点となりうる条件は
1.関数特徴点の明るさp(x,y)は、a〜d方向移動において、二つ以上の方向で極値を持つ。
ΔP=0
2.関数特徴点の明るさp(x,y)の微分値ΔP(x,y)は、a〜d方向移動において、二つ以上の方向で極値を持つ。
ΔΔP=0
3.pが少なくとも一つの方向で極値を持ち、同時にΔPが異なる方向で極値を持つ。
また、関数特徴点の周囲の小領域画像も特徴点ではあるが、これは関数特徴点ではない。
抽出は関数特徴点であるが、追跡は小領域画像特徴点であり、一般に同じ物ではない。
カメラの位置及び姿勢とソフトCV領域画像において、カメラと画像との関係は相対的であり、カメラを固定して画像の一部分の位置と姿勢の三次元ベクトルで表すことが可能である。このように、カメラを固定として、画像の一部分の三次元ベクトルをRV値という。その6自由度変数を求めることをRV演算という。
RVは
Regional Vectorの頭文字である。
あるCV領域画像においては、CV値とRV値は互いに変換できる関係にある。
なお、画像を構成する複数の座標系それぞれにCV値を定義することが可能であるが、CV値はこれまで動画像を代表する一個の座標系に対して一個のCV値を定義してきたので、しかも、カメラ側に定義してきたベクトルであるので、ここで複数の座標系に対して複数のCV値を定義すると、理解の混乱を起こす危惧があるため、ここではCV値は従来通り動画像を代表する座標系に対してのみ定義し、それ以外はRV値として、座標系とカメラの関係をCV値と同じ6自由度の変数で表示する。従って、次元及びその意味合いはCV値と同等であり、変換可能なものである。
このようにすることで、静止座標系に一致しているときは、6変数全て静止座標系と一致するので、データとして扱いやすくなる。
一般に、RV画像はTV値から演算で求められるので、TV値はRV値と重複するデータである。
対象物認識後にソフトCV領域画像の各関係を求める演算をJV演算といい、認識された対象物を構成する複数のCV領域画像及びそのRV値を、対象物単位で区別する結合変数である。
一般に、認識された対象物は複数のCV領域画像から構成されており、その時各CV領域に与えられ、同一対象物に属するCV領域画像の三次元関係を求めることをJV演算、その値をJV値、JV値を取得した画像をJV画像という。
JV画像は、CV値、RV値と同時に扱われる。
CV値、TV値、RV値、JV値を総称してVD(ベクトルデータ)と呼ぶ。
VDは、独立に決まるVDと重複する従属変数とからなる。
また、CV値とRV値はTV値から演算で求められるので、CV領域画像がVDを持つ場合、既にRV値を持つ場合はその中にTV値を含まない場合もある。
画像をブロック分割して、それぞれの追跡データを求めようとする場合、自己相関値がピークを持つような特徴点ブロックは追跡可能であるが、それ以外のブロックは追跡点が一義的には定まらない。
そこで、特徴ブロックとそれ以外のブロックに対して、後の処理において特徴点が移動してもその二次元配列順番を変えずにゴム紐状に伸び縮みするように、柔軟結合しておくことをゴム紐結合部と呼ぶ。
ゴム紐結合することで、特徴点ブロック以外のブロックでも仮想の追跡データを取得することができるようになった。
ただし、ゴム紐結合したために却って追跡データに矛盾が発生することがある。その時にはその矛盾の発生した場所で、ゴム紐を切断する作業を行う必要がある。このように一旦ゴム紐結合した一部分を切断することをゴム紐切断という。
PRMとは、Parts Reconstruction Method(3D対象物認識方法)の略であり、本願発明者により開発された対象物を認識するための技術である(国際出願PCT/JP01/05387号(国際公開WO 02/01505)参照)。具体的には、PRM技術は、前もって予想される対象物の形状と属性を部品(オペレータ部品)としてすべて用意しておき、それら部品と現実の実写映像を対比して、一致する部品を選択して対象物を認識する技術である。例えば、走行車輌等に必要となる対象物の「部品」は、道路標示としての車線、白線、黄線、横断道、道路標識としての速度標識、案内標識などであり、これらは定形のものであるので、PRM技術によりその認識は容易に行える。また、対象物をCV映像中に検索する場合においても、その対象物の存在する予想三次元空間を狭い範囲に限定することが可能となり、認識の効率化が可能となる。
なお、PRM認識によって、あらゆる監視対象物(予測される対象物、障害物、不審物等)が認識されるとは限らない。すなわち、記憶となるデータベースに情報が存在しない対象物は認識できない。しかし、これは特に問題となるものではない。人間であっても記憶にないものは認識できないのと同様である。認識とはそのもの、あるいは、そのものに近いものの記憶との対比によって得られるものであるからである。
(特開2000−295611号、国際公開WO02/01505号参照)
現実世界の中の複数の対象物にカメラを取り付け、CV画像を取得し、互いに位置関係を確認し、属性を持ち、互いに情報をやり取りし、判断する人工知能を複合人工知能記憶装置という。
CV画像中に情報の出入り口として、CVタグを配置することができる。特開2005−295495号、特開2005−122315号に本願発明者によるCVタグに関する発明が提案されている。
CVタグは、実写アイコン、CGアイコンとも呼ばれる、機能としては、CVタグはCGアイコン及び実写アイコンと基本的に同じである。
CVタグの置き方としては、CV画像の中の対象物に重ねて、又は対象物から多少話した仮想位置に対象物を特定する位置に設置し、情報の出入り口とする。
CVタグとしては、本願発明者による特開2005−295495号及び特開2005−122315号から明らかなように、CVタグには実写をそのままCVタグとして利用する方法と、小型のCGをタグとして貼り付ける方法の二種類がある。
一方、CGによるCVタグは、三次元計測した位置にタグとしてのCGを配置することになる。配置するには三次元計測する点では実写方式と同じであるが、また、読み出しや検索の場合はCGが既に三次元座標を持っていることから、その場での再度三次元計測をせずにCGを直接クリックすることで、その三次元座標を取得できるので、処理が簡単になる。この点が実写型と比較して有利な点である。
[CV演算]
まず、本発明のCV値基準一括追跡装置やCV領域画像前置装置における処理の前提となるCV演算について図1〜図13を参照しつつ説明する。
CV演算とはCV値を求める方法の一つであり、CV演算により求められた結果をCV値,CVデータと呼ぶ。CVという表記は、カメラベクトル:Camera Vectorの略記であり、カメラベクトル(CV)とは計測等のために映像を取得するビデオカメラ等のカメラの三次元位置と3軸回転姿勢を示す値である。
CV演算は、動画像(ビデオ映像)を取得し、その映像内の特徴点を検出し、それを隣接する複数のフレームに追跡し、カメラ位置と特徴点の追跡軌跡とが作る三角形を画像内に数多く生成し、その三角形を解析することで、カメラの三次元位置とカメラの3軸回転姿勢を求めるものである。
また、動画像から演算で求められるCV値は、動画像の各フレームに対応して、三次元のカメラ位置と三次元のカメラ姿勢とが同時に求まる。しかも、原理的には一台のカメラで、映像と対応してCV値が求められる特性は、CV演算でしか実現し得ない、優れた特徴である。
但し、CV値は、例えば、他の方法による計測手段(GPSとジャイロ、又はIMU等)より求めることもできる。従って、CV値の取得はCV演算による場合には限られない。
なお、GPSとジャイロ、又はIMU等によりCV値を取得する場合には、動画像の各フレームと、その三次元的カメラ位置と三次元的カメラ姿勢とを同時に取得するためには画像フレームと計測サンプリング時刻を高精度で、かつ完全に同期させる必要がある。
また、CVデータを画像から取得する場合は、取得されたデータは相対値であり、絶対値に変換するには既知の地点でのキャリブレーションが必要であるが、CV値と同時に取得される特徴点三次元位置座標と姿勢により、又は新たに画像内に指定して取得した特徴点により、画像内の任意の対象物との位置関係を計測することができるという、他の方法では実現困難な優れた特性を備える。
また、画像に対応したCV値が求まるので、画像との相性が良く、画像から取得したCV値である限り、その画像内では矛盾が無いので、画像以外から求めるCV値と比較して、画像から直接にカメラ位置とその3軸回転姿勢を求めることができるCV演算は画像内計測や画像内測量に好適となる。
そして、本発明のCV値基準一括追跡装置は、このCV演算により得られたCV値データに基づいて一括追跡(トラッキング)処理を行うものである。
CV演算は、後述する本発明のCV値基準一括追跡装置200のCV画像取得部201(図15参照)として機能するCV演算部2で行われる。
CV演算部2は、図1に示すように、全周ビデオ映像部1から入力されるビデオ映像について所定のCV演算処理を行うことでCV値を求めるようになっており、具体的には、特徴点抽出部2-1と、特徴点対応処理部2-2と、カメラベクトル演算部2-3と、誤差最小化部2-4と、三次元情報追跡部2-5と、高精度カメラベクトル演算部2-6とを備えている。
また、映像は、一般には予め記録した動画映像を使うことになるが、自動車等の移動体の移動に合わせてリアルタイムに取り込んだ映像を使用することも勿論可能である。
全周映像の平面展開とは、全周映像を、通常の画像として遠近法的に表現するものである。ここで、「遠近法」と呼称するのは、全周画像のそのものはメルカトール図法や球面投影図法のように、遠近法とは異なる方法で表示されているので(図4参照)、これを例えば等距離図法のように平面展開表示することで、通常の遠近法映像に変換表示できるからである。
なお、移動体1-1aには、その位置座標を取得する目的で、例えば、絶対座標を取得するGPS機器単独やIMU機器を付加したもの等により構成した位置計測機器等を備えることができる。
また、移動体1-1aに搭載される全周ビデオカメラ1-1としては、広範囲映像を撮影,取得するカメラであればどのような構成であってもよく、例えば、広角レンズや魚眼レンズ付きカメラ、移動カメラ、固定カメラ、複数のカメラを固定したカメラ、360度周囲に回転可能なカメラ等がある。本実施形態では、図2及び図3に示すように、車輌に複数のカメラが一体的に固定され、移動体1-1aの移動に伴って広範囲映像を撮影する全周ビデオカメラ1-1を使用している。
ここで、全周ビデオカメラ1-1は、カメラの全周映像を直接取得できるビデオカメラであるが、カメラの全周囲の半分以上を映像として取得できれば全周映像として使用できる。
また、画角が制限された通常のカメラの場合でも、CV演算の精度としては低下するが、全周映像の一部分として取り扱うことが可能である。
仮想球面に貼り付けられた球面画像データは、仮想球面に貼り付けた状態の球面画像(360度画像)データとして保存・出力される。仮想球面は、広範囲映像を取得するカメラ部を中心点とした任意の球面状に設定することができる。
図4(a)は球面画像が貼り付けられる仮想球面の外観イメージであり、同図(b)は仮想球面に貼り付けられた球面画像の一例である。また、同図(c)は、(b)の球面画像をメルカトール図法に従って平面展開した画像例を示す。
CV演算部2では、まず、特徴点抽出部2-1が、全周ビデオ映像部1の全周ビデオカメラ1-1で撮影されて一時記録された動画像データの中から、十分な数の特徴点(基準点)を自動抽出する。
特徴点対応処理部2-2は、自動抽出された特徴点を、各フレーム間で各フレーム画像内において自動的に追跡することで、その対応関係を自動的に求める。
カメラベクトル演算部2-3は、対応関係が求められた特徴点の三次元位置座標から各フレーム画像に対応したカメラベクトルを演算で自動的に求める。
誤差最小化部2-4は、複数のカメラ位置の重複演算により、各カメラベクトルの解の分布が最小になるように統計処理し、誤差の最小化処理を施したカメラ位置方向を自動的に決定する。
高精度カメラベクトル演算部2-6は、三次元情報追跡部2-5で得られた追跡データに基づいて、カメラベクトル演算部2-3で得られるカメラベクトルより、さらに高精度なカメラベクトルを生成,出力する。
そして、以上のようにして得られたカメラベクトルが、後述するCV値基準一括追跡装置200に入力され、CVタグの生成や貼り付け処理に利用されることになる。
特徴点を充分に多くとることにより、カメラベクトル情報が重複することで、三地点の座標で構成される単位の三角形を、その十倍以上の多くの特徴点から求めることになり、重複する情報から誤差を最小化させて、より精度の高いカメラベクトルを求めることができる。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトルをいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度から微分して導き出すことができる。
このように、本実施形態のカメラベクトルの検出とは、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の自由度を決定することである。
まず、上述した全周カメラ映像部10の全周ビデオカメラ1-1で取得された画像データは、間接に又は直接に、CV演算部2の特徴点抽出部2-1に入力され、特徴点抽出部2-1で、適切にサンプリングされたフレーム画像中に、特徴点となるべき点又は小領域画像が自動抽出され、特徴点対応処理部2-2で、複数のフレーム画像間で特徴点の対応関係が自動的に求められる。
具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図5〜図7に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図7に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図8に示すように、各画像中に充分に多くの特徴点を指定,抽出することが望ましく(図8の○印参照)、例えば、100点程度の特徴点を抽出する。
本実施形態では、例えば、360度全周画像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。また、これを三角測量として説明すれば、方位と俯角仰角を測量する機器を車載して、対象となる複数の測量地点を、移動する測量機器により同一対象物を計測して取得したデータから、各対象地点の座標と測量機器の移動の軌跡を求める場合と同じである。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
カメラベクトル演算に用いる画像としては、原理的にはどのような画像でも良いが、全周映像は対象物の方向がそのまま緯度経度で表現されていることから、きわめて有利である。図7に示す360度全周画像のような広角レンズによる画像の方が特徴点を数多く選択し、複数フレームに渡って追跡し易くなる。また、狭角レンズによる映像あっても、同一対象物の周りを移動しながら様々な方向から撮影する場合には特徴点が視界から逃げないので有効である。
そこで、本実施形態では、CV演算に360度全周画像を用いており、これによって、特徴点の追跡距離を長くでき、特徴点を十分に多く選択することができ、遠距離、中距離、短距離それぞれに都合の良い特徴点を選択することができるようになる。また、回転ベクトルを補正する場合には、極回転変換処理を加えることで、演算処理も容易に行えるようになる。これらのことから、より精度の高い演算結果が得られるようになる。
なお、図7は、CV演算部2における処理を理解し易くするために、1台又は複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際のCV演算では、必ずしもメルカトール図法による展開画像である必要はない。
さらに、誤差の分布が大きい特徴点については削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
図9では、図7の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトル(X,Y,Z)が示されている。
図10及び図11は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
具体的には、CV演算部2では、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返すことができる。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
このようにして、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定することができる。これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
これによって、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整する形で統合し、距離演算を行い、さらに、誤差の分布が大きい特徴点を削除し、必要に応じて他の特徴点について再演算することで、各特徴点及びカメラ位置での演算の精度を上げることができる。
具体的には、まず、三次元情報追跡部2-5で、カメラベクトル演算部2-3,誤差最小化部2-4を経て得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで生成される画像の一部として得られる三次元情報(三次元形状)に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレーム間で連続的に追跡して三次元形状の自動追跡を行う。
そして、この三次元情報追跡部2-5で得られた三次元情報の追跡結果から、高精度カメラベクトル演算部2-6においてより高精度なカメラベクトルが求められる。
そこで、特徴点追跡で得られるカメラベクトルを概略値と位置づけ、その後のプロセスで得られる三次元情報(三次元形状)を各フレーム画像上に追跡して、その軌跡から高精度カメラベクトルを求めることができる。
三次元形状の追跡は、マッチング及び相関の精度を得やすく、三次元形状はフレーム画像によって、その三次元形状も大きさも変化しないので、多くのフレームに亘って追跡が可能であり、そのことでカメラベクトル演算の精度を向上させることができる。これはカメラベクトル演算部2-3により概略のカメラベクトルが既知であり、三次元形状が既に分かっているから可能となるものである。
また、得られた三次元形状を、カメラ位置から二次元画像に変換して、二次元画像として追跡することも可能である。カメラベクトルの概略値が既知であることから、カメラ視点からの二次元画像に投影変換が可能であり、カメラ視点の移動による対象の形状変化にも追従することが可能となる。
例えば、図13に示すように、車載カメラからの映像を平面展開して、各フレーム画像内の目的平面上の対応点を自動で探索し、対応点を一致させるように結合して目的平面の結合画像を生成し、同一の座標系に統合して表示する。
さらに、その共通座標系の中にカメラ位置とカメラ方向を次々に検出し、その位置や方向、軌跡をプロットしていくことができる。CVデータは、その三次元位置と3軸回転を示しており、ビデオ映像に重ねて表示することで、ビデオ映像の各フレームでCV値を同時に観察できる。CVデータをビデオ映像に重ねて表示した画像例を図13に示す。
なお、ビデオ映像内にカメラ位置を正しく表示すると、CV値が示すビデオ映像内の位置は画像の中心となり、カメラ移動が直線に近い場合は、すべてのフレームのCV値が重なって表示されてしまうので、例えば図13に示すように、敢えてカメラ位置から真下に1メートルの位置を表示することが適切である。あるいは道路面までの距離を基準として、道路面の高さにCV値を表示するのがより適切である。
次に、以上のようにして求められたCV値に基づいてCV映像の一括追跡(トラッキング)処理を行う本発明に係るCV値基準一括追跡装置の実施形態について、図面を参照しつつ具体的に説明する。
[基本構成]
まず、図15を参照して、本発明の一実施形態に係るCV値基準一括追跡装置の基本構成について説明する。
図15は、本発明の一実施形態に係るCV値基準一括追跡装置の基本構成を示すブロック図である。
図15に示すように、本実施形態に係るCV値基準一括追跡装置200は、上述したCV演算や、GPSとジャイロ、又はIMU等の計測手段などにより取得されるCV値が付加されたCV映像を、複数フレームにわたってトラッキング(追跡)処理するための装置であり、具体的には、CV画像取得部201と、初期画像特徴点選択部202と、隣接フレーム追跡部203と、特徴点追跡予想部204と、対応位置一括決定部205とを備えている。
CV画像から特徴点を取得し、追跡を始めるにあたり、初期画像を定める。
初期画像特徴点選択部202は、初期画像から複数の特徴点を検出する。
ここで初期画像とは特徴点を検出したフレーム画像のことであるが、特徴点は時系列上で新たに複数抽出するので、全ての特徴点を同一画像で検出するとは限らないので、全てのフレームが初期画像となることもあり得る。初期画像とは特徴点を検出した画像であり、特徴点から見た呼称である。従って追跡して得た各特徴点にはその特徴点の初期画像があることになる。
なお、初期画像において最初の追跡が行われ、その追跡データが基準となって三次元座標が取得されることになるが、この最初の初期画像における追跡データは、次の工程の追跡予想のために必要な三次元概略データを取得するためのものであり、最終的に採用される追跡データとはならない。ここでは予想位置の周囲に正しい追跡位置があるという仮定に基づいている。
概略三次元値が分かれば、CV値から全てのフレームへの追跡予想位置が分かるということが重要である。
初期画像内の特徴点の概略三次元座標が既知となれば、CV値が既知であることから、特徴点の三次元座標が明らかになり、また、その三次元座標が関連するフレームのどの位置に二次元特徴点として投影されるかを演算で求められ、結果として二次元画像内に二次元特徴点として追跡位置を一括して予測して表示することができる。
このようにして初期画像の全ての特徴点が映り込んでいる全ての関連フレームにおける追跡位置の予測位置が演算で求められる。
なお、特徴点追跡予想部204による特徴点の関連フレームの予測は関連画像内に小領域の範囲として示されることになる。追跡予想位置を示す範囲はブロックでも良いし、円形領域でも良いが、ブロックが演算上は単純で扱いやすい。
すなわち、対応位置一括決定部205では、既に特徴点追跡予想部204の予想により特徴点追跡の概略位置が求まっているので、範囲内に再度特徴点を検出するか、若しくは特徴点に対応する小領域の位置を再確認のため、再度範囲内で相関やマッチング処理により対応点を詳細に求める。
追跡位置が予想された後は、最初の初期画像で取得して隣接フレームに追跡した追跡データは破棄される。追跡が必要な全フレームに亘って、初期画像に最初の追跡も含めて再度詳細に関連する複数フレームに亘り、一括して、しかも同時に対応点を求めることになる。
さらに、効率的であるだけでなく、予測範囲をきわめて狭い小面積内に予想することで、追跡ミスを極端に減少させることができ、また、対応点位置をきわめて狭い範囲にのみ探すことで、精度の向上と演算時間の縮小が同時に可能となる。
すなわち、一括して同時に予想し、一括して同時に検出できることが本実施形態のCV値基準一括追跡装置200の重要な特徴となる。
例えば、10フレーム一括して予想することで、10フレームを同時に検証できることになり、原理的に対応するときは10フレーム同時に対応し、一フレームだけ対応しないことはないので、対応点が明確になり、エラーが減少する。
特徴点の追跡を始めるフレームが初期画像であり、全フレームに新たな特徴点が検出されれば、全フレームが初期画像となる。
以下、図16を参照して、本実施形態のCV値基準一括追跡装置200における既知の特徴点を使用したCV値基準一括追跡方法(特徴点予想)について、より具体的に説明する。
図16は、本実施形態のCV値基準一括追跡装置において既知の特徴点を使用したCV値基準一括追跡方法の原理を説明するための説明図である。
同図において、符号721,722,732.724〜731は、複数のフレームF1,F2,F3,F4〜Fnであり、721は特徴点Aの初期画像となるフレームF1であり、特徴点A701を含む小領域702が存在する。
追跡は、概略CV値を使って追跡位置を予測することになるが、ここでは、説明を単純化するために、一つの小領域に一個の特徴点とし、その追跡予想値を三通りと設定した。
三通りの予想はそれぞれAB方向、AC方向、AD方向となる。実際にはもっと多数の方向とするのが適切である。
さらに、図16では一つの小領域に含まれる特徴点はAの一個としたが、必ずしも一個である必要はなく、複数個の特徴点でもかまわない。
以下に示す特徴点追跡予測により、複数フレームに亘って特徴点の追跡予想できることが理解できる。
概略CV値は最終的に求められるCV値より精度が悪いのが一般的である。ただし、目的によっては、例えば座標系分離を目的とする場合は、CV値を求めることではなく、座標系分離が目的であるために、同等の精度でも良い場合がある。
ただし、通常のCV画像は、CV値は既知であっても、同時に求めた特徴点は既に破棄されているため、CV基準一括追跡のための特徴点は新たに求められることになる。図16の特徴点Aは新たに抽出された特徴点であってもよい。
もちろん、概略CV演算時の特徴点が破棄されずに残っていれば、その特徴点の三次元座標が使えるので、このように特徴点Aを新たに抽出する必要はなく、そのまま三次元座標の分かっている特徴点としてAと同じ意味で使えることになる。
何故ならもし目的の精度が出ているのであればわざわざCV値を求める必要はないからである。
ただし、上述したように、例えば座標系分離を目的とする場合は、目的が高精度のCV値を求めることではなく、座標系分離が目的であるために同等の精度でも良い場合がある。
ここでは、概略CV値であるために特徴点の三次元座標値も概略値となる。概略だからこそ追跡予想なのであって、精度が高ければ追跡予想ではなく追跡決定となる。この追跡予想によって特徴点が各フレームで対応する範囲を絞り込むことができるのであり、それが本発明のCV値基準一括追跡の基本原理である。
さらに、ここに揺れ止め画像による湧きだし点基準を導入すると、予測範囲は狭い範囲の二次元だった予測範囲が、さらに狭い範囲の一次元領域に限定されてくる。予想範囲は狭い方が有利であり、CV基準一括追跡にはさらに好都合になる。
以上のような追跡予想の原理により、以下、実際の追跡方法について具体的に説明する。
従って、追跡はAB方向のみが正しいと判定する。この時にはフレーム731のみならず、全てのフレーム722、723、724、725、726、727、728、729、730全てのフレームにおいて追跡が完了していることになる。
ここで、もしCV値基準一括追跡ではなく、各フレーム個別に追跡すると、上述した三方向とも隣の3フレームまでは追跡できたことになり、誤差の多い追跡データが取得されてしまう。
このことからも、本発明のCV値基準一括追跡方法が優れていることが理解できる。
上述のように、CV値を求めるときには同時に多数の特徴点を用いているが、CV画像として記録するときにはカメラ位置のみの座標と姿勢を記録するが、多数の特徴点の三次元座標はデータとして残していない。
そこで、CV値基準一括追跡をCV演算からの一連の作業として行うときには、多数の特徴点の三次元座標を記録しておくことで、新たに特徴点検出をしなくても、前記特徴点対応位置予測が可能となる。
従って、図15に示した初期画像特徴点選択部202において、既に概略CV演算に用いた特徴点を再利用することになる。
このようにすることで、追跡エラーを減少させ、追跡精度を向上し、演算時間を短縮することができる。
上述したように、CV値を求めるときには、同時に多数の特徴点を用いているが、CV画像として記録するときにはカメラ位置のみの座標と姿勢を記録するが、多数の特徴点の三次元座標はデータとして残していない場合が多い。このようにCV画像は、一般にCV演算時に用いた特徴点は破棄しているので、新たに初期画像を定め、特徴点を抽出する必要がある。
CV演算時に用いた特徴点を用いず、新たに多数の特徴点を検出して、複数フレームに亘り、対応位置を予測することでも、一括特徴点対応を求めることができる。
これは、CV画像におけるデータの持ち方に由来する現状対応である。
次に、上述した本実施形態のCV値基準一括追跡装置において、小領域画像による予想と関数特徴点の指定を行う場合について具体的に説明する。
小面積で予想した特徴点の予想範囲に特徴点の対応点を求める場合は、従来は特徴点を含む小面積画像そのものを相関又はマッチングで対応点を求めることで追跡データを求めるのが一般的であるが、小領域は点ではないために、マッチングや相関によって一致を得ても、正しい追跡点にはならない。
本発明では、予想した小面積内に関数特徴点抽出操作を行い、対応する小面積において新たに得られた一個の関数特徴点は、初期画像における関数特徴点と一対一に対応するという仮定の下に、追跡データを取得するようにしてある。
具体的には、関数特徴点は、図17A〜Cに示すように、例えば画像上の一点が周囲よりも明るい点となれば、関数特徴点であり、座標上の一点で定義できる。一方小領域画像特徴点は一点ではなく、ある微少面積を持った小領域が特徴点として定義される。
また、関数特徴点は、例えば二方向に移動させた地点の明るさが同時に極値を持つような地点を検索することでも求められる。
また、はじめから一小面積内に、複数の関数特徴点を抽出し、複数の関数特徴点を追跡しても良い。
このようにすることで、これまで複数フレーム追跡によって発生していたフレーム累積誤差をほぼゼロにすることができる。
トラッキングエラーを少なくし、複数のフレームに亘る追跡においても、誤差無く追跡することが可能となる。
原理的に、特徴点を関数特徴点のみに限定する必要はないからである。
ただし、精度の観点からは関数特徴点を検出し、その周囲を切り取った小領域画像特徴点を追跡して概略位置を求め、次に再び関数特徴点により一致を求めることで、それぞれの特徴を活かして、精度を向上させることが可能である。
図17A〜Cに示すように、関数特徴点とは、例えば画像上の一点が周囲よりも明るい点となれば関数特徴点であり、座標上の一点で定義できる。一方、小領域画像特徴点とは一点ではなく、ある微少面積を持った小領域が特徴点として定義される。
また関数特徴点は、例えば二方向に移動させた地点の明るさが同時に極値を持つような地点を検索することでも求められる。
画像の各画素の明るさをPとする。
関数特徴点条件を満たす座標を(x,y)とする。
座標(x,y)の明るさはP(x,y)と表す。
3*3のブロックで平均Pを取る。(ノイズカット)
移動は1/10ピクセル単位とする。
1.関数特徴点の明るさp(x,y)は、
a〜d方向移動において、二つ以上の方向で極値を持つ
ΔP=0
2.関数特徴点の明るさp(x,y)の微分値ΔP(x,y)は、
a〜d方向移動において、二つ以上の方向で極値を持つ
ΔΔP=0
3・pが少なくとも一つの方向で極値を持ち
同時にΔPが異なる方向で極値を持つ
ここで、特徴点の種類は上記の3種類となる。上記関数特徴点の分類は追跡(トラッキング)時の情報となる。
同図に示す関数特徴点検出装置400では、まず、概略CV画像取得部401は、概略CVが既に求められているCV画像を用いる。以降の演算時間を短縮するために、非関数特徴点領域抽出部403で、特徴点とはなり得ない領域を先に削除しておいて、次の作業に進む。
画像内で明るさの差の無い領域は特徴点とはなり得ないので、領域毎削除する。空の部分やビルの白い壁の部分などはそれに相当する。
明るさの差のある部分のみが特徴点候補として残ることになる。明るさの差が検出閾値となるが、その閾値を決めるのが非関数特徴点検出閾値設定部402である。
ここで検出閾値を自由に設定し最適な値に設定することができる。
関数特徴点の検出の閾値を関数特徴点検出閾値設定部405で設定する。閾値を適切に設定することで適切な関数特徴点が適切な数だけ検出できることになる。また、画像全域から関数特徴点を検出する場合は、画像の部分や方向で異なる閾値を設定することが望ましい。
また、関数特徴点検出が明るさに依存しないように、明るさ規格化部406において、平均の明るさを揃えておく必要がある。
そこで、上述した「条件1,2,3」を満たす関数特徴点を関数特徴点検出部407において検出する。
このようにして検出した関数特徴点は、関数特徴点種類特定部408において、その条件分類と移動方向の種類の分類による各種組み合わせにより関数特徴点の種類が特定される。
条件分類される関数特徴点の種類の例を、図17Bの308〜321に示す。
ここでは、フレーム11で検出された関数特徴点が、フレーム12〜14に対応点を求めることになる。
図19に示すように、一個の関数特徴点1131は、図形41の一部である。この関数特徴点の周囲を10*10程度の面積で切り取り、その小領域画像を21とする。これにより、関数特徴点は小領域画像に置換されたことになる。
また、関数特徴点を中心とする定型のブロックを51とする。初期画像においては小領域画像21とブロック51は一致している。
同図に示すように、関数特徴点の周りを切り取った小領域画像21は時系列のフレーム12〜17に向かって追跡するのであるが、従来方法で小領域画像を追跡すると、その追跡結果は符号22〜27に示すようになるが、正しくは、関数特徴点を囲む本来の範囲は符号52〜57で示すものでなければならない。この差は、関数特徴点は本来一点であるにもかかわらず、追跡のために小領域画像として追跡した結果生じるものである。
ここではCV値は既に求められているとしているが、もし未知の場合は、小数の小領域画像追跡により求めることができる。
すなわち、関数特徴点はフレーム12〜17に追跡した場合に22〜27の範囲に入ると予想したことになる。もし、実際にこの範囲に入らない場合があるとすれば、そのときは、最初に設定した小領域画像の面積を多少大きくすればよいだけである。
このときに求まる関数特徴点が、図20に示す1132〜1137である。同図において、求まった関数特徴点が作るブロックは52〜57であり、22〜27における小領域画像との差が、従来方法による誤差であることになる。
このようにして複数フレームに亘る対応する特徴点検出が成されたことでCV値基準一括追跡が行われたことになる。
その後は、この精度良く抽出された特徴点を使って、従来通りのCV演算を行うことになる。
次に、本発明にかかるCV値基準一括追跡装置を用いた高精度CV演算装置の一実施形態について、図21を参照して説明する。
図21に高精度CV演算装置500は、画像取得装置501と、三次元特徴点記録部502と、概略CV値取得部503と、CV画像生成装置504と、CV基準一括追跡部505と、特徴点追跡データ取得部506と、高精度CV演算部507とを備えている。
三次元特徴点記録部502は、画像の中に出来るだけ均一に、数百点程度の特徴点を検出する。特徴点を複数フレームに亘って追跡することで対応点を検出し、複数の特徴点とその対応関係から、撮影時のカメラの三次元位置と姿勢を全フレームについて使用した特徴点の三次元座標を求める。
概略CV値取得部503は、同時にカメラベクトル(CV)を演算(CV演算)して前記各フレーム画像のカメラベクトル値(CV値)を求める。
CV画像生成装置504は、CV値を画像の各フレームに付加した画像を生成する。
ここまでの構成は、上述したCV演算(図1〜図13参照)とその演算過程で取得した特徴点の三次元座標を記録する部分である。
このCV基準一括追跡部505は、上述した図15に示した本発明にかかるCV値基準一括追跡装置200と同様の構成となる。
ここでは先に求めた三次元特徴点記録部502の三次元特徴点を再利用するが、さらに新たに特徴点を追加取得して、その三次元座標を求めて利用することができる
ここで、新たな特徴点を追加すれば、それだけCV演算の精度を増す原因となるが、もし追加取得しないで概略CV値を求めるときに用いた特徴点を再利用する場合であっても、CV値基準一括追跡部505により追跡されるフレーム数が圧倒的に増加することになるので、結果としてフレーム当たりの有効特徴点数が大幅に増加することになる。
一つの特徴点に着目した場合、連続する多くのフレームに亘って追跡データが取得されることになる。このことからフレーム当たりの特徴点数が増大するのみならず、フレーム間隔で決まるCV演算時のカメラ間距離が増大することになる。
さらに、高精度CV演算部507は、特徴点追跡データから精度の高いCV値を演算で求める。
しかしながら、本発明にかかるCV値基準一括追跡方法によれば、特徴点数が増大するだけでなく、精度の高い前記底辺距離が長距離で取れることになり、CV演算時の精度が大きく向上することになる。
こうして得られたCV値は、初めに取得した概略CV値と比較して数段精度が高くなっている。従って、高精度のCV画像が必要な場合はこのような本実施形態の高精度CV演算装置500を用いることが好ましい。
次に、本発明にかかるCV値基準一括追跡装置を用いたリアルタイム高精度CV演算装置の一実施形態について、図22を参照して説明する。
図22に示すリアルタイム高精度CV演算装置600は、基本構成は図18で示した関数特徴点検出装置400と殆ど共通するが、本実施形態では、CV値が既知ではないために、特徴点検出と同時にCV演算も求めている点が異なる。
具体的には、リアルタイム高精度CV演算装置600は、まず、リアルタイム画像取得部611が、動画をリアルタイム画像として取得する。
次に、関数特徴点抽出部612は、関数特徴点を検出する。
ここで、本実施形態では、関数特徴点画像置換部609において、関数特徴点から概略CV値を求める追跡処理のために、20個程度の関数特徴点を小領域画像に置換する。
これにより、概略CV画像取得部401で、概略CV値を持ったCV画像を取得したことになる。なお、ここでの小領域は20個程度のため、精度は十分ではないが、概略位置を予測するには十分である。
これによって条件は図18で示した関数特徴点検出装置400とまったく同一となったことになる。
従って、これ以降は図18で示した関数特徴点検出装置400の場合とまったく同様の構成からなる関数特徴点検出部615により、関数特徴点による高精度CV値基準一括追跡がなされる(図18及び該当説明参照)。
追跡結果として追跡データ取得部617で高精度の追跡データが得られたことになる。
高精度の追跡データが取得できれば、最終的に高精度CV演算部618により、精度の高いCV値を、短時間に求めることができる。
以上により、本実施形態のリアルタイム高精度CV演算装置600によれば、精度の高い特徴点による一括追跡により精度の高い追跡データが取得できたことで精度の高いCV値が得られることになる。
次に、以上説明した本発明のCV値基準一括追跡装置等を用いて実現される本発明に係るCV領域画像前置装置について、図面を参照しつつ具体的な実施形態を説明する。
[ハードCV領域画像生成装置]
まず、図23を参照して、本発明の一実施形態に係るCV領域画像前置装置を構成する構成要素のうち、ハードCV領域画像生成装置までを説明する。
同図に示すように、ハードCV領域画像生成装置は、自由に移動するビデオカメラで撮影した動画像を取得し、記録する画像取得装置1と画像の中に特徴点を検出し、特徴点を複数フレームに亘って追跡することで対応点を検出し、複数の特徴点とその対応関係から、撮影時のカメラの三次元位置と姿勢を全フレームについて求めるカメラベクトル(CV)を演算して求め、各画像のカメラベクトル値(CV値)を求めるCV演算装置3を備える。
後述するRV値又は、JV値で結合されたRV値は、前記対象物毎に与えた複数のCV値と数学的に同等であり、常に変換可能である。
FP付加CV画生成装置6は、CV演算時に同時に副次的に求まるFP座標(特徴点三次元座標)をCV画像生成装置4の出力に、付加したFP付加CV画像を生成する。ここでFP座標は三次元座標を持つので、三次元座標として付加するのが有利であるが、画像上の二次元座標として持つことでも効果はある。
FP値は何時でも画像から抽出できるので、画像の記録や伝送においては、FP値を付加しないのが常である。CV値が分かっていれば追跡は狭い範囲に限定されるので、FP値は比較的簡単に求められるので、必要な時に画像から直接求めることが可能である。ただし、FP値を付加した方が、再演算しないで済むので、目的によっては好都合となる。
そして、CV画像にさらに以下の処理を加えることで、新しい画像処理の世界が開ける。
一般には矩形のブロックを用いるが、これは画像を表す図法により様々な形状となる。
CV値基準一括追跡方法と手段においては、台形ブロックを前記ハードCV領域画像分割装置によって分割された各CV領域画像の対応点を隣接画像に亘って、上述したCV基準一括追跡方法等により追跡(トラッキング)する。
なお、TV値は、精度の問題はあるものの、上述した本発明に係るCV値基準一括追跡の技術によらなくて求めることは可能である。従って、本実施形態に係るCV領域画像前置装置や、これを用いた後述する各種装置(図28以下を参照)においては、本発明に係るCV値基準一括追跡装置を用いることなく特徴点のTV値(追跡データ)を求めることで対応することも可能である。
また、上述したように、画像から直接CV値を取得する特徴点追跡装置とCV演算装置によらなくても、原理的にはGPSとジャイロとの組み合わせやIMU装置等の従来技術でCV値を求めることも可能であり、そのようにして求めたCV値を用いて新たにTV値(追跡データ)を取得することも可能であり、そのようなTV値(追跡データ)によって、本実施形態に係るCV領域画像前置装置や、これを用いた各種装置を実現することもできる。
画像の全てのCV領域画像をトラッキングすることは容易ではない。そこで、本実施形態では、画像を分割したブロックCV領域画像の移動に関する法則性を見いだし、全ブロックCV領域画像に追跡データを与える。
しかしながら、現実的な装置の実現上、前もって代表する座標系のCV値を取得することで画像の回転揺れ止めが可能となり、回転揺れ止め画像を用いることでその後の処理がきわめて容易になることから、ここではCV値を先に求め、そのCV値と回転揺れ止め画像を用いてハードCV領域画像分割をする処理工程が行える構成としてある。当然、再度JV値から精度の高いCV値を求めることは可能である。
本発明においては、画像がCV値と共にハードCV領域画像のTV値を持つことに特徴がある。
追跡の予想範囲がきわめて微少な範囲に限定されることで、演算時間の短縮というメリットのみならず、追跡エラーが発生する確率が大きく減少するというメリットが生じる。
CV値が決まれば、CV値基準とすることで追跡はきわめて限定された範囲の中に求められる。
さらにCV値無しの二次元画像の二次元トラッキング値取得演算と比較して、追跡がきわめて容易になり、高速化され、画像の再構成が単純化され、そのことでデータ量を大幅に減少できることになる。
しかし、一般画像の性質として、代表する座標系の対象物のみのCV値で表現できる範囲が画像の大部分を占めているので、CV値は代表座標系の一つで十分である。一般には世界座標系となる静止座標系を代表座標系とする場合が多い。また、目的部分が静止座標系でない場合は、移動する対象物を第二の代表座標系とすることができる。
さらに、このようにして代表座標系を増加せしめることは可能であるが、全てを代表座標系とすることは現実的ではないので、複数の代表座標系を用いても、それら代表座標系に属さないCV領域画像が生じる場合がある。
一方、代表座標系以外の部分を二次元検索することなく、一括追跡とする場合は、後述する「座標系分離装置」とその実施例に示すように、対象となる領域の座標系を検出して、その座標系で検索することで一括追跡が可能となり、最終的には解決される。
この代表座標系の関する事実は、以下のソフトCV領域画像、対象物CV領域画像に関しても同じ共通理解が成り立つことは重要である。
次に、図23を参照して、本発明の一実施形態に係るCV領域画像前置装置を構成する構成要素のうち、ソフトCV領域画像生成装置までを説明する。
同図に示すように、ハードCV領域画像生成装置10の出力から、複数のハードCV領域画像を結合するなどして、CV領域画像の境界線を形成し、ソフトCV領域画像を決定する。
あるいは、ハードCV領域画像生成装置を介さずに、同種の色を塗り絵のように埋めていき、又は輪郭線を抽出して情報を付加し、直接同種テクスチャーCV領域画像を分離する。
これらの機能を組み合わせることでさらにCV領域画像抽出の精度は向上する。
また、RV演算装置13は、ソフトCV領域画像に分割された画像の各ソフトCV領域画像に関して、ソフトCV領域画像をCV値基準により一括追跡し、基準となる座標系に対する位置及び姿勢、及び運動を演算し、ソフトCV領域画像のCV領域画像ベクトル値(RV値)を求める。
ただし、何時でもCV領域画像単位のTV値に変換することは可能である。また画像の内容をRV値として扱う方が人間の視覚の認識における状況とよく類似していることから単純され、しかも理解が得られやすいという長所がある。
TV値はRV値に整理されたことになるので、RV値を持つ画像はTV値を持つ必要はない。RV値を求められなかった部分はTV値を持つことでRV値の代用とすることができる。
さらに、ソフトCV領域画像生成装置14は、画像を構成する全CV領域画像が、CV値とCV領域画像ベクトル値(RV値)を付加して持つ画像を生成する。
次に、図23を参照して、本発明の一実施形態に係るCV領域画像前置装置を構成する構成要素のうち、対象物画像生成装置までを説明する。
図23に示すように、対象物認識装置16は、ソフトCV領域画像生成装置14の出力から、複数のソフトCV領域画像を所属する対象物毎に結合するなどして、若しくは前記ソフトCV領域画像生成装置を介さずにCV画像生成装置4から直接同種対象物CV領域画像を分離するなどして、画像内容に沿った複数のソフトCV領域画像から画像を再構成する。
対象物認識に関する技術として、本願発明者は、上述した特開2000−295611号等でPRMを提案している。この方法によれば、例えば、画像の中から、複数のCV領域画像からなる対象物が認識されることになる。それと同時にその対象物に属するソフトCV領域画像が分類されることになる。すなわち、対象物を認識すると同時にその対象物に所属するソフトCV領域画像が自動的に選択される。このようにここでは対象物は複数のソフトCV領域画像からなるとの前提が存在している。さらに、画像はその一部又はその全てを複数の対象物から再構成される。
このことで対象物の位置と対象物を構成しているソフトCV領域画像との関係をベクトルで表現できることになる。
画像は最終的に複数の対象物の集合として表現され、さらにそれぞれの対象物は複数のソフトCV領域画像の集合として表現されたことになる。
次に、図24及び図25を参照して、上述したハードCV領域画像の生成を行うハードCV領域画像分割装置8、TV演算装置9、及びハードCV領域画像生成装置10の各部の具体的な構成について説明する。
[ハードCV領域画像分割装置]
ハードCV領域画像分割装置8は、図24に示すように、以下の各部を備える。
ブロック分割部84は、画像をなるべく簡単な幾何学的ブロックに分割する。
ここではブロック分割によりハードCV領域画像を生成したことになる。一般には矩形は幾何学的に単純なのでよく使われるが、ここでは使用する図法によってブロックの形状は変化するので、必ずしも直線の結合とはならないが、便宜上、ハードCV領域画像として台形ブロック、又は当該台形ブロックを含む最小の矩形ブロックがしばしば用いられる。
処理の過程で、ブロック分割により、ブロックがそのままハードCV領域画像となることもあるが、一部においてはブロックが複数集まって、あるいはブロックがさらに分割されて、ハードCV領域画像となることがあるので、ここではあえてハードCV領域画像とブロックを使い分けて説明する。
ゴム紐結合部86は、特徴ブロックと前記それ以外のブロックに対して、後の処理において特徴点が移動してもその二次元又は一次元の配列順番を変えずにゴム紐状に伸び縮みするように、柔軟結合しておく。
ブロック画像生成部87は、全てのブロックについて、抜けなくその順番を変えずに、ゴム紐状に柔軟に結合した画像を一時的に生成する。
以上により、ハードCV領域画像分割装置8が構成される。
揺れ止め画像生成部81は、CV画像生成装置4からの出力に対し、付加されたCV値の回転成分により、画像に逆回転を与えて、揺れ止め画像を生成する。ここで、3軸回転揺れ止めで十分ではあるが、3軸回転揺れのみならず、3軸位置揺らぎに対しての揺れ止め画像を生成することがより好ましい。
湧きだし点抽出部82は、CV値から、隣接する画像に対する湧きだし点と吸い込み点を求める(湧きだし点については図14参照)。ただし、本発明に係るCV値基準一括追跡処理を行う場合には、揺れ止め画像生成部81と湧きだし点抽出部82は必ずしも必要ではないが、実施形態としては揺れ止め画像生成部と湧きだし点抽出部82がある方が有利である。
追跡は演算時間がかかることから、できるだけ効率的な追跡方法をとるのが好ましい。
ここでは特に、CV値基準による場合において、揺れ止め画像と湧きだし点抽出は絶対条件ではないことが重要である。
TV演算装置9は、図24に示すように、以下の各部を備える。
まず、TV演算装置9は、特徴点ブロック一括追跡部91を備える。
特徴ブロック一括追跡部91は、ゴム紐状に結合したブロック画像の特徴ブロックを、本発明にかかるCV値基準一括追跡装置により関係フレームを一括して追跡する。
すなわち、特徴ブロック一括追跡部91は、図15に示したCV値基準一括追跡装置200と同様の構成となっている(詳細は図15及び該当説明参照)。
なお、この特徴ブロック一括追跡部91における特徴ブロックの追跡については、上述したように、本発明に係るCV値基準一括追跡装置200によらず、他の方法により行うことも可能である。
一次TV演算部92は、追跡するのは特徴ブロックのみであるが、ゴム紐結合により、それ以外のブロックも特徴ブロックに引き込まれて移動し、何らかのTV値を持つことになる。そこで、追跡データをそれ以外のブロックにも演算して適切に配分する。
補正ブロック検出部93は、複数画像を利用するなどして、一次TVから生成する画像の追跡誤差を検出する。
また、二次TV演算部94は、誤差が分布するCV領域画像を再度ブロック分割するなどして、補正CV領域画像として、再追跡してTVデータを取得する。
これらによりTV演算装置9が構成される。
ハードCV領域画像生成装置10は、図24に示すように、以下の各部を備える。
まず、同一TV値統合部101は、TV演算によるTV値が同一となる隣接ブロックを結合する。この隣接ブロックの結合処理は必ずしも必要ないものであるが、処理の効率化のためには有った方がより好ましい。
CV・TV付加部102は、画像のCV値、及びハードCV領域画像のTV値を画像に付加する。ここではブロックの全てにTV値が付加されたことになる。
図法再変換部103は、ブロック画像を表示目的に適した図法に変換する。最終的に、例えば記録が目的であればメルカトール図法が良いが、見ることが目的であればゆがんで見えるので、遠近法に変換するなどして目的に合った適切な図法に再変換する。計測や画像処理が目的であればそれに適した図法に再変換する。
ハードCV領域画像出力部104は、CV値とTV値とを付加したブロック画像を出力する。
以上によりハードCV領域画像生成装置10が構成される。
従って、湧きだし点基準CV領域画像前置装置の全てを、CV値基準一括追跡装置を用いたCV領域画像前置装置に置き換えることができることは明らかである。
また、湧きだし点基準CV領域画像前置装置においては、揺れ止め処理を必要としたが、CV値基準一括追跡装置を用いたCV領域画像前置装置においては、揺れ止め処理を必要としない点が優れた特徴である(図24及び図25参照)。
ただし、揺れ止め処理を用いれば、多少演算効率が向上する効果は存在する。
次に、図26を参照して、本発明の一実施形態に係るCV領域画像前置装置において、ソフトCV領域画像の生成を行う各部について説明する。
同図に示すように、まず、ソフトCV領域画像分割装置12は以下の各部を備える。
ブロック再分類部121は、ハードCV領域画像生成装置10の出力から、特徴ブロックを選択し、単独で存在する独立特徴ブロック、境界線上に特徴ブロック同士が隣接して存在する境界線上特徴ブロック、CV領域画像の境界を構成するが特徴ブロックとはなり得ない境界線上ブロック、及び未特定を含めたそれ以外のCV領域画像内ブロックの3種類に再分類する。
ソフトCV領域画像生成部122は、境界線上特徴ブロック、境界線上ブロックを結合し、ソフトCV領域画像を生成する。
ここで、境界線は閉じない場合が発生するが、閉じない端末の両端を強引に結合しても問題は発生しない。ソフトCV領域画像が細分化されたことになるだけである。
ブロックのみの境界はピクセル単位で凸凹しているが、CV領域画像境界線補強部で強化されたソフトCV領域画像境界はベクトル化した輪郭線となり、画像の内容の性質に適したより適した境界線となる場合が多い。
これらによりソフトCV領域画像分割装置12が構成される。
既にハードCV領域画像は追跡処理されているので、この処理は省略することができるが、補強されたソフトCV領域画像を再度CV値基準一括追跡方法により、追跡することで、次のRV演算により適した追跡データを取得することができる。
より正確なRV値を求めるにはソフトCV領域画像について隣接CV領域画像と共有する6個以上(隣接CV領域画像と共有可)の特徴ブロックの痕跡が存在することが望ましい。
CV・RV付加部141は、RV演算装置13の出力に対して、CV値、及びRV値をソフトCV領域画像に付加する。
ここで、TV値は省略されているが、RV値はTV値をソフトCV領域画像単位で整理したものであり、TV値を省略したRV値を持つことで十分である。
全てのCV領域画像のRV値が無くても、ソフトCV領域画像は隣接していることから、その位置は決められるので、RV値に抜けがあってもソフトCV領域画像は成立する。
ソフトCV領域画像出力部142は、ソフトCV領域画像生成装置14は、CV値・RV値を付加されたソフトCV領域画像を生成して出力する。
これらによりソフトCV領域画像生成装置14が構成される。
輪郭線抽出部201は、画像の輪郭を直接求める。
ベクトル細線化部202は、輪郭線を細線化してベクトル化する。
可変閾値輪郭補強部203は、細線化ベクトルの延長線上の輪郭線検出の閾値を下げて、再度輪郭線を検出して細線を延長する。
さらに、ベクトル輪郭線生成部204は、補強されたベクトル輪郭線を生成する。
次に、図27を参照して、本発明の一実施形態に係るCV領域画像前置装置において、対象物CV領域画像生成を行う各部について説明する。
[対象物認識装置]
同図に示すように、対象物認識装置16は以下の各部を備える。
ソフトCV領域画像範囲選択部161は、ソフトCV領域画像の中で、認識対象となる対象物の概略範囲を選択指定する。この場合、多少広めに自動指定するのが好ましい。ただし、範囲指定しなくても全範囲の指定によっても演算時間は掛かるが、いずれにしても認識は可能である。
指定範囲RV選択部162は、範囲を指定したソフトCV領域画像比較部に送り、当該CV領域画像のRV値を指定する。
部品DB部163は、予想される複数のRV値を持つ対象物の三次元部品が、データベース化して記憶されている。部品は三次元形状そのものでも良いが、部品のRV値を前もって演算して部品の属性として与えておくことが好ましい。
ソフトCV領域画像の範囲と部品の比較は部品優先で成されるのが望ましい。先に予想される部品を選択して、範囲のソフトCV領域画像が一致するか否かを求めることが効率がよい。あるいは前記範囲のソフトCV領域画像のRV値に一致する部品のRVを検索して求めるのがよい。
ここで、範囲のソフトCV領域画像と部品は三次元形状での比較でも良いが、そのためには画像側も三次元化しておく必要があるので、RV値で比較するのが単純で効率的である。ましてや、複数CV領域画像と複数CV領域画像の比較であれば、RV値による比較がきわめて効果的である。
ここでは、一致した最大のCV領域画像範囲が部品と範囲が一致した範囲であり、この範囲が部品に対応するCV領域画像の範囲である。
この範囲を切り取ることで、その部分を認識した部品に置き換えることができる。すなわち対象物認識が完了したことになる。このとき、部品は座標と回転姿勢と移動速度とを取得したことになる。
一方、部品は属性をデータとして持っているので、そのソフトCV領域画像の範囲は属性を取得したことにもなる。
これがここでいう認識である。
また、部品に完全置き換えではなく、色等の部品の一部の属性の置き換えでも良い。
要素追跡部167は、要素を隣接画像に追跡し、対応位置を求める。これは要素のTV値となる。
さらに、要素RV化部168は、要素のCV値とTV値から要素RV値を求める。
要素は形状が小さいので単独のRV値を求めるには適さないが、組み合わせた要素のRV値は存在するので、TV値を省略せずに、TV値及び複合要素RV値及び複合要素JV値を求めておくことは意味がある。
要素比較部173は、画像から検出した要素と部品要素を三次元比較して一致を求める。要素部品は独立した要素部品とすることも可能であるが、部品から作られる要素部品とするのが望ましい。
ここで、要素部品単独ではRV値を持たないが、部品から取得した複数の要素が集合すればRV値もJV値も持つので、集合した要素の比較においてはRV値による比較はきわめて有効である。
要素比較した結果はRV比較部において部品の一部として比較対象となる。情報は一部重複するが、重複することは認識精度を向上させることになり好都合である。
さらに、対象物要素認識部174は、一致した部品要素を検出した要素に置換する。
以上の各部により対象物認識装置16が構成される。
JV演算装置17は、図27に示すように、CV領域画像再結合部171と、JV演算部172を備える。
CV領域画像再結合部171は、対象物認識装置16の出力から、対象物認識されたCV領域画像を対象物単位で再結合する。
CV領域画像の大きさの分類は複数の組み合わせによる複数の選択肢があるので、部品と範囲は、そのままで完全一致しないが、両者の内どちらかがどちらかを含む形で一致するので、必ずしもCV領域画像の大きさと種類を完全に一致させなくても良い。部分一致でも十分認識は可能である。部品の大きさに合わせるのが適切である。
JV演算部172は、それぞれの対象物毎にソフトCV領域画像の幾何学的三次元結合状況を表すJV値を求める。
対象物分離画像生成装置18は、図27に示すように、JV付加部181と、対象物CV領域画像生成部182を備える
JV付加部181は、JV演算装置17で求められた対象物単位のJV値は、複数の対象物がそれぞれ区別されて三次元的に6自由度で配置されるように、全ソフトCV領域画像にJV値を付加する。
対象物CV領域画像生成部182は、対象物分離画像生成装置18は、対象物認識が一部又は全て済ませた対象物認識CV領域画像を生成する。
最終的には、RV値とJV値とを完全に合致した状態でCV領域画像データベース装置20(図23参照)に収納するために、決定した部品のソフトCV領域画像と前記範囲のソフトCV領域画像とを種類まで含めて統一しておくことが望ましい。
次に、以上説明したような本発明に係るCV領域画像前置装置を用いた様々な応用装置について、その好ましい実施形態を説明する。
[CV領域画像表示装置]
まず、図28を参照して、本発明のCV領域画像前置装置を用いたCV領域画像表示装置の一実施形態について説明する。
CV画像はフレーム単位の画像であったが、CV領域画像は領域単位の画像である。そこでCV領域画像から動画にして再生するには、各CV領域画像から動画の各フレームを生成しなければならない。動画の生成には、CV領域が持つVD値を使って行う。
そこで、本実施形態のCV領域画像表示装置1002は、以下のような各部を備えて構成される。
表示指定部1004は、画像の表示方法を指定する。この表示指定部1004により、画枠、画角、フレーム数、解像度、視点方向、視点位置、表示図法などを指定する。
CV領域画像再結合部1005は、VDを基にして、指定部の指示に合ったCV領域画像を再結合して再結合画像を生成する。再結合された画像は既にVDを失い、通常画像となっている。領域は失うが、新たにフレームが生成されているので、再結合された画像の各フレームにCVを持たせることは可能である。
画像フレーム生成部1006は、再結合画像を各フレームに配分して、各フレームに対応した画像を生成する。
さらに、表示部1007は、通常画像となった画像フレームを表示する。
画像の再結合及び、画像フレームの生成は前記CV領域画像前置装置1001の過程の逆であり、理解は容易である。
上述した図23の矢印の方向を逆向きにすることで、再結合は理解できる。図23の矢印を逆方向に付け替えた図が図29である。
なお、逆方向の場合には装置名に関して必ずしも適切ではない場合が生じるが、理解の上では同じ名称の方がよいのでそのままとしてある。
次に、図30及び図23を参照して、本発明のCV領域画像前置装置を用いたCV領域画像データベース装置の一実施形態について説明する。
CV画像はフレーム単位の動画像であったが、CV領域画像では、領域単位の画像となる。
図30に示すCV領域画像データベース装置1012の本質は、CV領域画像とCV領域画像に対応したベクトルデータを持ち、出力も又CV領域画像とベクトルデータを持つことにある。ベクトルデータとはVDで表し、CV値、TV値、RV値、JV値はそれぞれVDある。
同図に示すように、ハードCV領域画像生成装置10からの画像出力を記録し、更新し、検索し、出力するデータベースを、ハードCV領域画像DB11とする。
また、ソフトCV領域画像生成装置14からの画像出力を、記録し、更新し、検索し、出力するデータベースをソフトCV領域画像DB15とする。
さらに、対象物CV領域画像生成装置18からの画像出力を、記録し、更新し、検索し、出力するデータベースを対象物CV領域画像DB19とする。
データベースはどの形式のDB、あるいはその中間のDBであっても、CV値、TV値、RV値、JV値はCV領域画像で、あるいは隣接する画像間で、重複しており、整理することでデータ量は圧縮できる。
同図に示すCV領域画像データベース装置1012では、まず、CV領域画像・VD取得部1014が、CV値基CV領域画像前置装置1001からの出力である各CV領域画像、すなわちハードCV領域画像出力、ソフトCV領域画像出力、及び対象物CV領域画像出力の中の全ての画像出力、若しくは前記三者の中間段階の画像出力を、各ベクトルデータ(VD値)共に取得する。
CV値、TV値、RV値、JV値は動画としての性質から、フレームを跨いでかなりの重複部分を持つ。重複を無くすことで、最終的にはCV領域画像は静止画と、移動により生まれる新しいCV領域画像と、それらのCV値、TV値、RV値、JV値にまで圧縮可能である。
なお、CV領域画像データベース装置1012では、重複の程度とその圧縮の程度については示していない。
なお、これらデータの中で重複するデータをさらにまとめて整理する重複データ圧縮部1016に関しても、具体的には示していない。すなわち、重複データの圧縮には様々な方法があるので、どのような手法でどのように圧縮するかに関しては、ここでは限定していない。
圧縮の具体例の一つとしては、本願発明者の提案による特願2004−364223号の「座標系分離画像圧縮再生装置」や、後述する「座標系分離装置」とその実施例に詳しく述べている。画像圧縮を設置しなくても多少非効率になるが、CV領域画像データベース装置の本質は失われない。
CV領域画像を、単に画像としてみて、従来方法で圧縮することでも、かなりの圧縮が期待される。
例えば、重複データ圧縮部1016には後述する「座標系分離装置」の実施例(後述する実施例2参照)を用い、このCV領域画像圧縮記録部にはJPEG1、JPEG2、JPEG4及びその方法を用いて、圧縮効果を高めることも可能である。
ここでは、CV領域画像データベース装置1012の外側に用意したCV値やCV領域画像やRV値で、当該CV領域画像データベース内に検索される対象物を探すこと以外に、当該CV領域画像データベース内で検索すべき対象物を指定し、他のCV画像内に検索することもできることは明らかである。
検索装置については、さらに後で詳しく述べる。
ただし、この検索・更新部は設置しない場合は多少非効率になるがCV領域画像データベースの本質は失われない。
ここで整理とは、全てのCV領域画像に同一のデータを付加する必要はないことから、データが重複しないように、必要な画像のフレームに対して、及び必要なCV領域画像について、効率的にCV値、TV値、RV値、JV値の全て又はいずれかの組み合わせを付加することで、画像の記録及び送信、配信の効率を上げることができる。
このように、CV領域画像化され再構成可能な画像をDCT等で圧縮記録し、更新し、検索し、解凍出力するデータベースを持つことを総称してCV領域画像データベース装置という。
なお、当然入力するCV領域画像と出力するCV領域画像を表示して監視する入出力監視モニタを設置することが好ましい。
さらに、CV値、TV値、RV値、JV値はCV領域画像単位、若しくは対象物単位で持つので、隣接画像及び隣接CV領域画像と共有(従来技術)できる場合が多い。そこでCV領域画像を時空間の固まりに束ねることで、重複を無くし、より効率的なCV領域画像データベース装置が実現できる。
CV領域画像データベース装置1012は、CV領域画像前置装置の出力と同じ信号形式とし、信号には互換性を持たせることが望ましい。そうすることでCV領域画像前置装置の出力をさらに当該CV領域画像データベース装置を通過させることで、より圧縮されて扱いやすくなった信号を出力することができる。
CV領域画像前置装置の出力はハードCV領域画像、ソフトCV領域画像、対象物CV領域画像が個別に出力されるが、当該CV領域画像データベース装置を通過させることでブロック化されないで残ったCV領域画像、ハードCV領域画像、ソフトCV領域画像、対象物CV領域画像がミックスされた状況で出力が可能となる。
具体例としては、フレーム情報は消失して、あるいはフレーム画像そのものが消失して、CV領域画像とVDのみのデータと言うこともあり得る。さらに一部分対象物認識されたのみのCV画像、ハードCV領域画像とソフトCV領域画像がミックスされた画像などの出力が可能となる。
同図に示すように、CV値のみのCV画像データベース装置による応用例は、○動画像とCGの合成装置31、○動画像からの三次元座標取得装置32、対象物を常に定位置で観察するロックオン表示装置33、回転揺れ止め画像生成装置・揺れ止め制御装置34、○画像内計測・画像間計測装置35、○新旧画像更新装置36、○CV画像地図47、○車載カメラによる自動車位置決め、及びその応用による実写ナビゲーションシステム41、○画像の三次元ポリゴン化装置42、○路面オルソ化地図生成システム43等が実現できる。
ここで、上記応用例はCV画像DBによるが、CV領域画像データベース装置によれば、さらに効率化されて実現されることになる。
図31に示すように、○座標系分離画像圧縮・記録装置51、○視点移動・中間フレーム生成装置52、○移動体抽出・運動解析装置53、○高解像度化画像生成装置54、○CV領域画像運動抽出・検索・解析装置(ハードCV領域画像・ソフトCV領域画像・対象物CV領域画像を含む)55、○ノイズリダクション装置61、○CV領域画像差し換え画像生成装置62、○対象物運動抽出・解析装置71、○PRM画像圧縮装置72、○対象物運動解析装置73○複合人工知能記憶装置74等が実現可能である。
[三次元地図としての利用]
CV値を持つCV画像(CV映像)は三次元地図としてそのまま利用できることは、本願発明者の提案による特開2005−295495号で既に明らかにされている。従って、それを領域化したCV領域画像データベースであっても、より効率的に三次元CV画像地図としてそのまま利用できることは明らかである。
さらに、車載したカメラによるリアルタイムで取得した画像との特徴点自動比較により、車両の現在位置を取得できることも、本願発明者の提案による特願2005−303952号で明らかにされている。
一つの地点に対して、二次元特徴点の場合は最低10〜20個程度、三次元座標まで取得していれば4個〜10個程度で、車両の現在地点の位置決めは可能である。
つまり、CV領域画像において、数個〜20個程度の画像の断片(CV領域画像)を持てば三次元地図として利用できることになる。これは現実的な数字である。
ハードCV領域画像においては、二次元特徴点、及び三次元特徴点として、ソフトCV領域画像においては、形状を持つ明確な二次元特徴点、及び三次元特徴点として、対象物CV領域画像においては、認識済の対象物はそのまま特徴点となり得るだけではなく、交通標識、道路表示、行き先看板等、その意味も理解しているので、地図としての利用価値はさらに高まることになる。
次に、図32を参照して、本発明に係るCV領域画像前置装置を用いた視点変更装置の一実施形態について説明する。
本発明では、CV領域画像とはハードCV領域画像、ソフトCV領域画像、対象物CV領域画像の全てを含んでいることが重要である。以下に示す実施形態についても全てこの事実に基づいている。
全ての演算はCV領域画像単位で処理されるため、CV領域画像が一枚の画像として扱われる。従ってCV領域画像が移動体であるか否かを特に区別する必要はない。CV領域画像が一枚の画像として扱われる。このことは本発明の全てに言えることである。
以下、図32に示す本実施形態に係る視点変更装置1021の各部について説明する。
CV領域画像・VD取得部1022は、CV領域画像データベース装置からの出力を取り入れ、CV領域画像とVDとを分離して取得する。これは上述したCV領域画像表示装置1002におけるCV領域画像・VD取得部1003と同様のものでよい(図28参照)。
視点変更指定部1023は、視点変更地点を、若しくは視点変更経路を、CV値で指定する。CV値は視点の三次元座標、回転姿勢を含んだVDなので、CV値を与えることで始点を指定できる。
また、変更VD取得部1025は、指定されたCV値に従い、CV領域画像のCV値以外のVD値等を変換演算し、視点変更演算により取得されたVDを各画像、及び各CV領域画像に対応をつける。
視点変更画像生成部1026は、対応のついた前記各画像、及び各CV領域画像の画像を変更VDに従ってCV領域画像結合し、指定の画像フレーム生成し、出力する。
図32に示すように、例えば、中間フレーム指定部1027を設置して、フレーム間のCV値を等間隔に分割するように視点変更指定部1023に指示すれば、動画像の複数の中間フレームが生成できることになる。これで視点変更装置は中間フレーム生成装置となる。
例えば、毎秒15FPsのフレームレートで撮影した画像を毎秒60FPsに変換できることになる。
このように撮影時又は記録時の画像フレームを間引いて、再生時に中間フレームを生成することで基準のフレームレートを確保するような画像圧縮を行う画像フレーム圧縮解凍装置も可能である。
ただし、中間フレーム生成の目的においては、単にCV値を分割するだけでよいが、時間配分として利用してもよい。
なお、視点変更装置の出力は既に通常映像となっているので、通常の表示装置でよい。もちろん、上述した表示装置を用いることで実現できる。
また、視点変更装置の出力は、表示のためにはもはやVDは必要ないが、その他の応用に利用するためにはVDを付加して出力できるようにしておくのが好ましい。
次に、図33を参照して、本発明のCV領域画像前置装置を用いたCV領域画像CG合成装置の一実施形態について説明する。
CV値を持つ画像とCGとの合成装置に関しては、本願発明者の提案による特開2005−122315号で既に示されている。
CV領域画像となったことで、CG合成はより単純化され、視点変更も可能となり、また、前後関係も簡単に決定できるようになった。
基本的には、CGを対象物認識されたCV領域画像として扱うことで、合成が可能となる。
以下、図33に示すCV領域画像CG合成装置1031の各部について説明する。
CV領域画像・VD取得部1032は、CV領域画像データベース装置1012の出力を、若しくは視点変更装置1021の出力を取り入れ、CV領域画像とVDとを分離して取得する。
視点変更装置を経由させれば、視点変更のCG合成が可能となる。そのときは視点変更表示装置を用いる。
VD演算部1035は、CGのVDを演算する。
CGはVD演算部で、CV値、RV値、JV値等を持つことになる。ここではCGのVDは、必ずしも画像と同種のVD値を持つ必要はなく、合成は可能である。一般にCGは既に対象物認識された画像と同じ意味を持つから、対象物CV領域画像として扱うのが好ましい。
視点座標はどちらもCV値で指定することになる。
視点座標統合部1036は、CV領域画像の視点座標とCGの視点座標を合致させて座標を統合する。視点座標がCV値で指定されたことで、CV領域画像とCGの視点は統合されたことになる。
視点座標を示すCV値とCGとCV領域画像のRV値の比較から、視点位置からの三次元方向と距離が明確になり、CV領域画像とCGとの前後関係は明確になる。
CV領域画像CG合成部1038は、視点が合致し、前後関係が決定された、前記CV領域画像と前記CGとを合成して、同一座標系で表現する。座標系は統合されているので、そのまま合成が可能である。
ここで、表示装置は、図33に示すように、視点変更表示装置1003を用いるのが好ましい。
次に、図34を参照して、本発明のCV領域画像前置装置を用いた三次元形状生成装置の一実施形態について説明する。
VD値は既に三次元データと言えるものであるが、通常使用される三次元座標を持ったポリゴンに変換するだけで、三次元形状は簡単に生成される。
図34に示す三次元形状生成装置1041では、まず、CV領域画像・VD取得部1042が、CV領域画像データベース装置の出力を、若しくは視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
ポリゴン変換演算部1044は、CV領域画像に付加されたVD値から三次元ポリゴンに変換演算する。これは単純な変換の演算であり、CV値とTV値、若しくはRV値からリアルタイム変換も可能である。また、RV値そのものが既に三次元データを持っていると考えられるから、変換と言ってもRV値でポリゴンをそのまま表現することも可能である。
さらに、三次元形状生成部1045が、ポリゴン変換されたデータから三次元形状を生成する。
以上により、CV領域画像データベース装置の出力から三次元形状を生成することができる。
図34に示すように、最適CV領域画像選択部1046は、上記のようにして取得した全体の三次元ポリゴンデータに関して、あるいは個別の各三次元ポリゴンデータに関して、既に取得しているCV領域画像(図33に示すCV領域画像前置装置1001又はCV領域画像・VD取得部1032参照)の中から、(1)最も解像度の高いCV領域画像、(2)又は最も仮想カメラ位置の近くで取得しているCV領域画像を、(3)又は最も仮想カメラからの視点方向の近いCV画像、(4)あるいは最も目的に適合したCV領域画像を、既に取得している視点の異なる全CV領域画像データから選択する。
次に、テクスチャー貼り付け部1047は、選択されたCV領域画像データの全三次元ポリゴン、又は三次元形状を構成する各三次元ポリゴンに、テスクチャーを貼り付ける。
表示部1048では、それを仮想カメラ位置を視点とした画像として表示する。
以上により、三次元形状にテクスチャーを貼り付けたより最適な画像を生成・表示することができる。
本発明におけるハードCV領域画像生成装置から生成する三次元形状は、物体表面形状とは無関係にブロック化し、画像処理に用いた矩形のブロックをそのままポリゴンとして扱い、その元々二次元形状のブロックの三次元座標を取得し、それをポリゴンとして三次元に配置することにより、三次元形状を表現することができるようになっている。
三次元的に配置されたポリゴンは、既に3DCGと同じ扱いが可能であり、上述したCV領域画像前置装置による視点変更装置(図32参照)によらずとも、従来技術により視点変更が自由にできることはいうまでもない。
次に、図35を参照して、本発明のCV領域画像前置装置を用いた画角拡大装置の一実施形態について説明する。
画角を拡大するために、広角レンズを用いれば、カメラのCCDが同一である限り、カメラの角度の分解能、すなわち解像度は落ちてしまう。
そこで、画角の小さいカメラで高い解像度で撮影した画像を過去のフレームで補うことで画角を拡大して広角表示する。カメラ視点位置を決定し、そのカメラ視点を車両に沿って移動させ、過去の画像フレームを全て現在視点に視点変更する。視点変更された全ての画像は現在のカメラ視点で矛盾のない結合が可能となり、結合することで広角映像が取得できる。
ここでの特徴は、複数フレームを用いるので、画角を拡大してもほぼ元の精細さを保てると言うことである。過去の映像は時間遅れの映像であるから、そのままでは移動体が有ればその部分の結合は正しく結合しないが、移動体もTV値やRV値を持つことから、移動体部分の動きを含めた視点変更演算できるので、移動体に対しても矛盾無く結合できることになる。これがCV領域画像の優れた特徴である。
CV領域画像・VD取得部1052は、カメラを車載するなどして移動するカメラから撮影した画像の、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
拡大画角指定部1053は、画角拡大画像を観察する時の画角と視点方向を指定する。
仮想観察視点指定部1058は、画角拡大画像を観察する時の前記カメラ位置からの視点の移動位置を指定する。
複数画像結合部1055は、視点変更演算により、視点変更されて視点位置が同一となった現在から過去に亘る時間軸上に並ぶ複数フレームのCV領域画像を結合する。常に指定された視点位置と視点方向で視点変更を行うことで、現時点の画像と過去の画像が矛盾無く結合できることになる。
カーナビとして車両に積載する場合には、現時点の視点ではなく、多少過去の視点位置に始点を指定することで、自車両の背後から自車両を含む視点で画枠拡大画像を表示できることになる。
繰り返し生成部1056は、時間の進行と共に移動進行する前記カメラの位置と方向を追従し、時間軸上に並ぶ複数フレームのCV領域画像を次々指定された視点位置に視点変更を次々繰り返すことで、画角拡大画像を連続して生成し続ける。
画角拡大された画像は、視角拡大画像表示装置1057で表示される。
なお、本実施形態により画角拡大された画像は、既に結合されているので、通常の画像として扱うことができるので通常の表示装置で表示することができる。
次に、図36を参照して、本発明のCV領域画像前置装置を用いたロックオン表示装置の一実施形態について説明する。
ロックオン表示とは同一対象物を画枠内の中心部に固定して表示し、カメラの移動によっても常に画枠の中心に表示することを言う。
CV画像によるロックオンは本願発明者の提案に係る特開2005−295495号に示されているが、ロックオン表示はカメラの移動範囲に限られていた。
また、視点位置と経路を指定し、ロックオン表示が可能となる。
さらに、CV画像では不可能であったが、CV領域画像では、各CV領域が移動ベクトルを持つので、容易にロックオン指定ができる。
ロックオンだけであれは、座標系分離までは必要なく、移動体分離までも必要ないが、後述するように、座標系分離や移動体抽出と組み合わせることでも、直接座標系単位で表示したり、移動体単位で表示して、その中でロックオン表示することが可能となる。
CV領域画像・VD取得部1062は、カメラを車載するなどして移動するカメラから撮影した画像の、CV領域画像データベース装置の出力を、若しくは視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
対象物座標指定部1063は、ロックオンすべき対象物の座標を取得して指定する。指定する対象は静止物体でなくても、移動体でも良い。移動体に代表座標系をとることで移動体ロックオンを可能とする。
視点及び視点方向変換部1065は、指定された視点移動経路に沿って、CV領域画像の視点変更を求める。
そして、ロックオン表示部1066は、変換されたCV領域画像を指定経路に従って表示する。
以上により、本発明のCV領域画像前置装置を用いたロックオン表示装置1061が実現される。
次に、図37を参照して、本発明のCV領域画像前置装置を用いた座標系分離装置の一実施形態について説明する。
本発明に係る座標系分離装置は、動画像から、画像を構成する座標系毎にCV領域画像を分類する装置である。
画像解析において、座標系毎に分離したCV領域画像は様々な利用が考えられるが、その代表的な例は、後述する運動抽出・解析装置(図42参照)であり、また、本願発明者による特願2004−364223号の「座標系分離記録再生装置」がある。この「座標系分離記録再生装置」を実現するためには画像を構成する座標系を検出して分離し、それぞれを単独処理して、再度合成する必要があるが、その一つの手段が、本実施形態に示す座標系分離装置である。
座標系別に分類されたCV領域画像は、座標系別に記録され、送信されることで画像圧縮が可能である。なお、座標系分離装置を用いた画像圧縮技術そのものについては上記の特願2004−364223号に示されている。
CV領域画像・VD取得部1072は、車載されたカメラから撮影された動画像の出力を、又はCV領域画像データベース装置の出力を、若しくは視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
座標系別VD処理部1073は、VDから座標系を分離し、座標系毎のCV領域画像とVDとに分類する。
各座標系VD近似処理部1074は、各座標系のVDを単純な関数に近似して単純化し、若しくは必要であれば、近似したVDとCV領域画像のVDとの関係を示す関数をも持ち続ける。
そこで、カメラの移動を示すCV値を単純化し、座標系毎に分離されたRV値を単純化することで、VD値を単純化することができる。VD値が単純化されることの映像における意味は、カメラの移動を直線近似し、映像内の移動体の動きを直線近似するということになる。複雑な運動をするカメラの動きや移動体の動きを、ある範囲内で直線近似することによりVDが単純化され、そのことは視覚的にも単純化されて好都合であり、結果としてデータ量が軽くなることは勿論である。
各画像系別画像生成部1077は、各座標系単位で画像を生成する。
必要であれば、各座標系を再度合成して表示する各座標系合成画像生成部1078を備えることができる。
ここで、通信と記録における画像の圧縮は同じ意味を持つので特に区別をしない。
さらに、(3)対象物として移動物体を含む場合がある。この場合には、画像を適切な領域に分割し、移動体はこの領域の複数の集合となるように領域を定義する。それがCV領域であることは上述した通りである。ここで、それぞれの領域毎にカメラベクトル値を持たせることにより、適切なCV領域に分割された各座標系に対応した座標系毎に圧縮をするのが本発明の特徴である。なお、対象物認識技術を導入しない段階では、CV領域と移動する対象物は必ずしも一対一に対応しないが、その時でも対象物は複数のCV領域から構成されることになり、それは圧縮効率に関係するだけで矛盾は生じない。
すなわち、先ず動画像を最小単位の矩形のブロックに分割し、その最小単位のブロックを複数集めてCV領域を生成し、さらにそれらのCV領域を集めて座標系単位に分類し、それぞれの座標系単位で画像伝送し、あるいは画像記録し、それを受信再生側又は解凍再生側において、それらを座標系単位で画像を生成し、それを再構成することで一連の動画像を再構築することができる。
座標系を分離するために湧きだし点を利用することが本発明に係る湧きだし点基準CV領域画像装置であり、本願発明者による先の出願に係る座標系分離装置の一つの回答でもある(特願2004−364223号参照)。
以上により、CV領域画像前置装置を用いた座標系分離を行うことができる。
ここで、上述した本願発明者の提案による特願2004−364223号の「座標系分離記録再生装置」について、その概略を説明する。
特願2004−364223号の「座標系分離記録再生装置」においては、その基本方式として、現実世界を構成する複数の座標系を検出し、座標系毎に対象物を記録する座標系分解記録構成部と、記録された信号を再生し、各座標系毎に対象物を構築し、複数の座標系を合成して、現実世界をバーチャル世界に再構築する座標系合成再生構成部とを備える座標系分離記録再生装置が提案されている。
そして、この特願2004−364223号の「座標系分離記録再生装置」においては、その画像圧縮の具体的手段として、以下のような構成を備えている。
また、座標系合成再生構成部は、座標系分離信号記録部で記録された信号を座標系別に読み取り、画像圧縮信号を再生する座標系別信号再生部と、再生された各信号を座標系別に組み立てて各座標系画像を合成し、視点を決定して各フレーム画像を再構築する座標系分離信号再構築部と、再構築された画像を指定された再生動画像として出力する再生解凍画像出力部とを備えている。
さらに、この特願2004−364223号の「座標系分離記録再生装置」の画像圧縮の具体的方法においては、代表座標系として静止座標系を採用し、その差分信号を付加して移動する車両から撮影した道路映像に対応させた装置として、差分信号付加部が、複数座標系において、静止座標系のみを採用し、全分割画像を静止座標系で表現し、移動体等の本来他の座標系に分類されるべき分割画像によって生じる誤差を差分信号として扱うように構成されている。
以上のような本願発明者による当該特願2004−364223号の「座標系分離記録再生装置」の基本原理に基づいて、上述した本発明にかかるCV値基準一括追跡装置を用いた高精度CV演算装置(図21参照)を用いたCV値基準による座標系分離の方法について以下に説明する。
CV値基準によって座標系分離を行うには、目的の画像から求める複数の座標系と、それを示す複数のCV値を検出する必要がある。
そこで、本発明によるCV値基準一括追跡装置を用いた高精度CV演算装置(図21参照)により、それぞれの座標系を示す複数のCV値を求める方法を以下に説明する。
より具体的に説明すれば、静止座標系とは、車載したカメラで周囲を撮影した画像においては、周囲のビルや道路であり、対向車線を走行する車両は当該代表座標系には含まれない。
本発明のCV基準一括追跡には、原理的に必ず多くの特徴点が係わっていることは明らかである。そこで、高精度CV演算装置においてCV値取得に係わった特徴点と係わらなかった特徴点を分離することは可能である。この点について、図38を参照しつつ以下説明する。
図38(a)に示すように、CV演算を行うためには先に多くの特徴点601が抽出される。
例えば、一フレーム内の特徴点は一般に数百個程度だが、図では単純化のために1/10程度に省略されている。
特徴点は、様々な座標系に属する特徴点601が含まれているが、概略CV値を用いCV値基準一括追跡をすることで、図38(b)に示すように、特徴点601から特徴点602のみが選択される。
換言すれば、代表座標系(ここでは静止座標系とする)に属する特徴点602のみを使用してCV演算が行われることになり、さらに言い換えれば、CV値基準一括追跡によりCV演算することで自動機に特徴点602を選択することができるのである。
CV値基準一括追跡では特徴点の選択によってCV演算が行われるのでどちらの表現も正しいことになる。
従って、ここでは、原理的にCV値基準一括追跡する過程で代表座標系に属する特徴点のみが自動的に選択されることになる。何故なら同一座標系(ここでは静止座標系)に属さない特徴点は予想値からずれるためにCV値基準一括追跡できないからである。
CV値基準一括追跡できるということは、それらの特徴点は同一座標系に属していることを示している。
ここで分離した特徴点611が代表座標系には属さないことは明らかである。
次に、この代表座標系に属さない特徴点611のみを選択し、CV値基準一括追跡により追跡データを取得してCV演算を行うと、上述した代表座標系のときとまったく同じ原理で、新たな座標系(例えば、対向車線を走行する一台の車両の座標系)の特徴点が選択される。
このようにして、座標系毎に特徴点が分類されたことになる。
物理的に複数の対象物の運動は相対的であり、どの対象物の座標系を代表座標系とするかは自由であることから、代表座標系として扱った静止座標系と、残った特徴点から求めた運動座標系とはまったく対等であり、物理的又は数学的には同じ扱いが可能であることは明らかである。
すなわち、ここまでの作業で、ビルや道路を示す静止座標系と対向車線を走行する一台の車両の運動座標系とを分離して、それぞれのCV値を分離して検出したことになる。
その結果として、ここで使われた特徴点は、図38(f)に示すように、622である。この作業ではさらに別のCV値を取得し、同時に別の座標系を分離したことになる。
この作業を繰り返すことで、いくつものCV値、すなわちいくつもの座標系を検出することができることになる。
なお、ここでは、時系列の作業として説明したが、これを同時に処理することもできることは明らかである。
次に、図39を参照して、本発明のCV領域画像前置装置を用いた画像部分更新装置の一実施形態について説明する。
動画像の部分更新は、カメラ位置の異なる画像の更新であり、一般には不可能とされてきたが、本発明のCV領域画像による視点変更技術を用いると簡単に実現できる。
旧画像のカメラ視点に更新画像の視点を合致させ、更新部分を切り取り入れ替えることで実現される。動画の自由な切り貼りが可能となったことになる。
更新CV領域画像・VD取得部1082は、更新する画像情報を含む画像を、CV領域画像前置装置1001から出力して、CV領域画像とそのVDを取得する。
旧CV領域画像・VD取得部1083は、更新される旧画像情報を含む画像を、CV領域画像前置装置1001から出力して、CV領域画像とそのVDを取得する。
更新範囲指定部1084は、更新範囲を指定する。
更新CV領域視点変更部1086は、VD値を合致させることで、更新画像の視点を旧画像の視点に変更する。この部分が本装置の重要部分である。これは上述したCV領域画像前置装置を用いた視点変更装置1021そのものである(図32参照)。
更新部分CV領域画像生成部1087は、更新部分のCV領域画像を切り取って、旧CV領域画像に貼り付けて更新CV領域画像を生成する。
更新画像生成部1088は、最終的に領域結合して、更新画像を生成する。
表示装置1089は、CV領域画像を表示するには、上述したCV領域画像用のCV領域画像表示装置1002(図28参照)が必要となるが、通常画像として表示するには通常の表示装置でよいことになる。
以上により、本発明のCV領域画像前置装置を用いた画像部分更新装置1081が実現される。
次に、図40を参照して、本発明のCV領域画像前置装置を用いたオルソ画像生成装置の一実施形態について説明する。
同図に示すように、本実施形態のオルソ画像生成装置1091は以下の各部を備える。
CV領域画像・VD取得部1092は、CV領域画像データベース装置の出力を、若しくは視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
地図を生成するには鉛直方向が重要であり、鉛直が狂うと地図の精度に直接悪影響を及ぼすので、本実施形態では、鉛直は専用の機器とした。具体的には、高精度の鉛直系でCV領域画像の鉛直方向を補正し、次に、CV値の誤差が累積するので、数百メートル毎に高精度GPS等で絶対座標を取得する。
補正VD値演算部1094は、計測機器で取得した高精度の鉛直データと絶対座標データにより、取得したVD値を補正する。VD値のみから求める座標及び鉛直は誤差が累積するので、補正が必要となる。
この三次元面生成部1095は、上述した三次元形状生成装置1041(図34参照)そのものである。
CV領域画像は三次元画像であるから、二次元化するのは容易である。数百メートル単位で正しい座標と鉛直が分かっているから、単純にオルソ面に投影すればよい。
オルソ面投影部1096は、三次元化されたオルソ化対象のCV領域画像をオルソ面に投影する。
CV画像では、道路面のオルソ化しかできなかったが、CV領域画像では全ての現像物を含めて、オルソ面を生成できることになる。
また、高精度位置決め部1097においては、高精度GPSでなくても良い。画像内に絶対座標が既知である点がCV領域画像(CV画像でも良い)として写っていれば、その点の座標を画像内計測により取得して、若しくはRV値と比較して、画像内の一点で絶対座標を取得することが可能である。画像内に写っている三角点や測量の基準点がそのまま三次元基準点となる。
以上のような本実施形態のオルソ画像生成装置1091によれば、CV領域画像を取得すれば、実測することなく、直接地図を生成できることになる。
次に、図41を参照して、本発明のCV領域画像前置装置を用いた画像高解像度化装置の一実施形態について説明する。
CV領域画像からフレーム画像を生成して動画再生する場合に、各フレームの画像を構成する領域は複数存在するが、その中の最も高解像度の画像を選択して、各フレーム画像を構成することで、高解像度の動画像を生成することができる。
以下、図41に示す画像高解像度化装置1101の各部について説明する。
仮想カメラ移動経路指定部1103は、再生表示しようとする動画像を取得したカメラ移動経路、若しくは仮想カメラ移動経路をCV値で指定する。
CV領域画像は、上述した視点変更装置(図32参照)により、視点変更が自由にできるために、実際のカメラ経路以外のカメラ近傍の経路を設定できる。実際のカメラ経路と大きく離れてしまうと、情報の抜けが生じて画像が完成しないことになる。
高解像度化が目的であれば、カメラから最も近い位置のCV領域画像を利用するのが適している。また、画像中の色の精度や障害物排除等により、どのCV領域画像を選択するかは変わってくるが、ここでは解像度を最も高く取る目的で選択する。
カメラ位置が与えられれば、どのようなCV領域画像でも、その位置に視点変更することは既に視点変更装置で示したとおりである。
高解像度化画像結合部1106は、視点変更されたCV領域画像から各フレーム画像を生成する。VD表示装置(図28参照)であれば、そのまま表示可能であるが、視点変更されたままではまだCV領域画像なので、それを表示可能な通常画像に変化すれば通常の表示装置で観察できる。
表示部1107は、高解像度化された動画映像を表示する。単なる記録であれば表示装置への入力信号をそのまま記録すればよい。
以上により、本発明のCV領域画像前置装置を用いた画像高解像度化装置1101が実現される。
次に、図42を参照して、本発明のCV領域画像前置装置を用いた運動抽出・解析装置の一実施形態について説明する。
同図に示すように、本実施形態の運動抽出・解析装置1111は以下の各部を備える。
座標系分離装置1112は、CV領域画像データベース装置から出力される、若しくは前記視点変更装置から出力されるCV領域画像を、元となる動画像を構成する複数の座標系に分離する。この座標系分離装置は、上述した座標系分離装置1071(図37参照)そのものである。
運動領域VD解析部1114は、抽出された運動領域のVDから、対象となる運動領域の運動を6自由度で表す。
VDはそのまま6自由度で領域の運動を示していることから、運動解析には最適である。
もし必要が有れば、運動領域を指定の座標系に変換して示す指定座標表示部1115を備えることができる。
以上により、本発明のCV領域画像前置装置を用いた運動抽出・解析装置1111が実現される。
次に、図43を参照して、本発明のCV領域画像前置装置を用いたCV領域画像検索装置の一実施形態について説明する。
同図に示すように、本実施形態のCV領域画像検索装置1121は以下の各部を備える。なお、繰り返しになるが、ここでCV領域画像とは常にハードCV領域画像・ソフトCV領域画像・対象物CV領域画像の全てを含む。
CV領域画像・VD取得部1122は、CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得する。
検索CV領域画像部品VD演算部1124は、基準座標系における前記部品のVDを演算で求める。一般にVDはカメラ位置を基準としているため、比較のためには全てカメラ位置に変換して比較するか、共通化された基準座標系での比較が求められる。
そこで、本実施形態では、図43に示すように、検索されるCV領域画像の基準座標系におけるVDと、検索部品のCV領域画像の基準座標系におけるVDとを比較し、一致度を求める基準座標VD比較部1125を備える。
検索CV領域画像出力部1126は、CV領域画像全体の中の一致度の高いCV領域画像を検索結果として出力する。
以上により、本発明のCV領域画像前置装置を用いたCV領域画像検索装置1121が実現される。
次に、図44を参照して、本発明のCV領域画像前置装置を用いたノイズリダクション装置の一実施形態について説明する。
上述した視点変更装置(図32参照)により、動画像において、視点位置と姿勢を示すCV値により、隣接フレームを目的フレームの視点位置と姿勢とを完全に重ねることができる。すなわち、隣接する数フレームを同一のCV値に視点変更すれば、画像は完全に重ね合わせることができることになる。
一旦重なれば、複数の同一位置と姿勢の静止画と同じであり、加算平均でノイズを減少させることができる。加算平均は線形処理であるが、その他非線形処理を含めて、従来技術のノイズリダクションを行うことができる。ここでは特に線形処理と非線形処理の種別を問わない。
CV領域画像・VD取得部1132は、CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得する。
最適CV領域画像選択部1133は、目的フレーム画像に属するCV領域画像と、それに隣接するフレーム画像に属するCV領域画像とで、対応する複数のCV領域画像を選択する。
領域加算平均演算部1135は、目的フレームの視点に統一して変更したCV領域画像を、重ね合わせて加算平均する。
平均CV領域画像生成部1136は、加算平均によりノイズが減少した領域を目的フレームに属するCV領域画像として取得する。
以上により、本発明のCV値基準湧きだし点CV領域画像前置装置を用いたノイズリダクション装置1131が実現される。
次に、図45を参照して、本発明のCV領域画像前置装置を用いた対象物認識装置の一実施形態について説明する。
上述したCV領域画像検索装置において、部品に属性を付加しておけば、検索結果は対象物の属性を示すことになり、対象物認識ができたことになる。
また、CV領域画像を固定し、部品を複数用意しておき、一致する部品を探すことで、目的CV領域画像を認識したことになる。
ここで一致度を評価するのはVD値のみではなく、色、テクスチャー等が比較の対象となる。
なお、本実施形態の対象物認識装置は、上述した本願発明者の提案による特開2000−295611号、国際公開WO02/01505号に提案されているPRM技術を利用している。
CV領域画像・VD取得部1142は、CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
認識CV領域画像指定部1143は、認識対象となる部分をCV領域画像内に指定する。
ここで、対象の属性等が不明である場合には、当該認識対象を固定して、属性の既知である複数の部品を次々比較して、一致する部品をさがして認識する。
一方、属性の分かっている部品(既に認識されてるCV領域画像の部品)が何処にあるかを探す場合は、上述したCV領域画像検索装置(図43参照)を用いる。
部品送り出し部1145は、認識が完了するまで、次々部品を送り出す。
部品VD演算部1146は、比較される部品のVDを演算で求める。
基準座標VD比較部1147は、認識対象となるCV領域画像と、部品を基準座標系のVD値で比較する。これは同一座標系の同一地点からのVDで比較するためである。
これはVD値で比較するのであるが、最終的に比較はVD値だけではなく、VD値が接近していて特定できない場合は、他の要素、例えば色やテクスチャー等の属性で比較して一致度の高い部品を選択することが望ましい。
以上により、本発明のCV領域画像前置装置を用いた対象物認識装置1141が実現される。
次に、図46を参照して、本発明のCV領域画像前置装置を用いた位置決め装置の一実施形態について説明する。
同図に示す本実施形態の位置決め装置1181は、GPSやIMUやジャイロに代わって、自分の位置を正確に取得する装置である。
以下、本実施形態に係る位置決め装置1181を構成する各部について説明する。
地図利用選択部1183は、取得したCV領域画像から、三次元地図として精度良く利用できる複数のCV領域画像部分を自動選択する。これは各CV領域のTV値を求める際のトラッキング時の相関値を参考にして、決めるか、再度自己相関及び相互相関により、相関値の大きいものを選択することができる。また、部分的に偏らずに全体に分散して選択することで、以下の位置決め時の精度が向上する。
手動で目的の画像を検索させることもできる。前もって分かっている対象物、例えば40km制限標識のみ選択的に検索して、三次元地図として利用することができる。
ただし、内部検索指定部は本装置を構成する絶対条件ではなく、無くても本装置の本質は失われない。
車両位置決定のためには、三次元座標が既知である方が都合がよいが、二次元点でも車両位置決定の精度に貢献する。認識済の対象物は既に三次元点で構成されるので、位置決定の精度にはきわめて大きく貢献する。
これはカーナビや自動案内装置を念頭に置いて、リアルタイム画像を取得することを前提としているが、もちろん記録映像でも同様に撮影時点のカメラ位置の決定が可能であることはいうまでもない。
リアルタイム画像前処理部1190は、取得したリアルタイム画像を、概略CV演算、GPSを用いた概略位置合わせ、画像明るさ調整、等の前記三次元地図と比較しやすくし、検索しやすくするための画像処理を施す。
外部検索検出部1188は、外部検索指定部1185での検索指定により、二次元特徴点、三次元特徴領域、特徴対象物等を、リアルタイム画像前処理部で比較しやすく処理されたリアルタイム画像の中に検索して、対応部分を検出する。
リアルタイム画像CV値取得部1189は、二次元特徴点、三次元特徴領域、特徴対象物等との対応部分が検出されたリアルタイム画像の対応部分と三次元地図上の二次元特徴点、三次元特徴領域、特徴対象物等から、リアルタイム画像のCV値を演算で求める。
リアルタイム画像内属性表示部1193は、特徴対象物が持っている車両運行に関係する属性をリアルタイム画像内に表示する。
三次元地図データベース部1192は、車両位置決めに利用し、リアルタイム画像で確認された前記二次元特徴点、三次元特徴領域、特徴対象物等を、次回に利用する三次元地図として記録しておく。ここで、三次元地図データベースは次回以降の検索検出を様にする目的で設置したものであり、必ずしも必要ではない。
以上により、本発明のCV領域画像前置装置を用いた位置決め装置1181が実現される。
次に、図47を参照して、本発明のCV領域画像前置装置を用いた複合人工知能記憶装置の一実施形態について説明する。
同図に示す本実施形態の複合人工知能装置1152は、本願発明者による特開2005−322002号に提案されている複合信号知能装置であり、複数の人工知能装置が情報のやり取りをするように設計されていて、人工知能装置1171は、ホスト的役割を持ち、やや大きめのデータベースを持つように設計されている。
複合人工知能装置1152を構成する複数の人工知能装置1171・1153・1154において、自ら取得したカメラ映像、及び認識結果をCV領域画像前置装置にCV領域画像として記録する。
また、CV領域画像前置装置1151は、他の人工知能装置1153・1154で取得されたカメラ画像及び認識結果は受信装置1155を通して、情報を受信し、認識結果をCV領域画像として記録する。
送られた画像データはCV領域画像となり、CV領域画像前置装置1151に記録される。
なお、各装置間の通信はWEB1170を経由して行われる。
同様に、他の人工知能装置1153・1154から対象物認識の依頼があれば、CV領域画像前置装置1151のCV領域画像内で対象物認識する対象物認識装置1157(図27参照)に送られる。認識結果は記録すると同時に、問い合わせ先に送信される。
認識された対象物はその配置と隣接する対象物から抽象化装置1161で抽象化され、抽象概念認識装置1164により抽象概念として認識される。
具体的には、関連関数装置1160により、認識した対象物の部品の配列を数学的な線の結合として隣接関係を表現し、抽象概念認識装置1164ではその形状から危険であるとか、安全であるとかを判断する。
抽象概念地図DB装置1167は、抽象概念の地図であり、配列関係を示す線構成のN次元形状と、抽象概念認識結果を示すCVタグによって記録保存されている。
CVタグが増加していくにつれて、さらに抽象部品DB装置1168では複数のCVタグによって形成されるM次元形状により、抽象部品を生成することになる。例えば、「危険」を意味するCVタグと、「近い」を意味するCVタグから、「停止せよ」という判断を行動指示装置1163が生み出すことがこれに相当する。
自動運転は前記「安全」状況を確認しながら、走行することになる。
以上により、本発明のCV領域画像前置装置を用いた複合人工知能装置1152が実現される。
次に、図48を参照して、本発明のCV領域画像前置装置を用いたCV領域画像によるCVタグ入出力検索装置の一実施形態について説明する。
まず、本実施形態に係るCVタグ入出力検索装置1204の基本形であるALV(Active
Link Vision)機能について説明する。
図48に示すように、まず、CVタグ入出力検索装置1204により管理しようとする現実の管理対象物1203がある。
管理対象物1203とは、道路管理目的であれば、路面、街路灯、ガードレール、電柱、道路表示、標識、行き先表示などであり、カーナビゲーション目的であれば信号機、道路表示、車線、標識、行き先表示板、障害物、他車両、等である。
CV領域画像記録部1205は、前もって、管理対象物1203及び周辺を撮影して記録し、CV値を付加したCV領域画像から生成したCV領域データベース装置1012の出力を一時的に保持する。
視点変更装置1206は、画像取得時のカメラ位置近傍への視点変更画像を生成する。この視点変更装置1206は、上述した視点変更装置(図32参照)を用いることで、CV領域画像の視点を変更し、見やすい位置に視点を設定することができる。CV領域画像を用いることで視点変更を可能としているという点で視点変更装置は重要である。
CVタグ表示装置1207は、CV値を付加したCV領域画像を表示し、動画として画像フレームが移動しても、画像とCVタグの三次元的位置関係を保持したまま、CVタグを表示する。
動画像をCV演算することで三次元的に扱うことができる。CV領域画像とCGとの合成については、上述したように本願発明者による特開2005−122315号に詳しく示されている。
具体的には、CVタグ入力装置1208は、CV領域画像中の管理対象物1203に直接CVタグを入力する。CV領域画像地図を用いて管理対象物1203を三次元計測し、CVタグの三次元座標を管理対象物1203の三次元座標と合致させるか、あるいはCVタグが管理対象物1203を隠さないように、管理対象物1203の近傍に設置することでCVタグの座標設定は完了する。次に、CVタグを開封し、リンクしたファイルに管理対象物1203に関連する画像やテキストデータ等の諸データを書き込む。このことでCVタグのデータ入力は完了する。
CVタグを開封して、リンクしたファイルに管理対象物1203に関する画像やテキストデータ等の諸データを書き込む作業をすることで、直接CVタグデータベース装置1210に書き込むことなく、CVタグ関連の前記諸データは自動的にCVタグデータベース装置1210に記録され、検索や選択により呼び出される。
CV領域画像上で管理対象物1203を特定するには、自動検索によるか、画像上の管理対象物1203を直接マウスでクリックすることで完了する。
CVタグ対象物管理装置1212は、CVタグ表示装置1207により、検索装置でCVタグを検索することで、管理対象物1203を自動的に特定することができ、若しくは表示されたCV領域画像中の管理対象物1203をCV領域画像の中にタッチスクリーンにタッチし、又はマウス等でCVタグをクリックして、CVタグを選択することで、CVタグデータベース装置1210からCVタグに対応する管理対象物1203のデータを読み出して管理する。
以下、カーナビゲーション目的のCV領域画像前置装置を用いたCVタグ入出力検索装置について説明する。
このCV領域画像前置装置を用いたCVタグ入出力検索装置1204は次世代のカーナビゲーションを対象として構成される。
積載移動手段1202にはビデオカメラを積載し、リアルタイム画像を取得し、リアルタイム画像にCV演算を施し、リアルタイムCV領域画像を取得するリアルタイムCV領域画像取得装置1220を備える。リアルタイム画像は単なるモニタとしてのみならず、直接CV演算するか、又はCV領域画像地図との位置あわせにより、CV値を取得することができるので、本発明において様々に利用される。
例えば、カーナビ仕様で説明すれば、40km速度制限と文字検索をすれば、CV領域画像上にその標識が明るく表示される。また、緯度経度を数字で打ち込んで検索すれば、その緯度経度の所に画像が移動して、その地点を矢印で示す。また、時速40km制限と検索すれば40km制限の道路の側帯部分がフラッシュして、その範囲を示す。等の例が上げられる。
ただし、未登録の管理対象物1203の検索は対象物認識の技術が必要となり、検索には時間が掛かるので、前もって入力してある管理対象物1203に関する諸データから検索するのが適している。
登録されていれば当然ですが、登録されていない管理対象物1203に対しても、画像の中から検索する画像検索、対象物認識技術により、検索することができます。例えば、交通標識で一方通行の標識の画像を用意しておき、この一方通行の標識の画像で検索すると、画像中の一方通行の標識を全て検索して、その位置を示すことができる。
座標検索はCV領域画像が三次元座標を持つことから、動画であっても座標を特定して検索することが可能となる。
上述したように、CVタグ自動検索装置1211は、CV領域画像中に管理対象物を示すCVタグそのものを、若しくはCV領域画像中の管理対象物1203の画像そのものを、色の変化やフラッシュ効果等の何らかの視覚効果のある三次元座標を持つ印として、動画としてのCV領域画像上に三次元的に矛盾無く呈示する。
また、本実施形態では、外部データベース装置1217を備え、内部のCV領域画像記録部1205は、CVタグ入出力検索装置1204の外側にあるCV領域画像地図データベース部1218と通信をする。そのためには、DVD、ハードディスク等の記録媒体、若しくはWEB等の通信により、管理地域1201及びその周辺のCV領域画像地図を外部から取得する外部CV領域画像地図データベース部1218を備える。
なお、端末のCVタグ入出力検索装置1204で取得したデータを外部データベース装置1217に送るか否かは、端末側の判断による。
また、移動体には、移動体の絶対座標を取得するGPS位置決め装置1215と、取得したリアルタイムCV領域画像とCV領域画像地図から、位置あわせをして取得した新旧映像更新装置1216とを保持する移動体位置決め手段1214を備える。新旧映像更新装置1216は、本願発明者による特開2005−303952号に示されている。
走行目的とは、ドライブ、道路路面管理、標識管理、路面性状調査、などであり、その目的によって表示されるCVタグは異なるので、目的にあったCVタグを自動表示するようにする。
GPSにより現在位置を取得して、又は、上記の特開2005−303952号に示す新旧映像更新装置1216により、車両の現在地点を絶対座標で取得して、その地点の画像を表示する。
ここで、本実施形態で示した各装置及び手段は全てを備える必要はなく、その一部装置と一部手段を選択的に備えることが好ましい。
[動画ロックオン表示]
動画ロックオン表示は、選択及び検索した管理対象物1203を、管理対象物を画像の決められた位置に固定して表示する機能である。
ロックオン表示は、ロックオンすべき任意の対象物を画像内に指定すると、CV演算で得られたカメラベクトルに基づいて、画像内に指定した対象物を実写座標系で計測してその三次元座標を求め、三次元座標が求められた指定対象物が、常に画枠の中心位置(又は任意の所定位置)に表示されるように、画像表示又はカメラ(カメラが固定される固定物)の位置及び姿勢を制御することができる。
あるいは、目的対象物を画像内の指定位置に常に表示するようにカメラを制御することができる。
このロックオン機能により、CVタグ、若しくは管理対象物をCV領域画像地図上で直接指示すれば、選択した管理対象物をロックオンで画像中央に常に表示することができるので、視認および操作が容易となる。
複数CV映像表示は、CV領域画像地図は縮尺の異なる複数のCV領域画像地図を同期表示し、又は非同期で表示し、しかも座標系を統一して、同じCVタグを複数のCV領域画像地図上に表示する機能である。
なお、上述したように、CVタグはCGアイコンにより構成される場合と、実写アイコンにより構成される場合がある。また、アイコン機能を持たない単なるCGを表示することができることは勿論である。
地図同期表示は、CV領域画像地図と二次元地図を同時に表示し、二次元地図上にもCVタグを表示する機能である。
CVタグはもともと三次元座標を持つので、二次元化することは容易に行える。
リアルタイムCV領域画像表示は、選択及び検索した管理対象物1203を、CV領域画像地図と同じように扱い、リアルタイムCV領域画像にCVタグを表示する機能である。これは現時点の現実映像であり最もリアリティーがある表示となる。なお、リアルタイム演算となるために、処理には一定の制限があり得る。
現実重複表示は、選択及び検索した管理対象物1203を、CV領域画像上に表示せずに、ヘッドマウント、又はハーフミラー等により、移動する車両等から直接観察する現実世界の管理対象物に重複して合成した、CVタグや案内矢印CG、看板CG等を示す機能である。
音声案内表示は、選択及び検索した管理対象物1203に関するCVタグの内容を、音声で案内表示する機能である。これは、特にカーナビゲーションシステムには必要な機能となる。
なお、以上のような各機能は、目的に応じてすべてを行わせることもできるが、少なくともいずれか一部の機能を有するものであってもよい。
次に、以上のような本発明のCV値基準CV一括追跡装置及びCV領域画像前置装置の具体的な実施例について説明する。
[実施例1]
まず、本発明のCV領域画像前置装置を利用した装置として、ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する領域画像結合画像生成装置の実施例について、図49〜図51を参照して説明する。
ところが、以下の実施例に示すソフト領域生成部分は、ハードCV領域画像生成部分とソフトCV領域画像生成部分とが明確に区別されていない。
その第一の理由は、ソフトCV領域画像生成部分を設計する場合は、当然のこととしてその内部にハードCV領域画像生成部分を含むようになるのが自然だからである。
上述した各実施形態では、この二者の区別を明確にしているが、実際にソフトCV領域画像生成部分を設計する場合には、その内部にハードCV領域画像生成部分を含む以下に示す実施例の方が実際的である。
このことは上述した本発明の各実施形態とは矛盾しないものであり、以下の基本設計とそれに基づく実施例では、ソフトCV領域画像生成部分の内部にハードCV領域画像生成部分を含むように説明する。
結果として、上記各実施形態では二者を明確に区別して説明したが、以下の基本設計及びその実施例では、実際に則して、ハード領域画像生成は、ソフト領域画像の一部に含まれる形で説明する。
本発明の中心部分である、「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する」部分に特化して、以下に詳細に説明する。
[基本形]
ビデオカメラ等で動画映像を取得し、画像圧縮、画像伝送、画像記録、視点移動、画像三次元化、等の画像処理において必要となる画像のソフトCV領域画像分割を画像に依存して効率よく行う基本形を示す。
従来技術の画像分割は画像を画像の内容にはよらず、単に機械的に8*8程度の矩形に分割して処理するのが常であった。
本発明においては、ブロック分割においてさえも、単純なブロックではなく、画像を取得したカメラの座標と姿勢を6自由度で表すCV値と、二次元画像でありなから、微少範囲にまで単純化処理されたTV値(追跡データを付加することで、これまで不可能であった画像処理を可能とする。さらに、ブロックを画像に固有の同一のテクスチャー(ソフトCV領域画像)で束ねてソフトCV領域画像のもつ三次元位置と姿勢を表すRV値で整理することで画像処理はより進化することになる。
最終的に画像はソフトCV領域画像の結合を示すJV値でまとめられ、対象物単位で表現され、CV値、RV値、JV値とで表現される。
すなわち画像は複数の対象物からなり、その対象物は複数のソフトCV領域画像からなるが、対象物の個々の部分のソフトCV領域画像の動きまで三次元的に解析されることになる。
一般に、輪郭線抽出によって生成されるソフトCV領域画像と、ハードCV領域画像(ブロック)分割によって生成される一次ソフトCV領域画像とは検出方法が異なるので検出された範囲は異なる。
両者によるソフトCV領域画像の定義には、いくつか考えられるが、大きくは以下の3種類考えられる。
(1)両者どちらかを満たせばソフトCV領域画像とする。
(2)どちらか小さい範囲をソフトCV領域画像とする。
(3)どちらか大きい範囲をソフトCV領域画像とする。
輪郭線抽出により、境界線抽出によるソフトCV領域画像生成の補助をする。微少ソフトCV領域画像を生成せずに、輪郭抽出により直接ソフトCV領域画像の輪郭を生成し、一次ソフトCV領域画像を生成し、若しくは既に生成された一次ソフトCV領域画像を補う。
特に、輪郭線抽出においては、ソフトCV領域画像境界部分に関して詳細情報を取得し、ソフトCV領域画像分離に貢献する。
ここでは、特に一次ソフトCV領域画像生成におけるソフトCV領域画像を基準とする都合上、輪郭線抽出を補助的に表現してあるが、両者の立場は対等であり、輪郭線抽出によってソフトCV領域画像抽出することも十分可能である。
輪郭線抽出した後、輪郭線の種類を決定して認識し、ソフトCV領域画像生成の補助をする。輪郭線認識により、輪郭線の抜けを補正し、輪郭線をより完全に生成することで、ソフトCV領域画像抽出をより完全に行おうとしている。
一般に、輪郭線と境界線とは一致する部分と一致しない部分があり、異なる。ただし、ソフトCV領域画像はそのどちらでも、又は中間でも定義できる。
ここでも同様に、特に一次ソフトCV領域画像生成におけるソフトCV領域画像を基準とする都合上、輪郭線認識を補助的に表現してあるが、両者の立場は対等であり、輪郭線抽出によってソフトCV領域画像抽出することも十分可能である。
ゴム紐結合によれば、ハードCV領域画像がその配列順番を変えないように、柔軟に結合することで、トラッキング可能なハードCV領域画像によって、トラッキング不可能なハードCV領域画像にも追跡データを与えることができる。
ゴム紐結合条件とは、隣接するハードCV領域画像の各ブロックが、ゴム紐結合において、結合状態にあるか、切断状況にあるか、の区別を示している。
ゴム紐切断は、隣接するハードCV領域画像に連続性がなく、元々の配置において三次元的に独立している場合には、ゴム紐結合は誤差を発生されるので、ゴム紐結合を切断しなければならない。
切断の方法は、ゴム紐結合により得られた追跡データを正しいものとして、隣接画像を生成し、隣接画像との差分をとり、その差分の大きいところに誤差が集中していると判断することができる。誤差の集中している部分のゴム紐を切断することで、ゴム紐切断が可能となり、その部分の追跡データを再度演算することで、全体として正しい追跡データを主とすることができる。
次に、上述した各実施形態を組み合わせて、「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する」部分のシステムを構築する場合の原理とその説明を以下に行う。
上述したように、上記の各実施形態では、ハードCV領域画像とソフトCV領域画像を明確に分離して記述しているが、実際にソフトCV領域画像分離画像のシステムを構築する場合には、そのためのハードCV領域画像分離生成画像を明確に分離せずに、ソフトCV領域画像生成の中でハードCV領域画像を扱うことになる。
以下はソフトCV領域画像生成の一部としてハードCV領域画像生成が位置づけられている。ただし、この位置づけにより各実施形態の構成が統合されるのみであり、矛盾は存在しない。
同図に示す基本設計1は、画像取得装置501、一次ソフトCV領域画像生成装置502、二次ソフトCV領域画像生成装置503、ソフトCV領域画像結合装置504からなる。
この基本設計1にCV演算装置505を付加した基本設計2を図50に示す。基本設計2は、基本設計1にCV演算装置を追加している。
CV演算については、経過の過程で演算することになるが、最初にCV演算を済ませ、画像を代表する座標系に関するCV値を持っていることはその後に処理に有益である。
同図に示すように、輪郭線抽出装置506と輪郭線認識装置507とを追加して、視覚的な輪郭を明確にすることと、輪郭線を認識し、輪郭線が接するコーナーを検出し、対象物を認識する機能を追加する。
また、得られた輪郭線と一次ソフトCV領域画像又は二次ソフトCV領域画像として得られたソフトCV領域画像の境界線と比較し、境界線情報として利用することが可能である。
[一次ソフトCV領域画像生成装置]
図52に示すように、まず、一次領域生成装置502では、ハードCV領域画像(ブロック)分割部521によって、先ず基準とする画像をハードCV領域画像(ブロック)に分割する。
生成された画像ハードCV領域画像(ブロック)のすべてに関して、ハードCV領域画像(ブロック)分類部によって各ハードCV領域画像(ブロック)は自己相関演算を行い、特徴ハードCV領域画像(ブロック)となり得るハードCV領域画像(ブロック)が抽出される。
特徴ハードCV領域画像(ブロック)はそのまま隣接する他のフレームに亘り追跡することが可能であり、この特徴ハードCV領域画像(ブロック)を追跡してCV演算を行うことができる。
また、図53〜図57に示すように、特徴ハードCV領域画像(ブロック)となる画像ハードCV領域画像(ブロック)は、さらに境界線の一部となり得るハードCV領域画像(ブロック)205と、孤立した特徴ハードCV領域画像(ブロック)206となる特徴ハードCV領域画像(ブロック)とに分類される。
図53は、湧きだし点基準を同時に採用した画像分割の一例を示している。CV値基準においては絶対条件ではないが、湧きだし点基準の分割をすることは演算上有利である。
この特徴ハードCV領域画像(ブロック),境界点,ソフトCV領域画像点を三種の点要素と呼ぶ。
図54(a)は、湧きだし点基準を採用して、画像をハードCV領域画像(ブロック)に分割した場合の一例を示す。図54(b)は、各ハードCV領域画像(ブロック)を自己相関により、3種類のハードCV領域画像(ブロック)に分類した状況を示す。
図55(a)は、特徴ハードCV領域画像(ブロック)を境界線上にある場合と孤立した場合をさらに分類して示した。図55(b)は、分類を基準画像に重ねて示した。
図56におけるハードCV領域画像(ブロック)は、図52のソフトCV領域画像ゴム紐結合部524において、ゴム紐結合され、図57に示すように、それぞれのハードCV領域画像(ブロック)はその配列順番を変えずに自由に距離関係を変更できるように結合される。
なお、画像ハードCV領域画像(ブロック)は単純に長方形のハードCV領域画像(ブロック)に分割することでも、特徴ハードCV領域画像(ブロック)、境界線上拘束ハードCV領域画像(ブロック)、ソフトCV領域画像内ハードCV領域画像(ブロック)分類は可能である。
もし、画像ハードCV領域画像(ブロック)分割が長方形のような単純分割である場合には、ゴム紐結合はハードCV領域画像(ブロック)の順番を変えずに、垂直水平両方向へのゴム紐結合が必要となる。これは次のソフトCV領域画像追跡処理で大きな効果を発揮する。
以上のように、一次ソフトCV領域画像生成装置では、機械的に分割した画像ハードCV領域画像(ブロック)が、画像の中の対象物の形状に則したソフトCV領域画像に分割されたことを意味する。
図52に示すように、二次領域生成装置503のソフトCV領域画像追跡部531は、ソフトCV領域画像の形状を柔軟に保ったまま、既に特徴ハードCV領域画像(ブロック)及び境界線上拘束ハードCV領域画像(ブロック)は一次ソフトCV領域画像として扱われ、湧き出し点方向に、隣接する複数のフレームの中に追跡することで、ソフトCV領域画像追跡が可能となる。
ソフトCV領域画像形成が不完全なところは、輪郭線検出装置506及び輪郭認識装置507からの追加情報でより完全な輪郭を形成できる。
実際には特徴ハードCV領域画像(ブロック)を追跡することになるが、ゴム紐結合により、ソフトCV領域画像全体か伸び縮みしながら追跡され、対応ソフトCV領域画像が求められる。ここで、ゴム紐はソフトCV領域画像境界で切断され易く結合させている。強い力が掛かればゴム紐はソフトCV領域画像境界線で切断される。
また、ソフトCV領域画像境界の一部に大きな変更が成されるような作用が生じた場合には、ゴム紐がソフトCV領域画像境界で切断され、次にソフトCV領域画像としてではなく、元の個々の画像ハードCV領域画像(ブロック)に戻って再追跡することで、画像全体をもれなく追跡処理を行う。
結果として、ゴム紐で結合されたままのソフトCV領域画像群とゴム紐が切断されたソフトCV領域画像群とから画像が構成されることになる。
そこで、補正ソフトCV領域画像検出部532において、追跡誤差を減少するように、基準画像のソフトCV領域画像追跡結果から隣接するフレームの順番で画像を進行させた適切な比較フレームにまで画像を進行させ、基準フレームのソフトCV領域画像と追跡データ(TV値)(追跡データ)から前記比較フレームに対応する画像を生成し、前記比較フレームと比較する。
追跡データ(TV値)(追跡データ)が正しければ、二者は完全に一致するが、追跡データ(TV値)(追跡データ)に誤差が含まれれば、ソフトCV領域画像にずれが生じる。そこでその差分を取るなどして、誤差を検出し、誤差の発生するソフトCV領域画像を誤差範囲として決定する。
二次ソフトCV領域画像決定部534においては、上記の様にして求められた追跡データ(TV値)(追跡データ)をもつ二次ソフトCV領域画像として次の行程に出力する。
まず、画像取得装置501において、動画像取得部511は、ビデオカメラ等で動画像を取得して記録する。この場合広角画像を必要とし、狭角画像の場合は、一体化された狭角レンズを持つカメラによる画像と共に広角レンズを付けた画像とを同時に取得する。
次に、基準画像指定部512は、得られた動画像の中から以後の処理の基準となる静止画を基準画像として選択する。これはとりあえず最初の画像を基準画像とする。
次に、CV画像変換部552は、各画像フレームについて、取得されたCV値を付加したCV画像を生成する。
さらに、追跡範囲指定部553が、後の処理を効率的に行うために画像各点の追跡方向と範囲を制限する。
ハードCV領域画像(ブロック)は縦11ピクセル、横11ピクセル程度とする。
ハードCV領域画像(ブロック)は自己相関を演算し、取得された二次元の相関値において二次元相関値の内部に独立したピークを持つものを特徴ハードCV領域画像(ブロック)とし、ピークは有るが二次元相関値の縁に偏っているハードCV領域画像(ブロック)については、境界線上拘束ハードCV領域画像(ブロック)とし、差異のあるピークを持たないハードCV領域画像(ブロック)はソフトCV領域画像内ハードCV領域画像(ブロック)とし、その他ノイズの大きいハードCV領域画像(ブロック)については未特定ハードCV領域画像(ブロック)として分類する。
さらに、ソフトCV領域画像ゴム紐結合部524が、各ハードCV領域画像(ブロック)をゴム紐結合で処理する。各ハードCV領域画像(ブロック)を柔軟に結合し、その配列順番を変更しないで距離関係に多少の変更のゆとりを与えた結合方法をゴム紐結合という。
ここまでは画像をハードCV領域画像(ブロック)化し、そのソフトCV領域画像を決めただけであり二次元情報しか持たない。
次いで、補正ソフトCV領域画像検出部532が、追跡したソフトCV領域画像に対応する隣接フレームのソフトCV領域画像及びその近傍における誤差を検出し、その誤差の発生範囲を求める。誤差の発生範囲に入る全ハードCV領域画像(ブロック)について、基本画像を変更して前記範囲についてハードCV領域画像(ブロック)化する。
誤差の発生部分の範囲はゴム紐結合を解除して、各ハードCV領域画像(ブロック)単位で追跡をする。
再度追跡により誤差の発生範囲を再度詳細に追跡して、誤差の少ないソフトCV領域画像が生成される。このようにすることで画像全体のハードCV領域画像(ブロック)が何らかのソフトCV領域画像に所属し、何らかの種類別に分類されることになる。
ソフトCV領域画像は境界線を含み、境界線は隣接するソフトCV領域画像と共有することになる。そこで一つのソフトCV領域画像には複数の特徴ハードCV領域画像(ブロック)を持つことから、各ソフトCV領域画像は複数の追跡データ(TV値)(追跡データ)を持つことになる。
また、未特定ハードCV領域画像(ブロック)のみで特徴ハードCV領域画像(ブロック)画を持たないソフトCV領域画像であっても、ソフトCV領域画像自体が一つの追跡データ(TV値)(追跡データ)を持つことになる。
これら追跡データ(TV値)(追跡データ)をもつソフトCV領域画像を二次ソフトCV領域画像と定義する。
これら二次ソフトCV領域画像を二次領域決定部534で決定する。
ノイズ消去には線形処理である加算平均処理以外にも、非線形処理として多数決テクスチャー決定法を提案できる。この方法はテクスチャーを平均で決めるのではなく、複数フレームで最も共通性のあるソフトCV領域画像のテクスチャーを共通のテクスチャーとする方法である。
あるいは複数の適正テクスチャーを選択し、その加算平均をとることができる。これは請求項26に記載した発明にかかる技術である。
このとき、輪郭線は一致しているのでぼけることはない。
ここで、フレームに対してのカメラ位置を求めることをCV演算と定義したが、各フレーム内の各二次ソフトCV領域画像はやはり独自のCV値を持つことになる。しかし一般にフレームを代表する静止座標であればCV値は同一であるが、移動する物体についてはその移動する物体を構成する画像のソフトCV領域画像がそれぞれ独自のCV値と特徴ハードCV領域画像(ブロック)との関係を持つことになる。
最終的には、フレームを撮影したカメラとソフトCV領域画像を撮影したカメラは同一カメラなので、代表する座標系に関してはカメラ位置を示すCV値は一致することになる。
ソフトCV領域画像が基準画像のフレームが代表している座標系に所属していない場合、例えば人間が静止座標中を歩いて移動する動きのように、人間の各部分が別々に移動して形としては統合されている対象を二次ソフトCV領域画像に分割して、それぞれのCV値が一致する各特徴ハードCV領域画像(ブロック)を求めることで、人間の形状の時間変化を追ってその画像を表現できることになる。
さらに、結合ソフトCV領域画像生成部543が、変更CV演算により取得された二次ソフトCV領域画像を適切に結合して画像を再構成する。
また、ベクトル細線化部562が、輪郭線を方向別直線、曲線、等に分類しながら適切に分割し、それぞれを細線化処理し、ベクトル化する。
そこで、その切れ切れの端点において、輪郭線のベクトルの線上を延長し、その延長線上にはさらに輪郭線がある可能性が高いという予想の下に、閾値を下げて、再度エッジ検出を行う。また動画であることから、同じ処理を他の隣接するフレームにおいても行うことで、エッジ検出の確率を上げ、その結果としてより完全な輪郭線を検出できる。
このために、可変閾値処理部563により輪郭線検出閾値を下げる処理を行う。
さらに、輪郭線延長部564において、閾値を下げた端点の延長上で輪郭線を再検出し、対象物の輪郭線を延長させ、延長輪郭線を取得する。
一方、ソフトCV領域画像境界線は画像処理場の特徴ハードCV領域画像(ブロック)の存在する場所であり、座標に関する演算上重要な場所である。座標として保証されているのは輪郭線ではなく、境界線である。
対応する各要素を部品として用意し、それらと対比して、対応する要素を決定し、認識する。認識技術には、本願発明者の提案によるPRMを利用することができる(特開2000−295611号、国際公開WO02/01505号参照)。
要素認識部571では、部品との比較により、要素の認識がなされるか、それら要素は対象物の一要素であることから、要素の複合体である対象物の認識が可能となる。
また、要素追跡部572は、各要素を隣接するフレームに追跡して、対応点を確認し、追跡データを取得する。
次いで、隣接輪郭線補正部573が、追跡により、誤差の発生する範囲を求め、その範囲において、誤差の顕著な画像フレームを基準画像として、再度輪郭線検出から再演算することで精度を高め、対象物の輪郭線をより完成に近づける。
さらに、輪郭線規定部574が、取得されたより精度の高められた輪郭線により、一つの輪郭線に囲まれた範囲を仮に規定する。
また、認識が済んでいるので、一つの対象物に属するソフトCV領域画像のみを分離することが可能となる。
また、PRMにより、画像中の対象物のいくつかが対象物認識まで進み、その三次元位置も決定されることになる。ソフトCV領域画像の三次元位置の演算は変更CV演算部と重複するが、座標取得手段を複数持つことは一般的に好都合なことである。
対象物認識された場合は、画像中の対象物を自動的にCGと入れ替えることができる。実際にそのような需要は多い。
例えば、道路走行画像中の道路標識、看板、路面標示、等を自動的に認識し、自動的にCG化し、分類し、属性を与え、画像中に自動表示することは既に人工知能応用の範疇にはいるが、道路管理上きわめて有効である。
次に、本発明のCV値基準及び湧きだし点基準CV領域画像前置装置の実施例2として、カーナビゲーションを目的とした画像データベースを念頭に置き、CV値基準湧きだし点基準CV領域画像前置装置の最も単純化された実施例として、「ハードCV領域画像生成装置」と、「ハードCV領域画像生成装置を用いた座標系分離装置」の実施例を示す。
本実施例2は、上述した本願発明者による特願2004−364223号の「座標系分離記録再生装置」に対しても、一つの解決手段を追加するものとなる。
(1)揺れ止めした湧きだし点基準によるCV画像における座標系分離装置は、本願発明者の提案による特願2004−364223号の「座標系分離画像圧縮再生装置」において既に示され、その実施例では揺れ止め処理をした画像を必要としているが、本発明ではわざわざ揺れ止めせずに、しかも湧きだし点も検出すること無しに、座標系分離を実現し、しかも画像圧縮を実現しようとするものである。
(2)全周カメラを積載した車両から全周動画像を取得し、座標系分離をする過程で、代表座標系を静止座標系とする。
(3)そのときに、座標系分離された静止座標系以外は破棄してもまったく問題がないばかりでなく、破棄することになるのは静止座標系以外の対象物である走行する車両等であり、カーナビゲーションには不必要なものであることから、代表座標系のみを座標系分離し、他の座標系として取得された信号は全てノイズとして破棄される。
[詳細説明]
上述した知識と理解を前提として、以下の実施例を説明する。なお、送信受信再生のプロセスと、記録解凍再生のプロセスは基本的に同じことであり、ここでは区別せずに伝送受信再生としてのみ説明する。
図58A及び図58Bに具体的例を示す。
ここで対象となる動画の元画像は、図58A中の符号301、302、・・・・・307、・・・・と連続する連続静止画から構成される動画である。
この元画像をCV演算して、各フレームに対応させたCV画像を生成する。
元画像の最初のフレームを基準画像として扱い、基準画像を静止画伝送装置341で伝送し、受信側でも基準画像361として扱う。
また、差分検出装置352で元画像が途中で不連続に大きく変化したと判断されたときには、変化後の最初のフレーム317を静止画伝送し、新たな基準画像367と再設定する。あるいは、直前の画像との差分を送り、基準画像とすることもできる。
湧きだし点基準においては直線近似できる区間が制限となったが、CV値基準ではセグメント区間の原理的制限は特になく、データの取得、誤差修正、及び保存の制限から決められることになる。
上述した本発明の実施形態で示したハード領域画像分割装置8(図24及び図26参照)により、元画像301〜305までの全画素追跡(又は全ブロック追跡)することで、各フレーム画像の追跡データとCV値を持つ324を取得する。
図58Aに示すように、追跡可能な範囲で最大追跡フレーム数となるように305を選択することが望ましい。実際問題としては、カーナビゲーション用の道路画像を想定した場合、500〜1000フレーム程度の基準移動ライン設定が可能と考えられる。
また、送信するデータとしては、基準画像の最終フレーム画像の座標と位置関係を示すCV値、各CV領域画像のTV値、差分信号、差分信号から生成されたTV値である(後述する図59に示す記録データ構造参照)。
なお、受信側での画像再構築のためには共通のセグメント区間を約束しなければならないが、それは上述した基準画像の最終フレーム画像の座標と位置関係を示すCV値から直ぐに取得できるので特に送信の必要はない。
(1)基準画像(301、306・・・・・)
(2)基準画像とセグメント最終画像のCV値、及びTV値。
(3)セグメント区間の最終画像における生成画像と実画像との差分画像。
(4)基準画像に含まれないCV領域画像としての差分画像のCV領域のTV値。
この例はセグメント区間内の途中の画像フレームは全て省略され、フレームレートの指定もない。再生時に自由にフレームレートを指定することになる。
また、再生側では、送られた上記VD情報から視点移動も可能となる。
なお、図58Aにおいては、処理の過程をフレーム画像の進行とともに記載して説明したが、同図において、太枠は伝送情報であり、図中太枠で示した伝送情報は結局、311、324、351のみである。
この処理により、この間のフレーム数500〜1000は全て省略されることになる。これはかなりの画像圧縮率となる。
また、基準画像及び差分画像の伝送は、従来技術のJPEG等の圧縮技術を併用できるので、総合的にはかなりの圧縮率となる。
一方、静止していない座標系は一括追跡ができないことになる。静止していない座標系を取得するには、ここでは静止座標系のみのCV値に着目したので移動体はノイズとして削除されてしまう。つまり、カーナビ仕様には移動体が削除された方がよい結果を生み出すことになる。
一方、座標系は相対的であり、どの座標系も物理的に本質的区別はできない。そこで移動する対象物の座標系を分離するには、移動する座標系のCV値を求める必要がある。CV値の求め方は静止座標系の場合とまったく同じである(図1〜図13及び該当説明参照)。
図58Aに示すように、基準フレームのCV値及びTV値から、逆追跡をして揺れ止めCV画像314を生成することができる。
その結果得られたCV領域画像331とする。331は座標系分離及び追跡時の誤差を含んでいるので、一般には正しく揺れ止めCV画像314が生成されない。
そこで、生成CV画像331と生成目的の揺れ止めCV画像314の差分を、差分信号351として求める。
生成CV画像331と差分CV画像(差分信号351)とから誤差のない補正CV画像365を生成することができる。これは原理的に基となっている揺れ止めCV画像314に対応する画像である。
そこで、331は送らずに、361と324から受信再生側で生成CV画像331を生成して再生するのが適している。
図58Aに太枠で示した伝送信号として361、324、351から、受信再生側で365、また、図58Bに揺れ成分まで再現した画像として371〜377を示してある。なお、図58B中、破線で囲んだ部分が図58Aに相当する部分である。
このとき、揺れ止めしない撮影時の揺れ成分に忠実な元画像を伝送するには、位置と湧きだし点情報として、321〜326を伝送してもよい。
ここでは中間のCV値は全て省略されているので中間フレーム画像はCV値を均等配分した画像となり、元画像とは微少分そのCV値が異なる。
その差は微少で、一般には視認しにくいが、視認できたとしても、CV値が均等配分された画像の方が揺らぎも揺れも無くなり、視覚的にはより見やすくなると言う実に都合の良い効果を生み出す。
もし、揺れまで含めて中間の正しい画像が必要な場合は、各フレームに相当するCVを全て送ればよい。このことによるデータ量の増加は微々たるものである。
中間フレームのフレーム数を自由に設定できることが特徴である。
また、画像に映り込んだ歩行者や走行車両は、代表座標系には含まれないので、ノイズとして扱われることになる。
図58Aでは、306以降のフレームについては、再度基準画像を用意して、上述した301からの処理と同じ処理を繰り返すことで、切れ目の無い動画像全体を送信することができる。
また、座標系分離した代表座標系以外の物体、例えば画像に映り込んだ歩行者や走行車両は、全て削除できることになる。
セグメント区間は、フレーム画像としては基準画像としての最初の301のみ送り、最後の307におけるTV値生成画像との差分のみ差分画像351と、そのTV値を送る。
CV演算時は隣接画像間のCV値として求めているが、記録データとするときは省略するフレームを飛び越えて基準画像301とセグメント最終画像307間のCV値を記録することになる。それは単純に両者のCV値の差を取って、基準画像301のCV値に加えればよい。
セグメント区間は、CV値は301と307の関係を示す一個のみ。TV値は基準画像361に付加したTV値と、基準画像361には含まれていないが、セグメント最終画像には含まれる部分の差分画像351に対するTV値のみである。
基準画像301には含まれていないが、セグメント最終画像には含まれる追加CV領域画像分は、必ずしも差分画像351そのものではないが、差分画像351にはその大部分が含まれるので、差分画像351から生成することになる。TV値が重複することは何ら問題がない。
また、差分画像351の一部に付加したTV値は、基準画像301に付加したTV値とは逆方向のTV値となる。
受信再生側では、中間の全ての画像、及び視点変更画像は基準画像301と差分画像351を元として、全てのフレームの画像をこれらのVD値から生成する。
CV値とTV値とは受信側のセグメント区間で自由に比例配分される。毎秒のフレーム数の指定はないから、自由なフレーム数を表現できる。
さらに、本発明のCV領域画像前置装置の実施例3として、カーナビゲーションを目的とした画像データベースを念頭に置き、CV領域画像前置装置の最も単純化された実施例として「視点変更機能の追加」の実施例を示す。
[視点変更機能の追加]
上述した実施例2では、画像圧縮を主目的とした元も簡略化したカーナビ対応のハードCV領域画像生成装置について述べた。
本実施例では、これを発展させ、視点変更装置を設置して、視点移動をも可能としたものである。ここでは、CGのように視点変更可能な装置を念頭に、図58及び図60を参照しつつ、以下説明する。
また、本実施例では、視点移動も可能とすることで、撮影時の画像から、隣接車線への車線変更表示や高さ変更表示ができるナビゲーションへの応用も含めた多目的の装置であるということができる。
CV演算の結果として、回転成分の差分CV値dθx,dθy,dθz、位置成分の差分CV値dx,dy,dz、及びこれらCV値からCV画像の最初のフレーム431は従来方法で静止画圧縮されて基準画像361として送られる。
CV画像301、302・・・・・、305をそれぞれ画像領域分割して小領域に分割する。ここでの分割の方法としては矩形ブロックとして分割するハードCV領域画像としている。それはすなわち、CV領域画像そのものである。
従ってCV領域画像そのものを使うことでよい。
この時、画像は二次元にも係わらず、二次元の制約を完全に離れて、あたかもCGのように三次元画像としての自由視点を得ることができるのである。
そしてこの意味は、画像圧縮装置としてのみならず、視点変更装置、三次元形状生成装置としての意味を持つことは特記すべきで重要な事実である。
ここで具体的応用例として、車両に積載して走行しながら撮影した動画像を元画像とし、座標系として静止座標系一つのみを選択し、移動体信号を破棄することで、動画像から静止座標系のみを選択的に取得することができる。
つまり移動する車両や歩行者を削除し、道路や周のビルや伝習等のみの画像とすることができるのである。産業上このような用途は多く存在している。
本来二次元情報である画像から三次元情報を求めるには、関連する複数の画像から対応点を求める技術が必要である。それを基本的に解決したのが、本願発明者の提案によるCV演算法である(特開2005−295495号)。高精度のCV演算が確立すれば実測することなく、画像のみからの測量が可能となり、その産業に与える影響は多大である。
本発明は高精度の追跡方法を実現することにより、高精度CV演算手法を確立し、演算時間の掛かる相関やマッチング等の処理を用いないので、演算時間の短縮を可能とし、画像処理技術分野、及び未来産業に新たな可能性を付加するものであると確信する。
また、この技術は本願発明者の提案によるPRM(特開2000−295611号、国際公開WO02/01505号参照)におけるCG部品と画像の対応処理にもそのまま利用できるので、将来の人工知能技術にも貢献することが期待される。
また、本発明は、三次元カメラとしての産業的な利用が期待される。すなわち、画像を動画映像として一旦取得し、それを本発明によって座標系分離し、記録し、その記録データを解凍し、座標系単位で再生し、座標統合し、視点移動可能な映像として表示することで、新時代の三次元カメラとして産業的に広範囲に利用することができる。
200 CV値基準一括追跡装置
201 CV画像取得部
202 初期画像特徴点選択部
203 隣接フレーム追跡部
204 特徴点追跡予想部
205 対応位置一括決定部
400 関数特徴点検出装置
500 高精度CV演算装置
600 リアルタイム高精度CV演算装置
1001 CV領域画像前置装置
Claims (32)
- 動画像の各フレームに、撮影時のカメラの三次元位置と姿勢を示すカメラベクトル値(CV値)を付加した画像を生成するCV画像取得部と、
追跡を始める画像フレームを定め、当該画像フレームに追跡すべき複数の特徴点を選択して指定する初期画像特徴点選択部と、
当該複数特徴点を隣接フレームに追跡して、当該複数特徴点の各追跡データを取得する隣接フレーム追跡部と、
前記各追跡データとCV値とから取得される前記複数特徴点の概略三次元座標とから、当該複数特徴点に隣接する前記複数フレームに亘る概略追跡位置を前記複数フレームに関して一括して予想する特徴点追跡予想部と、
前記予想により制限された前記複数フレームの中の前記概略追跡位置付近において、前記特徴点との対応位置を前記複数フレームに亘り、一括して詳細に検出する対応位置一括決定部と、
を備えることを特徴とするCV値基準一括追跡装置。 - 前記初期画像特徴点選択部において、
前記CV画像を取得する際に用いた特徴点を選択して指定することを特徴とする前記請求項1記載のCV値基準一括追跡装置。 - 前記初期画像特徴点選択部において、
初期画像を定め、再度検出した特徴点を取得して、指定することを特徴とする請求項1又は2記載のCV値基準一括追跡装置。 - 前記初期画像特徴点選択部において、関数特徴点を検出し、
前記特徴点追跡予想部において、選択指定した関数特徴点の時系列上の多数フレームに亘り、CV値を用いて追跡予想位置を小面積で予想し、
前記特徴点追跡位置検出部において、前記小面積内に、新たに関数特徴点を抽出し、当該関数特徴点と前記選択指定した関数特徴点とを、同一特徴点として一括して対応させ、
前記対応位置一括決定部において、一括して対応関係を決定し、追跡データを求めることを特徴とした請求項1乃至3のいずれか一項記載のCV値基準一括追跡装置。 - 動画像の各フレームに、撮影時のカメラの三次元位置と姿勢を示すカメラベクトル値(CV値)を付加した画像を生成するCV画像取得部と、
前記CV画像取得部からの出力に対し、付加されたCV値の回転成分により、画像に逆回転を与えて、揺れ止め画像を生成する揺れ止め画像生成部と、
前記CV値から、隣接する画像に対する湧きだし点と吸い込み点を求める湧きだし点抽出部と、
前記CV画像をブロック画像に分割するブロック分割部と、
追跡を始める画像フレームを定め、当該画像フレームの画像ブロック内に追跡すべき一乃至複数の特徴点を選択して指定する初期画像特徴点選択部と、
湧きだし点基準を導入し、当該複数特徴点を湧きだし点から予想される経路に沿って隣接フレームに追跡して、当該特徴点の各追跡データを取得する隣接フレーム追跡部と、
前記各追跡データとCV値とから取得される前記複数特徴点の三次元座標とから、当該複数特徴点に隣接する前記複数フレームに亘る概略追跡位置を前記複数フレームに関して、湧きだし点から吸い込み点に向かって予測されるライン上に、一括して予想する特徴点追跡予想部と、
前記予想により制限された前記複数フレームの中の前記概略追跡位置付近において、前記特徴点との対応位置を、関連する前記複数フレームに亘り一括して検出する対応位置一括決定部と、
を備えることを特徴とするCV値基準一括追跡装置。 - 移動するビデオカメラで撮影した動画像を取得し、記録する画像取得装置と、
画像の中に多数の特徴点を検出し、複数フレームに亘って追跡することで対応点を検出し、複数の特徴点とその対応関係から、撮影時のカメラの三次元位置と姿勢を全フレームについて求めるカメラベクトル値(CV値)を演算(CV演算)して求め、同時に使用した特徴点の三次元座標を求める三次元特徴点記録部と、
各フレーム画像のCV値を記録する概略CV値取得部と、
画像の各フレームにCV値を付加した画像を生成するCV画像生成装置と、
前記画像の中に検出した三次元座標を持つ多数の特徴点を用いて、特徴点の対応点を、請求項1乃至5のいずれかに記載のCV値基準一括追跡装置により、多くの隣接画像に亘ってCV値基準一括追跡処理するCV基準一括追跡部と、
多数の特徴点の精度の高い前記追跡処理を行い、再度特徴点の追跡データを取得する特徴点追跡データ取得部と、
前記特徴点追跡データから精度の高いCV値を演算で求める高精度CV演算部と、
を備えることを特徴とする高精度CV演算装置。 - 画像の各フレームにカメラベクトル値(CV値)を付加した画像を生成するCV画像生成装置と、
前記CV画像生成装置の出力から、得られたCV画像を隙間無く幾何学的なハードCV領域画像に分割するハードCV領域画像分割装置と、
前記ハードCV領域画像分割装置によって分割された各CV領域画像の中に特徴点を検出し、又は前記CV演算時に使用した特徴点を利用し、その対応点を、請求項1乃至5のいずれかに記載のCV値基準一括追跡装置により、隣接画像に亘って追跡し、全CV領域画像のトラッキングベクトル値(TV値)を求めるTV演算装置と、
画像の各フレームに前記CV値と、前記TV値とを付加したハードCV領域画像を生成するハードCV領域画像生成装置と、
を備えることを特徴とするCV領域画像前置装置。 - 前記ハードCV領域画像生成装置の出力から、複数のハードCV領域画像を結合して、又は前記ハードCV領域画像生成装置を介さずに直接同種テクスチャーCV領域画像を分離して、画像内容に沿った複数のソフトCV領域画像から画像を再構成するソフトCV領域画像分割装置と、
前記ソフトCV領域画像に分割された画像の各ソフトCV領域画像に関して、前記ソフトCV領域画像をCV値から得られる予想位置を前記CV値基準一括追跡装置によって追跡し、基準となる座標系に対する位置及び姿勢、及び運動を演算し、前記ソフトCV領域画像のCV領域画像ベクトル値(RV値)を求めるRV演算装置と、
画像を構成する全CV領域画像が前記CV値と、前記CV領域画像ベクトル値(RV値)を付加して持つ画像を生成するソフトCV領域画像生成装置と、
を備えることを特徴とする請求項7記載のCV領域画像前置装置。 - 前記ソフトCV領域画像生成装置の出力から、複数のソフトCV領域画像を所属する対象物毎に結合して、又は前記ソフトCV領域画像生成装置を介さずに直接同種対象物CV領域画像を分離して、複数のソフトCV領域画像からなる対象物により、画像を再構成する対象物認識装置と、
前記対象物CV領域画像に分割された画像の各対象物CV領域画像に関して、前記対象物を構成する各ソフトCV領域画像は、対象物としての関係を保ち、対象物として基準となる座標系に対する位置及び姿勢、及び運動を演算し、複数のソフトCV領域画像の複合体としての複数のCV領域画像ベクトル(RV)を統合し、対象物別にソフトCV領域画像を分類したJV(ジョイントベクトル)を求め、対象物毎の分類データを取得するJV演算装置と、
画像を構成する対象物及び対象物を構成するソフトCV領域画像が、前記CV値と、前記CV領域画像ベクトル値(RV値)と、前記JV値と、で統合された画像を生成する対象物CV領域画像生成装置と、
を備えることを特徴とする請求項8記載のCV領域画像前置装置。 - 画像をブロックに分割するブロック分割部と、
前記ブロックを、特徴ブロック、及びそれ以外のブロックに分類するブロック分類部と、
全てのブロックをその配列順番を変えずにゴム紐状に柔軟に結合するゴム紐結合部と、
前記特徴ブロックと前記それ以外のブロックに対してもゴム紐状に結合し、一時的に形成される抜けのない全ブロックによる画像を生成するブロック画像生成部と、からなるハードCV領域画像分割装置と、
前記ハードCV領域画像分割装置の出力のゴム紐状に結合したブロック画像の特徴ブロックを請求項1乃至5のいずれかに記載のCV値基準一括追跡装置で追跡する特徴ブロック追跡部と、
特徴ブロックの追跡データを前記それ以外のブロックにも演算して適切に配分する一次TV演算部と、
複数フレームから一次TVの誤差を検出する補正ブロック検出部と、
前記誤差の分布するCV領域画像を補正CV領域画像として、再追跡して高精度なTVデータを取得する二次TV演算部と、
からなる高精度TV演算装置と、
前記TV演算装置の出力に関して、TV値が同一となる隣接ブロックを結合する同一TV値統合部と、
画像のCV値、及びハードCV領域画像のTV値を画像に付加するCV・TV付加部と、
ブロック画像を表示目的に適した図法に変換する図法再変換部と、
前記CV値とTV値とを付加したブロック画像を出力するハードCV領域画像出力部と、からなるハードCV領域画像生成装置と、
を備えることを特徴とするCV領域画像前置装置。 - 前記ハードCV領域画像生成装置の出力から、特徴ブロックを選択し、独立特徴ブロック、境界線上特徴ブロック、境界線上ブロック、及びそれ以外のCV領域画像内ブロックの3種類に再分類するブロック再分類部と、
境界線上特徴ブロック、境界線上ブロックを結合し、ソフトCV領域画像を生成するソフトCV領域画像生成部と、
輪郭線ベクトル化装置の出力を用い、CV領域画像境界を補正するCV領域画像境界線の抜けを補正し、ブロック単位で構成されているソフトCV領域画像を、ベクトル線で切り分けてCV領域画像境界線を補強して明確なソフトCV領域画像を生成するCV領域画像境界線補正部と、からなるソフトCV領域画像分割装置と、
前記ソフトCV領域画像分割装置の出力を、再度隣接画像に亘って追跡するCV領域画像トラッキング部と前記隣接画像に亘るCV領域画像の追跡からRV値を求めるRV演算部からなるRV演算装置と、
前記RV演算装置の出力に対して、CV値、及びRV値をソフトCV領域画像に付加するCV・RV付加部と、
前記CV値・RV値を付加されたソフトCV領域画像を生成して出力するソフトCV領域画像出力部と、からなるソフトCV領域画像生成装置と、
画像の輪郭を直接求める輪郭線抽出部と、
前記輪郭線を細線化してベクトル化するベクトル細線化部と、
細線化ベクトルの延長線上の輪郭線検出の閾値を下げて、再度輪郭線を検出して細線を延長する可変閾値輪郭補強部と、
補強されたベクトル輪郭線を生成するベクトル輪郭線生成部と、からなる輪郭線ベクトル化装置と、
を備えることを特徴とする請求項10記載のCV領域画像前置装置。 - ソフトCV領域画像の中で、認識対象となる対象物の概略範囲を選択指定するソフトCV領域画像範囲選択部と、
前記範囲を指定したソフトCV領域画像のRV値を選択指定するRV選択部と、
予想される複数の対象物のRV値をデータベース化して記憶している部品DB部と、
前記範囲のソフトCV領域画像のRV値と候補部品のRV値とを比較し、部分一致か不一致かを決定し、不一致の場合は他の部品候補を自動選択し、完全一致の場合はそれを決定部品とし、部分一致した場合は他の候補部品と一致度合いを比較し、最も一致度の高いRV値を持つ部品を決定部品とするRV比較部と、
前記決定部品を認識した対象物として、取得する対象物認識部と、
前記範囲のCV領域画像内において、CV画像からソフトCV領域画像の形状を形成する要素を検出する要素分解部と、
前記要素を隣接画像に追跡し、対応位置を求める要素追跡部と、
要素のCV値とRV値から三次元形状を求める要素三次元化部と、
要素の部品データベースとなる要素部品DB部と、
画像から検出した要素と部品要素の形状を比較して一致を求める要素比較部と、
一致した部品要素を画像から検出した要素に置換する対象物要素認識部と、からなる対象物認識装置と、
前記対象物認識装置の出力から、対象物認識されたCV領域画像を対象物単位で再結合するCV領域画像再結合部と、
それぞれの対象物毎にソフトCV領域画像の幾何学的三次元結合状況を表すJV値を求めるJV演算部と、からなるJV演算装置と、
前記JV演算装置で求められた対象物単位のJV値は、複数の対象物がそれぞれ区別されて配置されるように、全ソフトCV領域画像にJV値を付加するJV付加部と、
対象物認識が一部又は全て済ませた対象物認識CV領域画像を生成する対象物CV領域画像生成部と、からなる対象物分離画像生成装置と、
を備えることを特徴とする請求項9記載のCV領域画像前置装置。 - 前記CV値基準一括追跡装置からの出力、又は前記CV値基準一括追跡装置からの出力と同等の出力をする他の機器からの出力を、CV領域画像と共にVDを分離して取得するCV領域画像・VD取得部と、
画像の表示方法を指定する表示指定部と、
VDを基にして、CV領域画像を再結合して再結合画像を生成するCV領域画像再結合部と、
前記再結合画像を各フレームに配分して、各フレームに対応した画像を生成する画像フレーム生成部と、
前記画像フレームを表示する表示部と、
を備えることを特徴とする請求項7乃至12のいずれかに記載のCV領域画像前置装置を用いたVD画像表示装置。 - 前記CV領域画像前置装置から出力される各CV領域画像であるハードCV領域画像出力、ソフトCV領域画像出力、及び対象物CV領域画像出力の中の全ての画像出力、又は前記三者の中間段階の画像出力を、各ベクトルデータ(VD値)共に取得するCV領域画像・VD取得部と、
前記CV領域画像・VD取得部で取得したVD値の成分であるCV値、TV値、RV値、JV値の全て、又はそれら何れかのうちで、CV領域画像単位で、及び画像フレーム単位で重複するデータを近似化し単純化して、圧縮する重複データ圧縮部(座標系分離画像圧縮装置)と、
前記圧縮データによる圧縮画像データとの対応を保持して、各CV領域画像をCV領域画像圧縮して記録するCV領域画像圧縮記録部と、
前記各CV領域画像内に、画像及びCV領域画像を検索して指定する検索指定部と、
前記検索部で検索して選択した画像及びCV領域画像を、前記CV領域画像圧縮記録部に記録された全画像データの中から呼び出し、解凍し、前記重複データ整理部で再構成したCV値、TV値、RV値、JV値の全て、又はそれらの何れかを付加した複数種類のCV領域画像が混在するCV領域画像を出力する解凍・出力部と、を備え、
前記CV領域画像前置装置からの出力に代えて、CV領域画像を出力することを特徴とした請求項7乃至12のいずれかに記載のCV領域画像前置装置を用いたCV領域画像データベース装置。 - 請求項14記載のCV領域画像データベース装置からの出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
視点変更地点又は視点変更経路を、CV値で指定する視点変更指定部と、
前記CV値で指定された視点変更CV値から、視点変更時の他のVDを演算で求める視点変更演算部と、
視点変更演算により取得されたVDを各画像、及び各CV領域画像に対応をつける変更VD取得部と、
対応のついた前記各画像、及び各CV領域画像の画像を再構成し生成し、出力する視点変更画像生成部と、
を備えることを特徴とするCV領域画像前置装置を用いた視点変更装置。 - 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
前記CV領域画像に合成するべきCGを入力するCG入力部と、
前記CGのVDを演算するVD演算部と、
前記CV領域画像の視点座標とCGの視点座標を合致させて座標を統合する視点座標統合部と、
CV領域画像のVDと前記CGのVDを比較演算して、表示の前後関係を決定する前後関係形成部と、
視点が合致し、前後関係が決定された、前記CV領域画像と前記CGとを合成して、同一座標系で表現するCV領域画像CG合成部と、
を備えることを特徴とするCV領域画像前置装置を用いたCV領域画像CG合成装置。 - 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
三次元形状生成を行う範囲を指定する範囲指定部と、
CV領域画像に付加されたVD値から三次元ポリゴンに変換演算するポリゴン変換演算部と、
前記ポリゴン変換されたデータから三次元形状を生成する三次元形状生成部と、
を備えることを特徴とするCV領域画像前置装置を用いた三次元形状生成装置。 - 移動するカメラから撮影した画像についての、請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
画角拡大画像を観察する時の画角と視点方向を指定する拡大画角指定部と、
画角拡大画像を観察する時の前記カメラ位置からの視点の移動位置を指定する仮想観察視点指定部と、
前記拡大画角と、前記視点方向と、前記視点移動位置を指定された時間軸上に並ぶ複数フレームのCV領域画像を、指定の視点位置に視点変更演算する時間軸画像視点変更部と、
前記視点変更演算により、視点変更されて視点位置が同一となった現在から過去に亘る時間軸上に並ぶ複数フレームのCV領域画像を結合する複数画像結合部と、
時間の進行と共に移動進行する前記カメラの位置と方向を追従し、時間軸上に並ぶ複数フレームのCV領域画像を次々指定された視点位置に視点変更を次々繰り返すことで、画角拡大画像を連続して生成し続ける繰り返し生成部と、
を備えることを特徴とするCV領域画像前置装置を用いた画角拡大装置。 - 移動するカメラから撮影した画像についての、請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
VDを指定することにより、ロックオンすべき対象物の座標を指定する対象物座標指定部と、
ロックオン表示のための視点移動経路と範囲を指定する視点移動指定部と、
指定された視点移動経路に沿って、CV領域画像の視点変更を求める視点及び視点方向変換部と、
変換されたCV領域画像を指定経路に従って表示するロックオン表示部と、
を備えることを特徴とするCV領域画像前置装置を用いたロックオン表示装置。 - 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
VDから座標系を分離し、座標系毎のCV領域画像とVDとに分類する座標系別VD処理部と、
各座標系のVDを単純な関数に近似して単純化し、又は前記近似したVDと前記CV領域画像のVDとの関係を示す関数を持ち続ける各座標系VD近似処理部と、
単純な関数に近似されたことで、通信又は記録される、各座標系分離通信装置、又は各座標系分離画像記録部と、
各座標系単位で画像を生成する各画像系別画像生成部と、
各座標系を再度結合し合成して表示するための再結合を行う各座標系合成画像生成部と、
を備えることを特徴としたCV領域画像前置装置を用いた座標系分離装置。 - 更新する画像情報を含む画像を、前記CV値基準一括追跡装置から出力して、CV領域画像とそのVDを取得する更新CV領域画像・VD取得部と、
更新される旧画像情報を含む画像を、前記CV値基準一括追跡装置から出力して、CV領域画像とそのVDを取得する旧CV領域画像・VD取得部と、
更新範囲を指定する更新範囲指定部と、
VD値を合致させることで、更新画像の視点を旧画像の視点に変更する更新領域視点変更部と、
旧画像側の更新部分を削除する更新範囲削除部と、
更新部分のCV領域画像を切り取って、旧CV領域画像に貼り付けて更新CV領域画像を生成する更新部分CV領域画像生成部と、
最終的に領域結合して、更新画像を生成する更新画像生成部と、
を備えることを特徴とした請求項7乃至12のいずれかに記載のCV領域画像前置装置を用いた画像部分更新装置。 - 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
計測機器により鉛直方向を精度良く取得する鉛直補正部と、
CV領域画像の複数ポイントで絶対座標を取得する高精度位置決め部と、
前記計測機器で取得した高精度の鉛直データにより、取得したVD値を補正する補正VD値演算部と、
前記補正VD演算部で補正されたVD値と対応するCV領域画像により、オルソ化対象を三次元化する三次元面生成部と、
三次元化されたオルソ化対象のCV領域画像をオルソ面に投影するオルソ面投影部と、
を備えることを特徴としたCV領域画像前置装置を用いたオルソ画像生成装置。 - 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
再生表示しようとする動画像を取得したカメラ移動経路、又は仮想カメラ移動経路をCV値で指定する仮想カメラ移動経路指定部と、
前記動画像の各フレームを構成する各CV領域画像に関して、最も解像度の高いCV領域画像、又は最もカメラの近くで取得しているCV領域画像、又は最も目的に適合したCV領域画像を、既に取得している視点の異なる全CV領域画像データから選択する全範囲探索選択部と、
前記全範囲探索選択部で選択したCV領域画像を、カメラ経路を意味する前記指定CV値に前記選択したそれぞれのCV領域画像を視点変更する高解像度視点変更部と、
視点変更されたCV領域画像から各フレーム画像を生成する高解像度化画像結合部と、
視点変更を可能とするVD値を取得したCV領域画像の状態で記録保存する高解像度化画像データベースと、
高解像度化された動画映像を表示する場合の表示部と、
を備えることを特徴としたCV領域画像前置装置を用いた画像高解像度化装置。 - 請求項14記載のCV領域画像データベース装置から出力され、又は請求項15記載の視点変更装置から出力されるCV領域画像を、元となる動画像を構成する複数の座標系に分離する座標系分離装置と、
前記複数の座標系の中で、目的の運動する対象物のCV領域画像をそのVDと共に選択し、抽出する運動領域抽出部と、
前記抽出された運動領域のVDから、対象となる運動領域の運動を6自由度で表す運動領域VD解析部と、
前記運動領域を指定の座標系に変換して示す指定座標表示部と、
を備えることを特徴としたCV領域画像前置装置を用いた運動抽出・解析装置。 - 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
検索すべきCV領域画像、又はその一部、又はそれを内部に含むCV領域画像を検索すべき部品として指定する検索CV領域画像部品指定部と、
基準座標系における前記部品のVDを演算で求める検索CV領域画像部品VD演算部と、
検索されるCV領域画像の基準座標系におけるVDと、検索部品のCV領域画像の基準座標系におけるVDとを比較し、一致度を求める基準座標VD比較部と、
CV領域画像全体の中の一致度の高いCV領域画像を検索結果として出力する検索CV領域画像出力部と、
を備えることを特徴としたCV領域画像前置装置を用いたCV領域画像検索装置。 - 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
目的フレーム画像に属するCV領域画像と、それに隣接するフレーム画像に属するCV領域画像とで、対応する複数のCV領域画像を選択する最適CV領域画像選択部と、
前記隣接するフレーム画像に属するCV領域画像を、前記目的フレーム画像のCV値に視点変更する同一視点変更部と、
前記目的フレームの視点に統一して変更したCV領域画像を、重ね合わせて加算平均する領域加算平均演算部と、
前記加算平均によりノイズが減少した領域を目的フレームに属するCV領域画像として取得する平均CV領域画像生成部と、
を備えることを特徴としたCV領域画像前置装置を用いたノイズリダクション装置。 - 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
認識対象となる部分をCV領域画像内に指定する認識CV領域画像指定部と、
認識候補となる複数のCV領域画像からなる部品をデータベースとして記録している部品データベース部と、
認識が完了するまで、次々部品を送り出す部品送り出し部と、
比較される部品のVDを演算で求める部品VD演算部と、
前記認識対象となるCV領域画像と、前記部品を基準座標系のVD値で比較する基準座標VD比較部と、
前記部品送り出し部から送られてくる複数の部品の中で、最も一致度の高い部品を選択して、特定する認識画像出力部と、
を備えることを特徴としたCV領域画像前置装置を用いた対象物認識装置。 - 請求項14記載のCV領域画像データベース装置の出力、又は請求項15記載の視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
取得したCV領域画像から、三次元地図として精度良く利用できる複数のCV領域画像部分を自動選択する地図利用選択部と、
前記三次元地図として精度よく利用できるCV領域画像部分を指定し、前記CV領域画像・VD取得部で取得したCV領域画像内に検索して呼び出し、前記地図利用選択部に送る内部検索指定部と、
前記地図利用選択部で選択された前記精度よく利用できる複数のCV領域画像部分を、二次元特徴点、三次元特徴領域、特徴対象物等に分類し、又はVD値等を用いて変換し、地図として生成する地図生成部と、
地図と比較するため、及び表示のためのリアルタイム画像を車両等に積載したカメラから取得するリアルタイム画像取得部と、
取得した前記リアルタイム画像を、CV演算、GPSを用いた概略位置合わせ、画像明るさ調整、等の前記三次元地図と比較しやすくし、検索しやすくするための画像処理を施すリアルタイム画像処理部と、
前記二次元特徴点、三次元特徴領域、特徴対象物等を前記リアルタイム画像の中に検索指定する外部検索指定部と、
前記検索指定により、前記二次元特徴点、三次元特徴領域、特徴対象物等を、前記リアルタイム画像前処理部で比較しやすく処理されたリアルタイム画像の中に検索して、対応部分を検出する外部検索検出部と、
前記二次元特徴点、三次元特徴領域、特徴対象物等との対応部分が検出されたリアルタイム画像の対応部分と三次元地図上の前記二次元特徴点、三次元特徴領域、特徴対象物等から、リアルタイム画像のCV値を演算で求めるリアルタイム画像CV値取得部と、
前記リアルタイム画像CV値取得部で取得した前記リアルタイム画像のCV値から、リアルタイム画像を取得したカメラの位置と姿勢を絶対座標で求めて車両位置を決定する車両位置決め部と、
前記特徴対象物が持っている車両運行に関係する属性を前記リアルタイム画像内に表示するリアルタイム画像内属性表示部と、
前記車両位置決めに利用し、リアルタイム画像で確認された前記二次元特徴点、三次元特徴領域、特徴対象物等を、次回に利用する三次元地図として記録しておく、三次元地図データベース部と、
を備えることを特徴とするCV領域画像前置装置を用いた位置決め装置。 - 複合人工知能装置を構成する個々の人工知能装置が、
自ら取得したカメラ映像、及び認識結果を記録し、認識結果を記録する前記CV領域画像前置装置と、
個々の人工知能装置から他の人工知能装置で、相互に情報をやり取りするための送信装置、及び受信装置と、
他の人工知能から検索の問い合わせがあれば、前記CV領域画像前置装置のCV領域画像内に検索して、前記送信機で送り返すCV領域画像検索装置と、
他の人工装置から対象物認識の依頼があれば、前記CV領域画像前置装置のCV領域画像内で対象物認識して、前記送信機で送り返すCV領域画像認識装置と、
を備えることを特徴とした請求項7乃至12のいずれかに記載のCV領域画像前置装置を用いた複合人工知能記憶装置。 - 管理しようとする現実の管理対象物及びその周辺を撮影した画像についての、前記CV領域画像データベース装置の出力を取り入れ一時記録したCV領域画像記録部と、
画像取得時のカメラ位置近傍への視点変更画像を生成する前記視点変更装置と、
前記CV領域画像を表示し、動画として画像フレームが移動しても、画像とCVタグの三次元的位置関係を保持したまま、CVタグを表示し、及びCVタグを開封しその内容を表示できるようにしたCVタグ表示装置と、
前記CVタグ表示装置で表示された前記CV領域画像の中の前記管理対象物の位置に対して、CV領域画像の中にCVタグを直接貼り付け、又はCV領域画像中の前記管理対象物の三次元的位置を確認できるように矢印などで特定できるようにしたCVタグを、CV領域画像の中に三次元的に配置するCVタグ入力装置と、
CVタグと前記管理対象物とを関連づける諸データを格納するCVタグデータベース装置と、
前記CVタグ表示装置、及び前記検索装置でCVタグを選択し、又は表示されたCV領域画像中の前記管理対象物をCV領域画像の中にタッチスクリーンにタッチし、又はマウス等でCVタグをクリックして、CVタグを選択することで、前記CVタグデータベース装置からCVタグに対応する管理対象物のデータを読み出して管理するCVタグ対象物管理装置と、
を備えることを特徴とした請求項7乃至12のいずれかに記載のCV領域画像前置装置を用いたCVタグ入出力検索装置。 - 前記CVタグ入力装置と、前記CVタグデータベース装置と、前記CVタグ対象物管理装置とを車両等に積載し、管理地域、及び管理対象物周辺を移動する積載移動手段を備え、
前記積載移動手段にはビデオカメラを積載し、リアルタイム画像を取得し、前記リアルタイム画像にCV演算を施し、リアルタイムCV領域画像を取得するリアルタイムCV領域画像取得装置を備え、
文字、座標、属性等で検索し、CV領域画像中に管理対象物を示すCVタグそのもの、又はCV領域画像中の管理対象物の画像そのものを、色の変化やフラッシュ効果等の何らかの視覚効果のある三次元座標を持つ印として、動画としてのCV領域画像上に三次元的に矛盾無く呈示するCVタグ自動検索装置と、
当該CVタグ入出力検索装置の外側にあって、記録媒体又は通信を介して、当該CVタグ入出力検索装置内側の管理地域及びその周辺のCV領域画像地図を前記CV領域画像記録部に一時記憶して保持させる、外部CV領域画像地図データベース部と、当該CVタグ入出力検索装置の外側にあって、記録媒体又は通信を介して、当該CVタグ入出力検索装置内側の管理地域及びその周辺のCVタグとその属性情報を前記CVタグデータベース装置に一時記憶して保持させる、外部CVタグデータベース部と、からなる外部データベース装置と、を備え、
前記移動体には、移動体の絶対座標を取得するGPS位置決め装置と、取得した前記リアルタイムCV領域画像と前記CV領域画像地図から、位置あわせをして取得した新旧画像更新装置とを保持する移動体位置決め手段を備え、
前記移動体位置決め手段と時刻、及び入力した走行目的等より、車両の現在時刻と現在位置と現在状況に関係している管理対象物のCVタグを選択的に自動表示するCVタグ自動表示装置を備え、
前記装置のうち、一部又は全部の装置を選択的に備えることを特徴とした請求項30記載のCVタグ入出力検索装置。 - 前記CVタグ表示装置が、
選択及び検索した管理対象物を、管理対象物を画像の決められた位置に固定して表示する動画ロックオン手段と、
縮尺の異なる複数のCV領域画像地図を表示し、座標系を統一して、同じCVタグを前記複数のCV領域画像地図上に表示する手段と、
CV領域画像地図と二次元地図を同時に表示し、二次元地図上にもCVタグを表示する手段と、
選択及び検索した管理対象物を、前記CV領域画像地図と同じように、前記リアルタイムCV領域画像にCVタグを表示する手段と、
選択及び検索した管理対象物を、CV領域画像上に表示せずに、ヘッドマウント、又はハーフミラー等により、移動する車両等から直接観察する現実世界の管理対象物に重複して合成した、CVタグや案内矢印や看板を示す手段と、
選択及び検索した管理対象物に関するCVタグの内容を、音声で案内表示する手段と、
を有することを特徴とする請求項30又は31記載のCVタグ入出力検索装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007158288A JP5090797B2 (ja) | 2006-06-15 | 2007-06-15 | Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006166339 | 2006-06-15 | ||
JP2006166339 | 2006-06-15 | ||
JP2007158288A JP5090797B2 (ja) | 2006-06-15 | 2007-06-15 | Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008022545A true JP2008022545A (ja) | 2008-01-31 |
JP5090797B2 JP5090797B2 (ja) | 2012-12-05 |
Family
ID=39078128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007158288A Active JP5090797B2 (ja) | 2006-06-15 | 2007-06-15 | Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5090797B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011102799A (ja) * | 2009-11-11 | 2011-05-26 | Northrop Grumman Guidance & Electronics Co Inc | ヘディングを決定するためのシステムおよび方法 |
RU2458407C1 (ru) * | 2011-03-02 | 2012-08-10 | Общество с ограниченной ответственностью "ДиСиКон" (ООО "ДСК") | Система и способ видеомониторинга леса |
JP7409163B2 (ja) | 2020-03-06 | 2024-01-09 | 株式会社豊田中央研究所 | 定置センサ較正装置、および、定置センサ較正方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104320638B (zh) * | 2014-11-24 | 2017-10-17 | 卫芯科技(浙江)有限公司 | 一种智能化综合监控系统及监控视频处理方法 |
KR102136924B1 (ko) * | 2018-06-08 | 2020-07-23 | 한국도로공사 | 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법 및 시스템 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003256806A (ja) * | 2002-03-01 | 2003-09-12 | Nippon Telegr & Teleph Corp <Ntt> | 全方位画像型特徴点探索処理方法,装置,そのプログラムおよびそのプログラムの記録媒体 |
JP2005295495A (ja) * | 2003-10-02 | 2005-10-20 | Kazuo Iwane | カメラベクトル演算装置と、このカメラベクトル演算装置に備えられる揺れ成分検出装置,画像安定化装置,位置姿勢安定化装置,目的対象物ロックオン装置及び実写対象物属性呼出装置 |
JP2005322002A (ja) * | 2004-05-07 | 2005-11-17 | Kazuo Iwane | 複合人工知能装置 |
-
2007
- 2007-06-15 JP JP2007158288A patent/JP5090797B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003256806A (ja) * | 2002-03-01 | 2003-09-12 | Nippon Telegr & Teleph Corp <Ntt> | 全方位画像型特徴点探索処理方法,装置,そのプログラムおよびそのプログラムの記録媒体 |
JP2005295495A (ja) * | 2003-10-02 | 2005-10-20 | Kazuo Iwane | カメラベクトル演算装置と、このカメラベクトル演算装置に備えられる揺れ成分検出装置,画像安定化装置,位置姿勢安定化装置,目的対象物ロックオン装置及び実写対象物属性呼出装置 |
JP2005322002A (ja) * | 2004-05-07 | 2005-11-17 | Kazuo Iwane | 複合人工知能装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011102799A (ja) * | 2009-11-11 | 2011-05-26 | Northrop Grumman Guidance & Electronics Co Inc | ヘディングを決定するためのシステムおよび方法 |
RU2458407C1 (ru) * | 2011-03-02 | 2012-08-10 | Общество с ограниченной ответственностью "ДиСиКон" (ООО "ДСК") | Система и способ видеомониторинга леса |
JP7409163B2 (ja) | 2020-03-06 | 2024-01-09 | 株式会社豊田中央研究所 | 定置センサ較正装置、および、定置センサ較正方法 |
Also Published As
Publication number | Publication date |
---|---|
JP5090797B2 (ja) | 2012-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11710271B2 (en) | Three-dimensional data creation method, three-dimensional data transmission method, three-dimensional data creation device, and three-dimensional data transmission device | |
US11625863B2 (en) | Three-dimensional data creation method, client device, and server | |
Senlet et al. | A framework for global vehicle localization using stereo images and satellite and road maps | |
US10223829B2 (en) | Method and apparatus for generating a cleaned object model for an object in a mapping database | |
US20200401617A1 (en) | Visual positioning system | |
EP2208021B1 (en) | Method of and arrangement for mapping range sensor data on image sensor data | |
CN111542860A (zh) | 用于自主车辆的高清地图的标志和车道创建 | |
US20060195858A1 (en) | Video object recognition device and recognition method, video annotation giving device and giving method, and program | |
CN110648389A (zh) | 基于无人机和边缘车辆协同的城市街景3d重建方法和系统 | |
US20230162401A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
JP4926822B2 (ja) | 湧きだし点基準cv領域画像前置装置 | |
CN111462275A (zh) | 一种基于激光点云的地图生产方法和装置 | |
US20150138310A1 (en) | Automatic scene parsing | |
KR102200299B1 (ko) | 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법 | |
CN102959946A (zh) | 基于相关3d点云数据来扩充图像数据的技术 | |
JPWO2004095374A1 (ja) | 映像オブジェクト認識装置および認識方法、映像アノテーション付与装置および付与方法ならびにプログラム | |
JP2006250917A (ja) | 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置 | |
US20230281879A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
CN113593017A (zh) | 露天矿地表三维模型构建方法、装置、设备及存储介质 | |
JP5090797B2 (ja) | Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置 | |
US20240080460A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
CN112348887A (zh) | 终端位姿确定方法以及相关装置 | |
JP4624000B2 (ja) | 複合人工知能装置 | |
Acharya et al. | Single-image localisation using 3D models: Combining hierarchical edge maps and semantic segmentation for domain adaptation | |
JP2004265396A (ja) | 映像生成システム及び映像生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20090616 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20090824 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20091201 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100510 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120508 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120821 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120913 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150921 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5090797 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150921 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |