JP4926822B2 - 湧きだし点基準cv領域画像前置装置 - Google Patents

湧きだし点基準cv領域画像前置装置 Download PDF

Info

Publication number
JP4926822B2
JP4926822B2 JP2007136748A JP2007136748A JP4926822B2 JP 4926822 B2 JP4926822 B2 JP 4926822B2 JP 2007136748 A JP2007136748 A JP 2007136748A JP 2007136748 A JP2007136748 A JP 2007136748A JP 4926822 B2 JP4926822 B2 JP 4926822B2
Authority
JP
Japan
Prior art keywords
image
region image
region
unit
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007136748A
Other languages
English (en)
Other versions
JP2008005478A (ja
Inventor
和郎 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IWANE LABORATORIES, LTD.
Original Assignee
IWANE LABORATORIES, LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IWANE LABORATORIES, LTD. filed Critical IWANE LABORATORIES, LTD.
Priority to JP2007136748A priority Critical patent/JP4926822B2/ja
Publication of JP2008005478A publication Critical patent/JP2008005478A/ja
Application granted granted Critical
Publication of JP4926822B2 publication Critical patent/JP4926822B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、本願発明者の提案による特開2005−295495号公報に示されたカメラベクトル演算装置と、このカメラベクトル演算装置に備えられる揺れ成分検出装置、画像安定化装置、位置姿勢安定化装置、目的対象物ロックオン装置及び実写対象物属性呼び出し装置、特許公開2005−295495号におけるCV画像の考えを発展させ、さらに画像処理に適した、加工をより容易にした画像処理前置装置に関する。
これまで、動画像の全フレームに亘って、その画像を取得したカメラの三次元位置と姿勢を演算で検出するCV画像生成装置が特許文献1で提案され、実用化されている。
また、そこから発展的に生み出される技術の多くも実用化されている。
ここで、CV領域画像に比較するものとしてみると、単に領域に分割しているという点では、MPEG1、MPEG2、MPEG4がある。
特開2005−295495号公報
既存のCV画像データベースは、道路管理用システムとして既に実用化されているが、データ量が莫大となり、データベースの構築負担が大きくなるのみならず、システムとしても多量のデータを管理しなければならない。
また、従来のCV画像はCGと比較して長所が多いが、視点変更が自由にできないという面もあった。
また、上記比較対象としたMPEG1、MPEG2、MPEG4はいずれも、画像を二次元として扱っている点で、画像を三次元として扱う本発明とは根本的に異なるが、処理の過程で領域に分割されている点でのみ共通点がある。しかし、MPEG1、MPEG2、MPEG4はいずれも、動画像を二次元として扱っているので、冗長が多く圧縮には自ずと限界があるだけでなく、二次元である以上本発明ともCGとも異なり、決して視点移動はできない。
そこで、本願発明者は、鋭意研究の結果、これまでのCV画像をさらに発展させ、CGと同じように切り貼り、パーツ交換、視点変更も自由にできる画像に進化させることに成功した。
すなわち、本発明は、上述した従来の技術が有する課題を解決するために提案されたものであり、画像を湧きだし点を基準としてCV領域画像に分割し、各CV領域画像にCV値のみならず、TV演算によりTV値を、RV演算によりRV値を、JV演算でJV値を持たせることで、画像を自由に扱えるようにした湧きだし点基準CV領域画像前置装置の提供を目的とする。
上記目的を達成するため、本発明の湧きだし点基準CV領域画像前置装置は、自由に移動するビデオカメラで撮影した動画像を取得し、記録する画像取得装置と、前記画像取得装置で撮影された動画像の撮影時のカメラの三次元位置と姿勢を示すカメラベクトル値(CV値)を全フレームについて取得するCV値取得装置と、画像の各フレームにカメラベクトル値(CV値)を付加した画像を生成するCV画像生成装置と、前記CV演算時に同時に副次的に求まるFP(特徴点)座標を前記CV画像生成装置の出力に、付加したFP付加CV画像を生成するFP付加CV画像生成装置と、前記CV画像生成装置の出力から、若しくは前記FP付加CV画像生成装置の出力から、得られたCV画像を隙間無く幾何学的なハードCV領域画像に分割するハードCV領域画像分割装置と、前記ハードCV領域画像分割装置によって分割された各CV領域画像の対応点を隣接画像に亘って追跡し、全CV領域画像のトラッキングベクトル値(TV値)を求めるTV演算装置と、画像の各フレームに前記CV値と、前記TV値とを付加したハードCV領域画像を生成するハードCV領域画像生成装置と、を備える構成としてある。
また、本発明の湧きだし点基準CV領域画像前置装置は、前記ハードCV領域画像生成装置の出力から、複数のハードCV領域画像を結合するなどして、若しくは前記ハードCV領域画像生成装置を介さずに直接同種テクスチャーCV領域画像を分離するなどして、画像内容に沿った複数のソフトCV領域画像から画像を再構成するソフトCV領域画像分割装置と、前記ソフトCV領域画像に分割された画像の各ソフトCV領域画像に関して、前記ソフトCV領域画像をCV値から得られる湧きだし点から吸い込み点に向かって放射される線上に追跡し、基準となる座標系に対する位置及び姿勢、及び運動を演算し、前記ソフトCV領域画像のCV領域画像ベクトル値(RV値)を求めるRV演算装置と、画像を構成する全CV領域画像が前記CV値と、前記CV領域画像ベクトル値(RV値)を付加して持つ画像を生成するソフトCV領域画像生成装置と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置は、前記ソフトCV領域画像生成装置の出力から、複数のソフトCV領域画像を所属する対象物毎に結合するなどして、若しくは前記ソフトCV領域画像生成装置を介さずに直接同種対象物CV領域画像を分離するなどして、複数のソフトCV領域画像からなる対象物により、画像を再構成する対象物認識装置と、前記対象物CV領域画像に分割された画像の各対象物CV領域画像に関して、前記対象物を構成する各ソフトCV領域画像は、対象物としての関係を保ち、対象物として基準となる座標系に対する位置及び姿勢、及び運動を演算し、複数のソフトCV領域画像の複合体としての複数のCV領域画像ベクトル(RV)を統合し、対象物別にソフトCV領域画像を分類したJV(ジョイントベクトル)を求め、対象物毎の分類データを取得するJV演算装置と、画像を構成する対象物及び対象物を構成するソフトCV領域画像が、前記CV値と、前記CV領域画像ベクトル値(RV値)と、前記JV値と、で統合された画像を生成する対象物CV領域画像生成装置と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置は、前記CV画像生成装置からの出力に対し、付加されたCV値の回転成分により、画像に逆回転を与えて、揺れ止め画像を生成する揺れ止め画像生成部と、前記CV値から、隣接する画像に対する湧きだし点と吸い込み点を求める湧きだし点抽出部と、画像をブロックに分割するブロック分割部と、前記ブロックを、特徴ブロック、及びそれ以外のブロックに分類するブロック分類部と、全てのブロックをその配列順番を変えずにゴム紐状に柔軟に結合するゴム紐結合部と、前記特徴ブロックと前記それ以外のブロックに対してもゴム紐状に結合し、一時的に形成される抜けのない全ブロックによる画像を生成するブロック画像生成部と、からなるハードCV領域画像分割装置と、前記ハードCV領域画像分割装置の出力のゴム紐状に結合したブロック画像の特徴ブロックを追跡する特徴ブロック追跡部と、特徴ブロックを、追跡データを前記それ以外のブロックにも演算して適切に配分する一次TV演算部と、複数フレームから一次TVの誤差を検出する補正ブロック検出部と、前記誤差の分布するCV領域画像を補正CV領域画像として、再追跡してTVデータを取得する二次TV演算部と、からなるTV演算装置と、前記TV演算装置の出力に関して、TV値が同一となる隣接ブロックを結合する同一TV値統合部と、画像のCV値、及びハードCV領域画像のTV値を画像に付加するCV・TV付加部と、ブロック画像を表示目的に適した図法に変換する図法再変換部と、前記CV値とTV値とを付加したブロック画像を出力するハードCV領域画像出力部と、からなるハードCV領域画像生成装置と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置は、前記ハードCV領域画像生成装置の出力から、特徴ブロックを選択し、独立特徴ブロック、境界線上特徴ブロック、境界線上ブロック、及びそれ以外のCV領域画像内ブロックの3種類に再分類するブロック再分類部と、境界線上特徴ブロック、境界線上ブロックを結合し、ソフトCV領域画像を生成するソフトCV領域画像生成部と、輪郭線ベクトル化装置の出力を用い、CV領域画像境界を補正するCV領域画像境界線の抜けを補正し、ブロック単位で構成されているソフトCV領域画像を、ベクトル線で切り分けてCV領域画像境界線を補強して明確なソフトCV領域画像を生成するCV領域画像境界線補正部と、からなるソフトCV領域画像分割装置と、前記ソフトCV領域画像分割装置の出力を、再度隣接画像に亘って追跡するCV領域画像トラッキング部と前記隣接画像に亘るCV領域画像の追跡からRV値を求めるRV演算部と、からなるRV演算装置と前記RV演算装置の出力に対して、CV値、及びRV値をソフトCV領域画像に付加するCV・RV付加部と、前記CV値・RV値を付加されたソフトCV領域画像を生成して出力するソフトCV領域画像出力部と、からなるソフトCV領域画像生成装置と、前記輪郭線ベクトル化装置は、画像の輪郭を直接求める輪郭線抽出部と、前記輪郭線を細線化してベクトル化するベクトル細線化部と、細線化ベクトルの延長線上の輪郭線検出の閾値を下げて、再度輪郭線を検出して細線を延長する可変閾値輪郭補強部と、補強されたベクトル輪郭線を生成するベクトル輪郭線生成部と、からなり、これら各装置を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置は、ソフトCV領域画像の中で、認識対象となる対象物の概略範囲を選択指定するソフトCV領域画像範囲選択部と、前記範囲を指定したソフトCV領域画像のRV値を選択指定するRV選択部と、予想される複数の対象物のRV値をデータベース化して記憶している部品DB部と、前記範囲のソフトCV領域画像のRV値と候補部品のRV値とを比較し、部分一致か不一致かを決定し、不一致の場合は他の部品候補を自動選択し、完全一致の場合はそれを決定部品とし、部分一致した場合は他の候補部品と一致度合いを比較し、最も一致度の高いRV値を持つ部品を決定部品とするRV比較部と、前記決定部品を認識した対象物として、取得する対象物認識部と、前記範囲のCV領域画像内において、CV画像からソフトCV領域画像の形状を形成する要素を検出する要素分解部と、前記要素を隣接画像に追跡し、対応位置を求める要素追跡部と、要素のCV値とRV値から三次元形状を求める要素三次元化部と、要素の部品データベースとなる要素部品DB部と、画像から検出した要素と部品要素の形状を比較して一致を求める要素比較部と、一致した部品要素を画像から検出した要素に置換する対象物要素認識部と、からなる対象物認識装置と、前記対象物認識装置の出力から、対象物認識されたCV領域画像を対象物単位で再結合するCV領域画像再結合部と、それぞれの対象物毎にソフトCV領域画像の幾何学的三次元結合状況を表すJV値を求めるJV演算部と、からなるJV演算装置と、前記JV演算装置で求められた対象物単位のJV値は、複数の対象物がそれぞれ区別されて配置されるように、全ソフトCV領域画像にJV値を付加するJV付加部と、対象物認識が一部又は全て済ませた対象物認識CV領域画像を生成する対象物CV領域画像生成部と、からなる対象物分離画像生成装置と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いたVD画像表示装置は、湧きだし点基準CV領域画像前置装置からの出力を、若しくは前記湧きだし点基準CV領域画像前置装置からの出力と同等の出力をする他の機器からの出力を、CV領域画像と共にVDを分離して取得するCV領域画像・VD取得部と、画像の表示方法を指定する表示指定部と、VDを基にして、CV領域画像を再結合して再結合画像を生成するCV領域画像再結合部と、前記再結合画像を各フレームに配分して、各フレームに対応した画像を生成する画像フレーム生成部と、前記画像フレームを表示する表示部と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いたCV領域画像分割画像データベース装置は、前記湧きだし点基準CV領域画像前置装置から出力される各CV領域画像であるハードCV領域画像出力、ソフトCV領域画像出力、及び対象物CV領域画像出力の中の全ての画像出力、若しくは前記三者の中間段階の画像出力を、各ベクトルデータ(VD値)共に取得するCV領域画像・VD取得部と、前記CV領域画像・VD取得部で取得したVD値の成分であるCV値、TV値、RV値、JV値の全て、若しくはそれら何れかの内で、CV領域画像単位で、及び画像フレーム単位で重複するデータを近似化し単純化して、圧縮する重複データ圧縮部(座標系分離画像圧縮装置)と、前記圧縮データによる圧縮画像データとの対応を保持して、各CV領域画像をCV領域画像圧縮して記録するCV領域画像圧縮記録部と、前記各CV領域画像内に、画像及びCV領域画像を検索して指定する検索指定部と、前記検索部で検索して選択した画像及びCV領域画像を、前記CV領域画像圧縮記録部に記録された全画像データの中から呼び出し、解凍し、前記重複データ整理部で再構成したCV値、TV値、RV値、JV値の全て、若しくはそれらの何れかを付加した複数種類のCV領域画像が混在するCV領域画像を出力する解凍・出力部と、を備え、前記湧きだし点基準CV領域画像前置装置からの出力に代わって、出力する構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いた視点変更装置は、前記CV領域画像データベース装置からの出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、視点変更地点を、若しくは視点変更経路を、CV値で指定する視点変更指定部と、前記CV値で指定された視点変更CV値から、視点変更時の他のVDを演算で求める視点変更演算部と、視点変更演算により取得されたVDを各画像、及び各CV領域画像に対応をつける変更VD取得部と、対応のついた前記各画像、及び各CV領域画像の画像を再構成し生成し、出力する視点変更画像生成部と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いたCV領域画像CG合成装置は、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、前記CV領域画像に合成するべきCGを入力するCG入力部と、前記CGのVDを演算するVD演算部と、前記CV領域画像の視点座標とCGの視点座標を合致させて座標を統合する視点座標統合部と、CV領域画像のVDと前記CGのVDを比較演算して、表示の前後関係を決定する前後関係形成部と、視点が合致し、前後関係が決定された、前記CV領域画像と前記CGとを合成して、同一座標系で表現するCV領域画像CG合成部と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いた三次元形状生成装置は、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、三次元形状生成を行う範囲を指定する範囲指定部と、CV領域画像に付加されたVD値から三次元ポリゴンに変換演算するポリゴン変換演算部と、前記ポリゴン変換されたデータから三次元形状を生成する三次元形状生成部と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いた画角拡大装置は、カメラを車載するなどして移動するカメラから撮影した画像の、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、画角拡大画像を観察する時の画角と視点方向を指定する拡大画角指定部と、画角拡大画像を観察する時の前記カメラ位置からの視点の移動位置を指定する仮想観察視点指定部と、前記拡大画角と、前記視点方向と、前記視点移動位置を指定された時間軸上に並ぶ複数フレームのCV領域画像を、指定の視点位置に視点変更演算する時間軸画像視点変更部と、前記視点変更演算により、視点変更されて視点位置が同一となった現在から過去に亘る時間軸上に並ぶ複数フレームのCV領域画像を結合する複数画像結合部と、時間の進行と共に移動進行する前記カメラの位置と方向を追従し、時間軸上に並ぶ複数フレームのCV領域画像を次々指定された視点位置に視点変更を次々繰り返すことで、画角拡大画像を連続して生成し続ける繰り返し生成部と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いたロックオン表示装置は、カメラを車載するなどして移動するカメラから撮影した画像の、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、VDを指定することにより、ロックオンすべき対象物の座標を指定する対象物座標指定部と、ロックオン表示のための視点移動経路と範囲を指定する視点移動指定部と、指定された視点移動経路に沿って、CV領域画像の視点変更を求める視点及び視点方向変換部と、変換されたCV領域画像を指定経路に従って表示するロックオン表示部と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いた座標系分離装置は、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、VDから座標系を分離し、座標系毎のCV領域画像とVDとに分類する座標系別VD処理部と、各座標系のVDを単純な関数に近似して単純化し、若しくは必要であれば、前記近似したVDと前記CV領域画像のVDとの関係を示す関数をも持ち続ける各座標系VD近似処理部と、単純な関数に近似されたことで、通信又は記録される、各座標系分離通信装置、又は各座標系分離画像記録部と、各座標系単位で画像を生成する各画像系別画像生成部と、各座標系を再度結合合成して表示する必要があれば、再結合のための各座標系合成画像生成部と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いた画像部分更新装置は、更新する画像情報を含む画像を、前記湧きだし点基準CV領域画像前置装置から出力して、CV領域画像とそのVDを取得する更新CV領域画像・VD取得部と、更新される旧画像情報を含む画像を、前記湧きだし点基準CV領域画像前置装置から出力して、CV領域画像とそのVDを取得する旧CV領域画像・VD取得部と、更新範囲を指定する更新範囲指定部と、VD値を合致させることで、更新画像の視点を旧画像の視点に変更する更新領域視点変更部と、旧画像側の更新部分を削除する更新範囲削除部と、更新部分のCV領域画像を切り取って、旧CV領域画像に貼り付けて更新CV領域画像を生成する更新部分CV領域画像生成部と、最終的に領域結合して、更新画像を生成する更新画像生成部と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いたオルソ画像生成装置は、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、計測機器により鉛直方向を精度良く取得する鉛直補正部と、CV領域画像の複数ポイントで絶対座標を取得する高精度位置決め部と、前記計測機器で取得した高精度の鉛直データにより、取得したVD値を補正する補正VD値演算部と、前記補正VD演算部で補正されたVD値と対応するCV領域画像により、オルソ化対象を三次元化する三次元面生成部と、三次元化されたオルソ化対象のCV領域画像をオルソ面に投影するオルソ面投影部と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いた画像高解像度化装置は、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、再生表示しようとする動画像を取得したカメラ移動経路、若しくは仮想カメラ移動経路をCV値で指定する仮想カメラ移動経路指定部と、前記動画像の各フレームを構成する各CV領域画像に関して、最も解像度の高いCV領域画像を、若しくは最もカメラの近くで取得しているCV領域画像を、若しくは最も目的に適合したCV領域画像を、既に取得している視点の異なる全CV領域画像データから選択する全範囲探索選択部と、前記全範囲探索選択部で選択したCV領域画像を、カメラ経路を意味する前記指定CV値に前記選択したそれぞれのCV領域画像を視点変更する高解像度視点変更部と、視点変更されたCV領域画像から各フレーム画像を生成する高解像度化画像結合部と、記録の必要が有れば、さらに視点変更を可能とするVD値を取得したCV領域画像の状態で記録保存する高解像度化画像データベースと、高解像度化された動画映像を表示する場合の表示部と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いた運動抽出・解析装置は、前記CV領域画像データベース装置から出力される、若しくは前記視点変更装置から出力されるCV領域画像を、元となる動画像を構成する複数の座標系に分離する座標系分離装置と、前記複数の座標系の中で、目的の運動する対象物のCV領域画像をそのVDと共に選択し、抽出する運動領域抽出部と、前記抽出された運動領域のVDから、対象となる運動領域の運動を6自由度で表す運動領域VD解析部と、必要が有れば、前記運動領域を指定の座標系に変換して示す指定座標表示部と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いたCV領域画像検索装置は、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、検索すべきCV領域画像、又はその一部、又はそれを内部に含むCV領域画像を検索すべき部品として指定する検索CV領域画像部品指定部と、基準座標系における前記部品のVDを演算で求める検索CV領域画像部品VD演算部と、検索されるCV領域画像の基準座標系におけるVDと、検索部品のCV領域画像の基準座標系におけるVDとを比較し、一致度を求める基準座標VD比較部と、CV領域画像全体の中の一致度の高いCV領域画像を検索結果として出力する検索CV領域画像出力部と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いたノイズリダクション装置は、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、目的フレーム画像に属するCV領域画像と、それに隣接するフレーム画像に属するCV領域画像とで、対応する複数のCV領域画像を選択する最適CV領域画像選択部と、前記隣接するフレーム画像に属するCV領域画像を、前記目的フレーム画像のCV値に視点変更する同一視点変更部と、前記目的フレームの視点に統一して変更したCV領域画像を、重ね合わせて加算平均する領域加算平均演算部と、前記加算平均によりノイズが減少した領域を目的フレームに属するCV領域画像として取得する平均CV領域画像生成部と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いた対象物認識装置は、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、認識対象となる部分をCV領域画像内に指定する認識CV領域画像指定部と、認識候補となる複数のCV領域画像からなる部品をデータベースとして記録している部品データベース部と、認識が完了するまで、次々部品を送り出す部品送り出し部と、比較される部品のVDを演算で求める部品VD演算部と、前記認識対象となるCV領域画像と、前記部品を基準座標系のVD値で比較する基準座標VD比較部と、前記部品送り出し部から送られてくる複数の部品の中で、最も一致度の高い部品を選択して、特定する認識画像出力部と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いた位置決め装置は、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、取得したCV領域画像から、三次元地図として精度良く利用できる複数のCV領域画像部分を自動選択する地図利用選択部と、前記三次元地図として精度よく利用できるCV領域画像部分を指定し、前記CV領域画像・VD取得部で取得したCV領域画像内に、検索し、呼び出し、前記地図利用選択部に送る内部検索指定部と、前記地図利用選択部で選択された前記精度よく利用できる複数のCV領域画像部分を、二次元特徴点、三次元特徴領域、特徴対象物等に分類し、若しくはVD値等を用いて変換し、地図として生成する地図生成部と、地図と比較するため、及び表示のためのリアルタイム画像を車両等に積載したカメラから取得するリアルタイム画像取得部と、取得した前記リアルタイム画像を、概略CV演算、GPSを用いた概略位置合わせ、画像明るさ調整、等の前記三次元地図と比較しやすくし、検索しやすくするための画像処理を施すリアルタイム画像処理部と、前記二次元特徴点、三次元特徴領域、特徴対象物等を前記リアルタイム画像の中に検索指定する外部検索指定部と、前記検索指定により、前記二次元特徴点、三次元特徴領域、特徴対象物等を、前記リアルタイム画像前処理部で比較しやすく処理されたリアルタイム画像の中に検索して、対応部分を検出する外部検索検出部と、前記二次元特徴点、三次元特徴領域、特徴対象物等との対応部分が検出されたリアルタイム画像の対応部分と三次元地図上の前記二次元特徴点、三次元特徴領域、特徴対象物等から、リアルタイム画像のCV値を演算で求めるリアルタイム画像CV値取得部と、前記リアルタイム画像CV値取得部で取得した前記リアルタイム画像のCV値から、リアルタイム画像を取得したカメラの位置と姿勢を絶対座標で求めて車両位置を決定する車両位置決め部と、前記特徴対象物が持っている車両運行に関係する属性を前記リアルタイム画像内に表示するリアルタイム画像内属性表示部と、前記車両位置決めに利用し、リアルタイム画像で確認された前記二次元特徴点、三次元特徴領域、特徴対象物等を、次回に利用する三次元地図として記録しておく、三次元地図データベース部と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いた複合人工知能記憶装置は、複合人工知能装置を構成する個々の人工知能装置において、自ら取得したカメラ映像、及び認識結果を記録し、認識結果を記録する前記湧きだし点基準CV領域画像前置装置と、個々の人工知能装置から他の人工知能装置で、相互に情報をやり取りするための送信装置、及び受信装置と、他の人工知能から検索の問い合わせがあれば、前記湧きだし点基準CV領域画像前置装置のCV領域画像内に検索して、前記送信機で送り返すCV領域画像検索装置と、他の人工装置から対象物認識の依頼があれば、前記湧きだし点基準CV領域画像前置装置のCV領域画像内で対象物認識して、前記送信機で送り返すCV領域画像認識装置と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いたCVタグ入出力検索装置は、管理しようとする現実の管理対象物があり、前もって、前記管理対象物及び周辺を撮影して生成した前記湧きだし点基準CV領域画像前置装置、若しくはCV領域画像データベース装置の出力を記録媒体又は通信により取り入れ、一時記録したCV領域画像記録部と、画像取得時のカメラ位置近傍への視点変更画像を生成する前記視点変更装置と、前記CV領域画像を表示し、動画として画像フレームが移動しても、画像とCVタグの三次元的位置関係を保持したまま、CVタグを表示し、及びCVタグを開封しその内容を表示できるようにしたCVタグ表示装置と、前記CVタグ表示装置で表示された前記CV領域画像の中の前記管理対象物の位置に対して、CV領域画像の中にCVタグを直接貼り付けるか、若しくはCV領域画像中の前記管理対象物の三次元的位置を確認できるように、矢印などで特定できるようにしたCVタグを、CV領域画像の中に三次元的に配置するようにしたCVタグ入力装置と、CVタグと前記管理対象物とを関連づける諸データを格納するCVタグデータベース装置と、前記CVタグ表示装置、及び前記検索装置でCVタグを選択することで、若しくは表示されたCV領域画像中の前記管理対象物をCV領域画像の中にタッチスクリーンにタッチし、又はマウス等でCVタグをクリックして、CVタグを選択することで、前記CVタグデータベース装置からCVタグに対応する管理対象物のデータを読み出して管理するCVタグ対象物管理装置と、を備える構成とすることができる。
また、本発明の湧きだし点基準CV領域画像前置装置を用いたCVタグ入出力検索装置は、前記CVタグ入力装置と、前記CVタグデータベース装置と、前記CVタグ対象物管理装置とを車両等に積載し、管理地域、及び管理対象物周辺を移動する積載移動手段を備え、前記積載移動手段にはビデオカメラを積載し、リアルタイム画像を取得し、前記リアルタイム画像にCV演算を施し、リアルタイムCV領域画像を取得するリアルタイムCV領域画像取得装置を備え、文字、座標、属性等で検索し、CV領域画像中に管理対象物を示すCVタグそのものを、若しくはCV領域画像中の管理対象物の画像そのものを、色の変化やフラッシュ効果等の何らかの視覚効果のある三次元座標を持つ印として、動画としてのCV領域画像上に三次元的に矛盾無く呈示するCVタグ自動検索装置と、当該CVタグ入出力検索装置の外側にあって、記録媒体により、若しくは通信により、当該CVタグ入出力検索装置内側の管理地域及びその周辺のCV領域画像地図を前記CV領域画像記録部に一時記憶して保持させる、外部CV領域画像地図データベース部と、当該CVタグ入出力検索装置の外側にあって、記録媒体により、若しくは通信により、当該CVタグ入出力検索装置内側の管理地域及びその周辺のCVタグとその属性情報を前記CVタグデータベース装置に一時記憶して保持させる、外部CVタグデータベース部とからなる外部データベース装置と、を備え、前記移動体には、移動体の絶対座標を取得するGPS位置決め装置と、取得した前記リアルタイムCV領域画像と前記CV領域画像地図から、位置あわせをして取得した新旧画像更新装置とを保持する移動体位置決め手段を備え、前記移動体位置決め手段と時刻、及び入力した走行目的等より、車両の現在時刻と現在位置と現在状況に関係している管理対象物のCVタグを選択的に自動表示するCVタグ自動表示装置とを備え、若しくは、前記全ての装置と前記全ての手段の内の、その一部装置と一部手段を選択的に備える構成とすることができる。
さらに、本発明の湧きだし点基準CV領域画像前置装置を用いたCVタグ入出力検索装置は、前記CVタグ表示装置の機能を含み、選択及び検索した管理対象物を、管理対象物を画像の決められた位置に固定して表示する動画ロックオン機能と、縮尺の異なる複数のCV領域画像地図を表示し、しかも座標系を統一して、同じCVタグを前記複数のCV領域画像地図上に表示する機能と、CV領域画像地図と二次元地図を同時に表示し、二次元地図上にもCVタグを表示する機能と、選択及び検索した管理対象物を、前記CV領域画像地図と同じように、前記リアルタイムCV領域画像にCVタグを表示する機能と、選択及び検索した管理対象物を、CV領域画像上に表示せずに、ヘッドマウント、又はハーフミラー等により、移動する車両等から直接観察する現実世界の管理対象物に重複して合成した、CVタグや案内矢印や看板を示す機能と、選択及び検索した管理対象物に関するCVタグの内容を、音声で案内表示する機能と、前記各機能の全部又は一部の機能を有するCVタグ表示装置を備える構成とすることができる。
以上のような構成からなる本発明の湧きだし点基準CV領域画像前置装置によれば、これまでのCV画像をさらに発展させ、CGと同じように切り貼り、パーツ交換、視点変更も自由にできる画像に進化させ、画像を、湧きだし点を基準として、CV領域画像に分割し、各CV領域画像にCV値のみならず、TV演算によりTV値を、RV演算によりRV値を、JV演算でJV値を持たせることで、画像を自由に扱えるようになる。一つのCV領域画像をあたかも一つのCV画像として扱うことで、画像を自由自在の扱うことが可能となった(湧きだし点、TV、RV、JVに関しては後述する)。
また、本発明は、CV値を用いた三次元処理をしているが、CGのような三次元データではないので、データ量もかなり圧縮できることになった。
そして、これらを可能にしたのは、本発明により動画像の新しい解析手段を取得したことにある。
本発明は、本願発明者の提案による全周画像によるCV画像の利用(特開2005−295495号)に、本願発明者による動画像における「湧きだし点」と「吸い込み点」の概念を導入したものである。
本発明の元となっているCV演算及びCV値(特開2005−295495号)は、全周カメラによる動画像の球面画像から生まれた。動画像を球面画像として扱うことで焦点距離及び光軸の概念から解放され、動画像を視覚に適したかたちで二次元面を持ったまま、古典的な三角測量の原理に戻って三次元化し、簡単に取り扱うことができるようになった。
そして、本発明による動画像における単純化された「湧きだし点」と「吸い込み点」の概念の導入により、動画像処理が面のまま単純化されて三次元化し、動画像の領域分割及びそのトラッキングが容易となり、全画素トラッキングも可能となったことで、さらに進展した。
また、本発明では、処理後のデータの扱いを容易にするため、CV演算から発展した各演算によって取得したCV、TV、RV、JV値、(まとめてCTRV値と表現し、また、それぞれをベクトルデータ「VD」と呼称する)を持つデータベースを構築することでこれを実現するものである。
そのデータの持ち方には進化に応じた複数段階があり、それぞれのデータベースを構築し、目的に応じて選択することができる。
最終段階では対象物認識をしているので、人工知能に近いものとなっている。
CV領域画像は画像を三次元として扱うことが可能となり、様々な応用展開が可能となる。
CV値のみのCV画像データベース装置による応用例は、○動画像とCGの合成装置(31)、○動画像からの三次元座標取得(32)、対象物を常に定位置で観察するロックオン表示装置(33)、回転揺れ止め画像生成装置・揺れ止め制御装置(34)、○画像内計測・画像間計測装置(35)、○新旧画像更新装置(36)、○CV画像地図(37)、○車載カメラによる自動車位置決め、及びその応用による実写ナビゲーションシステム(41)、○画像の三次元ポリゴン化(42)、○路面オルソ化地図生成システム(43)、等が既に本願発明者により実現されている。
ここで、上記の応用例はCV画像データベース(DB)によるが、本発明に係るCV領域画像データベース装置によれば、さらに効率化されて実現されることになる。
次に、本発明に係るCV領域画像データベースではじめて実現される様々な応用例について列挙する。
○座標系分離画像圧縮・記録装置(51)、○視点移動・中間フレーム生成装置(2)、○移動体抽出・運動解析装置(53)、○高解像度化画像生成装置(54)、○CV領域画像運動抽出・検索・解析装置(55)、○ノイズリダクション装置(61)、○CV領域画像差し換え画像生成装置(62)、○対象物運動抽出・解析装置(71)、○PRM画像圧縮装置(72)、○複合人工知能記憶装置(74)、○VD画像表示装置(75)等が実現される。
このようにして、本発明は多くの新産業を生み出し、確実に未来技術の核となり、産業のプラットホームとして位置付けることができる。
本発明の湧きだし点基準CV領域画像前置装置によれば、画像を湧きだし点を基準としてCV領域画像に分割し、各CV領域画像にCV値のみならず、TV演算によりTV値を、RV演算によりRV値を、JV演算でJV値を持たせることで、画像を自由に扱うことができる。
以下、本発明に係る湧きだし点基準CV領域画像前置装置の好ましい実施形態について、図面を参照しつつ説明する。
ここで、以下に示す本発明の湧きだし点基準CV領域画像前置装置は、プログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示すような所定の処理や機能、例えば、映像中からの基準点や特徴点の自動抽出,抽出した基準点の自動追跡,基準点の三次元座標の算出,CV(カメラベクトル)値の演算等を行わせる。
このように、本発明における各処理や手段は、プログラムとコンピュータとが協働した具体的手段によって実現される。
なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ,その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラムがコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
[用語の定義]
まず、本明細書で用いられる特殊用語の定義と解説について説明する。
「CV演算、CV値、CV画像」
画像を取得したカメラ位置と姿勢の三次元座標と角度を6変数で、画像の各フレームについて求めたものがCV値であり、それを求める演算がCV演算であり、CV値が求められた画像をCV画像(CV映像)という。
代表する座標系とカメラ位置と姿勢が既知となったことで、複数のフレームから対象の三次元座標が求められる。
CVはカメラベクトルの略称であり、CV値はCV演算の結果得られたカメラベクトルを表す6変数で、各フレームにCV値を付加した画像をCV画像という。
ただし、回転揺れ止めしたCV値は回転に属する3変数が定数となるため、回転揺れ止めした画像においては、CV値を残りの位置に関する3変数で表すことがある。
(特開2005−295495号、特開2005−122315号参照)
「湧きだし点」
カメラ移動による動画像、又は相対的に対象物とカメラの位置関係が刻々変化する場合には、着目する座標系おいて、湧きだし点から吸い込み点に向かって画像が湧き出してくるように見える。これは元々回転静止した二画面の間に定義される二次元画像上の一点であり、カメラベクトル(CV)値から求められる。
動画像において回転揺れ止めが成されていなければ湧きだし点は求められない。
a地点及びb地点の揺れ止めされた回転静止系におけるCV値はCVa =(Xa,Ya,Za) CVb=(Xb,Yb,Zb) とすると、湧きだし点ベクトルSVは、それぞれの成分の差 SV=(ΔX,ΔY,ΔZ)で表される。
「湧きだし点」と「吸い込み点」の概念は、本願発明者が初めて提案した新しい概念である。
さらに、湧きだし点の概念を動画像に発展させ、動画像を湧きだし点基準で近似し、分類整理することで、動画像の動きを単純化して、整理することができる。
動画像において湧きだし点を求めるには画像の回転揺れ止めを行う必要がある。CV値の回転成分から回転成分を取得し、動画像に回転補正を施し、回転揺れ止め(特開2005−295495号参照)を行った動画像間の移動ベクトルは吸い込み点方向から湧きだし点方向を示している。
湧きだし点と、その反対側には吸い込み点がある。両者は画像内にある場合と無い場合がある。静止している場合には湧きだし点も吸い込み点も特定できないが、カメラが移動する場合には必ず存在している。
画像を球面で表したメルカトール図法では、画像の中に湧きだし点と吸い込み点の両方が位置する。全周画像において、画像の各点は湧きだし点から大円上を移動して吸い込み点に至る放射状に出る曲線上を移動する。全周画像以外の部分画像であっても、全周画像の一部として扱えば全周画像とまったく同じように処理可能である。メルカトール図法では移動の軌跡は曲線となるが、大円上を移動するので、最終的に一次関数にまで変換可能である。一次関数への変換については以下の「TV値」の項目を参照。
(特開2005−295495号、特開2005−122315号参照)
具体的には、図14(a)に示すように、回転揺れ止めした画像311を遠近法図法(平面展開図法)で表現した場合には、画像の各画素313は湧きだし点312から湧き出る直線314となる。また、一般に平面展開図法では、湧きだし点、吸い込み点の両方が同時に画像に現れることはなく、どちらも画像に現れないときもある。
トラッキング時にはブロック化して画像上を追跡のが一般的であるが、その方法は多数ある。一例として、図14(b)には、湧きだし点から放射状に出る直線と垂直線が作るブロックを単位として、ブロック315を生成することができる。
「CV領域画像」
CV領域画像とは、「CV画像から生成される湧きだし点基準による一次元トラッキング領域画像」のことである。
CV領域画像にはハードCV領域画像、ソフトCV領域画像、対象物CV領域画像の三種類があり、これらを区別しないときは単にCV領域画像という。
ただし、CV領域画像を生成する過程で、未だCV領域画像化されていない部分の領域も一つのCV領域画像として扱うこともある。
「ハードCV領域画像」
ハードCV領域画像とは、画像を分割したブロック形状のCV領域画像の意味である。
画像処理を目的として画像を決まった形で分割する場合、通常は8*8〜10*10程度の矩形ブロックに分割するが、以下のソフトCV領域画像と区別するため、画像や画像内の対象物に依存せずに決まった形に分割したCV領域画像をハードCV領域画像と言う。
具体的処理の場合には分割した矩形をブロックと称することもある。正確にはハードCV領域画像の一部にブロックは含まれる。
「ソフトCV領域画像」
ソフトCV領域画像とは、画像を画像中の対象物に依存する形で、柔軟に分割した場合のCV領域画像の意味であり、通常、一つの対象物は複数のソフトCV領域画像からなる。
ハードCV領域画像と区別して、画像と画像中の対象物に依存して分割されたCV領域画像をソフトCV領域画像という。
「ブロック」
ハードCV領域画像の具体的な分割した矩形の形状をブロックという。
処理上、ハードCV領域画像は幾何学的に単純化する必要があり、ブロック化されることがほとんどなので、ブロックと呼称する場合がある。
「TV演算、TV値、TV画像」
回転揺れ止めした動画像において、その代表座標系に属する全ての対象物が画像中を移動する場合の軌跡は、湧きだし点から、吸い込み点に至る線上を移動する軌跡となる。
TV値を求める演算をTV演算と言うが、TV演算には先ず画像の各点を動画を構成している隣接フレームに亘って追跡する作業、すなわちトラッキングが必要である。
通常トラッキングをするには画像を小領域のブロックに分割して、それを画像上に追跡する。8*8〜10*10程度が通常使われるブロックのサイズである。
ところで、湧きだし点が既知となり、回転揺れ止めした動画像のトラッキングは、カメラの直線移動距離が既知であれば、或いは等速運動であれば、ブロック移動軌跡は二次元を取らず、湧きだし点を通る一次元となり、その移動経路は完全に一次元で予想される。トラッキングは画像内での画像フレームの時間の単位で進行する画像内距離として取得されるので、TV値も画像内距離として表現できるが、その後の画像処理のためにはTV値は時間及び速度に依存しない方が良い場合が多い。そこでトラッキングデータを移動距離で微分して、カメラの単位移動当たりの画素として、すなわちカメラ移動距離の関数としてTV値を表現するのが好ましい。
また平面展開図法では、この時のTV値はカメラからブロックまでの垂直距離(ブロック移動面までの距離)の逆数とブロック移動速度は比例し、最終的には一次関数で関連づけられる。自由度は1なので数学的に扱いやすく、一次関数に変換が可能であり演算にもきわめて有利である。
そこで、カメラの移動を直線近似できる範囲をセグメント区間と定め、そのセグメント区間の直線からのズレ成分をセグメント位置揺らぎと呼称する。
このセグメント位置揺らぎのトラッキングをCV値で補正して、トラッキングデータを一次関数で表すことになる。また、車載したカメラから撮影したような画像であれば、位置揺らぎを無視できるので、そのままTV値としてもかまわない。
この一次関数で表現された線上のトラッキング演算をTV演算、その値をTV値、画像の各部分にTV値を付加した画像をTV画像と呼称する。
一般にCV領域画像は、前記セグメント区間の集合として表現され、1領域画像は1セグメント区間で一つのTV値を持つことになる。
ここで、湧きだし点から吸い込み点に向かって湧き出すように移動する各画素の軌跡は一般に或る曲線を描くが、位置揺らぎがあるので、位置揺らぎが無視できるときはそのまま一次関数への変換が可能である。
数学的には、二次元面のトラッキングデータをCV値により位置揺らぎ成分を正しく補正することができる。従って、TV値は正確に一次関数に変換可能である。このように元々二次元であるトラッキングデータを一次元に、すなわち一次関数のTV値に単純化し、しかもそこから三次元データとして扱うVDを生み出すことに重要な意味がある。
すなわち、TV値は、追跡範囲を自由度1までに単純して限定することができることになり演算が単純化され画像処理上きわめて有利となる。
一次関数で表したTV画像は直線運動する仮想カメラからの映像となるので、視覚的には都合がよい。CV値から何時でも位置揺らぎを持った画像に復元可能であり、また回転揺れ止めした画像もその回転揺れをCV値から復元可能である。ただし、視覚的には復元しない方が見やすいので、敢えて位置揺らぎと回転揺れを再現する必要はないことが多い。カメラを手に持って撮影した画像よりも三脚に載せた画像の方が見やすいのと同じ意味である。
ただし、ここで重要なことは湧きだし点と吸い込み点は回転揺れ止め動画像上に定義した点であり、回転揺れ止め画像でなければ定義できないことである。
「RV演算、RV値、RV画像」
カメラの位置及び姿勢とソフトCV領域画像において、カメラと画像との関係は相対的であり、カメラを固定して画像の一部分の位置と姿勢の三次元ベクトルで表すことが可能である。このように、カメラを固定として、画像の一部分の三次元ベクトルをRV値という。その6自由度変数を求めることをRV演算という。
RVは Regional Vectorの頭文字である。
CV値付きのTV値とRV値とは常に座標系の分類を示す定数項を介在して、一対一の関係にあり、座標系を選択すれば何時でも互いに変換できる関係にある。
或るCV領域画像においては、CV値とRV値は互いに変換できる関係にある。
画像を構成する複数の座標系それぞれにCV値を定義することが可能であるが、CV値はこれまで動画像を代表する一個の座標系に対して一個のCV値を定義してきたので、しかも、カメラ側に定義してきたベクトルであるので、ここで複数の座標系に対して複数のCV値を定義すると、理解の混乱を起こす危惧があるため、ここではCV値は従来通り動画像を代表する座標系に対してのみ定義し、それ以外はRV値として、座標系とカメラの関係をCV値と同じ6自由度の変数で表示することになる。従って次元及びその意味合いはCV値と同等であり、変換可能な状況にある。
また、RV値は基準となる画像では、代表座標系と一致し、その後時間と共に代表座標系から移動するように初期値を取ることが好ましい。このようにすることで、静止座標系に一致しているときは、6変数全て静止座標系と一致するので、データとして扱いやすくなる。
一般にRV画像はTV値から演算で求められるので、TV値はRV値と重複するデータである。
「JV演算、JV値、JV画像」
対象物認識後にソフトCV領域画像の各関係を求める演算をJV演算といい、認識された対象物を構成する複数のCV領域画像及びそのRV値を、対象物単位で区別する結合変数である。一般に認識された対象物は複数のCV領域画像から構成されており、その時各CV領域に与えられ、同一対象物に属するCV領域画像の三次元関係を求めることをJV演算、その値をJV値、JV値を取得した画像をJV画像という。
一般にJV画像は、CV値、RV値とを同時に扱われる。
「VD(ベクトルデータ)」
CV値、TV値、RV値、JV値を総称してVD(ベクトルデータ)と呼ぶ。
上記独立に決まるVDに重複する従属変数となるが、湧きだし点ベクトルの値、SP値もVDに含める場合がある。
また、CV値とRV値はTV値から演算で求められるので、CV領域画像がVDを持つ場合、既にRV値を持つ場合はその中にTV値を含まない場合もある。
「ゴム紐結合、ゴム紐切断」
画像をブロック分割して、それぞれのトラッキングデータを求めようとする場合、自己相関値がピークを持つような特徴点ブロックは追跡可能であるが、それ以外のブロックは追跡点が一義的には定まらない。
そこで、特徴ブロックとそれ以外のブロックに対して、後の処理において特徴点が移動してもその二次元配列順番を変えずにゴム紐状に伸び縮するように、柔軟結合しておくことをゴム紐結合部と呼ぶ。
ゴム紐結合することで、特徴点ブロック以外のブロックでも仮想のトラッキングデータを取得することができるようになった。
ただし、ゴム紐結合したために却ってトラッキングデータに矛盾が発生することがある。その時にはその矛盾の発生した場所で、ゴム紐を切断する作業を行う必要がある。このように一旦ゴム紐結合した一部分を切断することをゴム紐切断という。
「PRM」
PRMとは、Parts Reconstruction Method(3D対象物認識方法)の略であり、本願発明者により開発された対象物を認識するための技術である(国際出願PCT/JP01/05387号(国際公開WO 02/01505)参照)。具体的には、PRM技術は、前もって予想される対象物の形状と属性を部品(オペレータ部品)としてすべて用意しておき、それら部品と現実の実写映像を対比して、一致する部品を選択して対象物を認識する技術である。例えば、走行車輌等に必要となる対象物の「部品」は、道路標示としての車線、白線、黄線、横断道、道路標識としての速度標識、案内標識などであり、これらは定形のものであるので、PRM技術によりその認識は容易に行える。また、対象物をCV映像中に検索する場合においても、その対象物の存在する予想三次元空間を狭い範囲に限定することが可能となり、認識の効率化が可能となる。
具体的には、信号機であれば、その三次元形状を取得しただけでは「検出」であり、座標と姿勢まで分かれば「特定」であるが、信号機という名称が分かり、3個のライトが赤青黄に変化し、それぞれの交通上の意味を理解しているときに、属性を理解(認識)したということができる。
なお、PRM認識によって、あらゆる監視対象物(予測される対象物、障害物、不審物等)が認識されるとは限らない。すなわち、記憶となるデータベースに情報が存在しない対象物は認識できない。しかし、これは特に問題となるものではない。人間であっても記憶にないものは認識できないのと同様である。認識とはそのもの、あるいは、そのものに近いものの記憶との対比によって得られるものであるからである。
(特開2005−122315号、特開2000−295611号、国際公開WO02/01505号参照)
「複合人工知能記憶装置」
現実世界の中の複数の対象物にカメラを取り付け、CV画像を取得し、互いに位置関係を確認し、属性を持ち、互いに情報をやり取りし、判断する人工知能を複合人工知能記憶装置という。
「CVタグ」
CV画像中に情報の出入り口として、CVタグを配置することができる。特開2005−295495号、特開2005−122315号に本発明者によるCVタグに関する発明がある。(実写アイコン、CGアイコンという名称で記載されている。)
CVタグの機能としてはCGアイコン及び実写アイコンと基本的に同じである。
CVタグの置き方としては、CV画像の中の対象物に重ねて、又は対象物から多少離した仮想位置に対象物を特定する位置に設置し、情報の出入り口とする。
CV画像には、アイコンのように情報のやり取りをするタグを貼り付けることができる。また、CV画像では、画像の中の対象物、又は画素そのものが三次元座標を持っていることから、対象物そのものをタグとして利用することができる。
CVタグとしては、本願発明者による特開2005−295495号及び特開2005−122315号から明らかなように、CVタグには実写をそのままCVタグとして利用する方法と、小型のCGをタグとして貼り付ける方法の二種類が考えられる。
CVタグとして、実写画像をそのままCVタグとして用いる方法の特徴は、画像中の対象物全てがCVタグとして利用できることである。画像の持つ座標系とCVタグの座標系を共通にすることで、三次元座標そのものがタグの位置であり、目に見えないタグとして配置することができる。ただし、CVタグの位置がピンポイントでは検索が困難となるので、二次元的に或いは三次元的に範囲を指定して、その範囲をタグ領域とすればよい。
実写型CVタグは実写そのものを用いるので、タグは目では見えないことになり、映像を観察するときに障害とは成らない点がCG方式に比べて有利である。また、CV画像からタグの位置を指定したり検索するためには、画像内でその都度三次元計測をしなければならない。この点がCG方式に比べて不利である。
一方、CGによるCVタグは、三次元計測した位置にタグとしてのCGを配置することになる。配置するには三次元計測する点では実写方式と同じであるが、また、読み出しや検索の場合はCGが既に三次元座標を持っていることから、その場での再度三次元計測をせずにCGを直接クリックすることで、その三次元座標を取得できるので、処理が簡単になる。この点が実写型と比較して有利な点である。
ところで、CGを用いたCVタグは、実写型と異なりタグが映像中に見えることになる。映像観察上不利になることはあるが、見えた方が都合の良いこともある。ただし、CGを透明化することで、目では見えないが、クリックすればそこでCGの三次元座標を取得し、タグを特定できることになる。従って実写方式でなくCG方式でも、タグそのものを映像中に隠して、置くことが可能となる。透明であれ可視であれ、CV画像中に配置されたCVタグであるCGは、既に三次元座標を持っているので、その場で三次元座標を計測する必要はないことになり、実写方式に比較して、呼び出しや検索に有利となる。
以下、図面を参照して、本発明の湧きだし点基準CV領域画像前置装置及びこれを用いた各装置の具体的な実施形態について説明する。
[CV演算]
まず、本発明の湧きだし点基準CV領域画像前置装置における処理の前提となるカメラベクトル値(CV値)の取得方法の一例を示すCV演算について図1〜図13を参照しつつ説明する。
CV演算とはCV値を求める方法の一つであり、CV演算により求められた結果をCV値,CVデータと呼ぶ。CVという表記は、カメラベクトル:Camera Vectorの略記であり、カメラベクトル(CV)とは計測等のために映像を取得するビデオカメラ等のカメラの三次元位置と3軸回転姿勢を示す値である。
CV演算は、動画像(ビデオ映像)を取得し、その映像内の特徴点を検出し、それを隣接する複数のフレームに追跡し、カメラ位置と特徴点の追跡軌跡とが作る三角形を画像内に数多く生成し、その三角形を解析することで、カメラの三次元位置とカメラの3軸回転姿勢を求めるものである。
CV演算では、CV値を求める過程で、同時に映像内の特徴点(基準点)についても三次元座標が同時に求まることが重要な特性である。
また、動画像から演算で求められるCV値は、動画像の各フレームに対応して、三次元のカメラ位置と三次元のカメラ姿勢とが同時に求まる。しかも、原理的には一台のカメラで、映像と対応してCV値が求められる特性は、CV演算でしか実現し得ない、優れた特徴である。
但し、CV値は、例えば、他の方法による計測手段(GPSとジャイロ、又はIMU等)より求めることもできる。従って、CV値の取得はCV演算による場合には限られない。
なお、GPSとジャイロ、又はIMU等によりCV値を取得する場合には、動画像の各フレームと、その三次元的カメラ位置と三次元的カメラ姿勢とを同時に取得するためには画像フレームと計測サンプリング時刻を高精度で、かつ完全に同期させる必要がある。
動画像から演算で求められるCVデータは、加工しない段階では相対値であるが、短区間であれば高精度で三次元位置情報と3軸回転の角度情報を取得できる。
また、CVデータは画像から取得するため、取得されたデータは相対値であるが、画像内の任意の対象物との位置関係を計測することができるという他の方法では実現不可能な優れた特性を備える。
また、画像に対応したCV値が求まるので、画像内計測や測量において、画像から直接にカメラ位置とその3軸回転姿勢を求めることができるCV演算は画像内計測や画像内測量に好適となる。
そして、本発明の湧きだし点基準CV領域画像前置装置は、このようなCV演算等により得られたCV値データに基づいてCV領域画像処理を行うものである。
[CV演算部]
CV演算は、以下に示すようなCV演算部(CV演算装置)によって行われる。後述する本発明の湧きだし点基準CV領域画像前置装置では、CV値取得装置3等で以下に示すようなCV演算が行われてCV値が取得されるようになっている(図15,16参照)。
本発明に係るCV演算部02は、図1に示すように、全周ビデオ映像部01から入力されるビデオ映像について所定のCV演算処理を行うことでCV値を求めるようになっており、具体的には、特徴点抽出部02-1と、特徴点対応処理部02-2と、カメラベクトル演算部02-3と、誤差最小化部02-4と、三次元情報追跡部02-5と、高精度カメラベクトル演算部02-6とを備えている。
まず、CV演算に使用する映像としては、原理的にはどのような映像でもよいが、画角の限られた映像では視点方向を移動した場合に映像がとぎれてしまうので、実用的には全周映像(図2〜図4参照)か、広角映像を全周映像の一部として扱うことが望ましい。なお、動画映像は連続する静止画と同様であり、複数の静止画として扱うことができる。
また、映像は、一般には予め記録した動画映像を使うことになるが、自動車等の移動体の移動に合わせてリアルタイムに取り込んだ映像を使用することも勿論可能である。
そこで、本実施形態では、CV演算に使用する映像として、車輌等の移動体の360度の全周囲を撮影した全周映像(図2〜図4参照)か、又は全周映像に近い広角映像を用いて、その全周映像を視点方向に平面展開することにより、全周映像の一部として扱うことができる。
全周映像の平面展開とは、全周映像を、通常の画像として遠近法的に表現するものである。ここで、「遠近法」と呼称するのは、全周画像のそのものはメルカトール図法や球面投影図法のように、遠近法とは異なる方法で表示されているので(図4参照)、これを例えば等距離図法のように平面展開表示することで、通常の遠近法映像に変換表示できるからである。
全周ビデオ映像部01において全周映像を生成するには、まず、図2及び図3に示すように、全周ビデオカメラ01-1を使用して、CV値データを取得する目的で、走行車輌等の移動体01-1aに固定された全周ビデオカメラ01-1で、移動体01-1aの移動とともに移動体周辺を撮影する。
なお、移動体01-1aには、その位置座標を取得する目的で、例えば、絶対座標を取得するGPS機器単独やIMU機器を付加したもの等により構成した位置計測機器等を備えることができる。
また、移動体01-1aに搭載される全周ビデオカメラ01-1としては、広範囲映像を撮影,取得するカメラであればどのような構成であってもよく、例えば、広角レンズや魚眼レンズ付きカメラ、移動カメラ、固定カメラ、複数のカメラを固定したカメラ、360度周囲に回転可能なカメラ等がある。本実施形態では、図2及び図3に示すように、車輌に複数のカメラが一体的に固定され、移動体01-1aの移動に伴って広範囲映像を撮影する全周ビデオカメラ01-1を使用している。
そして、以上のような全周ビデオカメラ01-1によれば、図3に示すように、移動体01-1aの天井部に設置されることで、カメラの360度全周囲の映像を複数のカメラで同時に撮影することができ、移動体01-1aが移動することで、広範囲映像を動画データとして取得できる。
ここで、全周ビデオカメラ01-1は、カメラの全周映像を直接取得できるビデオカメラであるが、カメラの全周囲の半分以上を映像として取得できれば全周映像として使用できる。
また、画角が制限された通常のカメラの場合でも、CV演算の精度としては低下するが、全周映像の一部分として取り扱うことが可能である。
なお、全周ビデオカメラ01-1で撮影された広範囲映像は、一枚の画像として、撮影時の画角に一致する仮想球面に貼り付けることができる。
仮想球面に貼り付けられた球面画像データは、仮想球面に貼り付けた状態の球面画像(360度画像)データとして保存・出力される。仮想球面は、広範囲映像を取得するカメラ部を中心点とした任意の球面状に設定することができる。
図4(a)は球面画像が貼り付けられる仮想球面の外観イメージであり、同図(b)は仮想球面に貼り付けられた球面画像の一例である。また、同図(c)は、(b)の球面画像をメルカトール図法に従って平面展開した画像例を示す。
そして、以上のように生成・取得された全周ビデオ映像が、CV演算部02に入力されてCV値データが求められる(図1参照)。
CV演算部02では、まず、特徴点抽出部02-1が、全周ビデオ映像部01の全周ビデオカメラ01-1で撮影されて一時記録された動画像データの中から、十分な数の特徴点(基準点)を自動抽出する。
特徴点対応処理部02-2は、自動抽出された特徴点を、各フレーム間で各フレーム画像内において自動的に追跡することで、その対応関係を自動的に求める。
カメラベクトル演算部02-3は、対応関係が求められた特徴点の三次元位置座標から各フレーム画像に対応したカメラベクトルを演算で自動的に求める。
誤差最小化部02-4は、複数のカメラ位置の重複演算により、各カメラベクトルの解の分布が最小になるように統計処理し、誤差の最小化処理を施したカメラ位置方向を自動的に決定する。
三次元情報追跡部02-5は、カメラベクトル演算部02-3で得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで順次画像の一部として得られる三次元情報に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレームの画像に沿って自動追跡を行う。ここで、三次元情報(三次元形状)とは、主に特徴点の三次元分布情報であり、すなわち、三次元の点の集まりであり、この三次元の点の集まりが三次元形状を構成する。
高精度カメラベクトル演算部02-6は、三次元情報追跡部02-5で得られた追跡データに基づいて、カメラベクトル演算部02-3で得られるカメラベクトルより、さらに高精度なカメラベクトルを生成・出力する。
そして、以上のようにして得られたカメラベクトルが、後述する本発明に係る湧きだし点基準CV領域画像前置装置に入力され、CV領域画像の生成・分割・貼り付け等の処理に利用されることになる。
複数の画像(動画又は連続静止画)の特徴点からカメラベクトルを検出するにはいくつかの方法があるが、図1に示す本実施形態のCV演算部02では、画像内に十分に多くの数の特徴点を自動抽出し、それを自動追跡することで、三角測量幾何学、及びエピポーラ幾何学により、カメラの三次元ベクトル及び3軸回転ベクトルを求めるようにしてある。
特徴点を充分に多くとることにより、カメラベクトル情報が重複することで、三地点の座標で構成される単位の三角形を、その十倍以上の多くの特徴点から求めることになり、重複する情報から誤差を最小化させて、より精度の高いカメラベクトルを求めることができる。
カメラベクトルとは、移動するカメラの持つ六個の自由度のベクトルである。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトルをいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度から微分して導き出すことができる。
このように、本発明に係るカメラベクトルの検出とは、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の自由度を決定することである。
以下、CV演算部02における具体的なカメラベクトルの検出方法について、図5以下を参照しつつ説明する。
まず、上述した全周ビデオ映像部01の全周ビデオカメラ01-1で取得された画像データは、間接に又は直接に、CV演算部02の特徴点抽出部02-1に入力され、特徴点抽出部02-1で、適切にサンプリングされたフレーム画像中に、特徴点となるべき点又は小領域画像が自動抽出され、特徴点対応処理部02-2で、複数のフレーム画像間で特徴点の対応関係が自動的に求められる。
具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図5〜図7に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図7に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図8に示すように、各画像中に充分に多くの特徴点を抽出することが望ましく(図8の○印参照)、例えば、100点程度の特徴点を抽出する。
続いて、カメラベクトル演算部02-3で、抽出された特徴点の三次元座標が演算により求められ、その三次元座標に基づいてカメラベクトルが演算により求められる。具体的には、カメラベクトル演算部02-3は、連続する各フレーム間に存在する、十分な数の特徴の位置と、移動するカメラ間の位置ベクトル、カメラの3軸回転ベクトル、各カメラ位置と特徴点をそれぞれ結んだベクトル等、各種三次元ベクトルの相対値を演算により連続的に算出する。
本実施形態では、例えば、360度全周画像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。また、これを三角測量として説明すれば、方位と俯角仰角を測量する機器を車載して、対象となる複数の測量地点を、移動する測量機器により同一対象物を計測して取得したデータから、各対象地点の座標と測量機器の移動の軌跡を求める場合と同じである。
図7に示す画像1,2は、360度全周画像をメルカトール展開した画像であり、緯度φ、軽度θとすると、画像1上の点は(θ1,φ1)、画像2上の点は(θ2,φ2)となる。そして、それぞれのカメラでの空間座標は、z1=(cosφ1cosθ1,cosφ1sinθ1,sinφ1)、z2=(cosφ2cosθ2,cosφ2sinθ2,sinφ2)である。カメラの移動ベクトルをt、カメラの回転行列をR、とすると、z1T[t]×Rz2=0がエピポーラ方程式である。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
ここで、カメラベクトルの演算に利用する画像としては、360度全周画像を用いることが好ましい。
カメラベクトル演算に用いる画像としては、原理的にはどのような画像でも良いが、全周映像は対象物の方向がそのまま緯度経度で表現されていることから、きわめて有利である。図7に示す360度全周画像のような広角レンズによる画像の方が特徴点を数多く選択し、複数フレームに渡って追跡し易くなる。また、狭角レンズによる映像あっても、同一対象物の周りを移動しながら様々な方向から撮影する場合には特徴点が視界から逃げないので有効である。
そこで、本発明では、CV演算に360度全周画像を用いており、これによって、特徴点の追跡距離を長くでき、特徴点を十分に多く選択することができ、遠距離、中距離、短距離それぞれに都合の良い特徴点を選択することができるようになる。また、回転ベクトルを補正する場合には、極回転変換処理を加えることで、演算処理も容易に行えるようになる。これらのことから、より精度の高い演算結果が得られるようになる。
なお、図7は、CV演算部02における処理を理解し易くするために、1台又は複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際のCV演算では、必ずしもメルカトール図法による展開画像である必要はない。
次に、誤差最小化部2-4では、各フレームに対応する複数のカメラ位置と複数の特徴点の数により、複数通り生じる演算方程式により、各特徴点に基づくベクトルを複数通り演算して求めて、各特徴点の位置及びカメラ位置の分布が最小になるように統計処理をして、最終的なベクトルを求める。例えば、複数フレームのカメラ位置、カメラ回転及び複数の特徴点について、Levenberg-Marquardt法により最小自乗法の最適解を推定し、誤差を収束してカメラ位置、カメラ回転行列、特徴点の座標を求める。
さらに、誤差の分布が大きい特徴点については削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
図9〜図11に、CV演算により得られる特徴点の三次元座標とカメラベクトルの例を示す。図9〜図11は、本発明で用いられるCV演算によるベクトル検出方法を示す説明図であり、移動するカメラによって取得された複数のフレーム画像によって得られるカメラ及び対象物の相対的な位置関係を示す図である。
図9では、図7の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトル(X,Y,Z)が示されている。
図10及び図11は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
ここで、CV演算部02におけるCV演算は、より高精度な特徴点とカメラ位置の三次元情報を高速に得るために、図12に示すように、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行うようにする。
具体的には、CV演算部02では、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返すことができる。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
そして、特徴点のm値による分類を、十分にオーバーラップさせながら、複数段階のmを設定し、画像の進行とともにnが連続的に進行するのにともなって、演算を連続的に進行させる。そして、nの進行とmの各段階で、同一特徴点について複数回重複演算を行う。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
m枚毎の精密カメラベクトル演算に誤差がないとすれば、m枚のフレームのカメラベクトルの両端は、高精度演算をしたFnとFn+mのカメラベクトルと重なることになる。従って、FnとFn+mの中間のm枚の最小単位のフレームについては簡易演算で求め、簡易演算で求めたm枚の最小単位フレームのカメラベクトルの両端を、高精度演算で求めたFnとFn+mのカメラベクトルに一致するように、m枚の連続したカメラベクトルのスケール調整をすることができる。
このようにして、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定することができる。これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
ここで、簡易演算としては、精度に応じて種々の方法があるが、例えば、(1)高精度演算では100個以上の多くの特徴点を用いる場合に、簡易演算では最低限の10個程度の特徴点を用いる方法や、(2)同じ特徴点の数としても、特徴点とカメラ位置を同等に考えれば、そこには無数の三角形が成立し、その数だけの方程式が成立するため、その方程式の数を減らすことで、簡易演算とすることができる。
これによって、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整する形で統合し、距離演算を行い、さらに、誤差の分布が大きい特徴点を削除し、必要に応じて他の特徴点について再演算することで、各特徴点及びカメラ位置での演算の精度を上げることができる。
また、このように高速な簡易演算を行うことにより、カメラベクトルのリアルタイム処理が可能となる。カメラベクトルのリアルタイム処理は、目的の精度をとれる最低のフレーム数と、自動抽出した最低の特徴点数で演算を行い、カメラベクトルの概略値をリアルタイムで求め、表示し、次に、画像が蓄積するにつれて、フレーム数を増加させ、特徴点の数を増加させ、より精度の高いカメラベクトル演算を行い、概略値を精度の高いカメラベクトル値に置き換えて表示することができる。
さらに、本実施形態では、より高精度のカメラベクトルを求めるために、三次元情報(三次元形状)の追跡を行うことができる。
具体的には、まず、三次元情報追跡部02-5で、カメラベクトル演算部02-3,誤差最小化部02-4を経て得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで生成される画像の一部として得られる三次元情報(三次元形状)に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレーム間で連続的に追跡して三次元形状の自動追跡を行う。
そして、この三次元情報追跡部02-5で得られた三次元情報の追跡結果から、高精度カメラベクトル演算部02-6においてより高精度なカメラベクトルが求められる。
上述した特徴点抽出部02-1及び特徴点対応処理部02-2では、特徴点を複数のフレーム間画像内に自動追跡するが、特徴点が消失するなどして特徴点の追跡フレーム数に制限が出てくることがある。また、画像は二次元であり、追跡途中で形状が変化するために追跡精度にも一定の限界がある。
そこで、特徴点追跡で得られるカメラベクトルを概略値と位置づけ、その後のプロセスで得られる三次元情報(三次元形状)を各フレーム画像上に追跡して、その軌跡から高精度カメラベクトルを求めることができる。
三次元形状の追跡は、マッチング及び相関の精度を得やすく、三次元形状はフレーム画像によって、その三次元形状も大きさも変化しないので、多くのフレームに亘って追跡が可能であり、そのことでカメラベクトル演算の精度を向上させることができる。これはカメラベクトル演算部02-3により概略のカメラベクトルが既知であり、三次元形状が既に分かっているから可能となるものである。
カメラベクトルが概略値の場合、非常に多くのフレームに亘る三次元座標の誤差は、特徴点追跡による各フレームに関係するフレームが少ないので、誤差が累積して長距離では次第に大きな誤差になるが、画像の一部分を切り取ったときの三次元形状の誤差は相対的に少なく、形状の変化と大きさに及ぼす影響はかなり少ないものとなる。このため、三次元形状での比較や追跡は、二次元形状追跡の時よりも極めて有利となる。追跡において、二次元形状での追跡の場合、複数のフレームにおける形状の変化と大きさの変化を避けられないまま追跡することになるので、誤差が大きかったり、対応点が見つからないなどの問題があったが、三次元形状での追跡においては形状の変化が極めて少なく、しかも原理的に大きさの変化もないので、正確な追跡が可能となる。
ここで、追跡の対象となる三次元形状データとしては、例えば、特徴点の三次元分布形状や、特徴点の三次元分布形状から求められるポリゴン面等がある。
また、得られた三次元形状を、カメラ位置から二次元画像に変換して、二次元画像として追跡することも可能である。カメラベクトルの概略値が既知であることから、カメラ視点からの二次元画像に投影変換が可能であり、カメラ視点の移動による対象の形状変化にも追従することが可能となる。
以上のようにして求められたカメラベクトルは、全周ビデオカメラ01-1で撮影されたビデオ映像中に重ねて表示することができる。
例えば、図13に示すように、車載カメラからの映像を平面展開して、各フレーム画像内の目的平面上の対応点を自動で探索し、対応点を一致させるように結合して目的平面の結合画像を生成し、同一の座標系に統合して表示する。
さらに、その共通座標系の中にカメラ位置とカメラ方向を次々に検出し、その位置や方向、軌跡をプロットしていくことができる。CVデータは、その三次元位置と3軸回転を示しており、ビデオ映像に重ねて表示することで、ビデオ映像の各フレームでCV値を同時に観察できる。CVデータをビデオ映像に重ねて表示した画像例を図13に示す。
なお、ビデオ映像内にカメラ位置を正しく表示すると、CV値が示すビデオ映像内の位置は画像の中心となり、カメラ移動が直線に近い場合は、すべてのフレームのCV値が重なって表示されてしまうので、例えば図13に示すように、敢えてカメラ位置から真下に1メートルの位置を表示することが適切である。あるいは道路面までの距離を基準として、道路面の高さにCV値を表示するのがより適切である。
[湧きだし点基準CV領域画像前置装置]
次に、以上のようにして求められるCV値に基づいてCV領域画像処理を行う本発明に係る湧きだし点基準CV領域画像前置装置の実施形態について、図面を参照しつつ具体的に説明する。
[ハードCV領域画像生成装置]
まず、図15を参照して、本発明の一実施形態に係る湧きだし点基準CV領域画像前置装置を構成する構成要素のうち、画像取得装置1〜ハードCV領域画像生成装置10までを説明する。
同図に示すように、本実施形態に係る湧きだし点基準CV領域画像前置装置は、まず、画像取得装置1、画像DB装置2、CV値取得装置3、CV画像生成装置4、CV画像DB5、FP付加CV画像生成装置6、FP付加CV画像DB7、ハードCV領域画像分割装置8、TV演算装置9、及びハードCV領域画像生成装置10の各部を備えている。
画像取得装置1は、自由に移動するビデオカメラで撮影した動画像を取得し、記録する手段である。
画像取得装置1で取得された画像データは、画像DB装置2に記録される。
CV値取得装置3は、画像取得装置1で撮影された動画像の撮影時のカメラの三次元位置と姿勢を示すカメラベクトル値(CV値)を全フレームについて取得する。
具体的には、CV値取得装置3は、例えば、上述したCV演算装置(CV演算部02)により構成され(図1〜図13参照)、画像取得装置1で取得された画像中に特徴点を検出し、特徴点を複数フレームに亘って追跡することで対応点を検出し、複数の特徴点とその対応関係から、撮影時のカメラの三次元位置と姿勢を全フレームについて求めるカメラベクトル(CV)を演算して求め、各画像のカメラベクトル値(CV値)を取得する。CV演算部(CV演算装置)によるCV値の演算・取得方法の具体例は上述した通りである(図1〜図13参照)。
CV値は一般に静止座標系を基準として求められるが、必ずしも静止座標系に限定されるものではない。監視対象物が移動体であれば、移動体とカメラとの関係のCV値を求めることもまったく同様に可能である。運動は相対的であり、基準を何処に置くかは全くの自由であるからである。さらに正確に表現すれば、対象物を構成するソフトCV領域画像毎にCV値が定義されることになる。従って画像の中の複数の対象物にたいして個々にCV値を求めることも可能である。このことは同一画面に複数のCV値を与えることを意味するが、ここでは説明上画像を代表する一個の座標系に対するCV値を用いている。
後述するRV値又は、JV値で結合されたRV値は、前記対象物毎に与えた複数のCV値と数学的に同等であり、常に変換可能である。
CV画像生成装置4は、画像の各フレームにカメラベクトル値(CV値)を付加した画像を生成する。
CV画像生成装置4で生成されたCV画像データは、CV画像DB装置5に記録される。
FP付加CV画像生成装置6は、CV演算時に同時に副次的に求まるFP座標(特徴点三次元座標)を、CV画像生成装置4の出力に付加したFP付加CV画像を生成する。
FP付加CV画像生成装置6で生成されたFP付加CV画像データは、FP付加CV画像DB装置7に記録される。
ここでFP座標は、三次元座標を持つので、三次元座標として付加するのが有利であるが、画像上の二次元座標として持つことでも効果はある。
FP値は何時でも画像から抽出できるので、画像の記録や伝送においては、FP値を付加しないのが常である。CV値が分かっていれば追跡は狭い範囲に限定されるので、FP値は比較的簡単に求められるので、必要な時に画像から直接求めることが可能である。ただし、FP値を付加した方が、再演算しないで済むので、目的によっては好都合となる。
そして、CV画像にさらに以下の処理を加えることで、本発明に係る新しい画像処理が行われることになる。
ハードCV領域画像分割装置8は、CV画像生成装置4の出力から、若しくはFP付加CV画像生成装置6の出力から得られたCV画像を、隙間無く幾何学的なハードCV領域画像に分割する。
ここで、画像分割は、一般には矩形のブロックを用いるが、これは画像を表す図法により様々な形状となる。本発明においては、湧きだし点からの延長と垂直線とが作る台形となる場合が多い(図14参照)。この台形ブロックを前記ハードCV領域画像分割装置によって分割された各CV領域画像の対応点を隣接画像に亘って追跡(トラッキング)する。
TV演算装置9は、全CV領域画像のトラッキングベクトル値(TV値)を求める。
ハードCV領域画像生成装置10は、画像の各フレームにCV値と、TV値を付加した画像を生成するハードCV領域画像を生成する。
画像の全てのCV領域画像をトラッキングすることは容易ではない。そこで画像を分割したブロックCV領域画像の移動に関する法則性を見いだし、全ブックCV領域画像にトラッキングデータを与える。
ハードCV領域画像生成装置10で生成されたハードCV領域画像データは、ハードCV領域画像DB装置11に記録される。
ここで、原理的にはCV値取得装置3は、図15に示す位置ではなく、TV演算装置9の次の行程に設置することも可能である。一面、本実施形態のようにCV値とTV値を別々に演算することは無駄があるようにも思える。TV値からは直ちにCV値を演算できるからである。
しかし、現実的な装置の実現上、前もって代表する座標系のCV値を取得することで画像の回転揺れ止めが可能となり、回転揺れ止め画像を用いることでその後の処理がきわめて容易になる。このため、本実施形態では、CV値を先に求め、そのCV値と回転揺れ止め画像を用いてハードCV領域画像分割をする工程とした。当然、再度JV値から精度の高いCV値を求めることは可能である。
また、トラッキングはCV値から得られる湧きだし点から放射される放射線上を移動する経路をたどるので、同一座標系に関してはトラッキングCV領域画像を一次元にまで絞り込むことが可能となる。
この放射線は図法により直線にも曲線にもなる。直線となる図法を採用し、直線上に追跡する方が演算上有利となるのは明らかである。
本発明においては、画像がCV値とともにハードCV領域画像のTV値を持つことに特徴がある。
画像が、トラッキング値のみならずCV値をも同時に共に持つことで、きわめて効率的なトラッキングと画像再構成が可能となる。
原理的にCV値の無い、トラッキングデータだけでも画像再構成は可能であるが、その時は二次元面に対応点を探すことになるためにトラッキング値は二次元となり、またトラッキング値を演算で求める場合に演算時間が検索範囲の面積で効いてくることになり、それだけ演算時間がかかることになる。また演算時間のみならず、検索範囲が面であることで、それだけエラーが発生する確率が増加する。
一方、本発明のようにCV値とTV値とを持つ場合には、CV値は画像を代表する座標系に対して一義的に決まり、CV値が決まれば、画像の回転揺れを検出して回転揺れ止め画像を生成でき、その回転揺れ止め画像で湧きだし点を求め、湧きだし点とその反対側にある吸い込み点を結ぶ直線上にトラッキングを行うことで、代表する座標系に対して固定されている対象に対しては、一次元の線上を検索すればよいことになる。
なお、一次元の線上とは必ずしも直線とは限らない。どのような曲線になるかは図法による。しかしどのような図法であっても移動の軌跡は予定された曲線上にある一次元として表現できるという意味である。
このように一次元のトラッキングデータで表現可能であることが、この方式の特徴となる。また一次元で対応点を決定できるのでトラッキングが容易になり、また画像の再構成も単純になる。このことでCV値無しの二次元画像の二次元トラッキング値取得演算と比較して、CV値から得られる湧きだし点から吸い込み点に向かって定義される一次元のトラッキング経路をたどることで、トラッキングが一次元になり、追跡がきわめて容易になり、画像の再構成が単純化され、そのことでデータ量を大幅に減少できることになる。
また、代表座標系(代表座標系は静止座標系とするのが一般的であるが、移動体に代表座標系を取ることも可能である)以外の対象に対しては、一般には二次元検索が必要となるが、代表する座標系以外の対象に対するCVを個別に求めれば、一次元の検索が可能となる。
しかし、一般画像の性質として、代表する座標系の対象物のみのCV値で表現できる範囲が画像の大部分を占めているので、CV値は代表座標系の一つで十分である。一般には世界座標系となる静止座標系を代表座標系とする場合が多い。また、目的部分が静止座標系でない場合は、移動する対象物を第二の代表座標系とすることができる。さらに、このようにして代表座標系を増加せしめることは可能であるが、全てを代表座標系とすることは現実的ではないので、複数の代表座標系を用いても、それら代表座標系に属さないCV領域画像が生じる場合がある。
そこで、代表座標系以外の部分は一次元検索が不可能となるが、その部分のみ二次元検索をしたとしても、検索範囲は静止座標系と仮定した一次元検索範囲から扇形に広がる範囲であり、一次元検索範囲からそう大きくずれる確立はきわめて少なく、部分的に二次元検索したとしても、演算時間はかなり短縮されることになる。一方、代表座標系以外の部分を二次元検索することなく、一次元検索とする場合は、後述する「座標系分離装置」及びその「実施例2」により、対象となる領域の座標系を検出して、その座標系で検索することで一次元検索が可能となり、最終的には解決される。
この代表座標系の関する事実は、以下に示すソフトCV領域画像、対象物CV領域画像に関しても同じ共通理解が成り立つことは重要である。
[ソフトCV領域画像生成装置]
次に、図15を参照して、本発明の一実施形態に係る湧きだし点基準CV領域画像前置装置を構成するソフトCV領域画像分割装置12〜ソフトCV領域画像生成装置14までを説明する。
同図に示すように、ハードCV領域画像生成装置10の次工程には、ソフトCV領域画像分割装置12、RV演算装置13、ソフトCV領域画像生成装置14の各部を備えられている。
ソフトCV領域画像分割装置12は、ハードCV領域画像生成装置10の出力から、複数のハードCV領域画像を結合するなどして、CV領域画像の境界線を形成し、ソフトCV領域画像を決定する。
若しくはハードCV領域画像生成装置10を介さずに、同種の色を塗り絵のように埋めていき、又は輪郭線を抽出して情報を付加し、直接同種テクスチャーCV領域画像を分離する。これらの機能を組み合わせることでさらにCV領域画像抽出の精度は向上する。
このようにして、ソフトCV領域画像分割装置12は、画像内容に沿った複数のソフトCV領域画像からなる画像を再構成する。このことで画像はソフトCV領域画像の結合体として再構成されたことになる。
RV演算装置13は、ソフトCV領域画像に分割された画像の各ソフトCV領域画像に関して、ソフトCV領域画像をCV値から得られる湧きだし点から吸い込み点に向かって放射される線上に追跡し、基準となる座標系に対する位置及び姿勢、及び運動を演算し、ソフトCV領域画像のCV領域画像ベクトル値(RV値)を求める。
RV値はTV値と互換関係にあるが、TV値のみで扱うと元のハードCV領域画像の数だけ用意しなければならなくなり、データ量も増加し煩雑になるので、ソフトCV領域画像の数のRV値として画像を表現することになる。
ただし、何時でもCV領域画像単位のTV値に変換することは可能である。また画像の内容をRV値として扱う方が人間の視覚の認識における状況とよく類似していることから単純され、しかも理解が得られやすいという長所がある。
TV値はRV値に整理されたことになるので、RV値を持つ画像はTV値を持つ必要はない。RV値を求められなかった部分はTV値を持つことでRV値の代用とすることができる。
そして、ソフトCV領域画像生成装置14は、画像を構成する全CV領域画像がCV値と、CV領域画像ベクトル値(RV値)を付加して持つ画像を生成する。
ソフトCV領域画像生成装置14で生成されたソフトCV領域画像データは、ソフトCV領域画像DB装置15に記録される。
[対象物CV領域画像生成装置]
次に、図15を参照して、本発明の一実施形態に係る湧きだし点基準CV領域画像前置装置を構成する対象物認識装置16〜対象物CV領域画像生成装置18までを説明する。
同図に示すように、ソフトCV領域画像生成装置14の次工程には、対象物認識装置16、JV演算装置17、対象物CV領域画像生成装置16の各部を備えられている。
対象物認識装置16は、ソフトCV領域画像生成装置14の出力から、複数のソフトCV領域画像を所属する対象物毎に結合するなどして、若しくはソフトCV領域画像生成装置14を介さずに、CV画像生成装置4から直接同種対象物CV領域画像を分離するなどして、画像内容に沿った複数のソフトCV領域画像から画像を再構成する。
対象物認識については、本願発明者は特開2000−295611号等でPRM技術を提案している。このPRM方法により、例えば、画像の中から、複数のCV領域画像から成る対象物が認識される。それと同時にその対象物に属するソフトCV領域画像が分類されることになる。すなわち、対象物を認識すると同時にその対象物に所属するソフトCV領域画像が自動的に選択される。このようにここでは対象物は複数のソフトCV領域画像から成るとの前提が存在している。さらに、画像はその一部又はその全てを複数の対象物から再構成される。
JV演算装置17は、対象物CV領域画像に分割された画像の各対象物CV領域画像に関して、対象物を構成する各ソフトCV領域画像は、一対象物としての関係を保ち、対象物として基準となる座標系に対する位置及び姿勢、及び運動を演算し、複数のソフトCV領域画像の複合体としての複数のCV領域画像ベクトル(RV)を統合し、対象物別にソフトCV領域画像を分類したJV(ジョイントベクトル)を求め、対象物毎の分類データを取得する。
これにより、対象物の位置と対象物を構成しているソフトCV領域画像との関係をベクトルで表現できることになる。
そこで、対象物CV領域画像生成装置18により、画像を構成する対象物及び対象物を構成するソフトCV領域画像が、CV値と、CV領域画像ベクトル値(RV値)と、JV値とで統合された画像を生成する。
画像は最終的に複数の対象物の集合として表現され、さらにそれぞれの対象物は複数のソフトCV領域画像の集合として表現されたことになる。
[ハードCV領域画像生成]
次に、図16を参照して、ハードCV領域画像の生成を行うハードCV領域画像分割装置8、TV演算装置9及びハードCV領域画像生成装置10の各部の詳細について説明する。
ハードCV領域画像分割装置8は、図16に示すように、揺れ止め画像生成部81、湧きだし点抽出部82、ブロック分割部84、ブロック分類部85、ゴム紐結合部86、ブロック画像生成部87の各部を備えている。
揺れ止め画像生成部81は、CV画像生成装置4からの出力に対し、付加されたCV値の回転成分により、画像に逆回転を与えて、揺れ止め画像を生成する。
ここで、3軸回転揺れ止めで十分ではあるが、3軸回転揺れのみならず、3軸位置揺らぎに対しての揺れ止め画像を生成するのがより好ましい。
湧きだし点抽出部82は、CV値から、隣接する画像に対する湧きだし点と吸い込み点を求める。
追跡は演算時間がかかることから、できるだけ効率的な追跡方法をとるのが好ましい。
ブロック分割部84は、画像をなるべく簡単な幾何学的ブロックに分割する。
ここではブロック分割によりハードCV領域画像を生成したことになる。一般には矩形は幾何学的に単純なのでよく使われるが、ここでは使用する図法によってブロックの形状は変化するので、必ずしも直線の結合とは成らないが、便宜上、ハードCV領域画像として台形ブロックがしばしば用いられる。
処理の過程で、ブロック分割により、ブロックがそのままハードCV領域画像となることもあるが、一部においてはブロックが複数集まって、或いはブロックがさらに分割されて、ハードCV領域画像となることがあるので、ここではあえてハードCV領域画像とブロックを使い分けている。
ブロック分類部85は、ブロックを自己相関処理により、その相関値のピークの有無から、特徴ブロック、及びそれ以外のブロックに分類する。
ゴム紐結合部86は、特徴ブロックと前記それ以外のブロックに対して、後の処理において特徴点が移動してもその二次元配列順番を変えずにゴム紐状に伸び縮するように、柔軟結合しておく。
ブロック画像生成部87は、全てのブロックについて、抜けなくその順番を変えずに、ゴム紐状に柔軟に結合した画像を一時的に生成する。
以上により、ハードCV領域画像分割装置8が実現される。
次に、TV演算装置9は、図16に示すように、特徴ブロック追跡部91、一次TV演算部92、補正ブロック検出部93及び二次TV演算部94の各部を備える。
特徴ブロック追跡部91は、ゴム紐状に結合したブロック画像の特徴ブロックを追跡する。
ここで、追跡するのは特徴ブロックのみであるが、ゴム紐結合により、それ以外のブロックも特徴ブロックに引き込まれて移動し、何らかのTV値を持つことになる。
そこで、本実施形態では、一次TV演算部92により、追跡データをそれ以外のブロックにも演算して適切に配分する。
さらに、補正ブロック検出部93により、複数画像を利用するなどして、一次TVから生成する画像の追跡誤差を検出し、二次TV演算部94により、上記誤差が分布するCV領域画像を再度ブロック分割するなどして、補正CV領域画像として、再追跡してTVデータを取得することができる。
以上によりTV演算装置9が実現される。
ハードCV領域画像生成装置10は、図16に示すように、同一TV値統合部101、CV・TV付加部102、図法変換部103及びハードCV領域画像出力部104の各部を備えている。
同一TV値統合部101は、TV演算によるTV値が同一となる隣接ブロックを結合する。この隣接ブロックの結合は必ずしも必要ないが、効率化のためには有った方がよい。
CV・TV付加部102は、画像のCV値、及びハードCV領域画像のTV値を画像に付加する。ここではブロックの全てにTV値が付加されたことになる。
図法再変換部103は、ブロック画像を表示目的に適した図法に変換する。
なお、図法再変換部103で変換する図法は、最終的に、例えば記録が目的であればメルカトール図法が良いが、見ることが目的であればゆがんで見えるので、遠近法に変換するなどして目的に合った適切な図法に再変換する。計測や画像処理が目的であればそれに適した図法に再変換する。
そして、ハードCV領域画像出力部104により、CV値とTV値とを付加したブロック画像が出力される。ハードCV領域画像出力部104から出力されたCV値・TV値が付加されたブロック画像は、CV領域画像圧縮画像生成部105に入力され圧縮される。
以上により、ハードCV領域画像生成装置10が実現される。
[ソフトCV領域画像生成]
次に、図17を参照して、ソフトCV領域画像の生成を行うソフトCV領域画像分割装置12、RV演算装置13、ソフトCV領域画像生成装置14、及び輪郭線ベクトル化装置20の各部の詳細について説明する。
ソフトCV領域画像分割装置12は、図17に示すように、ブロック再分類部121、ソフトCV領域画像生成部122及びCV領域画像境界線補正部123の各部を備える。
ブロック再分類部121は、ハードCV領域画像生成装置10の出力から、特徴ブロックを選択し、単独で存在する独立特徴ブロック、境界線上に特徴ブロック同士が隣接して存在する境界線上特徴ブロック、CV領域画像の境界を構成するが特徴ブロックとはなり得ない境界線上ブロック、及び未特定を含めたそれ以外のCV領域画像内ブロックの3種類に再分類する。
ソフトCV領域画像生成部122は、境界線上特徴ブロック、境界線上ブロックを結合し、ソフトCV領域画像を生成する。
ここで、境界線は閉じない場合が発生するが、閉じない端末の両端を強引に結合しても問題は発生しない。ソフトCV領域画像が細分化されたことになるだけであり特に問題とはならない。
一方、CV領域画像境界線補正部123では、できるだけ閉じたソフトCV領域画像を生成するために、後述する輪郭線ベクトル化装置20の出力を用いて、ソフトCV領域画像境界を補正するCV領域画像境界線の抜けを補正し、ブロック単位で構成されているソフトCV領域画像を、ベクトル線で切り分けてCV領域画像境界線を補強して明確なソフトCV領域画像を生成する。
ブロックのみの境界はピクセル単位で凸凹しているが、CV領域画像境界線補強部で強化されたソフトCV領域画像境界はベクトル化した輪郭線となり、画像の内容の性質に適したより適した境界線となる場合が多い。
以上によりソフトCV領域画像分割装置12が構成される。
RV演算装置13は、図17に示すように、ソフトCV領域画像分割装置12の出力を、再度隣接画像に亘って追跡するCV領域画像トラッキング部131と、隣接画像に亘るCV領域画像の追跡からRV値を求めるRV演算部132を備える。
既にハードCV領域画像は追跡処理されているので、この処理は省略することができるが、補強されたソフトCV領域画像を再度追跡することで、次のRV演算により適した追跡データを取得することができる。より正確なRV値を求めるにはソフトCV領域画像について隣接CV領域画像と共有する6個以上(隣接CV領域画像と共有可)の特徴ブロックの痕跡が存在することが望ましい。
ソフトCV領域画像生成装置14は、CV・RV付加部141及びソフトCV領域画像出力部142を備える。
CV・RV付加部141は、RV演算装置13の出力に対して、CV値、及びRV値をソフトCV領域画像に付加する。
ここで、TV値は省略されているが、RV値はTV値をソフトCV領域画像単位で整理したものであり、TV値を省略したRV値を持つことで十分である。
全てのCV領域画像のRV値が無くても、ソフトCV領域画像は隣接していることから、その位置は決められるので、RV値に抜けがあってもソフトCV領域画像は成立する。
ソフトCV領域画像出力部142は、ソフトCV領域画像生成装置14は、CV値・RV値を付加されたソフトCV領域画像を生成して出力する。
これらによりソフトCV領域画像生成装置14が構成される。
輪郭線ベクトル化装置20は、図17に示すように、輪郭線抽出部201、ベクトル細線化部202、可変閾値輪郭補正部203及びベクトル輪郭生成部204の各部を備えて構成される。
輪郭線抽出部201は、画像の輪郭を直接求める。
ベクトル細線化部202は、求められた輪郭線を細線化してベクトル化する。
可変閾値輪郭補強部203は、細線化ベクトルの延長線上の輪郭線検出の閾値を下げて、再度輪郭線を検出して細線を延長する。
さらに、ベクトル輪郭線生成部204は、補強されたベクトル輪郭線を生成する。
以上により、輪郭線ベクトル化装置20が構成される。
[対象物CV領域画像生成]
次に、図18を参照して、対象物CV領域画像生成を行う対象物認識装置16、JV演算装置17及び対象物CV領域画像生成装置18の各部の詳細について説明する。
同図に示すように、まず、対象物認識装置16は以下の各部を備える。
ソフトCV領域画像範囲選択部161は、ソフトCV領域画像の中で、認識対象となる対象物の概略範囲を選択指定する。この対象物の範囲指定は、多少広めに自動指定するのが好ましい。ただし、範囲指定しなくても全範囲の指定によっても演算時間はかかるが、いずれにしても認識は可能である。
指定範囲RV選択部162は、範囲を指定したソフトCV領域画像比較部に送り、当該CV領域画像のRV値を指定する。
部品DB部163は、予想される複数のRV値を持つ対象物の三次元部品を、データベース化して記憶している。ここで、部品は三次元形状そのものでも良いが、部品のRV値を前もって演算して部品の属性として与えておくことが好ましい。
RV比較部164は、範囲のソフトCV領域画像のRV値と候補部品のRV値とを比較し、一致か不一致かを決定し、不一致の場合は他の部品候補を自動選択し、完全一致の場合は決定部品とし、部分一致の場合は他の候補部品と一致度合いを比較し、最も一致度の高いRV値を持つ部品を決定部品とする。
なお、ソフトCV領域画像の範囲と部品の比較は部品優先でなされることが望ましい。先に予想される部品を選択して、範囲のソフトCV領域画像が一致するか否かを求めることが効率がよい。あるいは、範囲のソフトCV領域画像のRV値に一致する部品のRVを検索して求めるようにしてもよい。
ここで、範囲のソフトCV領域画像と部品は、三次元形状での比較でも良いが、そのためには画像側も三次元化しておく必要があるので、RV値で比較するのが単純で効率的である。特に、複数CV領域画像と複数CV領域画像の比較であれば、RV値による比較がきわめて効果的である。
対象物認識部165は、決定部品を認識した対象物として取得する。一致した最大のCV領域画像範囲が部品と範囲が一致した範囲である。この範囲が部品に対応するCV領域画像の範囲である。この範囲を切り取ることで、その部分を認識した部品に置き換えることができる。すなわち対象物認識が完了したことになる。この時部品は座標と回転姿勢と移動速度とを取得したことになる。一方部品は属性をデータとして持っているので、そのソフトCV領域画像の範囲は属性を取得したことにもなる。これがここでいう認識である。また部品に完全置き換えではなく、色等の部品の一部の属性の置き換えでも良い。
一方、要素分解部166は、上記範囲内に、対象物を構成するCV画像から線分要素、コーナー要素、曲線要素などの要素を検出する。
また、要素追跡部167は、要素を隣接画像に追跡し、対応位置を求める。これは要素のTV値となる。
さらに、要素RV化部168は、要素のCV値とTV値から要素RV値を求める。
要素は形状が小さいので単独のRV値を求めるには適さないが、組み合わせた要素のRV値は存在するので、TV値を省略せずに、TV値及び複合要素RV値及び複合要素JV値を求めておくことは意味がある。
要素部品DB部169は、要素の部品データを記憶したデータベースである。
要素比較部1610は、画像から検出した要素と部品要素を三次元比較して一致を求める。要素部品は独立した要素部品とすることも可能であるが、部品から作られる要素部品とするのが望ましい。
ここで、要素部品単独ではRV値を持たないが、部品から取得した複数の要素が集合すればRV値もJV値も持つので、集合した要素の比較においてはRV値による比較はきわめて有効である。
要素比較した結果はRV比較部164において部品の一部として比較対象となる。
情報は一部重複するが、重複することは認識精度を向上させることになり好都合である。
さらに、対象物要素認識部1611は、一致した部品要素を検出した要素に置換する。
以上の各部により対象物認識装置16が構成される。
JV演算装置17は、CV領域画像再結合部171と、JV演算部172を備える。
CV領域画像再結合部171は、対象物認識装置16の出力から、対象物認識されたCV領域画像を対象物単位で再結合する。
CV領域画像の大きさの分類は複数の組み合わせによる複数の選択肢があるので、部品と範囲は、そのままで完全一致しないが、両者の内どちらかがどちらかを含む形で一致するので、必ずしもCV領域画像の大きさと種類を完全に一致させなくても良い。部分一致でも十分認識は可能である。部品の大きさに合わせるのが適切である。
JV演算部172は、それぞれの対象物毎にソフトCV領域画像の幾何学的三次元結合状況を表すJV値を求める。
対象物CV領域画像生成装置18は、JV演算装置17で求められた対象物単位のJV値は、複数の対象物がそれぞれ区別されて三次元的に6自由度で配置されるように、全ソフトCV領域画像にJV値を付加するJV付加部181を備える。
また、対象物CV領域画像生成装置18は、対象物認識が一部又は全て済ませた対象物認識CV領域画像を生成する対象物CV領域画像生成部182を備える。
最終的には、RV値とJV値とを完全に合致した状態でCV領域画像データベース装置30(図15又は図22参照)に収納するために、決定した部品のソフトCV領域画像と前記範囲のソフトCV領域画像とを種類まで含めて統一しておくことが望ましい。
[CV領域画像表示装置]
次に、以上のような構成からなる本発明の湧きだし点基準CV領域画像前置装置を利用した各種装置として、まず図19を参照して、CV領域画像表示装置の一実施形態について説明する。
CV画像はフレーム単位の画像であったが、CV領域画像は領域単位の画像である。そこでCV領域画像から動画にして再生するには、各CV領域画像から動画の各フレームを生成しなければならない。動画の生成には、CV領域が持つVD値を使って行う。
そこで、本実施形態のCV領域画像表示装置1002は、以下のような各部を備えて構成される。
まず、湧きだし点基準CV領域画像前置装置1001からの出力を、CV領域画像と共にVDを分離して取得するCV領域画像・VD取得部1003をそなえるとともに、画像の表示方法を指定する表示指定部1004を備える。
この表示指定部1004により、画枠、画角、フレーム数、解像度、視点方向、視点位置、表示図法などを指定する。
また、VDを基にして、指定部の指示に合ったCV領域画像を再結合して再結合画像を生成するCV領域画像再結合部1005を備える。再結合された画像は既にVDを失い、通常画像となっている。領域は失うが、新たにフレームが生成されているので、再結合された画像の各フレームにCVを持たせることは可能である。
また、再結合画像を各フレームに配分して、各フレームに対応した画像を生成する画像フレーム生成部1006を備える。
さらに、通常画像となった画像フレームを表示する表示部1007を備える。
表示装置は全てのCV領域画像(ハードCV領域画像、ソフトCV領域画像、対象物CV領域画像)において共通に示している。
画像の再結合及び、画像フレームの生成は前記湧きだし点基準CV領域画像前置装置1001の過程の逆であり、理解は容易である。
図15の矢印の方向を逆向きにすることで、再結合は理解できるので、参考に図15の矢印を逆方向に付け替えた図を図20として示す。
なお、逆方向の場合には装置名に関して必ずしも適切ではない場合が生じるが、理解の上では同じ名称の方がよいのでそのままとしてある。
[CV領域画像データベース装置]
次に、図21を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いたCV領域画像データベース装置の一実施形態について説明する。
CV画像はフレーム単位の動画像であったが、CV領域画像では、領域単位の画像となる。CV領域画像データベース装置1012の本質は、CV領域画像とCV領域画像に対応したベクトルデータを持ち、出力も又CV領域画像とベクトルデータを持つことにある。ベクトルデータとはVDで表し、CV値、TV値、RV値、JV値はそれぞれVDある。
先ず、図15(及び図20)の符号30で示すように、CV領域画像データベース装置を位置づけする。
同図に示すように、ハードCV領域画像生成装置10からの画像出力を記録し、更新し、検索し、出力するデータベースを、ハードCV領域画像DB11とする。
また、ソフトCV領域画像生成装置14からの画像出力を、記録し、更新し、検索し、出力するデータベースをソフトCV領域画像DB15とする。
また、対象物CV領域画像生成装置18からの画像出力を、記録し、更新し、検索し、出力するデータベースを対象物CV領域画像DB19とする。
さらに、上記三者のDBの中間段階の画像出力をデータベース化することもできる。ハードCV領域画像とソフトCV領域画像とが混在するデータベースも可能であり、ソフトCV領域画像と対象物CV領域画像が混在するデータベースも可能である。
データベースはどの形式のDB、或いはその中間のDBであっても、CV値、TV値、RV値、JV値はCV領域画像で、あるいは隣接する画像間で、重複しており、整理することでデータ量は圧縮できる。
次に、図21を参照して、本実施形態のCV領域画像データベース装置1012について具体的に説明する。
同図において、CV領域画像・VD取得部1014は、湧きだし点基準CV領域画像前置装置1001からの出力である各CV領域画像、すなわちハードCV領域画像出力、ソフトCV領域画像出力、及び対象物CV領域画像出力の中の全ての画像出力、若しくは前記三者の中間段階の画像出力を、各ベクトルデータ(VD値)共に取得する。
CV値、TV値、RV値、JV値は動画としての性質から。フレームを跨いでかなりの重複部分を持つ。重複を無くすことで、最終的にはCV領域画像は静止画と、移動により生まれる新しいCV領域画像と、それらのCV値、TV値、RV値、JV値にまで圧縮可能である。
なお、CV領域画像データベース装置1012では、重複の程度とその圧縮の程度については示していない。
重複データ圧縮部1016は、CV領域画像・VD取得部1014で取得したVD値の成分であるCV値、TV値、RV値、JV値の全て、若しくはそれら何れかの内で、CV領域画像単位で、及び画像フレーム単位で重複するデータを近似化し単純化して、圧縮する。
なお、これらデータの中で重複するデータをさらにまとめて整理する重複データ圧縮部1016に関しても、具体的には示していない。すなわち、重複データの圧縮には様々な方法があるので、どのような手法でどのように圧縮するかに関しては、ここでは限定していない。圧縮の具体例の一つとしては、本願発明者の提案による特願2004−364223号の「座標系分離画像圧縮再生装置」や、後述する「座標系分離装置」及びその「実施例2」に詳しく述べている。画像圧縮を設置しなくても多少非効率になるが、CV領域画像データベース装置の本質は失われない。
次に、CV領域画像単位で従来の画像圧縮手段例えばDCT等の従来技術により圧縮記録するCV領域画像圧縮記録部1017は、従来技術でもあり特に設置せずにCV領域画像を圧縮せずに記録したとしても、多少非効率にはなるがCV領域画像データベース装置の本質は失われない。
CV領域画像を、単に画像としてみて、従来方法で圧縮することでも、かなりの圧縮が期待される。
ここでは、単なる従来方法の圧縮と、前記CV領域画像特有の性質を利用した重複データを整理することによる圧縮とを敢えて分離して記述している。その理由は、従来方法の圧縮とCV領域画像の重複データの圧縮は両立し、CV画像領域の重複データ圧縮を先にやり、その後に従来方法圧縮をすることが可能であり、又その逆でも可能であることによる。
例えば、重複データ圧縮部1016には後述する「座標系分離装置」の「実施例2」を用い、このCV領域画像圧縮記録部にはJPEG1、JPEG2、JPEG4及びその方法を用いて、圧縮効果を高めることも可能である。
検索指定部1018では、画像のCV値は三次元座標を持つので、座標で、又はCV値で画像を検索することができる。さらにRV値はCV領域画像内の特定の部分のCV領域画像まで指定することが可能であるので、画像及びハードCV領域画像、ソフトCV領域画像、対象物CV領域画像による検索が可能となる。
ここでは、CV領域画像データベース装置1012の外側に用意したCV値やCV領域画像やRV値で、当該CV領域画像データベース内に検索される対象物を探すこと以外に、当該CV領域画像データベース内で検索すべき対象物を指定し、他のCV画像内に検索することもできることは明らかである。
検索装置については、さらに後で詳しく述べる。
従ってCV値、及びRV値の比較により、座標による検索、及び形状での検索が可能となる。またCV値を利用した新旧画像更新やさらにRV値を利用した新旧CV領域画像更新、新旧対象物更新も可能となる。これらを可能とする更新する指定部を設けることも可能である。
ただし、この検索・更新部は設置しない場合は多少非効率になるがCV領域画像データベースの本質は失われない。
解凍・出力部1019は、圧縮記録したCV領域画像を解凍し、重複データ整理部で整理されたCV値、TV値、RV値、JV値の全て、若しくはそれらの何れかを付加した複数種類のCV領域画像が混在するCV領域画像を出力する。
ここで整理とは、全てのCV領域画像に同一のデータを付加する必要はないことから、データが重複しないように、必要な画像のフレームに対して、及び必要なCV領域画像について、効率的にCV値、TV値、RV値、JV値の全て又はいずれかの組み合わせを付加することで、画像の記録及び送信、配信の効率を上げることができる。
出力時のCV領域画像が、元々画像の持つCV値、TV値、RV値、JV値の全て、又はいずれかの組み合わせを持つことが本データベースの本質である。
このように、CV領域画像化され再構成可能な画像をDCT等で圧縮記録し、更新し、検索し、解凍出力するデータベースを持つことを総称してCV領域画像データベース装置という。
なお、当然入力するCV領域画像と出力するCV領域画像を表示して監視する入出力監視モニタを設置することが好ましい。ここでは新しい原理と技術を説明するためにあえてモニタについては記述していない。
また、CV領域画像単位で圧縮(従来技術で可)をすることでCV領域画像データベースは効率的になる。
さらに、CV値、TV値、RV値、JV値はCV領域画像単位、若しくは対象物単位で持つので、隣接画像及び隣接CV領域画像と共有(従来技術)できる場合が多い。そこでCV領域画像を時空間の固まりに束ねることで、重複を無くし、より効率的なCV領域画像データベース装置が実現できる。
CV領域画像データベース装置からの出力はCV値、TV値、RV値、JV値の全て又はそのいずれかの組み合わせを付加したCV領域画像単位の画像であり、ここから目的に合わせた様々な画像処理を行うことができるので、新産業のプラットホームとしてきわめて有用であり、産業的応用が期待される。
CV領域画像データベース装置1012は湧きだし点基準CV領域画像前置装置の出力と同じ信号形式とし、信号には互換性を持たせることが望ましい。そうすることで湧きだし点基準CV領域画像前置装置の出力をさらに当該CV領域画像データベース装置を通過させることで、より圧縮されて扱いやすくなった信号を出力することができる。
以降、後述する各装置では全て湧きだし点基準CV領域画像前置装置からの出力を用いるが、当該CV領域画像データベース装置を通過させることでさらなるデータ量の圧縮がなされ、いかなるCV領域画像においても、より有効利用しやすくなる。
湧きだし点基準CV領域画像前置装置の出力はハードCV領域画像、ソフトCV領域画像、対象物CV領域画像が個別に出力されるが、当該CV領域画像データベース装置を通過させることでブロック化されないで残ったCV領域画像、ハードCV領域画像、ソフトCV領域画像、対象物CV領域画像がミックスされた状況で出力が可能となる。
具体例としては、フレーム情報は消失して、或いはフレーム画像そのものが消失して、CV領域画像とVDのみのデータと言うこともあり得る。さらに一部分対象物認識されたのみのCV画像、ハードCV領域画像とソフトCV領域画像がミックスされた画像などの出力が可能となる。
図22にこのCV領域画像データベース装置1012から応用可能な幾つかの例を示す。
同図に示すように、CV値のみのCV画像データベース装置による応用例は、○動画像とCGの合成装置31、○動画像からの三次元座標取得装置32、対象物を常に定位置で観察するロックオン表示装置33、回転揺れ止め画像生成装置・揺れ止め制御装置34、○画像内計測・画像間計測装置35、○新旧画像更新装置36、○CV画像地図47、○車載カメラによる自動車位置決め、及びその応用による実写ナビゲーションシステム41、○画像の三次元ポリゴン化装置42、○路面オルソ化地図生成システム43等が既に本発明者により実現されている。
ここで上記応用例はCV画像DBによるが、CV領域画像データベース装置によれば、さらに効率化されて実現されることになる。
次に、当該CV領域画像データベースではじめて実現される様々な応用例について以下に列挙する。
図22に示すように、○座標系分離画像圧縮・記録装置51、○視点移動・中間フレーム生成装置52、○移動体抽出・運動解析装置53、○高解像度化画像生成装置54、○CV領域画像運動抽出・検索・解析装置(ハードCV領域画像・ソフトCV領域画像・対象物CV領域画像を含む)55、○ノイズリダクション装置61、○CV領域画像差し換え画像生成装置62、○対象物運動抽出・解析装置71、○PRM画像圧縮装置72、○対象物運動解析装置73○複合人工知能記憶装置74等が考えられている。
これらの方法論と応用例の幾つかについては、以下の実施形態でも適宜取り上げて説明するが、以下に三次元地図としての利用について説明する。
[三次元地図としての利用]
CV値を持つCV画像(CV映像)は三次元地図としてそのまま利用できることは特開2005−295495号で既に明らかにされている。従って、それを領域化したCV領域画像データベースであっても、より効率的に三次元CV画像地図としてそのまま利用できることは明らかである。
さらに、車載したカメラによるリアルタイムで取得した画像との特徴点自動比較により、車両の現在位置を取得できることは本願発明者の提案による特願2005−303952号で明らかにされている。
そこで、上記特願2005−303952号に示されているように、CV領域画像データベースを三次元CV領域画像地図として、リアルタイムで車両の現在位置を三次元で求めるカーナビに利用する場合は、それは人間が見る地図ではなく、機械(PC)が見る地図であることから、地図としてのデータはCV領域画像全域である必要はなく、地図として特徴有る部分のみのCV領域画像であればよいことになる。そうすることで地図として所持するデータ量を極端に減少させることができて効率的である。
一つの地点に対して、二次元特徴点の場合は最低10〜20個程度、三次元座標まで取得していれば4個〜10個程度で、車両の現在地点の位置決めは可能である。
つまりCV領域画像において、数個〜20個程度の画像の断片(CV領域画像)を持てば三次元地図として利用できることになる。これは現実的な数字である。
当該CV領域画像データベースにおいて、CV領域画像の種類により、様々な利用方法が生まれる。ハードCV領域画像においては、二次元特徴点、及び三次元特徴点として、ソフトCV領域画像においては、形状を持つ明確な二次元特徴点、及び三次元特徴点として、対象物CV領域画像においては、認識済の対象物はそのまま特徴点となり得るだけではなく、交通標識、道路表示、行き先看板等、その意味も理解しているので、地図としての利用価値はさらに高まることになる。
[視点変更装置]
次に、図23を参照して、本発明の係る湧きだし点基準CV領域画像前置装置を用いた視点変更装置の一実施形態について説明する。
本発明では、CV領域画像とはハードCV領域画像、ソフトCV領域画像、対象物CV領域画像の全てを含んでいることが重要である。以下に示す実施形態についても全てこの事実に基づいている。
全ての演算はCV領域画像単位で処理されるため、CV領域画像が一枚の画像として扱われる。従ってCV領域画像が移動体であるか否かを特に区別する必要はない。CV領域画像が一枚の画像として扱われる。このことは本発明の全てに言えることである。
変更したCV値を与えることで視点変更を指示することにより、CV値以外のVD(TV値、RV値、JV値)を変換演算して、視点変更画像を生成することが本実施形態で示す視点変更装置1021の本質である。
以下、図23に示す本実施形態に係る視点変更装置1021の各部について説明する。
CV領域画像・VD取得部1022は、CV領域画像データベース装置からの出力を取り入れ、CV領域画像とVDとを分離して取得する。これは上述したCV領域画像表示装置1002におけるCV領域画像・VD取得部1003と同様のものでよい(図19参照)。
視点変更指定部1023は、視点変更地点を、若しくは視点変更経路を、CV値で指定する。CV値は視点の三次元座標、回転姿勢を含んだVDなので、CV値を与えることで始点を指定できる。
視点変更演算部1024は、CV値で指定された視点変更CV値から、視点変更時の他のVDを演算で求める。
また、変更VD取得部1025は、指定されたCV値に従い、CV領域画像のCV値以外のVD値等を変換演算し、視点変更演算により取得されたVDを各画像、及び各CV領域画像に対応をつける。
視点変更画像生成部1026は、対応のついた前記各画像、及び各CV領域画像の画像を変更VDに従ってCV領域画像結合し、指定の画像フレーム生成し、出力する。
なお、視点変更指定部1023は様々な指定が可能である。
図23に示すように、例えば、中間フレーム指定部1027を設置して、フレーム間のCV値を等間隔に分割するように視点変更指定部1023に指示すれば、動画像の複数の中間フレームが生成できることになる。これで視点変更装置は中間フレーム生成装置となる。毎秒15fpsのフレームレートで撮影した画像を毎秒60fpsに変換できることになる。このように撮影時又は記録時の画像フレームを間引いて、再生時に中間フレームを生成することで基準のフレームレートを確保するような画像圧縮を行う画像フレーム圧縮解凍装置も可能である。
ただし、中間フレーム生成の目的においては、単にCV値を分割するだけでよいが、時間配分として利用してもよい。
また、CV領域画像生成においては、回転揺れ止め画像を元として生成しているが、位置座標の揺れは残っていて、CV値により補正しない場合は微少な誤差発生の原因になっている。そこで、図23に示すように、揺れ止め指定部1028を設置して、回転のみ成らず位置座標の揺れに対してもCV値で位置座標の揺れがない経路を設定し、その経路上に目的のカメラ移動のみを実現するように視点変更を指定することで、回転のみならず位置座標の揺れまで完全に揺れ止めができる完全揺れ止め装置1030が実現できる。
このように視点変更を広義に解釈することで、様々な応用が可能である。以下の実施形態でも、視点変更を利用してさまざまな画像処理を実現している。
なお、視点変更装置の出力は既に通常映像となっているので、通常の表示装置でよい。もちろん、上述した表示装置を用いることで実現できる。
また、視点変更装置の出力は、表示のためにはもはやVDは必要ないが、その他の応用に利用するためにはVDを付加して出力できるようにしておくのが好ましい。
[CV領域画像CG合成装置]
次に、図24を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いたCV領域画像CG合成装置の一実施形態について説明する。
CV値を持つ画像とCGとの合成装置に関しては、本願発明者の提案による特開2005−122315号で既に示されている。
CV領域画像となったことで、CG合成はより単純化され、視点変更も可能となり、また、前後関係も簡単に決定できるようになった。
基本的には、CGを対象物認識されたCV領域画像として扱うことで、合成が可能となる。
ここでは、本発明の湧きだし点基準CV領域画像前置装置を用いたCV領域画像CG合成装置についての一実施形態について説明する。
以下、図24に示すCV領域画像CG合成装置1031の各部について説明する。
CV領域画像・VD取得部1032は、CV領域画像データベース装置1012の出力を、若しくは視点変更装置1021の出力を取り入れ、CV領域画像とVDとを分離して取得する。
視点変更装置を経由させれば、視点変更のCG合成が可能となる。そのときは視点変更表示装置を用いる。
CG入力部1034は、CV領域画像に合成するべきCGを入力する。これは通常のCGであり、合成すべきCGを入力する。
VD演算部1035は、CGのVDを演算する。
CGはVD演算部で、CV値、RV値、JV値等を持つことになる。ここではCGのVDは、必ずしも画像と同種のVD値を持つ必要はなく、合成は可能である。一般にCGは既に対象物認識された画像と同じ意味を持つから、対象物CV領域画像として扱うのが好ましい。
視点座標はどちらもCV値で指定することになる。
視点座標統合部1036は、CV領域画像の視点座標とCGの視点座標を合致させて座標を統合する。視点座標がCV値で指定されたことで、CV領域画像とCGの視点は統合されたことになる。
前後関係形成部1037は、CV領域画像のVDと前記CGのVDを比較演算して、表示の前後関係を決定する。
視点座標を示すCV値とCGとCV領域画像のRV値の比較から、視点位置からの三次元方向と距離が明確になり、CV領域画像とCGとの前後関係は明確になる。
CV領域画像CG合成部1038は、視点が合致し、前後関係が決定された、前記CV領域画像と前記CGとを合成して、同一座標系で表現する。座標系は統合されているので、そのまま合成が可能である。
ここで、表示装置は、図24に示すように、視点変更表示装置1003を用いるのが好ましい。
[三次元形状生成装置]
次に、図25を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いた三次元形状生成装置の一実施形態について説明する。
VD値は既に三次元データと言えるものであるが、通常使用される三次元座標を持ったポリゴンに変換するだけで、三次元形状は簡単に生成される。
図25に示す三次元形状生成装置1041では、まず、CV領域画像・VD取得部1042が、CV領域画像データベース装置の出力を、若しくは視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
範囲指定部1043は、三次元形状生成を行う範囲を指定する。
ポリゴン変換演算部1044は、CV領域画像に付加されたVD値から三次元ポリゴンに変換演算する。これは単純な変換の演算であり、CV値とTV値、若しくはRV値からリアルタイム変換も可能である。また、RV値そのものが既に三次元データを持っていると考えられるから、変換と言ってもRV値でポリゴンをそのまま表現することも可能である。
さらに、三次元形状生成部1045が、ポリゴン変換されたデータから三次元形状を生成する。
以上により、三次元形状が生成される。
ここで、取得された三次元形状はポリゴンの形状をとるのが一般的なので、ここで取得したポリゴンデータにテクスチャーを貼り付け、最適な画像として観察することができる。その場合には、以下に示すような最適CV領域画像選択部1046及びテクスチャー貼付部1047を更に備えることができる。
図25に示すように、最適CV領域画像選択部1046は、上記のようにして取得した全体の三次元ポリゴンデータに関して、あるいは個別の各三次元ポリゴンデータに関して、既に取得しているCV領域画像(図25に示す湧きだし点基準CV領域画像前置装置1001又はCV領域画像・VD取得部1042参照)の中から、(1)最も解像度の高いCV領域画像、(2)又は最も仮想カメラ位置の近くで取得しているCV領域画像を、(3)又は最も仮想カメラからの視点方向の近いCV画像、(4)あるいは最も目的に適合したCV領域画像を、既に取得している視点の異なる全CV領域画像データから選択する。
次に、テクスチャー貼り付け部1047は、選択されたCV領域画像データの全三次元ポリゴン、又は三次元形状を構成する各三次元ポリゴンに、テスクチャーを貼り付ける。
表示部1048では、それを仮想カメラ位置を視点とした画像として表示する。
以上により、三次元形状にテクスチャーを貼り付けたより最適な画像を生成・表示することができる。
[画角拡大装置]
次に、図26を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いた画角拡大装置の一実施形態について説明する。
画角を拡大するために、広角レンズを用いれば、カメラのCCDが同一である限り、カメラの角度の分解能、すなわち解像度は落ちてしまう。
そこで、画角の小さいカメラで高い解像度で撮影した画像を過去のフレームで補うことで画角を拡大して広角表示する。カメラ視点位置を決定し、そのカメラ視点を車両に沿って移動させ、過去の画像フレームを全て現在視点に視点変更する。視点変更された全ての画像は現在のカメラ視点で矛盾のない結合が可能となり、結合することで広角映像が取得できる。
ここで視点とはCV値であり、移動体の場合はTV値やRV値から視点情報に変換できる。
ここでの特徴は、複数フレームを用いるので、画角を拡大してもほぼ元の精細さを保てると言うことである。過去の映像は時間遅れの映像であるから、そのままでは移動体が有ればその部分の結合は正しく結合しないが、移動体もTV値やRV値を持つことから、移動体部分の動きを含めた視点変更演算できるので、移動体に対しても矛盾無く結合できることになる。これがCV領域画像の優れた特徴である。
以下、図26に示す画角拡大装置1051の各部について説明する。
CV領域画像・VD取得部1052は、カメラを車載するなどして移動するカメラから撮影した画像の、前記CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
拡大画角指定部1053は、画角拡大画像を観察する時の画角と視点方向を指定する。
仮想観察視点指定部1058は、画角拡大画像を観察する時の前記カメラ位置からの視点の移動位置を指定する。
時間軸画像視点変更部1054は、拡大画角と、視点方向と、視点移動位置を指定された時間軸上に並ぶ複数フレームのCV領域画像を、指定の視点位置に視点変更演算する。この演算により、視点変更されて視点位置が同一となる。ここでの視点変更は上述した視点変更装置1021における視点変更そのものである(図23参照)。
複数画像結合部1055は、視点変更演算により、視点変更されて視点位置が同一となった現在から過去に亘る時間軸上に並ぶ複数フレームのCV領域画像を結合する。常に指定された視点位置と視点方向で視点変更を行うことで、現時点の画像と過去の画像が矛盾なく結合できることになる。
ここで、もし現時点の視点位置と視点方向を指定すれば、現時点の画像に過去の画像の視点を合わせて画枠拡大していることになる。
カーナビとして車両に積載する場合には、現時点の視点ではなく、多少過去の視点位置に始点を指定することで、自車両の背後から自車両を含む視点で画枠拡大画像を表示できることになる。
繰り返し生成部1056は、時間の進行と共に移動進行する前記カメラの位置と方向を追従し、時間軸上に並ぶ複数フレームのCV領域画像を次々指定された視点位置に視点変更を次々繰り返すことで、画角拡大画像を連続して生成し続ける。
画角拡大された画像は、既に結合されているので、通常の画像として扱うことができるので通常の表示装置で表示することができる。
[ロックオン表示装置]
次に、図27を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いたロックオン表示装置の一実施形態について説明する。
ロックオン表示とは同一対象物を画枠内の中心部に固定して表示し、カメラの移動によっても常に画枠の中心に表示することを言う。
CV画像によるロックオンは本願発明者の提案に係る特開2005−295495号に示されているが、カメラの移動範囲でしかロックオン表示ができなかった。
本発明の湧きだし点基準CV領域画像前置装置を利用すれば、視点移動をしながら、カメラ近傍であれば、カメラ移動経路以外であっても自由な視点移動経路を指定してロックオン表示が可能となる。
また、視点位置と経路を指定し、ロックオン表示が可能となる。
さらにCV画像では不可能であったが、CV領域画像では、各CV領域が移動ベクトルを持つので、容易にロックオン指定ができる。
ロックオンだけであれは、座標系分離までは必要なく、移動体分離までも必要ないが、後述するように、座標系分離や移動体抽出と組み合わせることでも、直接座標系単位で表示したり、移動体単位で表示して、その中でロックオン表示することが可能となる。
以下、図27に示すロックオン表示装置1061の各部について説明する。
CV領域画像・VD取得部1062は、カメラを車載するなどして移動するカメラから撮影した画像の、CV領域画像データベース装置の出力を、若しくは視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
対象物座標指定部1063は、ロックオンすべき対象物の座標を取得して指定する。指定する対象は静止物体でなくても、移動体でも良い。移動体に代表座標系をとることで移動体ロックオンを可能とする。
視点移動指定部1064は、ロックオン表示のための視点移動経路と範囲を指定する。
視点及び視点方向変換部1065は、指定された視点移動経路に沿って、CV領域画像の視点変更を求める。
そして、ロックオン表示部1066は、変換されたCV領域画像を指定経路に従って表示する。
以上により、本発明の湧きだし点基準CV領域画像前置装置を用いたロックオン表示装置1061が実現される。
[座標系分離装置]
次に、図28を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いた座標系分離装置の一実施形態について説明する。
本発明に係る座標系分離装置は、動画像から、画像を構成する座標系毎にCV領域画像を分類する装置である。
画像解析において、座標系毎に分離したCV領域画像は様々な利用が考えられるが、その代表的な例は、後述する運動抽出・解析装置(図32参照)であり、また、本願発明者による特願2004−364223号の「座標系分離記録再生装置」がある。この「座標系分離記録再生装置」を実現するためには画像を構成する座標系を検出して分離し、それぞれを単独処理して、再度合成する必要があるが、その一つの手段が、本実施形態に示す装置による座標系分離である。
特に座標系別に分類されたCV領域画像は、座標系別に記録され、送信されることで画像圧縮が可能である。座標系分離装置を用いた画像圧縮そのものについては上記の特願2004−364223号に示されている。
以下、図28に示す座標系分離装置1071の各部について説明する。
CV領域画像・VD取得部1072は、車載されたカメラから撮影された動画像の出力を、又はCV領域画像データベース装置の出力を、若しくは視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
座標系別VD処理部1073は、VDから座標系を分離し、座標系毎のCV領域画像とVDとに分類する。
各座標系VD近似処理部1074は、各座標系のVDを単純な関数に近似して単純化し、若しくは必要であれば、近似したVDとCV領域画像のVDとの関係を示す関数をも持ち続ける。
ここで、CV領域画像・VD取得部1072で取得したVD値の成分であるCV値、TV値、RV値、JV値は、もともとCV値を元にして求められたデータであり、完全に独立したものではなく、それぞれ関連した関係にある。従って、各データを独立して持つよりは、関連づけて持つ方がデータ量が軽くなることは明らかである。但し、独立して持つことで目的別利用は単純化される。
そこで、カメラの移動を示すCV値を単純化し、座標系毎に分離されたRV値を単純することで、VD値を単純することができる。VD値が単純かされることの映像における意味は、カメラの移動を直線近似し、映像内の移動体の動きを直線近似するということになる。複雑な運動をするカメラの動きや移動体の動きを、ある範囲内で直線近似することによりVDが単純化され、結果としてデータ量が軽くなることは勿論である。
各座標系分離通信装置1076、及び各座標系分離画像記録部1075は、単純な関数に近似されたVDを通信し、記録する。
各画像系別画像生成部1077は、各座標系単位で画像を生成する。
必要であれば、各座標系を再度合成して表示する各座標系合成画像生成部1078を備えることができる。
以上のような構成からなる座標系分離装置1071においては、CV領域別にRV値を持つ座標系が定義されることになる。もともとCV値は静止座標系において定義したベクトルであるが、それを移動体に拡張して定義したものがRV値であり、座標系から見たカメラの移動のベクトルということもできる。各CV領域の持つRV値は、移動体をも含む各座標系の移動ベクトルであり、各座標系毎に分離して通信し、あるいは記録再生することにより座標系分離の効果と威力を発揮する。
ここで、通信と記録における画像の圧縮は同じ意味を持つので特に区別をしない。
ところで、最も単純化されたモデルは、(1)進行方向が一定で、回転揺れが無く直線移動するカメラから撮影された動画像であり、この場合の画像伝送又は記録においては、固定した湧きだし点を定義できる。この場合は、TV値(湧きだし点、CV値はTV値に従属する)と初期静止画像にCV値を付加することで、動画像を伝送できることは上述した通りである。移動量を指定できることも上述した通りであり、さらに、TV値からCV演算によりCV値を求めることも上述した通りである。
次に、(2)カメラが回転揺れを含んで直線運動しない場合は、CV値により揺れ止めを施し、回転揺れは回転揺れデータとして取得し、最後に付加することで元の画像を再現できる。直進運動と近似できる範囲で湧きだし点を扱うことで、上記(1)の場合におけるつなぎ合わせ画像として扱うことができる。
さらに、(3)対象物として移動物体を含む場合がある。この場合には、画像を適切な領域に分割し、移動体はこの領域の複数の集合となるように領域を定義する。それがCV領域であることは上述した通りである。ここで、それぞれの領域毎にカメラベクトル値を持たせることにより、適切なCV領域に分割された各座標系に対応した座標系毎に圧縮をするのが本発明の特徴である。なお、対象物認識技術を導入しない段階では、CV領域と移動する対象物は必ずしも一対一に対応しないが、その時でも対象物は複数のCV領域から構成されることになり、それは圧縮効率に関係するだけで矛盾は生じない。
さて、CV値は、もともと静止座標系とカメラ間に定義したベクトルであるので、移動座標系に関してはRV値を新しく定義し、この中にはCV値も含むことができるものとする。このようにRV値を定義すれば複数の移動体を含む静止座標系にまで拡張して座標系分離を行い、画像圧縮を扱うことができる。
すなわち、先ず動画像を最小単位の矩形のブロックに分割し、その最小単位のブロックを複数集めてCV領域を生成し、さらにそれらのCV領域を集めて座標系単位に分類し、それぞれの座標系単位で画像伝送し、あるいは画像記録し、それを受信再生側又は解凍再生側において、それらを座標系単位で画像を生成し、それを再構成することで一連の動画像を再構築することができる。
座標系を分離するために湧きだし点を利用することが本発明に係る湧きだし点基準CV領域画像装置であり、本願発明者による先の出願に係る座標系分離装置の一つの回答でもある(特願2004−364223号参照)。
以上により、湧きだし点基準CV領域画像前置装置を用いた座標系分離を行うことができる。
[画像部分更新装置]
次に、図29を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いた画像部分更新装置の一実施形態について説明する。
動画像の部分更新は、カメラ位置の異なる画像の更新であり、一般には不可能とされてきたが、本発明のCV領域画像による視点変更技術を用いると簡単に実現できる。
旧画像のカメラ視点に更新画像の視点を合致させ、更新部分を切り取り入れ替えることで実現される。動画の自由な切り貼りが可能となったことになる。
以下、図29に示す画像部分更新装置1081の各部について説明する。
更新CV領域画像・VD取得部1082は、更新する画像情報を含む画像を、湧きだし点基準CV領域画像前置装置1001から出力して、CV領域画像とそのVDを取得する。
旧CV領域画像・VD取得部1083は、更新される旧画像情報を含む画像を、湧きだし点基準CV領域画像前置装置1001から出力して、CV領域画像とそのVDを取得する。
更新範囲指定部1084は、更新範囲を指定する。
更新CV領域視点変更部1086は、VD値を合致させることで、更新画像の視点を旧画像の視点に変更する。この部分が本装置の重要部分である。これは上述した湧きだし点基準CV領域画像前置装置を用いた視点変更装置1021そのものである(図23参照)。
更新範囲削除部1085は、旧画像側の更新部分を削除する。更新部分は必ずしも旧画像を削除してから更新画像を貼り付ける必要はないが、論理的に説明するために、一旦旧画像を削除してから更新画像を貼り付けるとした。実際のプログラム上は、上書きすることで同時に削除も行われることになる。
更新部分CV領域画像生成部1087は、更新部分のCV領域画像を切り取って、旧CV領域画像に貼り付けて更新CV領域画像を生成する。
更新画像生成部1088は、最終的に領域結合して、更新画像を生成する。
CV領域画像のまま出力しても良いが、一般的には通常画像として利用することが多いので、CV領域画像を再度結合して解消し、通常画像とした。
表示装置1089は、CV領域画像を表示するには、上述したCV領域画像用のCV領域画像表示装置1002(図19参照)が必要となるが、通常画像として表示するには通常の表示装置でよいことになる。
以上により、本発明の湧きだし点基準CV領域画像前置装置を用いた画像部分更新装置1081が実現される。
[オルソ面生成装置]
次に、図30を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いたオルソ面生成装置の一実施形態について説明する。
同図に示すように、本実施形態のオルソ面生成装置1091は以下の各部を備える。
CV領域画像・VD取得部1092は、CV領域画像データベース装置の出力を、若しくは視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
高精度鉛直取得部1093は、計測機器により鉛直方向を精度良く取得する。
地図を生成するには鉛直方向が重要であり、鉛直が狂うと地図の精度に直接悪影響を及ぼすので、本実施形態では、鉛直は専用の機器とした。具体的には、高精度の鉛直系でCV領域画像の鉛直方向を補正し、次に、CV値の誤差が累積するので、数百メートル毎に高精度GPS等で絶対座標を取得する。
補正VD値演算部1094は、計測機器で取得した高精度の鉛直データと絶対座標データにより、取得したVD値を補正する。VD値のみから求める座標及び鉛直は誤差が累積するので、補正が必要となる。
三次元面生成部1095は、補正VD演算部で補正されたVD値と対応するCV領域画像により、オルソ化対象を三次元化する。
この三次元面生成部1095は、上述した三次元形状生成装置1041(図25参照)そのものである。
CV領域画像は三次元画像であるから、二次元化するのは容易である。数百メートル単位で正しい座標と鉛直が分かっているから、単純にオルソ面に投影すればよい。
オルソ面投影部1096は、三次元化されたオルソ化対象のCV領域画像をオルソ面に投影する。
CV画像では、道路面のオルソ化しかできなかったが、CV領域画像では全ての現像物を含めて、オルソ面を生成できることになる。
なお、数百メートルごとに位置と鉛直を補正するのは、CV値を含むVDの精度と現在のGPS及び鉛直の精度との比較から区割り出した補正区間の数字である。近距離ではCV値の精度が十分高いので、GPSの補正を近距離で行うのは却って精度をおとすことになり、不利である。
また、高精度位置決め部1097においては、高精度GPSでなくても良い。画像内に絶対座標が既知である点がCV領域画像(CV画像でも良い)として写っていれば、その点の座標を画像内計測により取得して、若しくはRV値と比較して、画像内の一点で絶対座標を取得することが可能である。画像内に写っている三角点や測量の基準点がそのまま三次元基準点となる。
以上のような本実施形態のオルソ面生成装置1091によれば、CV領域画像を取得すれば、実測することなく、直接地図を生成できることになる。この産業的意味は大きい。
[画像高解像度化装置]
次に、図31を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いた画像高解像度化装置の一実施形態について説明する。
CV領域画像からフレーム画像を生成して動画再生する場合に、各フレームの画像を構成する領域は複数存在するが、その中の最も高解像度の画像を選択して、各フレーム画像を構成することで、高解像度の動画像を生成することができる。
以下、図31に示す画像高解像度化装置1101の各部について説明する。
CV領域画像・VD取得部1102は、CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
仮想カメラ移動経路指定部1103は、再生表示しようとする動画像を取得したカメラ移動経路、若しくは仮想カメラ移動経路をCV値で指定する。
CV領域画像は、上述した視点変更装置(図23参照)により、視点変更が自由にできるために、実際のカメラ経路以外のカメラ近傍の経路を設定できる。実際のカメラ経路と大きく離れてしまうと、情報の抜けが生じて画像が完成しないことになる。
全範囲探索選択部1104は、動画像の各フレームを構成する各CV領域画像に関して、最も解像度の高いCV領域画像を、若しくは最もカメラの近くで取得しているCV領域画像を、若しくは最も目的に適合したCV領域画像を、既に取得している視点の異なる全CV領域画像データから選択する。
高解像度化が目的であれば、カメラから最も近い位置のCV領域画像を利用するのが適している。また、画像中の色の精度や障害物排除等により、どのCV領域画像を選択するかは変わってくるが、ここでは解像度を最も高く取る目的で選択する。
高解像度視点変更部1105は、全範囲探索選択部1104で選択したCV領域画像を、カメラ経路を意味する指定CV値に選択したそれぞれのCV領域画像を視点変更する。
カメラ位置が与えられれば、どのようなCV領域画像でも、その位置に視点変更することは既に視点変更装置で示したとおりである。
高解像度化画像結合部1106は、視点変更されたCV領域画像から各フレーム画像を生成する。VD表示装置(図19参照)であれば、そのまま表示可能であるが、視点変更されたままではまだCV領域画像なので、それを表示可能な通常画像に変化すれば通常の表示装置で観察できる。
もし、記録の必要が有れば、さらに視点変更を可能とするVD値を取得したCV領域画像の状態で記録保存する高解像度化画像データベース1108を備えることができる。
表示部1107は、高解像度化された動画映像を表示する。単なる記録であれば表示装置への入力信号をそのまま記録すればよい。
以上により、本発明の湧きだし点基準CV領域画像前置装置を用いた画像高解像度化装置1101が実現される。
[運動抽出・解析装置]
次に、図32を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いた運動抽出・解析装置の一実施形態について説明する。
同図に示すように、本実施形態の運動抽出・解析装置1111は以下の各部を備える。
座標系分離装置1112は、CV領域画像データベース装置から出力される、若しくは前記視点変更装置から出力されるCV領域画像を、元となる動画像を構成する複数の座標系に分離する。この座標系分離装置は、上述した座標系分離装置1071(図28参照)そのものである。
運動領域抽出部1113は、複数の座標系の中で、目的の運動する対象物のCV領域画像をそのVDと共に選択し、抽出する。
運動領域VD解析部1114は、抽出された運動領域のVDから、対象となる運動領域の運動を6自由度で表す。
VDはそのまま6自由度で領域の運動を示していることから、運動解析には最適である。
もし必要が有れば、運動領域を指定の座標系に変換して示す指定座標表示部1115を備えることができる。
以上により、本発明の湧きだし点基準CV領域画像前置装置を用いた運動抽出・解析装置1111が実現される。
[CV領域画像検索装置]
次に、図33を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いたCV領域画像検索装置の一実施形態について説明する。
同図に示すように、本実施形態のCV領域画像検索装置1121は以下の各部を備える。なお、重複するが、ここでCV領域画像とは常にハードCV領域画像・ソフトCV領域画像・対象物CV領域画像の全てを含む。
CV領域画像・VD取得部1122は、CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得する。
検索CV領域画像部品指定部1123は、検索すべきCV領域画像、又はその一部、又はそれを内部に含むCV領域画像を検索すべき部品として指定する。
検索CV領域画像部品VD演算部1124は、基準座標系における前記部品のVDを演算で求める。一般にVDはカメラ位置を基準としているため、比較のためには全てカメラ位置に変換して比較するか、共通化された基準座標系での比較が求められる。
そこで、本実施形態では、図33に示すように、検索されるCV領域画像の基準座標系におけるVDと、検索部品のCV領域画像の基準座標系におけるVDとを比較し、一致度を求める基準座標VD比較部1125を備える。
検索CV領域画像出力部1126は、CV領域画像全体の中の一致度の高いCV領域画像を検索結果として出力する。
以上により、本発明の湧きだし点基準CV領域画像前置装置を用いたCV領域画像検索装置1121が実現される。
[ノイズリダクション装置]
次に、図34を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いたノイズリダクション装置の一実施形態について説明する。
上述した視点変更装置(図23参照)により、動画像において、視点位置と姿勢を示すCV値により、隣接フレームを目的フレームの視点位置と姿勢とを完全に重ねることができる。すなわち、隣接する数フレームを同一のCV値に視点変更すれば、画像は完全に重ね合わせることができることになる。
一旦重なれば、複数の同一位置と姿勢の静止画と同じであり、加算平均でノイズを減少させることができる。加算平均は線形処理であるが、その他非線形処理を含めて、従来技術のノイズリダクションを行うことができる。ここでは特に線形処理と非線形処理の種別を問わない。
以下、図34に示すノイズリダクション装置1131の各部について説明する。
CV領域画像・VD取得部1132は、CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を、取り入れ、CV領域画像とVDとを分離して取得する。
最適CV領域画像選択部1133は、目的フレーム画像に属するCV領域画像と、それに隣接するフレーム画像に属するCV領域画像とで、対応する複数のCV領域画像を選択する。
同一視点変更部1134は、隣接するフレーム画像に属するCV領域画像を、目的フレーム画像のCV値に視点変更する。ここにおいても視点変更装置が主役となる。
領域加算平均演算部1135は、目的フレームの視点に統一して変更したCV領域画像を、重ね合わせて加算平均する。
平均CV領域画像生成部1136は、加算平均によりノイズが減少した領域を目的フレームに属するCV領域画像として取得する。
以上により、本発明の湧きだし点基準CV領域画像前置装置を用いたノイズリダクション装置1131が実現される。
[対象物認識装置]
次に、図35を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いた対象物認識装置の一実施形態について説明する。
上述したCV領域画像検索装置において、部品に属性を付加しておけば、検索結果は対象物の属性を示すことになり、対象物認識ができたことになる。
また、CV領域画像を固定し、部品を複数用意しておき、一致する部品を探すことで、目的CV領域画像を認識したことになる。
ここで一致度を評価するのはVD値のみではなく、色、テクスチャー等が比較の対象となる。
以下、本実施形態に係る対象物認識装置1141について説明する。
なお、本実施形態の対象物認識装置は、本願発明者による特開2000−295611号、国際公開WO02/01505号に提案されているPRM技術を利用している。
CV領域画像・VD取得部1142は、CV領域画像データベース装置の出力を、若しくは前記視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。
認識CV領域画像指定部1143は、認識対象となる部分をCV領域画像内に指定する。
対象が不明のために認識するとして、認識対象を固定して、属性の既知である複数の部品を次々比較して、一致する部品をさがし、認識するとしている。
一方、属性の分かっている部品(既に認識されてるCV領域画像の部品)が何処にあるかを探す場合は、上述したCV領域画像検索装置(図33参照)となる。
部品データベース部1144は、未知のCV領域画像を認識する本装置においては、前もって認識候補となる複数のCV領域画像からなる部品をデータベースとして記録している。
従って、データベースに無い部品は認識できないことになる。しかしこれは決して不合理ではなく、人間も又記憶のない対象物は認識できないのである。
部品送り出し部1145は、認識が完了するまで、次々部品を送り出す。
部品VD演算部1146は、比較される部品のVDを演算で求める。
基準座標VD比較部1147は、認識対象となるCV領域画像と、部品を基準座標系のVD値で比較する。これは同一座標系の同一地点からのVDで比較するためである。
認識画像出力部1148は、部品送り出し部1145から送られてくる複数の部品の中で、最も一致度の高い部品を選択して、特定する。
これはVD値で比較するのであるが、最終的に比較はVD値だけではなく、VD値が接近していて特定できない場合は、他の要素、例えば色やテクスチャー等の属性で比較して一度の高い部品を選択することが望ましい。
以上により、本発明の湧きだし点基準CV領域画像前置装置を用いた対象物認識装置1141が実現される。
[位置決め装置]
次に、図36を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いた位置決め装置の一実施形態について説明する。
同図に示す本実施形態の位置決め装置1181は、GPSやIMUやジャイロに代わって、自分の位置を正確に取得する装置である。
以下、本実施形態に係る位置決め装置1181を構成する各部について説明する。
CV領域画像・VD取得部1182は、CV領域画像データベース装置の出力を、若しくは視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得する。ここには、車両走行する場所のCV領域画像が存在している。この情報量は膨大であるので、目的に必要な部分のみ検出して利用しようとするものである。
地図利用選択部1183は、取得したCV領域画像から、三次元地図として精度良く利用できる複数のCV領域画像部分を自動選択する。これは各CV領域のTV値を求める際のトラッキング時の相関値を参考にして、決めるか、再度自己相関及び相互相関により、相関値の大きいものを選択することができる。また、部分的に偏らずに全体に分散して選択することで、以下の位置決め時の精度が向上する。
内部検索指定部1186は、三次元地図として精度よく利用できるCV領域画像部分を指定し、前記CV領域画像・VD取得部で取得したCV領域画像内に、検索し、呼び出し、前記地図利用選択部に送る。
手動で目的の画像を検索させることもできる。前もって分かっている対象物、例えば40km制限標識のみ選択的に検索して、三次元地図として利用することができる。
ただし、内部検索指定部は本装置を構成する絶対条件ではなく、無くても本装置の本質は失われない。
地図生成部1184は、地図利用選択部1183で選択された「精度よく利用できる複数のCV領域画像部分」を、二次元特徴点、三次元特徴領域、特徴対象物等に分類し、若しくはVD値等を用いて変換し、地図として生成する。
車両位置決定のためには、三次元座標が既知である方が都合がよいが、二次元点でも車両位置決定の精度に貢献する。認識済の対象物は既に三次元点で構成されるので、位置決定の精度にはきわめて大きく貢献する。
リアルタイム画像取得部1187は、地図と比較するため、及び表示のためのリアルタイム画像を車両等に積載したカメラから取得する。
これはカーナビや自動案内装置を念頭に置いて、リアルタイム画像を取得することを前提としているが、もちろん記録映像でも同様に撮影時点のカメラ位置の決定が可能であることは言うまでもない。
リアルタイム画像前処理部1190は、取得したリアルタイム画像を、概略CV演算、GPSを用いた概略位置合わせ、画像明るさ調整、等の前記三次元地図と比較しやすくし、検索しやすくするための画像処理を施す。
外部検索指定部1185は、二次元特徴点、三次元特徴領域、特徴対象物等を前記リアルタイム画像の中に検索指定する。
外部検索検出部1188は、外部検索指定部1185での検索指定により、二次元特徴点、三次元特徴領域、特徴対象物等を、前記リアルタイム画像前処理部で比較しやすく処理されたリアルタイム画像の中に検索して、対応部分を検出する。
リアルタイム画像CV値取得部1189は、二次元特徴点、三次元特徴領域、特徴対象物等との対応部分が検出されたリアルタイム画像の対応部分と三次元地図上の前記二次元特徴点、三次元特徴領域、特徴対象物等から、リアルタイム画像のCV値を演算で求める。
車両位置決め部1191は、リアルタイム画像CV値取得部1189で取得したリアルタイム画像のCV値から、リアルタイム画像を取得したカメラの位置と姿勢を絶対座標で求めて車両位置を決定する。
リアルタイム画像内属性表示部1193は、特徴対象物が持っている車両運行に関係する属性をリアルタイム画像内に表示する。
三次元地図データベース部1192は、車両位置決めに利用し、リアルタイム画像で確認された前記二次元特徴点、三次元特徴領域、特徴対象物等を、次回に利用する三次元地図として記録しておく。ここで、三次元地図データベースは次回以降の検索検出を容易にする目的で設置したものであり、必ずしも必要ではない。
以上により、本発明の湧きだし点基準CV領域画像前置装置を用いた位置決め装置1181が実現される。
[複合人工知能記憶装置]
次に、図37を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いた複合人工知能記憶装置の一実施形態について説明する。
同図に示す本実施形態の複合人工知能装置1152は、本願発明者による特開2005−322002号に提案されている複合信号知能装置であり、複数の人工知能装置が情報のやり取りをするように設計されていて、人工知能装置1171は、ホスト的役割を持ち、やや大きめのデータベースを持つように設計されている。
複合人工知能装置1152を構成する複数の人工知能装置1171・1153・1154において、自ら取得したカメラ映像、及び認識結果を湧きだし点基準CV領域画像前置装置にCV領域画像として記録する。
さらに個々の人工知能装置1171から他の人工知能装置1153・1154へ、送信装置1156により、カメラ映像、及び認識結果が送られる。
また、湧きだし点基準CV領域画像前置装置1151は、他の人工知能装置1153・1154で取得されたカメラ画像及び認識結果は受信装置1155を通して、情報を受信し、認識結果をCV領域画像として記録する。
送られた画像データはCV領域画像と成り、湧きだし点基準CV領域画像前置装置1151に記録される。
なお、各装置間の通信はWEB1170などの通信回線を経由して行われる。
同様に、他の人工知能装置1153・1154から検索の問い合わせがあれば、湧きだし点基準CV領域画像前置装置1151のCV領域画像内を検索するCV領域画像検索装置1158に送られて検索される。検索結果を記録すると同時に、問い合わせ先に送信する。
同様に、他の人工知能装置1153・1154から対象物認識の依頼があれば、湧きだし点基準CV領域画像前置装置1151のCV領域画像内で対象物認識する対象物認識装置1157(図18も参照)に送られる。認識結果は記録すると同時に、問い合わせ先に送信される。
人工知能装置1171は、他の人工知能装置1153・1154に比較し、一部ホストの役割を与えられているため、認識のための部品DB装置1159を別に備えている。周囲の関連する複数の人工知能装置で認識されたデータはこの装置に記録され、整理されている。
認識された対象物はその配置と隣接する対象物から抽象化装置1161で抽象化され、抽象概念認識装置1164により抽象概念として認識される。
具体的には、関連関数装置1160により、認識した対象物の部品の配列を数学的な線の結合として隣接関係を表現し、抽象概念認識装置1164ではその形状から危険であるとか、安全であるとかを判断する。
さらに、一つの抽象概念の認識結果を一つのフラグとして、抽象概念地図DB装置1167にCVタグ装置1166を配置する(後述する図38参照)。
抽象概念地図DB装置1167は、抽象概念の地図であり、配列関係を示す線構成のN次元形状と、抽象概念認識結果を示すCVタグによって記録保存されている。
CVタグが増加していくにつれて、さらに抽象部品DB装置1168では複数のCVタグによって形成されるM次元形状により、抽象部品を生成することになる。例えば、「危険」を意味するCVタグと、「近い」を意味するCVタグから、「停止せよ」という判断を行動指示装置1163が生み出すことがこれに相当する。
一方、抽象概念検索装置1165では、「安全」というCVタグ側から、それを満たす抽象概念を検索する。「安全」を意味するCVタグを検索して、次に「安全」を構成する抽象M次元形状を検索し、それを具体的に満たす具象化装置1162により、CV領域画像内に、それを満たす状況を探し出すことができる。
自動運転は前記「安全」状況を確認しながら、走行することになる。
以上により、本発明の湧きだし点基準CV領域画像前置装置を用いた複合人工知能装置1152が実現される。
[CV領域画像によるCVタグ入出力検索装置]
次に、図38を参照して、本発明の湧きだし点基準CV領域画像前置装置を用いたCV領域画像によるCVタグ入出力検索装置の一実施形態について説明する。
まず、本実施形態に係るCVタグ入出力検索装置1204の基本形であるALV(Active Link Vision)機能について説明する。
図38に示すように、まず、CVタグ入出力検索装置1204により管理しようとする現実の管理対象物1203がある。
管理対象物1203とは、道路管理目的であれば、路面、街路灯、ガードレール、電柱、道路表示、標識、行き先表示などであり、カーナビゲーション目的であれば信号機、道路表示、車線、標識、行き先表示板、障害物、他車両、等である。
CVタグ入出力検索装置1204は以下の各部を備える。
CV領域画像記録部1205は、前もって、管理対象物1203及び周辺を撮影して記録し、CV値を付加したCV領域画像から生成したCV領域データベース装置1012の出力を一時的に保持する。
視点変更装置1206は、画像取得時のカメラ位置近傍への視点変更画像を生成する。この視点変更装置1206は、上述した視点変更装置(図23参照)を用いることで、CV領域画像の視点を変更し、見やすい位置に視点を設定することができる。CV領域画像を用いることで視点変更を可能としているという点で視点変更装置は重要である。
CVタグ表示装置1207は、CV値を付加したCV領域画像を表示し、動画として画像フレームが移動しても、画像とCVタグの三次元的位置関係を保持したまま、CVタグを表示する。
動画像をCV演算することで三次元的に扱うことができる。CV領域画像とCGとの合成については本願発明者による特開2005−122315号に詳しく示されている。
CVタグ入力装置1208は、CVタグ表示装置1207で表示されたCV領域画像の中の管理対象物1203の位置に対して、CV領域画像の中にCVタグを直接貼り付けるか、若しくはCV領域画像中の管理対象物1203の三次元的位置を確認できるように、矢印などで特定できるようにしたCVタグを、CV領域画像の中に三次元的に配置する。
具体的には、CVタグ入力装置1208は、CV領域画像中の管理対象物1203に直接CVタグを入力する。CV領域画像地図を用いて管理対象物1203を三次元計測し、CVタグの三次元座標を管理対象物1203の三次元座標と合致させるか、或いはCVタグが管理対象物1203を隠さないように、管理対象物1203の近傍に設置することでCVタグの座標設定は完了する。次に、CVタグを開封し、リンクしたファイルに管理対象物1203に関連する画像やテキストデータ等の諸データを書き込む。このことでCVタグのデータ入力は完了する。
CVタグデータベース装置1210は、CVタグと管理対象物1203とを関連づける諸データを格納する。
CVタグを開封して、リンクしたファイルに管理対象物1203に関する画像やテキストデータ等の諸データを書き込む作業をすることで、直接CVタグデータベース装置1210に書き込むことなく、CVタグ関連の前記諸データは自動的にCVタグデータベース装置1210に記録され、下記検索や選択により呼び出される。
CVタグ自動検索装置1211は、CV領域画像中に管理対象物を示すCVタグそのものを、若しくはCV領域画像中の管理対象物1203の画像そのものを、色の変化や対象物面の点滅によるフラッシュ効果等の何らかの視覚効果のある三次元座標を持つ印として、動画としてのCV領域画像上に三次元的に矛盾無く呈示する。
CV領域画像上で管理対象物1203を特定するには、自動検索によるか、画像上の管理対象物1203を直接マウスでクリックすることで完了する。
CVタグ対象物管理装置1212は、CVタグ表示装置1207により、検索装置でCVタグを検索することで、管理対象物1203を自動的に特定することができ、若しくは表示されたCV領域画像中の管理対象物1203をCV領域画像の中にタッチスクリーンにタッチし、又はマウス等でCVタグをクリックして、CVタグを選択することで、CVタグデータベース装置1210からCVタグに対応する管理対象物1203のデータを読み出して管理する。
以上のような構成からなる本実施形態のCVタグ入出力検索装置1204は、さらに、カーナビ仕様として以下のような構成を備えることができる。
以下、カーナビゲーション目的の「湧きだし点基準CV領域画像前置装置を用いたCVタグ入出力検索装置」を説明する。
この湧きだし点基準CV領域画像前置装置を用いたCVタグ入出力検索装置1204は次世代のカーナビゲーションを対象として構成される。
具体的には、上述したCVタグ入力装置1208と、CVタグデータベース装置1210と、CVタグ対象物管理装置1212とを車両等に積載し、管理地域1201、及び管理対象物1203周辺を移動する積載移動手段1202を備える。
積載移動手段1202にはビデオカメラを積載し、リアルタイム画像を取得し、リアルタイム画像にCV演算を施し、リアルタイムCV領域画像を取得するリアルタイムCV領域画像取得装置(1220)を備える。リアルタイム画像は単なるモニタとしてのみならず、直接CV演算するか、又はCV領域画像地図との位置あわせにより、CV値を取得することができるので、本発明において様々に利用される。
リアルタイム画像に対しては、文字検索、座標検索、属性検索等で、未登録の管理対象物1203を検索し、或いは既に登録されている管理対象物1203を検索し、CV領域画像上にフラッシュ等でその三次元位置を呈示することができる。
例えば、カーナビ仕様で説明すれば、40km速度制限と文字検索をすれば、CV領域画像上にその標識が明るく表示される。また、緯度経度を数字で打ち込んで検索すれば、その緯度経度の所に画像が移動して、その地点を矢印で示す。また、時速40km制限と検索すれば40km制限の道路の側帯部分がフラッシュして、その範囲を示す。等の例が上げられる。
ここで、文字検索は画像の中から文字を自動認識する技術による。また、座標検索は地図として用いるCV領域画像は絶対座標を持っているので、動画であっても座標を特定して検索することが可能となる。
ただし、未登録の管理対象物1203の検索は対象物認識の技術が必要となり、検索には時間が掛かるので、前もって入力してある管理対象物1203に関する諸データから検索するのが適している。
登録されていれば当然であるが、登録されていない管理対象物1203に対しても、画像の中から検索する画像検索、対象物認識技術により、検索することができる。例えば、交通標識で一方通行の標識の画像を用意しておき、この一方通行の標識の画像で検索すると、画像中の一方通行の標識を全て検索して、その位置を示すことができる。
また、本実施形態では、リアルタイム画像から管理対象物1203を自動認識する管理対象物自動認識装置を保持する対象物認識装置1213を備える。
座標検索はCV領域画像が三次元座標を持つことから、動画であっても座標を特定して検索することが可能となる。
上述したように、CVタグ自動検索装置1211は、CV領域画像中に管理対象物を示すCVタグそのものを、若しくはCV領域画像中の管理対象物1203の画像そのものを、色の変化やフラッシュ効果等の何らかの視覚効果のある三次元座標を持つ印として、動画としてのCV領域画像上に三次元的に矛盾無く呈示する。
また、本実施形態では、外部データベース装置1217を備え、内部のCV領域画像記録部1205は、CVタグ入出力検索装置1204の外側にあるCV領域画像地図データベース部1218と通信をする。そのためには、DVD、ハードディスク等の記録媒体、若しくはWEB等の通信により、管理地域1201及びその周辺のCV領域画像地図を外部から取得する外部CV領域画像地図データベース部1218を備える。
同様に、CVタグ入出力装置1204は、記録媒体、若しくは通信により、管理地域1201及びその周辺のCVタグとその属性を示す情報を取得し、CVタグデータベース装置1210に記録し、さらに、外部CVタグデータベース部1219とデータのやり取りをする。
なお、端末のCVタグ入出力検索装置1204で取得したデータを外部データベース装置1217に送るか否かは、端末側の判断による。
また、移動体には、移動体の絶対座標を取得するGPS位置決め装置1215と、取得したリアルタイムCV領域画像とCV領域画像地図から、位置あわせをして取得した新旧映像更新装置1216とを保持する移動体位置決め手段1214を備える。新旧映像更新装置1216は、本願発明者による特開2005−303952号に示されている。
また、本実施形態では、移動体位置決め手段1214により、現在地点が取得され、同時に時刻が取得され、前もって走行目的を入力しておき、その走行目的等より、車両の現在時刻と現在位置と現在状況に関係している管理対象物1203のCVタグを選択的に自動表示するCVタグ自動表示装置1209を備える。
走行目的とは、ドライブ、道路路面管理、標識管理、路面性状調査、などであり、その目的によって表示されるCVタグは異なるので、目的にあったCVタグを自動表示するようにする。
GPSにより現在位置を取得して、又は、上記の特開2005−303952号に示す新旧映像更新装置1216により、車両の現在地点を絶対座標で取得して、その地点の画像を表示する。
ここで、本実施形態で示した各装置及び手段は全てを備える必要はなく、その一部装置と一部手段を選択的に備えることが好ましい。
そして、以上のような構成からなる本実施形態に係るCVタグ入出力検索装置1204では、CVタグ表示装置1207により以下のような各種の表示機能(表示手段)が実現される。
[動画ロックオン表示]
動画ロックオン表示は、選択及び検索した管理対象物1203を、管理対象物を画像の決められた位置に固定して表示する機能である。
ロックオン表示は、ロックオンすべき任意の対象物を画像内に指定すると、CV演算で得られたカメラベクトルに基づいて、画像内に指定した対象物を実写座標系で計測してその三次元座標を求め、三次元座標が求められた指定対象物が、常に画枠の中心位置(又は任意の所定位置)に表示されるように、画像表示又はカメラ(カメラが固定される固定物)の位置及び姿勢を制御することができる。
これにより、例えば、画像内にあらかじめ画像と一致している三次元座標系を設定しておき、画像内の目的対象物をマウス等で画像内に指定し、CV演算により、目的対象物の概略の三次元座標を求め、求められた目的対象物の三次元座標が画像内の指定位置に常に来るように画像表示位置を制御することができる。
あるいは、目的対象物を画像内の指定位置に常に表示するようにカメラを制御することができる。
このロックオン機能により、CVタグ、若しくは管理対象物をCV領域画像地図上で直接指示すれば、選択した管理対象物をロックオンで画像中央に常に表示することができるので、視認および操作が容易となる。
[複数CV映像表示]
複数CV映像表示は、CV領域画像地図は縮尺の異なる複数のCV領域画像地図を同期表示し、又は非同期で表示し、しかも座標系を統一して、同じCVタグを複数のCV領域画像地図上に表示する機能である。
なお、上述したように、CVタグはCGアイコンにより構成される場合と、実写アイコンにより構成される場合がある。また、アイコン機能を持たない単なるCGを表示することができることは勿論である。
[地図同期表示]
地図同期表示は、CV領域画像地図と二次元地図を同時に表示し、二次元地図上にもCVタグを表示する機能である。
CVタグはもともと三次元座標を持つので、二次元化することは容易に行える。
[リアルタイムCV領域画像表示]
リアルタイムCV領域画像表示は、選択及び検索した管理対象物1203を、CV領域画像地図と同じように扱い、リアルタイムCV領域画像にCVタグを表示する機能である。これは現時点の現実映像であり最もリアリティーがある表示となる。なお、リアルタイム演算となるために、処理には一定の制限があり得る。
[現実重複表示]
現実重複表示は、選択及び検索した管理対象物1203を、CV領域画像上に表示せずに、ヘッドマウント、又はハーフミラー等により、移動する車両等から直接観察する現実世界の管理対象物に重複して合成した、CVタグや案内矢印CG、看板CG等を示す機能である。
[音声案内表示]
音声案内表示は、選択及び検索した管理対象物1203に関するCVタグの内容を、音声で案内表示する機能である。これは、特にカーナビゲーションシステムには必要な機能となる。
なお、以上のような各機能は、目的に応じてすべてを行わせることもできるが、少なくともいずれか一部の機能を有するものであってもよい。
次に、以上のような本実施形態の湧きだし点基準CV領域画像前置装置の具体的な実施例について図面を参照して説明する。
[実施例1]
以下、本発明の湧きだし点基準CV領域画像前置装置の実施例1として、「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」について説明する。
上述したように、上記実施形態では、ハードCV領域画像生成部分とソフトCV領域画像生成部分とが、対等な位置づけとして明確に区別されている。
ところが以下のソフト領域生成部分は、ハードCV領域画像生成部分とソフトCV領域画像生成部分とが明確に区別されていない。
その第一の理由は、ソフトCV領域画像生成部分を設計する場合は、当然のこととしてその内部にハードCV領域画像生成部分を含むようになるのが自然だからである。
上記の実施形態では、この二者の区別を明確にしているが、実際にソフトCV領域画像生成部分を設計する場合には、その内部にハードCV領域画像生成部分を含む以下の方が実際的である。
本発明には矛盾はしないので、以下の基本設計と実施例では、ソフトCV領域画像生成部分の内部にハードCV領域画像生成部分を含むように説明する。
第二の理由は、初めは、以下の設計で実施形態についても説明しようとしたが、ハードCV領域画像生成部分とソフトCV領域画像生成部分とが明確に区別されず不明瞭となったため、書き換えたためである。
結果として、実施形態では二者を明確に区別し、実際に則して、以下の基本設計と実施例では、ハード領域画像生成は、ソフト領域画像の一部に含まれる形で説明する。
[基本設計]
本発明の中心部分である、「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する部分」に特化して詳細に示す。
[基本形]
ビデオカメラ等で動画映像を取得し、画像圧縮、画像伝送、画像記録、視点移動、画像三次元化、等の画像処理において必要となる画像のソフトCV領域画像分割を画像に依存して効率よく行う基本形を示す。
従来技術の画像分割は画像を画像の内容にはよらず、単に機械的に8*8等の矩形に分割して処理するのが常であった。
本発明においては、ブロック分割においてさえも、単純なブロックではなく、画像を取得したカメラの座標と姿勢を6自由度で表すCV値と、二次元画像でありなから、一次元にまで単純化処理されたTV値(追跡データ)を付加することで、これまで不可能であった画像処理を可能とする。さらに、ブロックを画像に固有の同一のテクスチャー(ソフトCV領域画像)で束ねてソフトCV領域画像のもつ三次元位置と姿勢を表すRV値で整理することで画像処理はより進化することになる。
例えば8*8の微少ハードCV領域画像(ブロック)を束ねて、ソフトCV領域画像境界線を検出し、ソフトCV領域画像を形成し、トラッキングデータ(TV値)(追跡データ)を持つソフトCV領域画像を生成し、そのソフトCV領域画像を結合し、全体をソフトCV領域画像で再構成する。
最終的に画像はソフトCV領域画像の結合を示すJV値でまとめられ、対象物単位で表現され、CV値、RV値、JV値とで表現される。
すなわち画像は複数の対象物から成り、その対象物は複数のソフトCV領域画像から成るが、対象物の個々の部分のソフトCV領域画像の動きまで三次元的に解析されることになる。
[湧きだし点利用の追跡]
カメラ移動による動画像、又は相対的に対象物とカメラの位置関係が変化する場合には、着目する座標系おいて、湧きだし点から画像が湧き出してくるように見える。これは2画像間で決まる二次元画像上の一点であり、CV値から簡単に求められる。カメラが移動する画像には必ず湧きだし点と吸い込み点が存在する。湧きだし点から画像が湧き出して吸い込み点に消えていくように見える。これは2画像間で決まる二次元画像上の一点であり、CV値から簡単に求められる。CV値から回転揺れ姿勢を表す3自由度を選択し、画像に逆回転を与えることで、画像は揺れ止め画像となる。この揺れ止め画像の画像間ベクトルは湧きだし点方向を示している。またマイナス方向は吸い込み点を示している。すなわちCV値は湧きだし点方向と吸い込み点の情報を持っている。
両者は表示された画像内に存在する場合と存在しない場合があるが、カメラが移動する場合には必ず存在している。
追跡において、着目する座標系においては、画像の各点は湧きだし点から大円上を移動して吸い込み点に至る放射状に出る線上を移動する。
(特開2005−295495号、特開2005−122315号参照)
そこで、例えば静止座標系を代表する座標系とすれば、静止座標系に固定された全ての対象物は湧きだし点から湧き出し、吸い込み点に吸い込まれていくように見えるので、追跡はそのライン上を追跡すればよい。
[輪郭線検出]
一般に、輪郭線抽出によって生成されるソフトCV領域画像と、ハードCV領域画像(ブロック)分割によって生成される一次ソフトCV領域画像とは検出方法が異なるので検出された範囲は異なる。
両者によるソフトCV領域画像の定義には、幾つか考えられるが、大きくは以下の3種類考えられる。
(1)両者どちらかを満たせばソフトCV領域画像とする。
(2)どちらか小さい範囲をソフトCV領域画像とする。
(3)どちらか大きい範囲をソフトCV領域画像とする。
境界線によって閉じた範囲をソフトCV領域画像と定義する。完全には閉じない境界線を閉じるために輪郭線を用いることを可能とするのが適している。閉じない場合であっても、両端を結合してCV領域画像と定義しても、特に問題は生じない。
輪郭線抽出により、境界線抽出によるソフトCV領域画像生成の補助をする。前記微少ソフトCV領域画像を生成せずに、輪郭抽出により直接ソフトCV領域画像の輪郭を生成し、前記一次ソフトCV領域画像を生成し、若しくは既に生成された一次ソフトCV領域画像を補う。
特に、輪郭線抽出においては、ソフトCV領域画像境界部分に関して詳細情報を取得し、ソフトCV領域画像分離に貢献する。
ここでは特に一次ソフトCV領域画像生成におけるソフトCV領域画像を基準とする都合上、輪郭線抽出を補助的に表現してあるが、両者の立場は対等であり、輪郭線抽出によってソフトCV領域画像抽出することも十分可能である。
[輪郭線によるソフトCV領域画像検出]
輪郭線抽出したのち輪郭線の種類を決定して認識し、ソフトCV領域画像生成の補助をする。輪郭線認識により、輪郭線の抜けを補正し、輪郭線をより完全に生成することで、ソフトCV領域画像抽出をより完全に行おうとしている。
一般に、輪郭線と境界線とは一致する部分と一致しない部分があり、異なる。ただし、ソフトCV領域画像はそのどちらでも、又は中間でも定義できる。
ここでも同様に、特に一次ソフトCV領域画像生成におけるソフトCV領域画像を基準とする都合上、輪郭線認識を補助的に表現してあるが、両者の立場は対等であり、輪郭線抽出によってソフトCV領域画像抽出することも十分可能である。
[ゴム紐結合条件]
ゴム紐結合によれば、ハードCV領域画像がその配列順番を変えないように、柔軟に結合することで、トラッキング可能なハードCV領域画像によって、トラッキング不可能なハードCV領域画像にもトラッキングデータを与えることができる。
ゴム紐結合条件とは、隣接するハードCV領域画像の各ブロックが、ゴム紐結合において、結合状態にあるか、切断状況にあるか、の区別を示している。
ゴム紐の切断は、隣接するハードCV領域画像に連続性がなく、元々の配置において三次元的に独立している場合には、ゴム紐結合は誤差を発生されるので、ゴム紐結合を切断しなければならない。
切断の方法は、ゴム紐結合により得られたトラッキングデータを正しいものとして、隣接画像を生成し、隣接画像との差分をとり、その差分の大きいところに誤差が集中していると判断することができる。誤差の集中している部分のゴム紐を切断することで、ゴム紐切断が可能となり、その部分のトラッキングデータを再度演算することで、全体として正しいトラッキングデータを主とすることができる。
[基本設計の図解による説明]
上述した各実施形態を組み合わせて、「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する部分」のシステムを構築する場合の原理とその説明を以下に行う。
上述したように、上記各実施形態では、ハードCV領域画像とソフトCV領域画像を明確に分離して記述しているが、実際にソフトCV領域画像分離画像のシステムを構築する場合には、そのためのハードCV領域画像分離生成画像を明確に分離せずに、ソフトCV領域画像生成の中でハードCV領域画像を扱うことになる。
そのために、ソフトCV領域画像生成の準備をハードCV領域画像生成時に行うこととなる。例えばブロック分類は、ハードCV領域画像においては特徴ブロックとそれ以外のブロックの2種類のみで可能だが、ソフトCV領域画像生成においては、3又は4種類(独立特徴ブロック・境界線上特徴ブロック・境界線上ブロック・その他ブロック)の分類が必要であるため、それをハードCV領域画像のためのブロック分類時において行うことで効率化がはかられる。このことでハードCV領域画像生成ソフトCV領域画像生成の区別が曖昧となる。
以下はソフトCV領域画像生成の一部としてハードCV領域画像生成が位置づけられている。ただし、この位置づけにより各実施形態の構成が統合されるのみであり、矛盾は存在しない。
基本設計1について、図39には対象物CV領域画像結合画像の構成を示す。
同図に示す基本設計1は、画像取得装置501、一次ソフトCV領域画像生成装置502、二次ソフトCV領域画像生成装置503、ソフトCV領域画像結合装置504からなる。
この基本設計1にCV値取得装置505を付加した基本設計2を図40に示す。基本設計2は、基本設計1にCV値取得装置(CV演算装置等)を追加している。
CV演算については、経過の過程で演算することになるが、最初にCV演算を済ませ、画像を代表する座標系に関するCV値を持っていることはその後に処理に有益である。
基本設計3は図41に示す。
輪郭線抽出装置506と輪郭線認識装置507とを追加して、視覚的な輪郭を明確にすることと、輪郭線を認識し、輪郭線が接するコーナーを検出し、対象物を認識する機能を追加する。また、得られた輪郭線と一次ソフトCV領域画像又は二次ソフトCV領域画像として得られたソフトCV領域画像の境界線と比較し、境界線情報として利用することが可能である。
以下に、本発明において重要な核技術となる一次ソフトCV領域画像生成装置と二次ソフトCV領域画像生成装置について説明する。なお、ソフトCV領域画像結合装置については実施例の中で説明する。
[一次ソフトCV領域画像生成装置]
図42に示すように、まず、一次領域生成装置502では、ハードCV領域画像(ブロック)分割部521によって、先ず基準とする画像をハードCV領域画像(ブロック)に分割する。
ここでは、図43に示すように、CV値を用いて求めた湧きだし点201からの放射状の線群204と、画像上の縦線群203とによって作られるハードCV領域画像(ブロック)202で画像を分割部する。
生成された画像ハードCV領域画像(ブロック)のすべてに関して、ハードCV領域画像(ブロック)分類部によって各ハードCV領域画像(ブロック)は自己相関演算を行い、特徴ハードCV領域画像(ブロック)となり得るハードCV領域画像(ブロック)が抽出される。
自己相関値が十分大きなピークを持つ場合の特徴ハードCV領域画像(ブロック)として分類される。
特徴ハードCV領域画像(ブロック)はそのまま隣接する他のフレームに亘り追跡することが可能であり、この特徴ハードCV領域画像(ブロック)を追跡してCV演算を行うことができる。また特徴ハードCV領域画像(ブロック)となる画像ハードCV領域画像(ブロック)は、さらに境界線の一部となり得るハードCV領域画像(ブロック)205と、孤立した特徴ハードCV領域画像(ブロック)206となる特徴ハードCV領域画像(ブロック)とに分類される。
さらに、上記の特徴ハードCV領域画像(ブロック)以外は、ハードCV領域画像(ブロック)内にピークを持たないがハードCV領域画像(ブロック)端でピークを持つような境界線となり得る境界ハードCV領域画像(ブロック)208と、相関値が閾値より低い場合のソフトCV領域画像内ハードCV領域画像(ブロック)207として、そのソフトCV領域画像点が抽出される。
この特徴ハードCV領域画像(ブロック),境界点,ソフトCV領域画像点を三種の点要素と呼ぶ。
図44に、全ハードCV領域画像(ブロック)について特徴ハードCV領域画像(ブロック)、境界点、ソフトCV領域画像点を定義して分類したものを示す。
図44(a)は、画像をハードCV領域画像(ブロック)に分割した場合の一例を示す。図44(b)は、各ハードCV領域画像(ブロック)を自己相関により、3種類のハードCV領域画像(ブロック)に分類した状況を示す。
図45(a)は、特徴ハードCV領域画像(ブロック)を境界線上にある場合と孤立した場合をさらに分類して示した。図45(b)は、分類を基準画像に重ねて示した。
図46(a)は、分類したハードCV領域画像(ブロック)だけを示し、図46(b)は、特徴ハードCV領域画像(ブロック)を連結することでソフトCV領域画像及びソフトCV領域画像内部を生成する状況を示す。
図46におけるハードCV領域画像(ブロック)は、図42のソフトCV領域画像ゴム紐結合部524において、ゴム紐結合され、図47に示すように、それぞれのハードCV領域画像(ブロック)はその配列順番を変えずに自由に距離関係を変更できるように結合される。
そして、各画像ハードCV領域画像(ブロック)は、湧きだし点から放射状に伸びる線状で結合され、その順番が固定され、かつ、距離関係が自由となるように結合される。
図47にはその二次元ゴム紐結合状況が示してある。
なお、画像ハードCV領域画像(ブロック)は単純に長方形のハードCV領域画像(ブロック)に分割することでも、特徴ハードCV領域画像(ブロック)、境界線上拘束ハードCV領域画像(ブロック)、ソフトCV領域画像内ハードCV領域画像(ブロック)分類は可能である。
もし、画像ハードCV領域画像(ブロック)分割が湧きだし点に依らずに、長方形のような単純分割である場合には、ゴム紐結合はハードCV領域画像(ブロック)の順番を変えずに、垂直水平両方向へのゴム紐結合が必要となる。これは次のソフトCV領域画像追跡処理で大きな効果を発揮する。
以上のように、一次ソフトCV領域画像生成装置では、機械的に分割した画像ハードCV領域画像(ブロック)が、画像の中の対象物の形状に則したソフトCV領域画像に分割されたことを意味する。
〔二次ソフトCV領域画像生成部〕
図42に示すように、二次領域生成装置503のソフトCV領域画像追跡部531は、ソフトCV領域画像の形状を柔軟に保ったまま、既に特徴ハードCV領域画像(ブロック)及び境界線上拘束ハードCV領域画像(ブロック)は一次ソフトCV領域画像として扱われ、湧き出し点方向に、隣接する複数のフレームの中に追跡することで、ソフトCV領域画像追跡が可能となる。
ソフトCV領域画像形成が不完全なところは、輪郭線検出装置506及び輪郭認識装置507からの追加情報でより完全な輪郭を形成できる。
一つの一次ソフトCV領域画像を追跡する場合には複数の特徴ハードCV領域画像(ブロック)が含まれるソフトCV領域画像を扱うことになり、ソフトCV領域画像単位での追跡が可能となる。
実際には特徴ハードCV領域画像(ブロック)を追跡することになるが、ゴム紐結合により、ソフトCV領域画像全体か伸び縮みしながら追跡され、対応ソフトCV領域画像が求められる。ここで、ゴム紐はソフトCV領域画像境界で切断され易く結合させている。強い力が掛かればゴム紐はソフトCV領域画像境界線で切断される。
また、ソフトCV領域画像境界の一部に大きな変更が成されるような作用が生じた場合には、ゴム紐がソフトCV領域画像境界で切断され、次にソフトCV領域画像としてではなく、元の個々の画像ハードCV領域画像(ブロック)に戻って再追跡することで、画像全体をもれなく追跡処理を行う。
結果として、ゴム紐で結合されたままのソフトCV領域画像群とゴム紐が切断されたソフトCV領域画像群とから画像が構成されることになる。
さて、それでもまだ追跡誤差が存在するのが一般的である。
そこで、補正ソフトCV領域画像検出部532において、追跡誤差を減少するように、基準画像のソフトCV領域画像追跡結果から隣接するフレームの順番で画像を進行させた適切な比較フレームにまで画像を進行させ、基準フレームのソフトCV領域画像とトラッキングデータ(TV値)(追跡データ)から前記比較フレームに対応する画像を生成し、前記比較フレームと比較する。
トラッキングデータ(TV値)(追跡データ)が正しければ、二者は完全に一致するが、トラッキングデータ(TV値)(追跡データ)に誤差が含まれれば、ソフトCV領域画像にずれが生じる。そこでその差分を取るなどして、誤差を検出し、誤差の発生するソフトCV領域画像を誤差範囲として決定する。
再追跡補正部533では前記誤差範囲において、特徴ハードCV領域画像(ブロック)抽出からやり直す。誤差範囲においては特徴点を多く検出し、再追跡することで、詳細な特徴点を取得する。基準画像だけではなく、前記比較画像において特徴点検出を再度行い、追跡処理することで、ソフトCV領域画像を修正し、正しいトラッキングデータ(TV値)(追跡データ)を取得することができる。
二次ソフトCV領域画像決定部534においては、上記のようにして求められたトラッキングデータ(TV値)(追跡データ)をもつ二次ソフトCV領域画像として次の行程に出力する。
以下、図42を参照して、本実施例に係る画像処理におけるソフトCV領域画像分割画像生成装置の実施例について、各部の機能、処理動作とともに詳細に説明する。
まず、画像取得装置501において、動画像取得部511は、ビデオカメラ等で動画像を取得して記録する。この場合広角画像を必要とし、狭角画像の場合は、一体化された狭角レンズを持つカメラによる画像と共に広角レンズを付けた画像とを同時に取得する。
次に、基準画像指定部512は、得られた動画像の中から以後の処理の基準となる静止画を基準画像として選択する。これはとりあえず最初の画像を基準画像とする。
CV演算装置(CV値取得装置)505においては、CV演算部551が、扱う動画像の全てに、取得した各フレームを代表する座標系とカメラ位置との関係を示すCV値を求めるCV演算を行う。CV値は取得した画像のカメラ位置と姿勢の関係を示す6自由度のパラメータを持つ。
次に、CV画像変換部552は、各画像フレームについて、取得されたCV値を付加したCV画像を生成する。
さらに、追跡範囲指定部553が、後の処理を効率的に行うために画像各点の追跡方向と範囲を制限する。
一次ソフトCV領域画像生成装置502においては、ハードCV領域画像(ブロック)分割部521が、基準画像の画像フレームに関し、画像全体を若しくは、必要部分を単純に微少のピクセルから成る複数のハードCV領域画像(ブロック)に分割する。
ハードCV領域画像(ブロック)は縦11ピクセル、横11ピクセル程度とする。
次に、ハードCV領域画像(ブロック)分類部522が、複数のハードCV領域画像(ブロック)の全てを、境界線上特徴ハードCV領域画像(ブロック)、孤立特徴ハードCV領域画像(ブロック)、境界線上拘束ハードCV領域画像(ブロック)、ソフトCV領域画像内ハードCV領域画像(ブロック)、未特定ハードCV領域画像(ブロック)、の何れかに分類する。
ハードCV領域画像(ブロック)は自己相関を演算し、取得された二次元の相関値において二次元相関値の内部に独立したピークを持つものを特徴ハードCV領域画像(ブロック)とし、ピークは有るが二次元相関値の縁に偏っているハードCV領域画像(ブロック)については、境界線上拘束ハードCV領域画像(ブロック)とし、差異のあるピークを持たないハードCV領域画像(ブロック)はソフトCV領域画像内ハードCV領域画像(ブロック)とし、その他ノイズの大きいハードCV領域画像(ブロック)については未特定ハードCV領域画像(ブロック)として分類する。
次に、一次ソフトCV領域画像生成部523が、特定線状特徴ハードCV領域画像(ブロック)と境界線上拘束ハードCV領域画像(ブロック)と、からソフトCV領域画像を生成する。若しくはそれに未特定ハードCV領域画像(ブロック)を加えて最適なソフトCV領域画像を生成する。
さらに、ソフトCV領域画像ゴム紐結合部524が、各ハードCV領域画像(ブロック)をゴム紐結合で処理する。各ハードCV領域画像(ブロック)を柔軟に結合し、その配列順番を変更しないで距離関係に多少の変更のゆとりを与えた結合方法をゴム紐結合という。
ここまでは画像をハードCV領域画像(ブロック)化し、そのソフトCV領域画像を決めただけであり二次元情報しか持たない。
次に、二次ソフトCV領域画像生成部503において、まず、ソフトCV領域画像追跡部531が、ゴム紐結合された前記各ハードCV領域画像(ブロック)の中の前記境界上特徴ハードCV領域画像(ブロック)及び境界線上拘束ハードCV領域画像(ブロック)を隣接する複数の画像フレームに亘って追跡し、対応点を求めることでソフトCV領域画像追跡する。
次いで、補正ソフトCV領域画像検出部532が、追跡したソフトCV領域画像に対応する隣接フレームのソフトCV領域画像及びその近傍における誤差を検出し、その誤差の発生範囲を求める。誤差の発生範囲に入る全ハードCV領域画像(ブロック)について、再度ハードCV領域画像(ブロック)化し、若しくは基本画像を変更して前記範囲についてハードCV領域画像(ブロック)化する。
次に、再追跡補正部533が、基準画像、若しくは新たな基準画像のフレーム以外の隣接する他の画像フレームに亘って追跡して、境界線上特徴ハードCV領域画像(ブロック)、孤立特徴ハードCV領域画像(ブロック)、境界線上拘束ハードCV領域画像(ブロック)、ソフトCV領域画像ハードCV領域画像(ブロック)、未特定ハードCV領域画像(ブロック)、の何れかに分類し、前記誤差範囲ではゴム紐結合を解除して再度追跡し、追跡データを取得する。
誤差の発生部分の範囲はゴム紐結合を解除して、各ハードCV領域画像(ブロック)単位で追跡をする。
隣接するハードCV領域画像(ブロック)が連続するハードCV領域画像(ブロック)と、関係が不連続のハードCV領域画像(ブロック)を選別することができる。この作業で全ての二次ソフトCV領域画像に関して、各ソフトCV領域画像の境界線を共通とする部分と、又は共通としない部分に分類する。
再度追跡により誤差の発生範囲を再度詳細に追跡して、誤差の少ないソフトCV領域画像が生成される。このようにすることで画像全体のハードCV領域画像(ブロック)が何らかのソフトCV領域画像に所属し、何らかの種類別に分類されることになる。
ソフトCV領域画像は境界線を含み、境界線は隣接するソフトCV領域画像と共有することになる。そこで一つのソフトCV領域画像には複数の特徴ハードCV領域画像(ブロック)を持つことから、各ソフトCV領域画像は複数のトラッキングデータ(TV値)(追跡データ)を持つことになる。
また、未特定ハードCV領域画像(ブロック)のみで特徴ハードCV領域画像(ブロック)画を持たないソフトCV領域画像であっても、ソフトCV領域画像自体が一つのトラッキングデータ(TV値)(追跡データ)を持つことになる。
これらトラッキングデータ(TV値)(追跡データ)をもつソフトCV領域画像を二次ソフトCV領域画像と定義する。
これら二次ソフトCV領域画像を二次領域決定部534で決定する。
次に、ソフトCV領域画像結合装置504においては、まず、ノイズ消去部540が、取得された二次ソフトCV領域画像に関して、取得された各ソフトCV領域画像のトラッキングデータ(TV値)(追跡データ)から、フレーム間のソフトCV領域画像対応が完全にできたことになり、画像の平均化や、重ね合わせが可能となる。そこで各フレームの対応する複数ソフトCV領域画像を加算平均等によりノイズリダクション(ノイズ消去)を行う。
ノイズ消去には線形処理である加算平均処理以外にも、非線形処理として多数決テクスチャー決定法を提案できる。この方法はテクスチャーを平均で決めるのではなく、複数フレームで最も共通性のあるソフトCV領域画像のテクスチャーを共通のテクスチャーとする方法である。或いは複数の適正テクスチャーを選択し、その加算平均をとることができる。このとき、輪郭線は一致しているのでぼけることはない。
また、RV演算部541で、各ソフトCV領域画像のトラッキングデータ(TV値)(追跡データ)から、視点変更した仮想カメラの位置及び姿勢の三次元関係意味するRV演算を行う。
ここで、フレームに対してのカメラ位置を求めることをCV演算と定義したが、各フレーム内の各二次ソフトCV領域画像はやはり独自のCV値を持つことになる。しかし一般にフレームを代表する静止座標であればCV値は同一であるが、移動する物体についてはその移動する物体を構成する画像のソフトCV領域画像がそれぞれ独自のCV値と特徴ハードCV領域画像(ブロック)との関係を持つことになる。最終的には、フレームを撮影したカメラとソフトCV領域画像を撮影したカメラは同一カメラなので、代表する座標系に関してはカメラ位置を示すCV値は一致することになる。
また、一致するカメラ位置となる二次ソフトCV領域画像の位置と姿勢を求めることで、ソフトCV領域画像の動きが三次元的に6自由度で表現できることになる。
ソフトCV領域画像が基準画像のフレームが代表している座標系に所属していない場合、例えば人間が静止座標中を歩いて移動する動きのように、人間の各部分が別々移動して形としては統合されている対象を二次ソフトCV領域画像に分割して、それぞれのCV値が一致する各特徴ハードCV領域画像(ブロック)を求めることで、人間の形状の時間変化を追ってその画像を表現できることになる。
また、境界線再構成部542が、動画として連続して変化する画像を複数の二次ソフトCV領域画像の移動として解釈し、結合した二次ソフトCV領域画像を一体の対象物とし、或いは分割した対象物として再分割する等して、適切なソフトCV領域画像の結合体に再構成する。
さらに、結合ソフトCV領域画像生成部543が、変更CV演算により取得された二次ソフトCV領域画像を適切に結合して画像を再構成する。
次に、輪郭線検出装置506においては、基準画像の画像フレームに関して、ソフトCV領域画像を構成する境界線とほぼ同じ意味を持つ画像中の輪郭線を抽出して、ソフトCV領域画像を構成する境界線の情報として加えることでソフトCV領域画像生成の精度を高めるために、輪郭線抽出部561が、エッジ強調等の処理により、画像中の対象物の不完全な輪郭線を抽出する。
また、ベクトル細線化部562が、輪郭線を方向別直線、曲線、等に分類しながら適切に分割し、それぞれを細線化処理し、ベクトル化する。
エッジ強調等の処理においては、画像の明るさや色の変化を抽出するので、変化を検出する閾値によって、得られるエッジ情報が異なる。閾値を下げればエッジが求めやすいが、ノイズの影響をノイズの中にエッジが埋もれてしまう。そこで閾値は高めに設定し、そこで取得されたノイズの少ないエッジから不完全な輪郭線を求める。この場合輪郭線は完全に閉じた線と成らずに、切れ切れになることが多い。
そこで、その切れ切れの端点において、輪郭線のベクトルの線上を延長し、その延長線上にはさらに輪郭線がある可能性が高いという予想の下に、閾値を下げて、再度エッジ検出を行う。また動画であることから、同じ処理を他の隣接するフレームにおいても行うことで、エッジ検出の確率を上げ、その結果としてより完全な輪郭線を検出できる。
このために、可変閾値処理部563により輪郭線検出閾値を下げる処理を行う。
さらに、輪郭線延長部564において、閾値を下げた端点の延長上で輪郭線を再検出し、対象物の輪郭線を延長させ、延長輪郭線を取得する。
ここで、取得された輪郭線は画像の視覚的な意味合いが強い。輪郭線は細線化され、テクスチャーや視覚的輪郭線を決定し、画像のボケを修正し、視覚的エッジを生成する。また、PRMによる認識では、画像はCGと対比されることが多いので、生成された細線の輪郭線が意味を持つ。
一方、ソフトCV領域画像境界線は画像処理上の特徴ハードCV領域画像(ブロック)の存在する場所であり、座標に関する演算上重要な場所である。座標として保証されているのは輪郭線ではなく、境界線である。
境界認識装置507においては、要素認識部571が、輪郭線、及び延長輪郭線に関して、得られた輪郭線から、それらを直線、線分、曲線、T字コーナー、L字コーナー等の各要素に分類して認識する。
対応する各要素を部品として用意し、それらと対比して、対応する要素を決定し、認識する。これはPRMとして本発明者が特許出願し、一部特許化されている。
(特開2000−295611号、国際公開WO02/01505号参照)
要素認識部571では、部品との比較により、要素の認識がなされるか、それら要素は対象物の一要素であることから、要素の複合体である対象物の認識が可能となる。
次に、対象物認識部575において、複数の要素認識とそれら構成要素の組み合わせにより、対象物を認識する。対象物を認識したことで、輪郭線は対象物に属するもののみで構成することができる。この情報はソフトCV領域画像結合装置504に送られる。
また、要素追跡部572は、各要素を隣接するフレームに追跡して、対応点を確認し、追跡データを取得する。
次いで、隣接輪郭線補正部573が、追跡により、誤差の発生する範囲を求め、その範囲において、誤差の顕著な画像フレームを基準画像として、再度輪郭線検出から再演算することで精度を高め、対象物の輪郭線をより完成に近づける。
さらに、輪郭線規定部574が、取得されたより精度の高められた輪郭線により、一つの輪郭線に囲まれた範囲を仮に規定する。
以上により、各部品により認識された輪郭線は、ソフトCV領域画像の一部分か、若しくは輪郭線の一部分がソフトCV領域画像となる。互いに補うことで、より完全なソフトCV領域画像を生成することができる。
また、認識が済んでいるので、一つの対象物に属するソフトCV領域画像のみを分離することが可能となる。
PRMにより、画像中の対象物の幾つかが対象物認識まで進み、その三次元位置も決定されることになる。ソフトCV領域画像の三次元位置の演算は変更CV演算部(41)と重複するが、座標取得手段を複数持つことは一般的に好都合なことである。
なお、本実施例では、輪郭検出装置及び輪郭認識装置を対象物認識と画像のテクスチャー生成を主目的としているが、本来的には輪郭線抽出とソフトCV領域画像境界線検出とは同じ目的であって良い。
対象物認識された場合は、画像中の対象物を自動的にCGと入れ替えることができる。実際そのような需要は多い。
例えば、道路走行画像中の道路標識、看板、路面標示、等を自動的に認識し、自動的にCG化し、分類し、属性を与え、画像中に自動表示することは既に人工知能応用の範疇にはいるが、道路管理上きわめて有効である。
以上、ソフトCV領域画像分割画像生成装置の実施例1を示した。
[実施例2]
以下、本発明の湧きだし点基準CV領域画像前置装置の実施例2として、カーナビゲーションを目的とした画像データベースを念頭に置き、湧きだし点基準CV領域画像前置装置の最も単純化された実施例として、「ハードCV領域画像生成装置」と、「ハードCV領域画像生成装を用いた座標系分離装置」の実施例を示す。
この実施例2は、本願発明者による特願2004−364223号の「座標系分離記録再生装置」に対しても、一つの解決手段を追加することになる。
本発明の実施例に係るカーナビゲーションにおいて特徴的な点は以下のとおりである。
(1)処理の過程で必要となる揺れ止め画像の揺れを復元可能であるが、わざわざ再度復元する必要はないことである。揺れ止め画像の方が視覚的に疲労しないとから、揺れ止め画像をそのまま用いることとする。
(2)全周カメラを積載した車両から全周動画像を取得し、座標系分離をする過程で、代表座標系を静止座標系とする。
(3)その時に、座標系分離された静止座標系以外は破棄してもまったく問題がないばかりでなく、静止座標系以外の対象物は走行する車両等であり、カーナビゲーションには不必要なものであることから、代表座標系のみを座標系分離し、他の座標系として取得された信号は全てノイズとして破棄される。
以上の主旨で、カーナビゲーション応用の「ハードCV領域画像生成装を用いた座標系分離装置」の実施例を示す。
[詳細説明]
実施例を記載するに先立ち、理解を深めるために、座標系分離装置における湧きだし点について、図48〜図51を参照して詳しく説明する。
移動するカメラの三次元カメラ位置と姿勢の変位をカメラ光学中心(カメラ位置を正確に表現すれはカメラ光学中心である)を原点とする三次元座標で表せば、図48の●印となり、その移動を同図中の符号101〜111に示す。
カメラ位置101とカメラ位置111は直線で繋いであり、従って101と111とを直線で結んで近似されたカメラの移動ベクトルにおけるカメラ位置の変位は進行方向のみであり、他の方向が0で有ることは明かであり、また一般に、102〜110までのカメラ位置はこの近似直線から多少ずれている。
ただし、ここで思考を単純化するためにカメラが直線運動と見なされる範囲で、カメラの回転成分が0となるように回転補正をしているとする。これは実際に特開2005−295495号に提案されている方法で回転揺れ止めをすれば実現できることである。
この時、フレーム画像間の「●」印を結合している矢印「→」が前記カメラ座標系から見た湧きだし点方向を示していることになる。この時、図49に示すように、画像の各画素は湧きだし点から放射状に湧き出して行くように観察される。
ところで、その時の湧きだし点の移動は画像上では二次元となり、図50に示すように、101と111の画像上の点を直線で結ぶように揺れ止めした画像では、湧きだし点は画像内を、矢印「→」のように移動する。
湧き出し点の物理的意味はカメラの進行方向そのものである。そこで基準の進行方向を101と111を結ぶ直線とすると、その基準位置からの、各フレームのカメラ位置のズレを矢印「→」で示すことができる。それを画像上で観察すれば図51の矢印「→」となる。画像上では、当然101と111の湧きだし点の起点は一致して表現している。
カメラの進行方向は時々刻々変化するので、湧き出し点はどの隣接するフレーム間でも定義でき、またフレームを跨いでも定義できる。ここでは101と111のカメラ位置を基準として、101と他のフレーム間で定義できる湧きだし点を101と111で決めた基準湧きだし点からのズレとして表現している。
以上の知識と理解を前提として、以下の実施例を説明する。なお、送信受信再生のプロセスと、記録解凍再生のプロセスは基本的に同じことであり、ここでは区別せずに伝送受信再生としてのみ説明する。
図52(及び図53)に具体的例を示す。
ここで対象となる動画の元画像は、同図中の符号301、302、・・・・・307、・・・・と連続する連続静止画から構成される動画である。
この元画像をCV演算して、各フレームに対応させたCV画像により、揺れ止めCV画像を生成する。
CV演算、及びCV演算結果のCV値、そしてCV値を用いた揺れ止め画像に関しては、本願発明者による特開2005−295495に示されている。
元画像の各フレームに対応して揺れ止めされた画像は、311、312、・・・・・314、・・・・317・・・・で示される。揺れ補正値はフレーム毎に記録されているので、何時でも元の揺れ画像に戻すことは可能である。
揺れ止めされた画像により、元画像の最初のフレームを基準画像として扱い、基準画像を静止画伝送装置341で伝送し、受信側でも基準画像361として扱う。
また、差分検出装置352で元画像が途中で不連続に大きく変化したと判断されたときには、変化後の最初のフレーム317を静止画伝送し、新たな基準画像367と再設定する。または、直前の画像との差分を送り、基準画像とすることもできる。
ここでまず、311〜315までを一区切りの座標系分離区間(セグメント区間)として、各フレームを直線近似して基準移動ライン(図48の141参照)を生成する。この一区切りをセグメントと言い、その区間をセグメント区間という。
図54に示す、ハード領域画像分割生成装置8により、全画素追跡することで、各フレーム画像の追跡データとCV値を持つ324を取得する。
ここで、図52の324は311から314までの総合追跡量である。同図に示すように、追跡可能な範囲の最大追跡フレーム数となるように314を選択することが望ましい。
実際問題としては、カーナビゲーション用の道路画像を想定した場合、500〜1000フレーム程度の基準移動ライン設定が可能と考えられる。
また、送信するデータとしては、基準画像の最終フレーム画像の座標と位置関係を示すCV値、各CV領域画像のTV値、差分信号、差分信号から生成されたTV値である(後述する図56の記録データ構造参照)。
受信側での画像再構築のためには1セグメント区間を近似した湧きだし点位置が必要となるが、それは前記、基準画像の最終フレーム画像の座標と位置関係を示すCV値から直ぐに取得できるので送信の必要はない。
ただし、受信側で演算処理時間短縮のためには前記基準移動ラインを示す湧きだし点データを持つことは有効である。
最終的に伝送信号となるのは送信VDとして、最終的に送信される有効データは、以下のように整理される。
(1)基準画像(311、316・・・・・)
(2)基準画像と次の基準画像間のCV値、各CV領域画像のTV値。
(3)セグメント区間の最終画像における生成画像と実画像との差分画像。
(4)基準画像に含まれないCV領域画像としての差分画像のCV領域のTV値。
ここではセグメント区間内の途中の画像フレームは全て省略され、フレームレートの指定もない。再生時に自由にフレームレートを指定することになる。
また、再生側では、送られた上記VD情報から視点移動も可能となる。
図52中、差分画像351は送信側においてTV画像から生成したCV領域画像と元画像との差分である。差分画像によりトラッキングミスが多少有っても修復可能であり、有効である。
図52には、処理の過程をフレーム画像の進行とともに記載して説明した。
同図において、太枠は伝送情報であり、図中太枠で示した伝送情報は結局、311、324、351のみである。
ところで、画像データは311と324であり、324は画像データではなくVDであることが重要である。
この処理により、この間のフレーム数500〜1000は全て省略されることになる。これはかなりの画像圧縮率となる。
また、基準画像及び差分画像の伝送は、従来技術のJPEG等の圧縮技術を併用できるので、総合的にはかなりの圧縮率となる。
各フレーム間で求められたCV値とTV値を解析し、座標系分離を行う。
座標系分離を行うための構成を図55に示すが、これは、上述した図28に示した座標系分離装置1071と同様である。
TV値により、直線近似される代表フレーム314とし、314の揺れ止めCV画像は座標系分離され、座標系毎にTVが分類される。
次に差分信号について説明をする。
図52に示すように、基準フレームのCV値及びTV値から、逆追跡をして揺れ止めCV画像314を生成することができる。その結果得られたCV領域画像331とする。331は座標系分離及び追跡時の誤差を含んでいるので、一般には正しく揺れ止めCV画像314が生成されない。
そこで、生成CV画像331と生成目的の揺れ止めCV画像314の差分を、差分信号351として求める。
生成CV画像331と差分CV画像(差分信号351)とから誤差のない補正CV画像365を生成することができる。これは原理的に基となっている揺れ止めCV画像314と同じものである。
さらに元画像に戻すには揺れ成分をCV値から与えることで元画像と同じ揺れを含んだ揺れ再現画像375が生成できるが、ここでは目的をカーナビゲーションとしているので揺れの再現は省略する。
さて、信号を伝送する場合にはできるだけ小さいデータ量で送ることが適切であるので、生成CV画像331を伝送することは適切ではない。
そこで331は送らずに、361と324から受信再生側で331を再生するのが適している。
図52に太枠で示した伝送信号として361、324、351から、受信再生側で365、また、図53に、揺れ成分まで再現し画像として、371〜375を示してある。なお、図53中、破線で囲んだ部分が図52に相当する部分である。
この時、揺れ止めしない撮影時の揺れ成分に忠実な元画像を伝送するには、位置と湧きだし点情報として321,322、323を伝送してもよい。
さらに、図52中、324のVD値から何時でも中間フレーム画像362〜364を生成することができる。
中間の湧きだし点は全て省略されているので中間フレーム画像は湧きだし点が全て一致した画像となり、元画像とは微少分その湧きだし点が異なる。
その差は微少で、一般には視認しにくいが、視認できたとしても、これも揺れ止め効果と同様に、湧きだし点が一致した画像の方が揺れが無くなり、視覚的にはより見やすくなると言う実に都合の良い効果を生み出す。
さて、正確に二者を区別するときには、先の揺れ止め画像は回転揺れ止め画像であり、湧きだし点一致とCV値補正とトラッキング一次関数化による揺れ止めは位置揺らぎ止め画像というのが良い。
再生する中間フレーム(362、363、・・・・・364)は当初目的から等間隔揺れ止め画像とするのが相応しいことになる。
図48及び図50,図51に示したように、元画像は基準移動ラインの周囲で小刻みに揺れているが、この時伝送される画像は、その位置を基準移動ラインの周囲の揺れは停止し、基準移動イランに沿って移動することを意味する。325は基準画像361と湧きだし点が一致するように基準移動ラインが選択されるので、途中の湧きだし点データは送らなくても良いことになる。
この方が視覚的には見やすく、近似的には十分問題ないが、正確に揺れる中間フレームを再生するには、座標系分離のデータとして、321から323に各フレームの湧きだし点データを付加すればよい。
受信側では、回転揺れ止めと位置揺らぎ止めを行った代表座標系の画像を再生できることになる。
中間フレームのフレーム数を自由に設定できることが特徴である。
また、画像に映り込んだ歩行者や走行車両は、代表座標系には含まれないので、ノイズとして扱われることになる。
図52では、306以降のフレームについては、再度基準画像を用意して、前記301からの処理と同じ処理を繰り返すことで、切れ目の無い動画像全体を送信することができる。
また、座標系分離した代表座標系以外の物体、例えば画像に映り込んだ歩行者や走行車両は、全て削除できることになる。
図56には、実施例2の記録データ構造を示す。
セグメント区間は、フレーム画像としては基準画像としての最初の301のみ送り、最後の307におけるTV値生成画像との差分のみ差分画像351と、そのTV値を送る。
CV演算時は隣接画像間のCV値として求めているが、記録データとするときは省略するフレームを飛び越えて基準画像301とセグメント最終画像307間のCV値を記録することになる。それは単純に両者のCV値の差を取って、基準画像301のCV値に加えればよい。
セグメント区間は、CV値は301と307の関係を示す一個のみであり、TV値は基準画像301に付加したTV値と、基準画像301には含まれていないが、セグメント最終画像には含まれる部分の差分画像351に対するTV値のみである。
CV値はセグメント区間全域を示すCV値を持つが、撮影時のフレームを再現する必要が有れば、各フレームにCV値を持つことが相応しい。この分で増加するデータ量は微々たるものである。
基準画像301には含まれていないが、セグメント最終画像には含まれる追加CV領域画像分は、必ずしも差分画像351そのものではないが、差分画像351にはその大部分が含まれるので、差分画像351から生成することになる。TV値が重複することは何ら問題がない。
また、差分画像351の一部に付加したTV値は、基準画像301に付加したTV値とは逆方向のTV値となる。
受信再生側では、中間の全ての画像、及び視点変更画像は基準画像301と差分画像351を元として、全てのフレームの画像をこれらのVD値から生成する。
CV値とTV値とは受信側のセグメント区間で自由に比例配分される。毎秒のフレーム数の指定はないから、自由なフレーム数を表現できる。
[実施例3]
[視点変更機能の追加]
以上、実施例2では画像圧縮を主目的とした元も簡略化したカーナビ対応のハードCV領域画像生成装置について述べた。
次に、実施例2を発展させ、視点変更装置(図23参照)を設置して、視点移動をも可能とした実施例3について以下に述べる。ここでは、CGのように視点変更可能な装置を念頭に説明する。
さらに視点移動も可能とすることで、撮影時の画像から、隣接車線への車線変更表示や高さ変更表示ができるナビゲーションへの応用も含めた多目的の装置であるということができる。
図52及び図57に示すように、301〜304、305の元画像をCV演算し、全フレームにCV値を付加する。
CV演算の結果として、回転成分の差分CV値dθx,dθy,dθz、位置成分の差分CV値dx,dy,dz、それらから従属的に取得できる湧きだし点の移動軌跡を、φ,ηとして回転揺れ止めした画面上の二次元座標で取得する。
図52に示すように、揺れ止めされた揺れ止めCV画像の最初のフレーム431は従来方法で静止画圧縮されて基準画像361として送られる。
揺れ止めCV画像311、312・・・・・、315をそれぞれ画像領域分割して小領域に分割する。ここでの分割の方法としては矩形ブロックとして分割するハードCV領域画像としている。
さらに、図57に示すように、すべてのフレームのCV値を自由に変更し、視点変更画像501、502、・・・・・507とすることが可能である。
この時、画像は二次元にも係わらず、二次元の制約を完全に離れて、あたかもCGのように三次元画像としての自由視点を得ることができるのである。
そしてこの意味は、画像圧縮装置としてのみならず、視点変更装置、三次元形状生成装置としての意味を持つことは特記すべきで重要な事実である。
また、ここでは伝送、受信再生として画像圧縮を説明したが、記録、解凍再生としてもまったく同様に説明できることは明らかである。
ここで具体的応用例として、車両に積載して走行しながら撮影した動画像を元画像とし、座標系として静止座標系一つのみを選択し、移動体信号を破棄することで、動画像から静止座標系のみを選択的に取得することができる。
つまり移動する車両や歩行者を削除し、道路や周のビルや伝習等のみの画像とすることができるのである。産業上このような用途は多く存在している。
以上、本発明の湧きだし点基準CV領域画像前置装置について、好ましい実施形態を示して説明したが、本発明に係る湧きだし点基準CV領域画像前置装置及びこれを利用した各装置は、上述した実施形態にのみ限定されるものではなく、本発明の範囲で種々の変更実施が可能であることは言うまでもない。
本発明は、例えば、自動車に搭載されるカーナビゲーション装置に備える地図や映像を表示・更新するための映像装置として、また、道路や河川の監視システムとして好適に利用することができる。
本発明の湧きだし点基準CV領域画像前置装置におけるCV値の取得手段として機能するCV演算部の一実施形態の基本構成を示すブロック図である。 図1に示すCV演算部で使用する全周ビデオ映像を撮影する手段を示す概略図であり、屋根部に全周カメラを搭載した車輌の斜視図である。 図1に示すCV演算部で使用する全周ビデオ映像を撮影する手段を示す概略図であり、(a)は屋根部に全周カメラを搭載した車輌の正面図、(b)は同じく平面図である。 全周カメラで撮影される映像から得られる変換画像を示す説明図であり、(a)は球面画像が貼り付けられる仮想球面を、(b)は仮想球面に貼り付けられた球面画像の一例を、(c)は(b)に示した球面画像をメルカトール図法に従って平面展開した画像を示している。 本発明の一実施形態に係るCV演算部おける具体的なカメラベクトルの検出方法を示す説明図である。 本発明の一実施形態に係るCV演算部における具体的なカメラベクトルの検出方法を示す説明図である。 本発明の一実施形態に係るCV演算部における具体的なカメラベクトルの検出方法を示す説明図である。 本発明の一実施形態に係るCV演算部によるカメラベクトルの検出方法における望ましい特徴点の指定態様を示す説明図である。 本発明の一実施形態に係るCV演算部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。 本発明の一実施形態に係るCV演算部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。 本発明の一実施形態に係るCVデータ演算部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。 本発明の一実施形態に係るCV演算部において、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行う場合を示す説明図である。 本発明の一実施形態に係るCVデータ演算部求められたカメラベクトルの軌跡をビデオ映像中に表示した場合の図である。 本発明における湧きだし点の概念を示すための説明図である。 本発明の湧きだし点基準CV領域画像前置装置の一実施形態の基本構成を示すブロック図である。 図15に示す湧きだし点基準CV領域画像前置装置における、ハードCV領域画像生成のための構成の詳細を示すブロック図である。 図15に示す湧きだし点基準CV領域画像前置装置における、ソフトCV領域画像生成のための構成の詳細を示すブロック図である。 図15に示す湧きだし点基準CV領域画像前置装置における、対象物CV領域画像生成のための構成の詳細を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いたCV領域画像表示装置の一実施形態の基本構成を示すブロック図である。 図19に示すCV領域画像表示装置のCV領域画像再結合部における再結合処理を説明するためのブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いたCV領域画像データベース装置の一実施形態の基本構成を示すブロック図である。 図21に示すCV領域画像データベース装置の応用展開例を示す説明図である。 本発明の湧きだし点基準CV領域画像前置装置を用いた視点変更装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いたCV領域画像CG合成装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いた三次元形状生成装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いた画角拡大装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いたロックオン表示装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いた座標系分離装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いた画像部分更新装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いたオルソ面生成装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いた画像高解像度化装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いた運動抽出・解析装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いたCV領域画像検索装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いたノイズリダクション装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いた対象物認識装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いた位置決め装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いた複合人工知能記憶装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置を用いたCV領域画像によるCVタグ入出力検索装置の一実施形態の基本構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置の実施例1の「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」の基本構成を示すブロック図である。 図39に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」にCV値取得装置を追加した構成を示すブロック図である。 図40に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」に輪郭線抽出装置と輪郭線認識装置を追加した構成を示すブロック図である。 図39〜41に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」の各部の詳細を示すブロック図である。 図39〜41に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」における画像分割処理の手順を示す説明図である。 図39〜41に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」における画像分割処理の手順を示す説明図である。 図39〜41に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」における画像分割処理の手順を示す説明図である。 図39〜41に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」における画像分割処理の手順を示す説明図である。 図39〜41に示す「ハードCV領域画像をソフトCV領域画像に変換して、対象物CV領域画像結合画像を生成する前置装置」におけるゴム紐結合を示す説明図である。 本発明の湧きだし点基準CV領域画像前置装置の実施例2の座標系分離方式の画像圧縮装置における湧きだし点を説明するための説明図である。 図48に示す湧きだし点の画素湧きだし状況を説明するための説明図である。 図48に示す湧きだし点の移動軌跡を説明するための説明図である。 図48に示す湧きだし点の移動軌跡を説明するための説明図である。 本発明の湧きだし点基準CV領域画像前置装置の実施例2における中間フレーム生成の詳細を示す説明図である。 図52に続いて本発明の湧きだし点基準CV領域画像前置装置の実施例2における中間フレーム生成の詳細を示す説明図である。 本発明の湧きだし点基準CV領域画像前置装置の実施例2におけるハードCV領域画像生成のための構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置の実施例2における座標系分離装置の構成を示すブロック図である。 本発明の湧きだし点基準CV領域画像前置装置の実施例2における記録データ構造(送信データ構造)を説明するための説明図である。 本発明の湧きだし点基準CV領域画像前置装置の実施例3における視点変更フレーム画像生成を説明するための説明図である。
符号の説明
1 画像取得装置
2 画像DB装置
3 CV値取得装置
4 CV画像生成装置
5 CV画像DB
6 FP付加CV画像生成装置
7 FP付加CV画像DB
8 ハードCV領域画像分割装置
9 TV演算装置
10 ハードCV領域画像生成装置
11 ハードCV領域画像DB
12 ソフトCV領域画像分割装置
13 RV演算装置
14 ソフトCV領域画像生成装置
15 ソフトCV領域画像DB
16 対象物認識装置
17 JV演算装置
18 対象物CV領域画像生成装置
19 対象物CV領域画像DB
20 輪郭線ベクトル化装置
30 CV領域画像データベース装置

Claims (25)

  1. 自由に移動するビデオカメラで撮影した動画像を取得し、記録する画像取得装置と、
    前記画像取得装置で撮影された動画像の撮影時のカメラの三次元位置と姿勢を示すカメラベクトル値(CV値)を全フレームについて取得するCV値取得装置と、
    画像の各フレームにCV値を付加した画像を生成するCV画像生成装置と、
    前記CV値取得時に同時に求められる特徴点(FP)座標を、前記CV画像生成装置の出力に付加したFP付加CV画像を生成するFP付加CV画像生成装置と、
    前記CV画像生成装置の出力、又は前記FP付加CV画像生成装置の出力から得られたCV画像を隙間無く幾何学的なハードCV領域画像に分割するハードCV領域画像分割装置と、
    前記ハードCV領域画像分割装置によって分割された各CV領域画像の対応点を隣接画像に亘って追跡し、全CV領域画像のトラッキングベクトル値(TV値)を求めるTV演算装置と、
    画像の各フレームに前記CV値と、前記TV値とを付加したハードCV領域画像を生成するハードCV領域画像生成装置と、
    を備えることを特徴とする湧きだし点基準CV領域画像前置装置。
  2. 前記ハードCV領域画像生成装置の出力から複数のハードCV領域画像を結合して、又は前記ハードCV領域画像生成装置を介さず直接同種テクスチャーCV領域画像を分離して、画像内容に沿った複数のソフトCV領域画像から画像を再構成するソフトCV領域画像分割装置と、
    前記ソフトCV領域画像に分割された画像の各ソフトCV領域画像に関して、前記ソフトCV領域画像をCV値から得られる湧きだし点から吸い込み点に向かって放射される線上に追跡し、基準となる座標系に対する位置及び姿勢、及び運動を演算し、前記ソフトCV領域画像のCV領域画像ベクトル値(RV値)を求めるRV演算装置と、
    画像を構成する全CV領域画像が前記CV値と、前記RV値を付加して持つ画像を生成するソフトCV領域画像生成装置と、
    を備えることを特徴とする請求項1記載の湧きだし点基準CV領域画像前置装置。
  3. 前記ソフトCV領域画像生成装置の出力から、複数のソフトCV領域画像を所属する対象物毎に結合して、又は前記ソフトCV領域画像生成装置を介さず直接同種対象物CV領域画像を分離して、複数のソフトCV領域画像からなる対象物により画像を再構成する対象物認識装置と、
    前記対象物CV領域画像に分割された画像の各対象物CV領域画像に関して、前記対象物を構成する各ソフトCV領域画像は、対象物としての関係を保ち、対象物として基準となる座標系に対する位置及び姿勢、及び運動を演算し、複数のソフトCV領域画像の複合体としての複数のCV領域画像ベクトル(RV)を統合し、対象物別にソフトCV領域画像を分類したジョイントベクトル(JV)を求め、対象物毎の分類データを取得するJV演算装置と、
    画像を構成する対象物及び対象物を構成するソフトCV領域画像が、前記CV値とRV値とJV値とで統合された画像を生成する対象物CV領域画像生成装置と、
    を備えることを特徴とする請求項1又は2記載の湧きだし点基準CV領域画像前置装置。
  4. 前記CV画像生成装置からの出力に対し、付加されたCV値の回転成分により、画像に逆回転を与えて、揺れ止め画像を生成する揺れ止め画像生成部と、
    前記CV値から、隣接する画像に対する湧きだし点と吸い込み点を求める湧きだし点抽出部と、
    画像をブロックに分割するブロック分割部と、
    前記ブロックを、特徴ブロック、及びそれ以外のブロックに分類するブロック分類部と、
    全てのブロックをその配列順番を変えずにゴム紐状に柔軟に結合するゴム紐結合部と、
    前記特徴ブロックと前記それ以外のブロックに対してもゴム紐状に結合し、一時的に形成される抜けのない全ブロックによる画像を生成するブロック画像生成部と、からなるハードCV領域画像分割装置と、
    前記ハードCV領域画像分割装置の出力のゴム紐状に結合したブロック画像の特徴ブロックを追跡する特徴ブロック追跡部と、
    特徴ブロックを、追跡データをそれ以外のブロックにも演算して適切に配分する一次TV演算部と、
    複数フレームから一次TVの誤差を検出する補正ブロック検出部と、
    前記誤差の分布するCV領域画像を補正CV領域画像として、再追跡してTVデータを取得する二次TV演算部と、を有するTV演算装置と、
    前記TV演算装置の出力に関して、TV値が同一となる隣接ブロックを結合する同一TV値統合部と、
    画像のCV値、及びハードCV領域画像のTV値を画像に付加するCV・TV付加部と、
    ブロック画像を表示目的に適した図法に変換する図法再変換部と、
    前記CV値とTV値とを付加したブロック画像を出力するハードCV領域画像出力部と、を有するハードCV領域画像生成装置と、
    を備えることを特徴とする請求項1乃至3のいずれか一項記載の湧きだし点基準CV領域画像前置装置。
  5. 前記ハードCV領域画像生成装置の出力から、特徴ブロックを選択し、独立特徴ブロック、境界線上特徴ブロック、境界線上ブロック、及びそれ以外のCV領域画像内ブロックの3種類に再分類するブロック再分類部と、
    境界線上特徴ブロック、境界線上ブロックを結合し、ソフトCV領域画像を生成するソフトCV領域画像生成部と、
    輪郭線ベクトル化装置の出力を用いてCV領域画像境界を補正し、ブロック単位で構成されているソフトCV領域画像を、ベクトル線で切り分けてCV領域画像境界線を補強して明確なソフトCV領域画像を生成するCV領域画像境界線補正部と、を有するソフトCV領域画像分割装置と、
    前記ソフトCV領域画像分割装置の出力を、再度隣接画像に亘って追跡するCV領域画像トラッキング部と前記隣接画像に亘るCV領域画像の追跡からRV値を求めるRV演算部を有するRV演算装置と、
    前記RV演算装置の出力に対して、CV値及びRV値をソフトCV領域画像に付加するCV・RV付加部と、
    前記CV値及びRV値を付加されたソフトCV領域画像を生成して出力するソフトCV領域画像出力部と、を有するソフトCV領域画像生成装置と、
    画像の輪郭線を直接求める輪郭線抽出部と、
    前記輪郭線を細線化してベクトル化するベクトル細線化部と、
    細線化ベクトルの延長線上の輪郭線検出の閾値を下げて、再度輪郭線を検出して細線を延長する可変閾値輪郭補強部と、
    補強されたベクトル輪郭線を生成するベクトル輪郭線生成部と、を有する輪郭線ベクトル化装置と、
    を備えることを特徴とする請求項1乃至4のいずれか一項記載の湧きだし点基準CV領域画像前置装置。
  6. ソフトCV領域画像の中で、認識対象となる対象物の概略範囲を選択指定するソフトCV領域画像範囲選択部と、
    前記範囲を指定したソフトCV領域画像のRV値を選択指定するRV選択部と、
    予想される複数の対象物のRV値をデータベース(DB)化して記憶している部品DB部と、
    前記範囲のソフトCV領域画像のRV値と候補部品のRV値とを比較し、部分一致か不一致かを決定し、不一致の場合は他の部品候補を自動選択し、完全一致の場合はそれを決定部品とし、部分一致した場合は他の候補部品と一致度合いを比較し、最も一致度の高いRV値を持つ部品を決定部品とするRV比較部と、
    前記決定部品を認識した対象物として、取得する対象物認識部と、
    前記範囲のCV領域画像内において、CV画像からソフトCV領域画像の形状を形成する要素を検出する要素分解部と、
    前記要素を隣接画像に追跡し、対応位置を求める要素追跡部と、
    要素のCV値とRV値から三次元形状を求める要素三次元化部と、
    要素の部品データベースとなる要素部品DB部と、
    画像から検出した要素と部品要素の形状を比較して一致を求める要素比較部と、
    一致した部品要素を画像から検出した要素に置換する対象物要素認識部と、を有する対象物認識装置と、
    前記対象物認識装置の出力から、対象物認識されたCV領域画像を対象物単位で再結合するCV領域画像再結合部と、
    それぞれの対象物毎にソフトCV領域画像の幾何学的三次元結合状況を表すJV値を求めるJV演算部と、を有するJV演算装置と、
    前記JV演算装置で求められた対象物単位のJV値は、複数の対象物がそれぞれ区別されて配置されるように、全ソフトCV領域画像にJV値を付加するJV付加部と、
    対象物認識が一部又は全て済ませた対象物認識CV領域画像を生成する対象物CV領域画像生成部と、を有する対象物分離画像生成装置と、
    を備えることを特徴とする請求項1乃至5のいずれか一項記載の湧きだし点基準CV領域画像前置装置。
  7. 湧きだし点基準CV領域画像前置装置からの出力、又は前記湧きだし点基準CV領域画像前置装置からの出力と同等の出力をする他の機器からの出力から、CV領域画像とともにベクトルデータ(VD)を分離して取得するCV領域画像・VD取得部と、
    画像の表示方法を指定する表示指定部と、
    VDを基にして、CV領域画像を再結合して再結合画像を生成するCV領域画像再結合部と、
    前記再結合画像を各フレームに配分して、各フレームに対応した画像を生成する画像フレーム生成部と、
    前記画像フレームを表示する表示部と、
    を有するCV領域画像表示装置を備えることを特徴とする請求項1乃至6のいずれか一項記載の湧きだし点基準CV領域画像前置装置。
  8. 前記湧きだし点基準CV領域画像前置装置から出力される各CV領域画像であるハードCV領域画像出力、ソフトCV領域画像出力、及び対象物CV領域画像出力の中の全ての画像出力、又は前記3出力の中間段階の画像出力を、各ベクトルデータ(VD)値とともに取得するCV領域画像・VD取得部と、
    前記CV領域画像・VD取得部で取得したVD値の成分であるCV値、TV値、RV値、JV値の全部又は一部を、CV領域画像単位及び画像フレーム単位で重複するデータを近似化して単純化し圧縮する重複データ圧縮部と、
    前記圧縮データによる圧縮画像データとの対応を保持して、各CV領域画像をCV領域画像圧縮して記録するCV領域画像圧縮記録部と、
    前記各CV領域画像内に、画像及びCV領域画像を検索して指定する検索指定部と、
    前記検索部で検索して選択した画像及びCV領域画像を、前記CV領域画像圧縮記録部に記録された全画像データの中から呼び出し、解凍し、前記重複データ整理部で再構成したCV値、TV値、RV値、JV値の全部又は一部を付加した複数種類のCV領域画像が混在するCV領域画像を出力する解凍・出力部と、
    を有するCV領域画像データベース装置を備える請求項1乃至6のいずれか一項記載の湧きだし点基準CV領域画像前置装置。
  9. 前記CV領域画像データベース装置からの出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    視点変更地点又は視点変更経路を、CV値で指定する視点変更指定部と、
    前記CV値で指定された視点変更CV値から、視点変更時の他のVDを演算で求める視点変更演算部と、
    視点変更演算により取得されたVDを各画像、及び各CV領域画像に対応をつける変更VD取得部と、
    対応のついた前記各画像、及び各CV領域画像の画像を再構成し生成し、出力する視点変更画像生成部と、
    を有する視点変更装置を備えることを特徴とする請求項8記載の湧きだし点基準CV領域画像前置装置。
  10. 前記CV領域画像データベース装置又は視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    前記CV領域画像に合成するべきCGを入力するCG入力部と、
    前記CGのVDを演算するVD演算部と、
    前記CV領域画像の視点座標とCGの視点座標を合致させて座標を統合する視点座標統合部と、
    CV領域画像のVDと前記CGのVDを比較演算して、表示の前後関係を決定する前後関係形成部と、
    視点が合致し、前後関係が決定された、前記CV領域画像と前記CGとを合成して、同一座標系で表現するCV領域画像CG合成部と、
    を有するCV領域画像CG合成装置を備えることを特徴とする請求項8又は9記載の湧きだし点基準CV領域画像前置装置。
  11. 前記CV領域画像データベース装置又は視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    三次元形状生成を行う範囲を指定する範囲指定部と、
    CV領域画像に付加されたVD値から三次元ポリゴンに変換演算するポリゴン変換演算部と、
    前記ポリゴン変換されたデータから三次元形状を生成する三次元形状生成部と、
    を有する三次元形状生成装置を備えることを特徴とする請求項8又は9記載の湧きだし点基準CV領域画像前置装置。
  12. 移動するカメラから撮影した画像の、前記CV領域画像データベース装置又は視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    画角拡大画像を観察する時の画角と視点方向を指定する拡大画角指定部と、
    画角拡大画像を観察する時の前記カメラ位置からの視点の移動位置を指定する仮想観察視点指定部と、
    前記拡大画角と、前記視点方向と、前記視点移動位置を指定された時間軸上に並ぶ複数フレームのCV領域画像を、指定の視点位置に視点変更演算する時間軸画像視点変更部と、
    前記視点変更演算により、視点変更されて視点位置が同一となった現在から過去に亘る時間軸上に並ぶ複数フレームのCV領域画像を結合する複数画像結合部と、
    時間の進行と共に移動進行する前記カメラの位置と方向を追従し、時間軸上に並ぶ複数フレームのCV領域画像を次々指定された視点位置に視点変更を次々繰り返すことで、画角拡大画像を連続して生成し続ける繰り返し生成部と、
    を有する画角拡大装置を備えることを特徴とする請求項8又は9記載の湧きだし点基準CV領域画像前置装置。
  13. 移動するカメラから撮影した画像の、前記CV領域画像データベース装置又は視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    VDを指定することにより、ロックオンすべき対象物の座標を指定する対象物座標指定部と、
    ロックオン表示のための視点移動経路と範囲を指定する視点移動指定部と、
    指定された視点移動経路に沿って、CV領域画像の視点変更を求める視点及び視点方向変換部と、
    変換されたCV領域画像を指定経路に従って表示するロックオン表示部と、
    を有するロックオン表示装置を備えることを特徴とする請求項8又は9記載の湧きだし点基準CV領域画像前置装置。
  14. 前記CV領域画像データベース装置又は視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    VDから座標系を分離し、座標系毎のCV領域画像とVDとに分類する座標系別VD処理部と、
    各座標系のVDを単純な関数に近似して単純化し、又は前記近似したVDと前記CV領域画像のVDとの関係を示す関数を生成する各座標系VD近似処理部と、
    単純な関数に近似されたVDの通信を行う各座標系分離通信装置、又は単純な関数に近似されたVDを記録する各座標系分離画像記録部と、
    各座標系単位で画像を生成する各画像系別画像生成部と、
    各座標系を再度結合・合成して表示する各座標系合成画像生成部と、
    を有する座標系分離装置を備えることを特徴とした請求項8又は9記載の湧きだし点基準CV領域画像前置装置。
  15. 更新する画像情報を含む画像を、前記湧きだし点基準CV領域画像前置装置から出力して、CV領域画像とそのVDを取得する更新CV領域画像・VD取得部と、
    更新される旧画像情報を含む画像を、前記湧きだし点基準CV領域画像前置装置から出力して、CV領域画像とそのVDを取得する旧CV領域画像・VD取得部と、
    更新範囲を指定する更新範囲指定部と、
    VD値を合致させることで、更新画像の視点を旧画像の視点に変更する更新領域視点変更部と、
    旧画像側の更新部分を削除する更新範囲削除部と、
    更新部分のCV領域画像を切り取って、旧CV領域画像に貼り付けて更新CV領域画像を生成する更新部分CV領域画像生成部と、
    領域結合して更新画像を生成する更新画像生成部と、
    を有する画像部分更新装置を備えることを特徴とした請求項1乃至6のいずれか一項記載の湧きだし点基準CV領域画像前置装置。
  16. 前記CV領域画像データベース装置又は視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    計測機器により鉛直データを取得する鉛直補正部と、
    CV領域画像の複数ポイントで絶対座標を取得する高精度位置決め部と、
    前記計測機器で取得した高精度の鉛直データにより、取得したVD値を補正する補正VD値演算部と、
    前記補正VD演算部で補正されたVD値と対応するCV領域画像により、オルソ化対象を三次元化する三次元面生成部と、
    三次元化されたオルソ化対象のCV領域画像をオルソ面に投影するオルソ面投影部と、
    を有するオルソ画像生成装置を備えることを特徴とした請求項8又は9記載の湧きだし点基準CV領域画像前置装置。
  17. 前記CV領域画像データベース装置又は視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    再生表示しようとする動画像を取得したカメラ移動経路、又は仮想カメラ移動経路をCV値で指定する仮想カメラ移動経路指定部と、
    前記動画像の各フレームを構成する各CV領域画像に関して、最も解像度の高いCV領域画像、又は最もカメラの近くで取得しているCV領域画像、又は最も目的に適合したCV領域画像を、既に取得している視点の異なる全CV領域画像データから選択する全範囲探索選択部と、
    前記全範囲探索選択部で選択したCV領域画像を、カメラ経路を意味する前記指定CV値に前記選択したそれぞれのCV領域画像を視点変更する高解像度視点変更部と、
    視点変更されたCV領域画像から各フレーム画像を生成する高解像度化画像結合部と、
    視点変更を可能とするVD値を、取得したCV領域画像の状態で記録保存する高解像度化画像データベースと、
    高解像度化された動画映像を表示する表示部と、
    を有する画像高解像度化装置を備えることを特徴とした請求項8又は9記載の湧きだし点基準CV領域画像前置装置。
  18. 前記CV領域画像データベース装置又は視点変更装置から出力されるCV領域画像を、元となる動画像を構成する複数の座標系に分離する座標系分離装置と、
    前記複数の座標系の中で、目的の運動する対象物のCV領域画像をそのVDと共に選択し、抽出する運動領域抽出部と、
    前記抽出された運動領域のVDから、対象となる運動領域の運動を6自由度で表す運動領域VD解析部と、
    前記運動領域を指定の座標系に変換して示す指定座標表示部と、
    を有する運動抽出・解析装置を備えることを特徴とした請求項8又は9記載の湧きだし点基準CV領域画像前置装置。
  19. 前記CV領域画像データベース装置又は視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    検索すべきCV領域画像、又はその一部、又はそれを内部に含むCV領域画像を検索すべき部品として指定する検索CV領域画像部品指定部と、
    基準座標系における前記部品のVDを演算で求める検索CV領域画像部品VD演算部と、
    検索されるCV領域画像の基準座標系におけるVDと、検索部品のCV領域画像の基準座標系におけるVDとを比較し、一致度を求める基準座標VD比較部と、
    CV領域画像全体の中の一致度の高いCV領域画像を検索結果として出力する検索CV領域画像出力部と、
    を有するCV領域画像検索装置を備えることを特徴とした請求項8又は9記載の湧きだし点基準CV領域画像前置装置。
  20. 前記CV領域画像データベース装置又は視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    目的フレーム画像に属するCV領域画像と、それに隣接するフレーム画像に属するCV領域画像とで、対応する複数のCV領域画像を選択する最適CV領域画像選択部と、
    前記隣接するフレーム画像に属するCV領域画像を、前記目的フレーム画像のCV値に視点変更する同一視点変更部と、
    前記目的フレームの視点に統一して変更したCV領域画像を、重ね合わせて加算平均する領域加算平均演算部と、
    前記加算平均によりノイズが減少した領域を目的フレームに属するCV領域画像として取得する平均CV領域画像生成部と、
    を有するノイズリダクション装置を備えることを特徴とした請求項8又は9記載の湧きだし点基準CV領域画像前置装置。
  21. 前記CV領域画像データベース装置又は視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    認識対象となる部分をCV領域画像内に指定する認識CV領域画像指定部と、
    認識候補となる複数のCV領域画像からなる部品をデータベースとして記録する部品データベース部と、
    認識が完了するまで、前記部品データベース部から部品を送り出す部品送り出し部と、
    比較される部品のVDを演算で求める部品VD演算部と、
    前記認識対象となるCV領域画像と、前記部品を基準座標系のVD値で比較する基準座標VD比較部と、
    前記部品送り出し部から送られてくる複数の部品の中で、最も一致度の高い部品を選択して、特定する認識画像出力部と、
    を有する対象物認識装置を備えることを特徴とした請求項8又は9記載の湧きだし点基準CV領域画像前置装置。
  22. 前記CV領域画像データベース装置又は視点変更装置の出力を取り入れ、CV領域画像とVDとを分離して取得するCV領域画像・VD取得部と、
    取得したCV領域画像から、三次元地図として利用可能な複数のCV領域画像部分を自動選択する地図利用選択部と、
    前記CV領域画像・VD取得部で取得したCV領域画像を検索し、前記三次元地図として利用可能なCV領域画像部分を指定して、前記地図利用選択部に送る内部検索指定部と、
    前記地図利用選択部で選択された複数のCV領域画像部分を、二次元特徴点、三次元特徴領域、特徴対象物等に分類し、又はVD値を用いて変換して、地図として生成する地図生成部と、
    前記地図生成部で生成された地図と比較・表示するためのリアルタイム画像をカメラから取得するリアルタイム画像取得部と、
    取得した前記リアルタイム画像を、概略CV演算、GPSを用いた概略位置合わせ、画像明るさ調整し、前記三次元地図と比較しやすくし、検索しやすくするための画像処理を施すリアルタイム画像処理部と、
    前記二次元特徴点、三次元特徴領域、又は特徴対象物を前記リアルタイム画像の中に検索指定する外部検索指定部と、
    前記検索指定により、前記二次元特徴点、三次元特徴領域、又は特徴対象物を、前記リアルタイム画像前処理部で比較しやすく処理されたリアルタイム画像の中に検索して、対応部分を検出する外部検索検出部と、
    前記二次元特徴点、三次元特徴領域、又は特徴対象物との対応部分が検出されたリアルタイム画像の対応部分と三次元地図上の前記二次元特徴点、三次元特徴領域、又は特徴対象物から、リアルタイム画像のCV値を演算で求めるリアルタイム画像CV値取得部と、
    前記リアルタイム画像CV値取得部で取得した前記リアルタイム画像のCV値から、リアルタイム画像を取得したカメラの位置と姿勢を絶対座標で求めて車両位置を決定する車両位置決め部と、
    前記特徴対象物が持っている車両運行に関係する属性を前記リアルタイム画像内に表示するリアルタイム画像内属性表示部と、
    前記車両位置決めに利用し、リアルタイム画像で確認された前記二次元特徴点、三次元特徴領域、又は特徴対象物を、次回に利用する三次元地図として記録す三次元地図データベース部と、
    を有する位置決め装置を備えることを特徴とする請求項8又は9記載の湧きだし点基準CV領域画像前置装置。
  23. 複合人工知能装置を構成する複数の人工知能装置を備える場合に、
    各人工知能装置が、
    自ら取得したカメラ映像、及び認識結果を記録し、認識結果を記録する前記湧きだし点基準CV領域画像前置装置を備えるとともに、
    個々の人工知能装置から他の人工知能装置で、相互に情報をやり取りするための送信装置、及び受信装置と、
    他の人工知能から検索の問い合わせがあれば、前記湧きだし点基準CV領域画像前置装置のCV領域画像内に検索して、前記送信機で送り返すCV領域画像検索装置と、
    他の人工装置から対象物認識の依頼があれば、前記湧きだし点基準CV領域画像前置装置のCV領域画像内で対象物認識して、前記送信機で送り返すCV領域画像認識装置と、
    を有する複合人工知能記憶装置を備えることを特徴とした請求項1乃至6のいずれか一項記載の湧きだし点基準CV領域画像前置装置。
  24. 管理しようとする現実の管理対象物及びその周辺を撮影した画像の、前記CV領域画像データベース装置の出力を取り入れ一時記録したCV領域画像記録部と、
    画像取得時のカメラ位置近傍への視点変更画像を生成する前記視点変更装置と、
    前記CV領域画像を表示し、動画として画像フレームが移動しても、画像とCVタグの三次元的位置関係を保持したまま、CVタグを表示し、及びCVタグを開封しその内容を表示できるようにしたCVタグ表示装置と、
    前記CVタグ表示装置で表示された前記CV領域画像の中の前記管理対象物の位置に対して、CV領域画像の中にCVタグを直接貼り付け、又はCV領域画像中の前記管理対象物の三次元的位置を確認できるように特定したCVタグをCV領域画像の中に三次元的に配置するCVタグ入力装置と、
    CVタグと前記管理対象物とを関連づける諸データを格納するCVタグデータベース装置と、
    前記CVタグ表示装置、及び前記検索装置でCVタグを選択し、又は表示されたCV領域画像中の前記管理対象物をCV領域画像の中にタッチスクリーンにタッチし、又はマウス等でCVタグをクリックしてCVタグを選択することで、前記CVタグデータベース装置からCVタグに対応する管理対象物のデータを読み出して管理するCVタグ対象物管理装置と、
    を有するCVタグ入出力検索装置を備えることを特徴とした請求項8記載の湧きだし点基準CV領域画像前置装置。
  25. 前記CVタグ入力装置と、前記CVタグデータベース装置と、前記CVタグ対象物管理装置とを搭載するとともに、ビデオカメラを積載してリアルタイム画像を取得し、当該リアルタイム画像にCV演算を施してリアルタイムCV領域画像を取得するリアルタイムCV領域画像取得装置を備え、管理地域及び管理対象物周辺を移動する積載移動手段と、
    文字、座標、属性によりCV領域画像を検索し、CV領域画像中に管理対象物を示すCVタグそのもの、又はCV領域画像中の管理対象物の画像そのものを、視覚効果のある三次元座標を持つ印として、動画としてのCV領域画像上に三次元的に矛盾無く呈示するCVタグ入出力検索装置と、
    前記CVタグ入出力検索装置の外側にあって、記録媒体又は通信により、当該CVタグ入出力検索装置内側の管理地域及びその周辺のCV領域画像地図を、CV領域画像記録部に一時記憶して保持させる外部CV領域画像地図データベース部と、前記CVタグ入出力検索装置の外側にあって、記録媒体又は通信により、当該CVタグ入出力検索装置内側の管理地域及びその周辺のCVタグとその属性情報を前記CVタグデータベース装置に一時記憶して保持させる、外部CVタグデータベース部と、を有する外部データベース装置と、
    前記積載移動手段の絶対座標を取得するGPS位置決め装置と、取得した前記リアルタイムCV領域画像と前記CV領域画像地図から、位置あわせをして取得した新旧画像更新装置とを保持する移動体位置決め手段と、
    前記移動体位置決め手段と時刻、及び入力された走行目的から、車両の現在時刻と現在位置と現在状況に関係している管理対象物のCVタグを選択的に前記CVタグ表示装置に自動表示するCVタグ自動表示装置と、
    を備えることを特徴とした請求項24記載のCVタグ入出力検索装置を備えた湧きだし点基準CV領域画像前置装置。
JP2007136748A 2006-05-24 2007-05-23 湧きだし点基準cv領域画像前置装置 Active JP4926822B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007136748A JP4926822B2 (ja) 2006-05-24 2007-05-23 湧きだし点基準cv領域画像前置装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006144228 2006-05-24
JP2006144228 2006-05-24
JP2007136748A JP4926822B2 (ja) 2006-05-24 2007-05-23 湧きだし点基準cv領域画像前置装置

Publications (2)

Publication Number Publication Date
JP2008005478A JP2008005478A (ja) 2008-01-10
JP4926822B2 true JP4926822B2 (ja) 2012-05-09

Family

ID=39009444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007136748A Active JP4926822B2 (ja) 2006-05-24 2007-05-23 湧きだし点基準cv領域画像前置装置

Country Status (1)

Country Link
JP (1) JP4926822B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5337658B2 (ja) * 2009-10-02 2013-11-06 株式会社トプコン 広角撮像装置及び測定システム
JP5451497B2 (ja) 2010-04-08 2014-03-26 パナソニック株式会社 運転支援表示装置
US9800780B2 (en) * 2013-05-16 2017-10-24 Sony Corporation Image processing device, image processing method, and program to capture an image using fisheye lens
JP6551734B2 (ja) * 2015-06-05 2019-07-31 リコーイメージング株式会社 動画像作成システム、動画像作成方法及び動画像作成プログラム
US9551579B1 (en) * 2015-08-07 2017-01-24 Google Inc. Automatic connection of images using visual features
CN111161393B (zh) * 2019-12-31 2023-10-10 威创集团股份有限公司 一种基于3d地图的实时光效动态展示方法及系统
CN111751824B (zh) * 2020-06-24 2023-08-04 杭州海康汽车软件有限公司 车辆周围的障碍物检测方法、装置及设备
CN114119370A (zh) * 2021-11-24 2022-03-01 浙江大华技术股份有限公司 图像处理方法及装置、存储介质、电子装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4969036A (en) * 1989-03-31 1990-11-06 Bir Bhanu System for computing the self-motion of moving images devices
JP2697917B2 (ja) * 1989-09-28 1998-01-19 日本電信電話株式会社 三次元座標計測装置
JPH10116359A (ja) * 1996-10-09 1998-05-06 Sony Corp カメラパラメータ演算装置及び画像合成装置
JP2000268179A (ja) * 1999-01-14 2000-09-29 Oojisu Soken:Kk 三次元形状情報取得方法及び装置,二次元画像取得方法及び装置並びに記録媒体
JP2000348186A (ja) * 1999-06-03 2000-12-15 Fujitsu Ltd 物体追跡装置及び方法
JP4446041B2 (ja) * 2003-10-02 2010-04-07 株式会社岩根研究所 カメラベクトル演算装置と、このカメラベクトル演算装置に備えられる揺れ成分検出装置,画像安定化装置,位置姿勢安定化装置,目的対象物ロックオン装置及び実写対象物属性呼出装置

Also Published As

Publication number Publication date
JP2008005478A (ja) 2008-01-10

Similar Documents

Publication Publication Date Title
JP4926822B2 (ja) 湧きだし点基準cv領域画像前置装置
Senlet et al. A framework for global vehicle localization using stereo images and satellite and road maps
JP7213809B2 (ja) ビデオベースの位置決め及びマッピングの方法及びシステム
EP2208021B1 (en) Method of and arrangement for mapping range sensor data on image sensor data
US10848732B2 (en) Free viewpoint movement display device
US20200401617A1 (en) Visual positioning system
US7571051B1 (en) Cognitive change detection system
JP4767578B2 (ja) 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置
JP5227065B2 (ja) 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置
US9989969B2 (en) Visual localization within LIDAR maps
KR101947619B1 (ko) 모바일 디바이스에서의 slam
JP4980606B2 (ja) 移動型自動監視装置
US20070070069A1 (en) System and method for enhanced situation awareness and visualization of environments
WO2005038402A1 (ja) ナビゲーション装置
US12087004B2 (en) Multi-collect fusion
WO2020235286A1 (ja) 認識位置決め装置及び情報変換装置
JP5090797B2 (ja) Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置
JP4624000B2 (ja) 複合人工知能装置
JP2020153956A (ja) 移動体位置推定システムおよび移動体位置推定方法
US20210404834A1 (en) Localization Based on Multi-Collect Fusion
JP2005122315A (ja) 3dcg合成装置
JP2004265396A (ja) 映像生成システム及び映像生成方法
JP4773794B2 (ja) 新旧映像座標統合装置
JP5111785B2 (ja) Cv映像によるcvタグ入出力検索装置
Zhang Ten years of technology advancement in remote sensing and the research in the CRC-AGIP lab in GCE

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090616

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090824

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20091201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100506

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4926822

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350