JP2005122315A - 3dcg合成装置 - Google Patents

3dcg合成装置 Download PDF

Info

Publication number
JP2005122315A
JP2005122315A JP2003354204A JP2003354204A JP2005122315A JP 2005122315 A JP2005122315 A JP 2005122315A JP 2003354204 A JP2003354204 A JP 2003354204A JP 2003354204 A JP2003354204 A JP 2003354204A JP 2005122315 A JP2005122315 A JP 2005122315A
Authority
JP
Japan
Prior art keywords
3dcg
camera
image
unit
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003354204A
Other languages
English (en)
Other versions
JP4272966B2 (ja
Inventor
Kazuo Iwane
和郎 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2003354204A priority Critical patent/JP4272966B2/ja
Publication of JP2005122315A publication Critical patent/JP2005122315A/ja
Application granted granted Critical
Publication of JP4272966B2 publication Critical patent/JP4272966B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【課題】 煩雑な手作業などを必要とすることなく、動画映像中に正確な位置で3DCGを動画映像に合成する。
【解決手段】 一次映像記憶部101に記憶されたカメラ映像の各フレーム画像のカメラ位置及び方向を自動的に求めるカメラベクトル検出部102と、求められたカメラ位置及び方向を各フレーム画像に対応付けて記憶する二次映像記憶部103と、3DCG生成部104で生成された3DCGを二次映像のカメラ位置と方向を既知として二次映像に投影し、二次映像内における3DCGの目的の位置と方向を設定する3DCG二次元投影合成部105と、3DCGが投影された二次映像内の投影面領域の二次元座標を決定する投影面領域決定部106と、二次元投影面領域に対応する三次元座標を求める投影面三次元計測部107と、カメラ位置及び方向から見た二次映像及び3DCGの前後関係を画素単位で決定する前後関係決定部108を備える。
【選択図】 図1

Description

本発明は、カメラで取得された映像と3DCG(三次元コンピュータグラフィックス)を合成して表示する3DCG合成装置に関する。
特に、本発明は、煩雑な手作業などを必要とすることなく、正確な位置で動画映像中に3DCGを動画映像にはめ込むことができる3DCG合成装置に関する。
一般に、通常のカメラで撮影された映像に、コンピュータで生成した3DCG(三次元コンピュータグラフィックス)を合成する技術が知られている。
この種の3DCG合成技術は、例えば、車載カメラや撮影者が持つカメラ等の移動するカメラにより撮影された実写映像と3DCGを合成するもので、テレビ放送や映画,コンピュータゲームなどの映像表現の分野で用いられている(例えば、特許文献1−4参照。)。
特開平07−287775号公報 特開平09−050540号公報 特開平10−320590号公報 特開2001−202531号公報
しかしながら、従来の3DCG合成は、合成作業を行う者が、3DCGをはめ込む実写映像中に合成場所を手作業で指定する必要があった。
また、映像を取得するカメラは、その移動が予めプログラムされたものでなければ映像中に3DCGを矛盾なく正しい位置に合成することはできなかった。
すなわち、従来の3DCG合成技術は、細かい条件等を与える手作業部分が多い上に、決められた条件内でしか3DCG合成ができず、極めて制約,制限の多い技術であった。
このため、例えば車載カメラのように移動するカメラについては、カメラの座標を前もって計測しておくことなく、任意に移動し、しかも、不規則に揺れるカメラで取得される動画映像と3DCGを合成することは不可能であった。
そこで、本願発明者は、鋭意研究の結果、動画映像の複数のフレーム画像から充分な数の特徴点を自動検出し、さらに、各フレーム間で特徴点を自動追跡し、多数の特徴点について重複演算してカメラ位置と回転角を高精度に求めることにより、得られたカメラ位置情報に基づき、容易かつ正確に、矛盾のない3DCG合成処理を実現し得ることに想到した。
すなわち、本発明は、従来の技術が有する問題を解決するために提案されたものであり、動画映像から高精度なカメラベクトルを自動的に抽出し、そのカメラベクトルに基づいて正確なカメラ位置とカメラ方向を求めることにより、煩雑な手作業などを必要とすることなく、動画映像中に正確な位置で3DCGを動画映像にはめ込むことができ、任意に移動するカメラで撮影した不規則に揺れる動画映像であっても、位置が正確に合致するように3DCGを合成することができる3DCG合成装置の提供を目的とする。
また、本発明は、動画映像と3DCGを合成する段階で、合成要素の種類の組み合わせを変えることにより、また、対象物の種類の組み合わせを変えることにより、あるいは、実写映像と3DCGの明るさの比率により、完全な3DCGのみの表示から、実写映像のみの表示まで、その中間段階の様々な合成を実現することができる3DCG合成装置の提供を目的とする。
上記目的を達成するため、本発明の3DCG合成装置は、請求項1に記載するように、任意に移動可能なカメラによって撮影された動画映像を一次映像として記憶する一次映像記憶部と、前記一次映像記憶部の動画映像から、動画の各フレーム画像における撮影時のカメラ位置及びカメラ方向を自動的に求めるカメラベクトル検出部と、前記カメラベクトル検出部で求められたカメラ位置及びカメラ方向を各フレーム画像に対応付けて二次映像として記憶する二次映像記憶部と、前記二次映像に合成するための3DCGを生成する3DCG生成部と、前記3DCGを、前記カメラベクトル検出部で求められた二次映像のカメラ位置とカメラ方向を既知情報として、各フレーム画像に対応した二次元座標面に、各二次元画素が三次元座標情報を保持したまま、各フレーム画像に対応した各カメラ位置とカメラ方向から見た二次元映像として投影し、各フレーム画像毎に、前記二次映像とスケールを合わせ、二次映像内における3DCGの目的の位置と方向を設定する3DCG二次元投影合成部と、前記3DCGが投影された二次映像内の二次元投影面領域の二次元座標を各フレーム画像毎に決定する投影面領域決定部と、前記二次元投影面領域に対応する各フレーム画像の三次元座標を求める投影面三次元計測部と、前記二次元投影面領域に対応する3DCGの三次元座標と、前記二次映像における当該二次元投影面領域の三次元座標を各フレーム画像毎に比較し、各フレーム画像に対応した各カメラ位置とカメラ方向から見た前後関係を求め、二次映像及び3DCGの前後関係を当該3DCGが投影された二次元映像の画素単位で決定する前後関係決定部と、前後関係が決定された二次映像と3DCGを、各フレーム毎に合成して記録する合成映像記録ファイル部と、観察する映像の種類、合成する3DCGの種類、観察者の仮想位置である仮想カメラの三次元位置と回転角、視点及び視点の移動方向、進行方向、速度等の各項目のうち、少なくともいずれか一つを指定する仮想カメラ視点指示部と、前記仮想カメラ視点指示部で指定された映像を指定された態様で表示する視点選択映像表示部と、を備える構成としてある。
また、本発明の3DCG合成装置は、請求項2に記載するように、前記合成映像記録ファイル部が、3DCGと二次映像の合成結果を保存する際に、3DCGを各フレームのカメラ位置からの二次元画像として、二次映像に貼り付けて保存する構成としてある。
また、本発明の3DCG合成装置は、請求項3に記載するように、移動する3DCGを所望の二次映像にリアルタイムで合成処理するリアルタイム3DCG処理部を備えた構成としてある。
また、本発明の3DCG合成装置は、請求項4に記載するように、前記カメラベクトル検出部が、前記一次映像記憶部に記録された画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、前記特徴点抽出部で抽出された特徴点について、各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、前記特徴点対応処理部で対応関係が求められた特徴点の三次元位置座標を求め、当該三次元位置座標から、各フレーム画像に対応したカメラ位置とカメラ方向を示すカメラベクトルを求めるカメラ位置3D座標演算部と、前記カメラ位置3D座標演算部において求められる複数のカメラベクトルの解の分布を最小になるように統計処理し、誤差の最小化処理を施したカメラベクトルからカメラ位置とカメラ方向を自動的に決定する誤差最小化部と、を備える構成としてある。
また、本発明の3DCG合成装置は、請求項5に記載するように、前記カメラ位置3D座標演算部が、カメラベクトル演算に用いる任意の二つのフレーム画像Fn及びFn+m(m=フレーム間隔)を単位画像として、所望の特徴点の三次元位置座標とカメラベクトルを求める単位演算を繰り返し、前記二つのフレーム画像Fn及びFn+mの間のフレーム画像については、簡素化した演算によりカメラベクトルを求め、前記誤差最小化部は、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定する構成としてある。
また、本発明の3DCG合成装置は、請求項6に記載するように、前記カメラ位置3D座標演算部が、前記フレーム間隔mを、カメラから特徴点までの距離に応じて、カメラから特徴点までの距離が大きいほどmが大きくなるように設定して単位演算を行う構成としてある。
また、本発明の3DCG合成装置は、請求項7に記載するように、前記カメラ位置3D座標演算部が、求められたカメラベクトルの誤差の分布が大きい特徴点を削除し、必要が有れば、他の特徴点に基づいてカメラベクトルの再演算を行い、カメラベクトル演算の精度を上げる構成としてある。
また、本発明の3DCG合成装置は、請求項8に記載するように、前記カメラ位置3D座標演算部が、所望の精度となる最低数のフレーム画像と、自動抽出した最低数の特徴点に基づいて演算を行い、カメラベクトルの概略値をリアルタイムで求めて表示し、画像の進行により画像が蓄積するにつれて、フレーム数を増加させ、特徴点の数を増加させて、より精度の高いカメラベクトル演算を行い、カメラベクトルの概略値を精度の高いカメラベクトル値に置き換えて表示する構成としてある。
また、本発明の3DCG合成装置は、請求項9に記載するように、前記一次映像記憶部からカメラベクトル検出部に出力される一次映像が、360度全周画像からなる構成としてある。
また、本発明の3DCG合成装置は、請求項10に記載するように、前記一次映像記憶部からカメラベクトル検出部に出力される一次映像が、カメラ映像を所定の目的平面に変換した平面変換画像からなる構成とすることもできる。
また、本発明の3DCG合成装置は、請求項11に記載するように、前記カメラベクトル検出部で求められるカメラ位置とカメラ方向から、各フレーム画像のカメラ回転に起因する揺れを補正した補正信号を生成し、前記一次映像記憶部に記憶された映像を補正処理し、カメラ位置及び補正されたカメラ方向の情報とともに前記二次映像記憶部に出力する画像前処理部を備えた構成としてある。
さらに、本発明の3DCG合成装置は、請求項12に記載するように、前記一次映像記憶部が、全周囲実写映像、若しくは広角実写画像を全周囲実写映像の一部分として記録した全周囲実写映像記録部を備え、前記3DCG生成部が、3D地図を構成する基本となる地球座標面を生成する3DCG基準面構成部と、予想される3DCG部品を保存した3DCGデータベース部とを備え、前記3DCG二次元投影合成部が、前記全周囲実写映像に含まれる目的の対象物に着目し、全周囲実写映像内の目的の対象物と再構成すべき3DCGとの形状及びスケールを三次元的に合わせる再構成作業と、実写映像内の必要部分のみの3DCGの再構成作業を行う平面変換画像上での3DCG再構成部と、再構成された3DCGを決定し、データとして取り込む再構成3DCG部と、全周囲実写映像内の対象物で、再構成した3DCGに含まれる部分を映像から削除して表示するために、又は切り取った映像を背景と分離して表示するために、表示の必要に応じて前記全周囲実写映像から特定の対象物を分離しておく切り取り分離作業部と、前記カメラベクトル検出部において求められた実写映像のカメラ位置座標を取得し、そのカメラ座標に対応して3DCGを移動することで、3DCGと映像との位置関係を保ち、場所を移動しながら作業を繰り返す繰り返し作業部とを備え、前記合成映像記録ファイル部が、前記繰り返し作業部の作業により、3DCGと全周囲実写映像との合成した結果を保存する合成映像データベース部を備え、前記仮想カメラ視点指示部が、元画像の全周囲実写映像と3DCGを選択し、それらの組み合わせを指定する合成要素選択指定部を備え、前記視点選択映像表示部が、3DCGと全周囲実写映像との合成映像を自由視点で表示する自由視点表示部を備えた、映像と3DCGのハイブリッド合成装置からなる構成としてある。
また、請求項13に記載するように、前記映像と3DCGのハイブリッド合成装置は、全周囲実写映像が含んでいる揺れ等を補正処理して画像として安定化させる画像安定化装置を備えた構成としてある。
以上のような本発明の3DCG合成装置によれば、任意のカメラで撮影される動画映像の複数のフレーム画像から、充分な数の特徴点を自動検出し、各フレーム間で特徴点を自動追跡することにより、多数の特徴点について重複演算してカメラ位置とカメラ方向(カメラ回転角)を高精度に求めることができる。
そして、得られたカメラ位置とカメラ方向に基づいて、3DCGをはめ込むべき映像内の目的の位置と方向を、矛盾無く高精度かつ自動的に決定することができる。
また、動画映像と3DCGを合成する段階で、合成要素の種類の組み合わせや、対象物の種類の組み合わせを変えることができ、また、実写映像と3DCGの明るさの比率に対応して、完全な3DCGのみの表示から、実写映像のみの表示まで、その中間段階の様々な合成表示を得ることができる。
さらに、高精度なカメラ位置情報に基づいて画像補正を行うことにより、カメラの3軸方向の回転成分による歪みについても補正することができ、カメラの揺れに起因するブレを補正した安定化画像に3DCGを合成することができる。
これにより、例えば車載カメラのように任意に移動するカメラで撮影された不規則に揺れる動画映像であっても、補正処理された映像内に、3DCGを矛盾なく位置が正確に合致するようにはめ込むことができ、さらに、それを広い範囲から観察,表示することができる。
このようにして、本発明では、作業者による煩雑な手作業などを必要とすることなく、三次元的に正しい位置関係で、動画映像と3DCGを容易かつ正確に合成することができ、矛盾のない動画映像として自由に表現することができる。
以下、本発明に係る3DCG合成装置の好ましい実施形態について、図面を参照しつつ説明する。
ここで、以下に示す本発明の3DCG合成装置は、プログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示すような所定の処理や機能、例えば、特徴点の自動抽出,抽出した特徴点の自動追跡,特徴点の三次元座標の算出,カメラベクトルの演算等を行わせる。このように、本発明の3DCG合成装置における各処理や手段は、プログラムとコンピュータとが協働した具体的手段によって実現されるようになっている。
なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ、その他、コンピュータで読取り可能な任意の記録媒体により提供され、記録媒体から読み出されたプログラムがコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
[第一実施形態]
まず、図1を参照して、本発明に係る3DCG合成装置の第一実施形態について説明する。
図1は、本発明の第一実施形態に係る3DCG合成装置の概略構成を示すブロック図である。
同図に示す本実施形態に係る3DCG合成装置100は、カメラ位置とカメラ方向を各フレーム画像から演算で求めることで、合成すべき3DCGの視点を各フレーム毎に決定する。さらに、映像と3DCGの合成時には、取得映像と3DCGとの間で前後関係を決定し、映像として矛盾のないように表示する。
車載カメラ等で撮影される実写映像は二次元画像であり、そのカメラ映像に合成すべき3DCGは三次元画像である。従って、カメラ映像と3DCGの合成は、実写映像の二次元画像上に、三次元画像である3DCGを二次元に投影するものであり、二次元画像同士の画像合成であり、合成された画像は二次元画像として観察されることになる。
そして、3DCGをカメラ映像内の正しい位置に合成するには、カメラ映像と3DCGのそれぞれが、前後関係を示す三次元情報を持ってなければならない。
ここで、カメラ映像と合成する3DCGの前後関係とは、カメラ映像と3DCGのどちらが観察者から見て近い位置にあるかの関係であり、その位置関係により、カメラ映像と3DCGのそれぞれの見え方と隠れ方が異なるものである。
例えば、街の風景を撮影した実写映像中の歩道上に置物の3DCGを置く場合、その置物の3DCGは、道路側から歩道を向いている観察者から見ると、背後にあるビル面よりは前に位置し、かつ、歩道と道路の間にある街路樹よりは後に位置することになる。従って、その置物の3DCGは、ビル面を隠すように表示され、かつ、置物の一部が街路樹によって隠れるように表示されなければならない。このような3DCGと実写映像の位置関係を決定するのが、前後関係の演算処理であり、この前後関係の演算処理を行うためには、カメラ映像も3DCGも、ともに三次元情報を持っていなければならない。
3DCGは、生成時にその形状の三次元情報を持っており、また、ある座標系の任意の位置に3DCGを置くことで、3DCGは三次元情報を取得する。一方、カメラ映像は、二次元画像であり、撮影された映像のままでは三次元情報は得られない。従って、カメラ映像と3DCG合成のためには、カメラ映像が三次元情情報を取得しなければならない。
そこで、本実施形態では、実写映像を撮影するカメラのカメラ座標(カメラ位置とカメラ方向)を高精度に求め、そのカメラ位置とカメラ方向から、実写映像の相対値の三次元座標を演算で求めるようにしてある。但し、映像内に基準長を示すものが有れば、相対値でなく、絶対長として三次元座標を求めることもできる。なお、3DCG合成のためには、カメラ映像の三次元座標は3DCGと重なる合成部分だけで良く、他の映像部分の三次元座標は特に必要とならない。従って、本実施形態の3DCG合成装置では、3DCGとの合成処理に必要となるカメラ映像のみ三次元座標を求めることにより、より高速かつ効率的に3DCGの合成処理を行えるようになっている。
ところで、カメラ座標(カメラ位置とカメラ方向)を精度良く抽出するには、画像内の映像的な特徴点を検出し、その移動を追跡する技術を用いる。特徴点の検出を自動化し、追跡も自動化することで、手作業による作業を大幅に省略することができる。
一般に、画像内の特徴点からカメラ位置を求めるには、例えば、同時に6〜7点以上の特徴点を得るようにして、特徴点を画像内で追跡する。そして、それらの特徴点に対してエピポーラ幾何学を用い、カメラ位置を演算により求めることができる。しかしながら、6〜7点程度の特徴点では、得られるカメラ位置の精度は不十分なものとなる。
そこで、本実施形態では、抽出,追跡する特徴点の数を十分に多くし、また、十分なフレーム数を用いることで多重視差を取得し、有り余る特徴点とフレーム数を得るようにしてある。有り余る特徴点と有り余るフレーム数による多重視差を用い、統計処理を施して、重複する演算を繰り返し、カメラ位置の誤差分布を求め、そこから統計処理により、精度の高いカメラ位置を三次元座標として求めるようにする。
このようにすることで、各フレームのカメラ位置は高精度で求められる。カメラ位置が高精度で求められれば、そのカメラ位置情報に基づいて、所望の3DCGを、映像中の所望の目的位置と目的方向に合成することができる。
具体的には、本実施形態の3DCG合成装置100は、図1に示すように、一次映像記憶部101と、カメラベクトル検出部102と、二次映像記憶部103と、3DCG生成部104と、3DCG二次元投影合成部105と、投影面領域決定部106と、投影面三次元計測部107と、前後関係決定部108と、合成映像記録ファイル部109と、仮想カメラ視点指示部110と、視点選択映像表示部111を備えている。
一次映像記憶部101は、カメラで撮影された動画映像を資料として記憶,保管する。ここで、一次映像記憶部101に記憶される映像を取得するカメラは、例えば車載カメラや人が手に持つカメラのように、任意に移動し、不規則な揺れや回転を伴うカメラである。
カメラベクトル検出部102は、一次映像記憶部101に記憶された動画映像から、動画の各フレームにおける撮影時のカメラの三次元位置座標とカメラの3軸方向を演算によって自動的に求める。このカメラベクトル検出部102の詳細については、図10以下を参照して後述する。
二次映像記憶部103は、カメラベクトル検出部102で求められたカメラ位置情報を入力し、各フレーム画像とカメラ位置を対応付けして記憶,保管する。
3DCG生成部104は、二次映像記憶部103に保管された実写映像に合成するべき3DCGを生成する。
3DCG二次元投影合成部105は、3DCG生成部104で生成された3DCGを、カメラベクトル検出部102で既に求められている二次映像のカメラ位置とカメラ方向を既知として、映像の各フレーム画像面に対応した、各二次元座標面に、各二次元画素が三次元座標を持ったまま、各フレームに対応して二次元映像として投影する。そして、各フレーム画像毎に、3DCGと二次映像とのスケールを合わせ、各フレーム毎に、はめ込むべき映像内の目的の場所に、目的の方向で、3DCGを設定する。
上述のように、カメラ映像と3DCGを合成するためには、3DCGとカメラ映像の双方が三次元情情報を持っていなければならない。
本実施形態では、カメラベクトル検出部102において、実写映像を撮影したカメラのカメラ座標(カメラ位置とカメラ方向)を高精度に求め、そのカメラ位置とカメラ方向から映像の三次元座標を求めることができる。
そして、この映像の三次元情報に基づき、3DCG二次元投影合成部105において、各フレーム画像毎に、3DCGをはめ込むべき映像内の目的の場所と目的の方向が決定されるようになっている。
投影面領域決定部106は、3DCGが投影された映像内の二次元投影面領域の二次元座標を、各フレーム画像毎に決定する。
投影面三次元計測部107は、二次元投影面領域に対応する各フレーム画像の三次元座標を演算で求める。
前後関係決定部108は、二次元投影面領域に対応する3DCGの三次元座標と、二次映像における同領域の各フレーム画像の三次元座標と、を各フレーム画像毎に比較して、各フレーム画像毎にカメラから見た前後関係を演算で求め、画素単位で前になる方と、後ろとなる方を決定する。
前後関係決定部108で決定される前後関係とは、上述したように、カメラ映像と3DCGを二次元画像上で合成し、カメラ視点から見たときの対象物の前後関係であり、街の風景を撮影した実写映像中の歩道上に置物の3DCGを置く場合に、道路側から歩道を向いたカメラ視点から見て、3DCGは、背後にあるビル面よりは前に位置し、歩道と道路の間にある街路樹よりは後に位置する。この場合、置物の3DCGは、ビル面を隠すように表示され、かつ、置物の一部が街路樹によって隠れるように表示されなければならない。
そして、この3DCGと映像の位置関係を決定するのが、前後関係の演算処理であり、前後関係決定部108により、3DCGの三次元座標と、3DCGを統制する二次映像の二次元投影面領域の三次元座標とを、各フレーム画像毎に比較して、各フレーム画像毎にカメラ視点から見た前後関係を演算で求め、画素単位で前になる方と、後ろとなる方を決定する。
ここで、この前後関係は、画素単位で前になる方と、後ろになる方が決定される。例えば、上記の歩道上に置物の3DCGを合成する例で言えば、3DCGで生成した置物と実写の街路樹は、画素単位で前になる部分と後ろになる部分(隠れる部分)が演算で求められ、同様に、ビル面との間でも、画素単位で前になる部分と後になる部分、つまり、3DCGで隠れるべきビル面が演算で求められることになる。
合成映像記録ファイル部109は、前後関係決定部108で前後関係が決定された映像と3DCGと、その他の映像部分を各フレーム毎に矛盾無く合成した記録ファイルを生成し、記録しておく。
ここで、合成映像記録ファイル部109は、3DCGと二次映像の合成結果を保存する際に、3DCGを各フレームのカメラ位置からの二次元画像として、二次映像に貼り付けて保存する。
具体的には、合成映像記録ファイル部109は、図2に示すように、記録する映像として、実写映像109−1,実写貼り付け映像(不可逆)109−2,実写貼り付け映像(可逆)109−3,3DCG109−4の四つの映像ファイルを記録,保存している。
カメラで撮影した実写映像と3DCGの合成結果を保存する場合、一般には、実写映像は二次元画像として、3DCGは三次元画像として、異なる次元の状態で保存される。本発明では、共通のカメラベクトルを共有していることで、異なる次元で保存された実写映像と3DCGとを、いつでも合成表示できる状態となっている。
ところが、実際の運用を考えると、3DCGはデータ量が大きいので、数が増加するに従って表示速度が遅くなる等の操作性の問題が発生する。
そこで、本実施形態では、場所の変更がない3DCGに関しては、二次元画像化し、実写映像の二次元画像に貼り付けて合成二次元画像として保存するようにしてある。特に、実写全周画像に3DCGを二次元画像化して貼り付けて保存することにより、画像フレームによる視点変更も可能となり、あたかも3DCGとの合成のように表示することが可能となる。
また、位置変更が予想される対象物の3DCGに関しては、三次元画像として各フレームのカメラベクトルと共に保存することで、いつでも実写映像との対応が可能であり、位置の変更が可能となり、視点の移動も自由となる。
本実施形態では、図2に示すように、合成映像記録ファイル部109に記録する映像として、実写映像109−1,実写貼り付け映像(不可逆)109−2,実写貼り付け映像(可逆)109−3,3DCG109−4の四つの映像を記録してあり、より自由度の高い3DCGの合成処理が行えるようになっている。例えば、3DCGを各フレームが持つカメラベクトルによって二次元画像化した映像は、不可逆な状態で実写映像に二次元化して貼り付けて保存している場合、元の3DCG部分である二次元映像部分の変更は不可能となる。しかし、実写映像に重なる別のレイヤー(層)に保存してある場合には、削除したり、元となる3DCG映像を変更し、再度カメラベクトルをパラメータとして二次元化する等、より自由度の高い変更が行えるようになる。
仮想カメラ視点指示部110は、観察する映像の種類、合成する3DCGの種類、観察者の仮想位置である仮想カメラの三次元位置と回転角、視点や視点の移動方向、進行方向、速度等の項目のうち、何れか一つ、若しくはいくつかの項目の機能を、例えばマウスや専用のコントロール器具等で指定する。
視点選択映像表示部111は、仮想カメラ視点指示部110で指定された映像を、指定されたように表示する。
以上のようにして、本実施形態の3DCG合成装置100では、車載カメラ等によって所望の動画映像を取得し、フレーム間で対応関係にある十分に多くの点を用い、カメラベクトルを精度良く演算で求める。原理的には6点乃至7点の特徴点があれば三次元座標は求まるが、本実施形態では、例えば、100点程度の十分に多くの点を用いることで、解の分布を求め、その分布から統計処理により各ベクトルを求め、結果としてカメラベクトルを求める。
例えば、合成すべき部分が写っている二枚以上の画像を適宜選択し、画像内の任意で十分多くの対応点から、カメラの位置と方向を演算で求めることができる。例えば二枚の画像に十分多くの複数の対応点が有れば、カメラ位置と方向は同一座標上に三次元的に決定して表現できる。
そして、各映像のカメラ位置と方向が三次元的に決まれば、画像内の各対応点はすべて三次元座標として決定できる。また、十分多くの特徴点から、特徴点とカメラ位置を複数回重複して求めることができるので、統計処理し、誤差の多い地点の特徴点を削除するなどして、精度の高いカメラ位置を求めることができる。
従って、例えば、予め走行車両に搭載したカメラで撮影した動画映像のカメラ位置と方向の三次元座標を、後述するエピポーラ幾何学による一次連立方程式で求めておき、目的の3DCGと合成する際には、合成部分の前後関係を決定するために3点法による演算をして、映像と3DCGとの前後関係を決定することができる。これにより、動画映像のすべてのフレームで、三次元的に矛盾のない合成映像を動画で表示することができる。
なお、各フレーム画像毎に処理をするので、合成する3DCGは移動物体であっても有効である。
また、3DCGの合成処理にリアルタイム性が求められているときには、合成は二次元上で、重なる部分のみの前後関係を決定すればよい。一方、リアルタイム性が求められていない場合には、前もって全画像を三次元化処理し、三次元画像として扱い、三次元の3DCGとの合成とすることができる。このようにすることで、視点移動はさらに自由になり、三次元空間として扱うことができるようになる。
また、360度全周画像のような広角映像を用いることで、視野を広く取ることができ、対応点を探しやすくなるので精度を向上させることができる。また、全視野を一度に比較できることで、多数の対応点を同時に比較できる。
さらに、目的平面への平面変換画像を用いることで、画像の形状を大きく変えることなく比較し、フレームの離れた画像でも、より正確にマッチングを取ることができるので、対応点検出の確度が上がり、計測精度をあげることができる。
なお、映像資料として過去の映像資料を利用することも可能であるが、その場合には、カメラの焦点距離が不明である場合が多いから、画像内の正方形や円等を探し、正しい形状になる位置のパラメータで球面画像に変換すればよい。
以上のような3DCG合成装置100によれば、車載カメラだけでなく、例えば、人が手に持ってカメラを自由に振り回して、対象物を撮影し、撮影後にその映像からカメラベクトルを演算で求め、カメラベクトルから、カメラの三次元位置を既知情報として、所望の動画映像中に所望の3DCGを合成することができる。そして、以上の処理を繰り返すことで、広範囲の各フレーム毎に、3DCGを合成して表示することができる。
また、本実施形態の3DCG合成装置100では、動画映像と3DCGを合成する段階で、合成要素の種類の組み合わせや、対象物の種類の組み合わせを変えることにより、また、実写映像と3DCGの明るさの比率に応じて、完全な3DCGのみの表示から、実写映像のみの表示まで、その中間段階の様々な合成表示を得ることができる。
図3〜図9に、本実施形態で得られるカメラ映像と3DCGの合成表示例を示す。
図3〜図5は、街の道路の風景を撮影した360度全周の動画映像中に、自動車の3DCGを合成した場合である。図3は3DCGの自動車を前方から見た場合で、図4は図3を拡大表示した場合で、図5は3DCGの自動車を側面から見た場合である。
これらの図に示すように、実写映像と3DCGは、前後関係が画素単位で決定され、3DCGは実写映像にスケールを合わせて、矛盾なく合成されていることがわかる。そして、合成画像は、任意の視点方向から見た画像として表示することができる。
図6〜図9は、図3〜図5と同様に、街の道路の風景を撮影した360度全周の動画映像中に、3DCGを合成した場合である。
具体的には、図6に示すような街の風景映像の道路上に、図7に示すように、半円形状の立体アーチの3DCGと、更にその向こう側に路上駐車している自動車の3DCGを合成してある。また、図8〜図9は、このような3DCGを合成した動画映像中において、立体アーチの下を通過した場合の画像であり、立体アーチの内側の面が合成表示されている。
これらの図に示すように、3DCGを合成した実写映像は、動画として任意の視点から表示,再生でき、その動画映像中の3DCGも、任意の視点から見た立体形状が矛盾なく表示されることがわかる。
次に、以上のような本実施形態の3DCG合成装置100に備えられるカメラベクトル検出部102の詳細について説明する。
図10は、3DCG合成装置100に備えられるカメラベクトル検出部102の一実施形態の概略構成を示すブロック図である。
同図に示すように、カメラベクトル検出部102は、特徴点抽出部102aと、特徴点対応処理部102bと、カメラ位置3D座標演算部102cと、誤差最小化部102dと、カメラ位置方向3D座標検出部102eを備えている。
特徴点抽出部102aは、ビデオカメラで撮影した動画映像を一時記録した画像データの中から、十分な数の特徴点を自動抽出する。
特徴点対応処理部102bは、自動抽出された特徴点を、各フレーム間で各フレーム画像内において自動的に追跡することで、その対応関係を自動的に求める。
カメラ位置3D座標演算部102cは、対応関係が求められた特徴点の三次元位置座標から各フレーム画像に対応したカメラベクトルを演算で自動的に求める。
誤差最小化部102dは、複数のカメラ位置の重複演算により、各カメラベクトルの解の分布が最小になるように統計処理をし、カメラ位置方向3D座標演算部102eで、誤差の最小化処理を施したカメラ位置方向が自動的に決定される。
そして、このように決定されたカメラ位置と方向の三次元位置を既知情報として、上述した3DCG合成装置100において、所望の動画映像中へ所望の3DCGが合成処理されるようになっている。
複数の画像(動画又は連続静止画)の特徴点からカメラベクトルを検出するには幾つかの方法があるが、図10に示すカメラベクトル検出部102では、画像内に十分に多くの数の特徴点を自動抽出し、それを自動追跡することで、エピポーラ幾何学により、カメラの三次元ベクトル及び3軸回転ベクトルを求めるようにしてある。
特徴点を充分に多くとることにより、カメラベクトル情報が重複することになり、重複する情報から誤差を最小化させて、より精度の高いカメラベクトルを求めることができる。
ここで、カメラベクトルとは、カメラの持つ自由度のベクトルをいう。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトルをいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度から微分して導き出すことができる。
このように、本実施形態のカメラベクトル検出部102によるカメラベクトルの検出は、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の自由度を決定することである。
以下、カメラベクトル検出部102における具体的なカメラベクトルの検出方法について、図11以下を参照しつつ説明する。
まず、特徴点抽出部102aで、適切にサンプリングしたフレーム画像中に、特徴点となるべき点又は小領域画像を自動抽出し、特徴点対応処理部102bで、複数のフレーム画像間で特徴点の対応関係を自動的に求める。具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図11〜図13に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図13に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図14に示すように、各画像中に充分に多くの特徴点を指定,抽出することが望ましく(図14の○印参照)、例えば、100点程度の特徴点を抽出する。
続いて、カメラ位置3D座標演算部102cで、抽出された特徴点の三次元座標が演算により求められ、その三次元座標に基づいてカメラベクトルが演算により求められる。具体的には、カメラ位置3D座標演算部102cは、連続する各フレーム間に存在する、十分な数の特徴の位置と、移動するカメラ間の位置ベクトル、カメラの3軸回転ベクトル、各カメラ位置と特徴点をそれぞれ結んだベクトル等、各種三次元ベクトルの相対値を演算により連続的に算出する
本実施形態では、例えば、360度全周画像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。
図13に示す画像1,2は、360度全周画像をメルカトール展開した画像であり、緯度φ、軽度θとすると、画像1上の点は(θ1,φ1)、画像2上の点は(θ2,φ2)となる。そして、それぞれのカメラでの空間座標は、z1=(cosφ1cosθ1,cosφ1sinθ1,sinφ1)、z2=(cosφ2cosθ2,cosφ2sinθ2,sinφ2)である。カメラの移動ベクトルをt、カメラの回転行列をR、とすると、z1T[t]×Rz2=0がエピポーラ方程式である。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
ここで、カメラベクトルの演算に利用する画像としては、360度全周画像を用いることが好ましい。
カメラベクトル演算に用いる画像としては、原理的にはどのような画像でも良いが、図13に示す360度全周画像のような広角画像の方が特徴点を数多く選択し易くなる。そこで、本実施形態では、カメラベクトル演算に360度全周画像を用いるようにしてあり、これによって、特徴点の追跡距離を長くでき、特徴点を十分に多く選択することができ、遠距離、中距離、短距離それぞれに都合の良い特徴点を選択することができるようになる。また、回転ベクトルを補正する場合には、極回転変換処理を加えることで、演算処理も容易に行えるようになる。これらのことから、より精度の高い演算結果が得られるようになる。
このように、360度映像を用いることにより、カメラの焦点距離の情報が要らないこと、広い範囲の特徴点設定ができるので、精度の高いカメラ位置を取得可能となり、結果として合成の精度が高まること、また、動画映像と3DCGの合成画像を表示した場合に、広範囲で、様々な角度から対象3DCGを観察できること、等の効果があり、これらのメリットは、シミュレーション装置として極めて有効となる。
なお、図13は、カメラベクトル検出部102における処理を理解し易くするために、1台または複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際のカメラベクトル検出部102では、必ずしもメルカトール図法による展開画像である必要はない。
また、カメラベクトル検出部102で用いる映像としては、カメラで撮影された一次映像そのものではなく、一次映像を目的の平面に変換した平面変換画像を用いることができる。
360度全周映像や広角映像等の実写映像そのものでは、映像がゆがんでいるので、一次画像を遠近法的表現の平面画像に変換し、その平面画像の中から特徴点を求めることによりカメラ座標を取得することができる。
また、このように平面変換画像を用いることにより、映像と3DCGの前後関係を決定する場合にも、一次画像によるゆがんだ画像ではなく、平面画像内に対応点を求めることで、対応点追跡を容易にすることができる。
そして、誤差最小化部102dでは、各フレームに対応する複数のカメラ位置と複数の特徴点の数により、複数通り生じる演算方程式により、各特徴点に基づくベクトルを複数通り演算して求めて、各特徴点の位置及びカメラ位置の分布が最小になるように統計処理をして、最終的なベクトルを求める。例えば、複数フレームのカメラ位置、カメラ回転及び複数の特徴点について、Levenberg-Marquardt 法により最小自乗法の最適解を推定し、誤差を収束してカメラ位置、カメラ回転行列、特徴点の座標を求める。
さらに、誤差の分布が大きい特徴点につては削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
図15〜図17に、カメラベクトル検出部102により得られる特徴点の三次元座標とカメラベクトルの例を示す。図15〜図17は、本実施形態におけるベクトル検出方法を示す説明図であり、移動するカメラによって取得された複数のフレーム画像によって得られるカメラ及び対象物の相対的な位置関係を示す図である。
図15では、図13の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトルが示されている。
図16及び図17は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
ここで、カメラベクトル検出部102における演算は、より高精度な特徴点とカメラ位置の三次元情報を高速に得るために、図18に示すように、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行うようにする。
具体的には、カメラベクトル検出部102は、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返す。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
そして、特徴点のm値による分類を、十分にオーバーラップさせながら、複数段階のmを設定し、画像の進行とともにnが連続的に進行するのにともなって、演算を連続的に進行させる。そして、nの進行とmの各段階で、同一特徴点について複数回重複演算を行う。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
m枚毎の精密カメラベクトル演算に誤差がないとすれば、m枚のフレームのカメラベクトルの両端は、高精度演算をしたFnとFn+mのカメラベクトルと重なることになる。従って、FnとFn+mの中間のm枚の最小単位のフレームについては簡易演算で求め、簡易演算で求めたm枚の最小単位フレームのカメラベクトルの両端を、高精度演算で求めたFnとFn+mのカメラベクトルに一致するように、m枚の連続したカメラベクトルのスケール調整をすることができる。
このようにして、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定することができる。
これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
ここで、簡易演算としては、精度に応じて種々の方法があるが、例えば、(1)高精度演算では100個以上の多くの特徴点を用いる場合に、簡易演算では最低限の10個程度の特徴点を用いる方法や、(2)同じ特徴点の数としても、特徴点とカメラ位置を同等に考えれば、そこには無数の三角形が成立し、その数だけの方程式が成立するため、その方程式の数を減らすことで、簡易演算とすることができる。
これによって、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整する形で統合し、距離演算を行い、さらに、誤差の分布が大きい特徴点を削除し、必要に応じて他の特徴点について再演算することで、各特徴点及びカメラ位置での演算の精度を上げることができる。
また、このように高速な簡易演算を行うことにより、カメラベクトルのリアルタイム処理が可能となる。カメラベクトルのリアルタイム処理は、目的の精度をとれる最低のフレーム数と、自動抽出した最低の特徴点数で演算を行い、カメラベクトルの概略値をリアルタイムで求め、表示し、次に、画像が蓄積するにつれて、フレーム数を増加させ、特徴点の数を増加させ、より精度の高いカメラベクトル演算を行い、概略値を精度の高いカメラベクトル値に置き換えて表示する。
さらに、このように求められたカメラベクトルは、生成された3DCG合成画像などに表示することができる。
例えば、図19に示すように、車載カメラからの映像を平面展開して、各フレーム画像内の目的平面上の対応点を自動で探索し、対応点を一致させるように結合して目的平面の結合画像を生成し、同一の座標系に統合して表示する。そして、その共通座標系の中にカメラ位置とカメラ方向を次々に検出し、その位置や方向、軌跡をプロットしていくことができる。
以上説明したように、本実施形態に係るカメラベクトル検出部102によれば、動画映像の複数のフレーム画像から充分な数の特徴点を自動検出し、各フレーム間で特徴点を自動追跡することにより、多数の特徴点について重複演算してカメラ位置と回転角を高精度に求めることができる。
従って、通常の安価なカメラであっても、人がカメラをもって移動しながら撮影し、あるいはカメラを積載した移動する車両等から周囲画像を撮影し、その映像を分析して高精度なカメラ軌跡を三次元で求めることができる。
例えば、全周囲動画映像の中の1フレーム画を取り出し、その画像内特徴ある複数のポイントを自動抽出して、それを各フレーム内に対応させ、追跡することで、三次元的位置関係を把握し、演算によってカメラ位置を求めることができる。
この方法により、十分な数の特徴点を手がかりにエピポーラ幾何学によって計算することで、特徴点の座標のみならず、カメラ座標を求めることができる。
また、特徴点とカメラ座標は、複数のフレームで重複して演算することになり、一つ一つのフレームの誤差を統計的に処理することで精度の高いカメラ位置データを得ることができる。カメラ座標が精度良く求まることで、カメラ映像と3DCGの合成が精度良く実行できることになる。
[第二実施形態]
次に、図20を参照して、本発明の3DCG合成装置の第二実施形態について説明する。
図20は、本発明の第二実施形態に係る3DCG合成装置の概略構成を示すブロック図である。
同図に示す3DCG合成装置は、図1に示した第一実施形態の変更実施形態であり、第一実施形態の構成に加えて、さらに画像前処理部112及びリアルタイム3DCG処理部113を備えている。
従って、その他の構成については、上述した第一実施形態の場合と同様であり、同様の構成部分については、同一符号を付して詳細な説明は省略する。
画像前処理部112は、図20に示すように、3DCG合成装置100のカメラベクトル検出部102と二次映像記憶部103の間に備えられ、カメラベクトル検出部102で既に取得されている各フレーム画像のカメラ回転角を用いることで、各フレーム画像のカメラ回転に起因する揺れを補正処理し、安定した映像を、カメラ位置と補正されたカメラ方向とともに二次映像記憶部103に記録する。
上述したように、カメラは、一般にX,Y,Zと、その回転ベクトルと計6個の自由度を持つ。それらを検出するのがカメラベクトル検出部102である。そして、検出されたカメラの位置X,Y,Z及び3軸の回転ベクトルΦx,Φy,Φzの自由度の中で、いくつかを揺れに起因するものとして、補正信号を生成し、この補正信号により、安定化された正規化画像を生成することができる。
そこで、画像前処理部112では、車載カメラ等のように、カメラが任意に移動することに起因する揺れ等を含んだ一次映像が持っている不規則な揺れ成分のうち、回転による揺れを、カメラベクトル検出部102で得られたデータにより3軸方向で補正し、回転のない安定な映像を取得する。
これによって、回転補正を受けた二次映像に、回転を固定したカメラ位置の三次元データを付加するとことで、後の演算を矛盾無く行うことができる。
ここで、安定化画像の基準となる画像としては、フレームのスタート時点の画像としてもよいが、水平位置を合わせるなどした変換後の画像を安定化画像の基準とすることも可能である。
なお、安定化画像に変換された画像は、視点方向も修正されているので、投影している平面が異なり、修正前の画像とは重ならない。
さらに、画像前処理部112では、カメラベクトル検出部102で得られた、複数のフレームの画像に関するそれぞれのカメラ位置と回転のデータから、一次映像記憶部に記憶された動画映像資料を三次元化処理し、全フレーム画像のカメラベクトル検出部102で取得されたカメラの三次元位置座標とカメラの3軸回転座標により、画像の揺れ等を無くし、画像安定化処理などを施すことができる。
すなわち、画像前処理部112は、画像の三次元化の機能を持たせることができる。このように画像を三次元化することで、表示画像の視点移動がさらに自由になり、より望ましい3DCG合成処理を実現できるようになる。
リアルタイム3DCG処理部113は、カメラ映像と3DCGのリアルタイム合成表示機能を行う。
例えば、3DCG合成をゲームに利用するような場合、合成すべき3DCGをその場で高速で生成(又は選択)して配置し、映像内を高速で移動させ、さらに、実写映像と3DCGの合成も高速で行い、高速で前後関係を決定し、合成結果を表示する必要がある。
そこで、本実施形態では、リアルタイム3DCG処理部113により、3DCGの生成又は選択、配置を高速で処理するようにしてある。
なお、リアルタイム処理にするためには、演算数を減らすか、高速演算をする必要があるので、三次元処理は画像と3DCGの重なる部分の一部だけとすることが好ましい。
このリアルタイム3DCG処理部113による映像と3DCGのリアルタイム合成表示機能は、3DCG合成装置100の仮想カメラ視点指示部110おいて指定可能な機能として付加することができる。
以上のように、本実施形態では、カメラベクトル検出部102において、動画映像の複数のフレーム画像から、高精度なカメラ位置、カメラ回転角等のカメラベクトルを演算により自動的に求めることができることから、求められたカメラベクトルに基づいて、画像前処理部112において、ビデオ映像等の動画撮影において取得された画像のカメラの揺れに起因する不規則なブレ等を補正し、ブレのある画像からブレのない画像を生成することができる。
特に、計算上理論的に必要な計測点の数と比較して、計測点の数を大幅に増やし、また、対応する画像は理論的には二枚の画像でよいが、その数を大幅に増やし、より多くの情報に基づき精度の高いカメラ位置を演算で求めることができる。
また、画像の安定化には、画像そのものの揺れではなく、カメラの揺れに着目している。画像を移動して補正するのではなく、画像からカメラベクトルを検出し、カメラの三次元座標と3軸方向の回転を検出して、カメラの視点方向の揺れによる変動成分を検出し、正規のカメラ方向の画像となるように、画像変換処理することで、完全な画像の安定化を実現することができる。
また、本実施形態では、リアルタイム3DCG処理部113を備え、カメラ映像と3DCGのリアルタイム合成表示機能を行うことができるので、カメラ映像内で3DCGを自由に動かし、自由操作できる。これにより、例えば、その場その場で判断,操作等を行って3DCGを動かすゲーム映像や、フライトシュミレータ、ドライビングシュミレータ等が実現できることになる。
なお、リアルタイムに合成表示される3DCGに対しては、座標情報だけではなく、名称や属性等の情報を持たせることができる。このようにすると、位置関係や名称と属性との組み合わせにより、現実世界を実写映像と3DCGの合成映像としてリアルタイムに投影することができ、例えば、人工知能における判断作業場として利用することができる。
[第三実施形態]
さらに、図21〜図23を参照して、本発明の3DCG合成装置の第三実施形態について説明する。
図21は、本発明の第三実施形態に係る3DCG合成装置の概略構成を示すブロック図である。
同図に示す3DCG合成装置は、第一及び第二実施形態の変更実施形態であり、上述した3DCG合成装置を用いて道路走行動画映像と3DCGを合成する3DCGハイブリッド結合表示装置100aを構成したものである。
なお、上述した第一及び第二実施形態と同様の構成部分については、同一符号を付してある。
図21に示すように、本実施形態の3DCGハイブリッド結合表示装置100aは、基本的構成は上述した第一及び第二実施形態の3DCG合成装置100と同様となっており、具体的には以下のような構成となっている。
まず、一次映像記憶部101として、全周囲実写映像記録部101aを備えている。この全周囲実写映像記録部101aは、360度全周映像のような全周囲実写映像、若しくは広角実写画像を全周囲実写映像の一部を、一次映像として記録する。
カメラベクトル検出部102は、第一,第二実施形態と同様である。
二次映像記憶部103は、第一,第二実施形態と同様である。
また、二次映像記憶部103には、第二実施形態で示した画像前処理部112として、画像安定化部112aを備えている。画像安定化部112aは、全周囲実写映像が含んでいる揺れ等を補正処理して画像として安定化させることができる。
3DCG生成部104は、3DCG基準面構成部104aと、3DCGデータベース部104bを備えている。3DCG基準面構成部104aは、3D地図を構成する基本となる地球座標面を生成する。また、3DCGデータベース部104bは、予想される3DCGを部品として保存している。
3DCG二次元投影合成部105は、平面変換画像上での3DCG再構成部105aと、3DCG形状位置合わせ処理部105bと、再構成3DCG部105cと、切り取り分離作業部105dと、繰り返し作業部105eとを備えている。
平面変換画像上での3DCG再構成部105aと3DCG形状位置合わせ処理部105bは、二次映像記憶部103の画像安定化部112aで安定化された全周囲実写映像に含まれる目的の対象物に着目して、全周囲実写映像内の目的の対象物と再構成すべき3DCGとの形状及びスケールを三次元的に合わせる再構成作業と、実写映像内の必要部分のみの3DCGの再構成作業を行う。
再構成3DCG部105cは、再構成された3DCGを決定し、データとして取り込む。
なお、「再構成」とは、現実世界をCGで再構成するという意味で用いており、単に「構成」と表現することもできる。
切り取り分離作業部105dは、全周囲実写映像内の対象物で、再構成した3DCGに含まれる部分を映像から削除して表示するために、又は、切り取った映像を背景と分離して表示するために、表示の必要に応じて全周囲実写映像から特定の対象物を分離する。
繰り返し作業部105eは、カメラベクトル検出部102で得られた実写映像のカメラ位置座標を取得し、そのカメラ座標に対応して3DCGを移動することで、3DCGと映像との位置関係を保ち、場所を少しずつ移動しながら、上記の3DCG二次元投影合成部105の作業を繰り返して行う。
投影面領域決定部106と、投影面三次元計測部107と、前後関係決定部108は、第一,第二実施形態と同様である。
合成映像記録ファイル部109は、合成映像データベース部109aを備えている。この合成映像データベース部109aは、繰り返し作業部105eの作業により、3DCGと全周囲実写映像との合成した結果を保存する。
仮想カメラ視点指示部110は、合成要素選択指定部110aを備えている。この合成要素選択指定部110aは、元画像の全周囲実写映像と3DCGを選択し、それらの組み合わせを指定する。
視点選択映像表示部111は、自由視点表示部111aを備えている。この自由視点表示部111aは、上記の作業により得られた3DCGと全周囲実写映像との合成画像を自由視点で表示する。
以上のような構成からなる本実施形態の3DCGハイブリッド結合表示装置の各部における、より具体的な処理動作を、図22及び図23を参照してさらに説明する。
図22は、図21に示す3DCGハイブリッド結合表示装置の詳細を示すブロック図である。
図23は、図22に示す切り取り作業部の詳細を示すブロック図である。
[画像安定化部]
画像安定化部112aでは、360度全周映像を水平位置と垂直位置と映像の上下関係を一致させる作業として、画像安定化部112aの基準フレーム全周画像水平垂直検出部1で、基準フレーム内の垂直水平を検出する。そして、360度全周映像の北極平面変換画像で消失点を検出し、その消失点を光軸位置、すなわち、画像中心となるように、全周囲画像安定化部2で、画像の上下が地軸の方向に、横が赤道方向になるように極を移動して変換する。さらに、画像の鉛直方向を保ったまま画像を安定させる。
[平面変換画像上での3DCG再構成作業部]
平面変換画像上での3DCG再構成作業部105aでは、画像安定化部112aの全周囲画像安定化部2で安定化された全周囲画像に含まれる目的の対象物に対して、可能な限り対象物の平面がリニアスケールとなる相似形に表現できる視点で平面変換し、その平面変換画像上において実写映像内の対象物の一平面と再構成すべき3DCGの一平面とが一致するように、実写映像と3DCGとの形状を合わせ、さらに実写映像内の必要部分のみの3DCGの再構成作業を行う。
まず、全周囲画像南極平面表示部1において、全周囲映像を南極平面に展開する。
また、道路傾斜面平面展開部2において、表示されている道路面が画面上平面になるように、道路と水平面の傾斜を微調整する。
さらに、全周囲画像赤道面表示部3において、表示された道路映像面に、重ねて3DCGを描き込んでいく。
[3DCG形状位置合わせ処理部]
3DCG形状位置合わせ処理部105bでは、道路面3DCG生成部1,縁石3DCG生成部2,歩道面3DCG生成部3,のり面3DCG生成部4,道路以外GL面3DCG生成部5,道路設備等3DCG部配置合成部6の各部においては、道路面とその周囲を構成する水平に近い面及びその面状の点となるので、その水平面からの傾斜を含めて、表示されている南極変換平面上で作業し、3DCGを生成する。
[3DCGデータベース部]
3DCGデータベース部104bでは、3DCG部品データベース2に、3DCGの基本形状が前もって用意されている。また、用意されていない3DCGについては、その場で、3DCG部品生成部3において生成する。
3DCG部品はそのまま、又はスケール形状調整部1で、現実に対応した形状と大きさに変換され、3DCG再構成作業部105aにおいて、平面に貼り付けられることで、形状と座標を固定することができる。
また、上記以外にも、ビルや背景,移動する車両や人,街路樹等、映像中のすべての対象物について、ビル・街路樹等3DCG生成部4において、同じ作業により3DCG再構成作業部105aにおいて平面に貼り付けることで、形状と座標を固定することができる。
そして、以上の作業を繰り返すことで、映像中のすべての対象物を3DCG部品で置き換えることができる。
[繰り返し作業部]
以上のようにして、3DCG再構成作業部105aにおいて、目的とする対象物に関して3DCGでの置き換えが完了すれば、その後は、繰り返し作業部105eにおいて、カメラベクトル検出部102において、実写映像のカメラ位置座標を取得し、そのカメラ座標に対応して、3DCGを移動することで、3DCGと映像との位置関係を保ち、場所を少しずつ移動しながら、同様の作業を繰り返して行う。
繰り返し作業部105eにより、映像を進行方向に移動させるなどして、次の作業面を切れ目なく連続的に表示し、連続する部位の作業を先の方法と同じ方法で繰り返し行うことができる。
繰り返し作業を行うために、映像を進行方向に移動させ、又は後退させ、あるいは平行移動させて、視点を変更させるなどして、3DCGの位置決定作業を繰り返す場合、配置決定された3DCGは、各フレーム映像が持っているカメラベクトルを共有しているため、表示映像と生成した3DCGとは、座標として結合されており、同時に位置関係がずれることなく移動させることができる。
[合成映像データベース・合成要素選択部・自由視点表示部]
上述したように、3DCGデータベース部104bのビル・街路樹等3DCG生成部4において、上記のような処理を繰り返すことで、背景やビル面、街路樹等一切の対象物を3DCGに置き換えることが可能であり、置き換えられた一切を3DCGで表示することが可能である。
しかし、すべてを3DCGで置き換えることは、必ずしも良いことばかりではない。例えば、背景とビル面を正確に3DCGで表現するためには、かなりのコストがかかる。また、ビル等よりも、もっと複雑な建築物や構造物や地形をすべて3DCG化することは困難である。このような場合には、実写映像をそのまま背景画像として使用すれば却ってコストを大幅に低減することができる。
以上のような観点から、道路面等の3DCG生成が容易な対象物については3DCGで置き換え、ビル面等の3DCG生成が困難で高コストになるような対象物については、実写映像をそのまま、あるいは平面に貼り付けて画像生成することができる。
具体的には、繰り返し作業部105eで目的の範囲を生成合成し、映像と3DCGを結合した状態において、合成映像データベース109aに保存記録し、合成要素選択部110aにおいて、映像と3DCGとの要素の合成を決定し、自由視点表示部111aでは、目的に応じて、目的の場所と視点と視角と視点方向を自由に選択して表示する。なお、自由視点表示部111aにおける自由視点は、元々の映像が含んでいない映像については表示できないため、元々の映像のカメラ位置から大きく変更された位置からの映像を完全に再現することはできない。その点で、自由視点とは、一部制限付きの自由視点ということになる。
[切り取り分離作業部]
上述のように、全周実写映像と3DCGとが混在した状態で合成映像を生成するには、例えば、ビル面等の実写映像をそのまま残す方法と、三次元座標で定義されたビル平面に3DCGを貼り付ける方法の二通りが可能である。
前者は、背景とビル面は、元々、実写映像の球面で定義された方向の座標を持っているので、元の映像の持っているカメラ視点上を移動する限りには、3DCGとの合成は矛盾無く表示できる。
後者は、ビル面のある平面を三次元的に定義することは、道路面の定義と同様に容易である。従って、ビル面についてみれば、平面に3DCGを貼り付けて生成することは十分可能である。複数の方向から見た同一ビル面を、視点方向別に表示することで、さらに詳細な精度の高い表示が可能となる。
以上二つのいずれの方法においても、ビル壁面とその前面にある街路樹等の対象物を分離する必要があり、図22に示したように、切り取り分離作業部105dで分離表示処理が行われる。なお、分離しないまま表示することも可能であるが、その場合には視点変更範囲が狭くなる。
以下、切り取り分離作業部における分離表示の処理動作の一例を、図23を参照しつつ説明する。
図23は、図22で示した切り取り分離作業部(図22に示す切り取り分離作業部105d)の詳細を示すブロック図である。
同図に示すように、切り取り分離作業部200は、全周囲映像部201と、カメラベクトル検出部202と、カメラ位置フレーム対応部203と、画素単位三次元計測部204と、三次元分布表示部205と、ビル面分離部206と、街路樹等分離部207と、ビル画像復元部208と、街路樹等復元部209と、対象物別分離配置部210を備えている。
切り取り分離作業部200では、まず、全周囲映像部201から画素単位で三次元情報を取得する。また、カメラベクトル検出部202により、各フレームのカメラベクトルは既知である。従って、全画素の三次元座標(相対値)は、単位三次元計測部204において取得できる。
ビル面の位置は大まかに既知であり、しかも平面であるから、三次元分布表示部205においてビル近傍の三次元分布を取得すれば、明らかに他から分離することができる。また、街路樹等の、ビルから離れた対象物は、その三次元位置からビルの三次元位置とは明らかに分離できる。
従って、ビル面分離部206と、街路樹等分離部207とにより、ビル面とそれ以外の対象物を三次元的に分離することができる。
街路樹等は色の要素等から、さらに分離することができる。
また、分離したビル面や街路樹等は画素単位であるので、すでに求められらカメラベクトルを用いて、ビル画像復元部208により、元の映像に復元することができる。これにより、街路樹のないビル面を取得できる。
同様に、街路樹等復元部209により、ビルの背景のない街路樹等を復元,取得することができる。
そして、対象物別分離配置部210により、あらゆる対象物を三次元的に分離し、繰り返し作業部105eにおいて同作業を繰り返すことで、各対象物をそれぞれ適切な位置に配置し、映像と3DCGとの合成画像を取得することができる。
以上、本実施形態の3DCGハイブリッド結合表示装置によって、全周画像から3DCG化する方法を示したが、表示の種類としては、全周映像そのものの表示、映像中の一部の対象物についての3DCG化、さらに、すべての対象物の3DCG化があり、どの組み合わせでも表示することができる(図2参照)。表示の選択は、合成要素選択部110aでは、全周囲映像そのものの表示、すべての対象が3DCG化された映像の表示、3DCGを各フレームが持つカメラベクトルにより二次元画像化した映像の表示、その中間段階の一部3DCG化された映像の表示まで、各段階の表示について、表示要素を自由に選択することができる。
ここで、3DCGを各フレームが持つカメラベクトルによって二次元画像化した映像を、不可逆な状態で実写映像に二次元化して貼り付けて保存している場合には、元の3DCG部分である二次元映像部分の変更は不可能であるが、実写映像に重なる別のレイヤー(層)に保存してある場合には、削除したり、元となる3DCG映像を変更し、再度カメラベクトルをパラメータとして二次元化することで変更が可能となる。
また、本実施形態では、全周映像を用いているが、原理的には通常の画像であっても、全周画像の一部として扱うことができ、同様の作業が行えることは言うまでもない。
なお、カメラベクトル検出部202で求められたカメラベクトルを用いて、画像内での計測を行うこともでき、3DCG上でも、実写映像上でも、また、両者の混在映像上でも可能である。
以上、本発明の3DCG合成装置について、好ましい実施形態を示して説明したが、本発明に係る3DCG合成装置は、上述した実施形態にのみ限定されるものではなく、本発明の範囲で種々の変更実施が可能であることは言うまでもない。
本発明は、例えば、動画映像に3DCGを合成して三次元地図を生成,表示するカーナビゲーション装置に好適な3DCG合成装置として利用することができる。
本発明の第一実施形態に係る3DCG合成装置の概略構成を示すブロック図である。 図1に示す合成映像記録ファイル部の詳細を示すブロック図である。 本発明の第一実施形態に係る3DCG合成装置で生成,表示されるカメラ映像と3DCGの合成表示例を示す説明図である。 本発明の第一実施形態に係る3DCG合成装置で生成,表示されるカメラ映像と3DCGの合成表示例を示す説明図である。 本発明の第一実施形態に係る3DCG合成装置で生成,表示されるカメラ映像と3DCGの合成表示例を示す説明図である。 本発明の第一実施形態に係る3DCG合成装置で生成,表示されるカメラ映像と3DCGの合成表示例を示す説明図である。 本発明の第一実施形態に係る3DCG合成装置で生成,表示されるカメラ映像と3DCGの合成表示例を示す説明図である。 本発明の第一実施形態に係る3DCG合成装置で生成,表示されるカメラ映像と3DCGの合成表示例を示す説明図である。 本発明の第一実施形態に係る3DCG合成装置で生成,表示されるカメラ映像と3DCGの合成表示例を示す説明図である。 本発明の一実施形態に係るカメラベクトル検出部の概略構成を示すブロック図である。 本発明の一実施形態に係るカメラベクトル検出部における具体的なカメラベクトルの検出方法を示す説明図である。 本発明の一実施形態に係るカメラベクトル検出部における具体的なカメラベクトルの検出方法を示す説明図である。 本発明の一実施形態に係るカメラベクトル演算装置における具体的なカメラベクトルの検出方法を示す説明図である。 本発明の一実施形態に係るカメラベクトル演算装置によるカメラベクトルの検出方法における望ましい特徴点の指定態様を示す説明図である。 本発明の一実施形態に係るカメラベクトル演算装置により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。 本発明の一実施形態に係るカメラベクトル演算装置により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。 本発明の一実施形態に係るカメラベクトル演算装置により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。 本発明の一実施形態に係るカメラベクトル演算装置において、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行う場合を示す説明図である。 本発明の一実施形態に係るカメラベクトル演算装置で求められたカメラベクトルの軌跡を生成された三次元地図中に表示した場合の図である。 本発明の第二実施形態に係る3DCG合成装置の概略構成を示すブロック図である。 本発明の第三実施形態に係る3DCGハイブリッド結合表示装置の概略構成を示すブロック図である。 図21に示す3DCGハイブリッド結合表示装置の詳細を示すブロック図である。 図22に示す切り取り作業部の詳細を示すブロック図である。
符号の説明
100 3DCG合成装置
100a 3DCGハイブリッド結合表示装置
101 一次映像記憶部
102 カメラベクトル検出部
102a 特徴点抽出部
102b 特徴点対応処理部
102c カメラ位置3D座標演算部
102d 誤差最小化部
102e カメラ位置方向3D座標検出部
103 二次映像記憶部
104 3DCG生成部
105 3DCG二次元投影合成部
106 投影面領域決定部
107 投影面三次元計測部
108 前後関係決定部
109 合成映像記録ファイル部
110 仮想カメラ視点指示部
111 視点選択映像表示部
112 画像前処理部
113 リアルタイム3DCG処理部

Claims (13)

  1. 任意に移動可能なカメラによって撮影された動画映像を一次映像として記憶する一次映像記憶部と、
    前記一次映像記憶部の動画映像から、動画の各フレーム画像における撮影時のカメラ位置及びカメラ方向を自動的に求めるカメラベクトル検出部と、
    前記カメラベクトル検出部で求められたカメラ位置及びカメラ方向を各フレーム画像に対応付けて二次映像として記憶する二次映像記憶部と、
    前記二次映像に合成するための3DCGを生成する3DCG生成部と、
    前記3DCGを、前記カメラベクトル検出部で求められた二次映像のカメラ位置とカメラ方向を既知情報として、各フレーム画像に対応した二次元座標面に、各二次元画素が三次元座標情報を保持したまま、各フレーム画像に対応した各カメラ位置とカメラ方向から見た二次元映像として投影し、各フレーム画像毎に、前記二次映像とスケールを合わせ、二次映像内における3DCGの目的の位置と方向を設定する3DCG二次元投影合成部と、
    前記3DCGが投影された二次映像内の二次元投影面領域の二次元座標を各フレーム画像毎に決定する投影面領域決定部と、
    前記二次元投影面領域に対応する各フレーム画像の三次元座標を求める投影面三次元計測部と、
    前記二次元投影面領域に対応する3DCGの三次元座標と、前記二次映像における当該二次元投影面領域の三次元座標を各フレーム画像毎に比較し、各フレーム画像に対応した各カメラ位置とカメラ方向から見た前後関係を求め、二次映像及び3DCGの前後関係を当該3DCGが投影された二次元映像の画素単位で決定する前後関係決定部と、
    前後関係が決定された二次映像と3DCGを、各フレーム毎に合成して記録する合成映像記録ファイル部と、
    観察する映像の種類、合成する3DCGの種類、観察者の仮想位置である仮想カメラの三次元位置と回転角、視点及び視点の移動方向、進行方向、速度等の各項目のうち、少なくともいずれか一つを指定する仮想カメラ視点指示部と、
    前記仮想カメラ視点指示部で指定された映像を指定された態様で表示する視点選択映像表示部と、
    を備えることを特徴とする3DCG合成装置。
  2. 前記合成映像記録ファイル部が、3DCGと二次映像の合成結果を保存する際に、3DCGを各フレームのカメラ位置からの二次元画像として、二次映像に貼り付けて保存する請求項1記載の3DCG合成装置。
  3. 移動する3DCGを所望の二次映像にリアルタイムで合成処理するリアルタイム3DCG処理部を備えた請求項1又は2記載の3DCG合成装置。
  4. 前記カメラベクトル検出部は、
    前記一次映像記憶部に記録された画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、
    前記特徴点抽出部で抽出された特徴点について、各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、
    前記特徴点対応処理部で対応関係が求められた特徴点の三次元位置座標を求め、当該三次元位置座標から、各フレーム画像に対応したカメラ位置とカメラ方向を示すカメラベクトルを求めるカメラ位置3D座標演算部と、
    前記カメラ位置3D座標演算部において求められる複数のカメラベクトルの解の分布を最小になるように統計処理し、誤差の最小化処理を施したカメラベクトルからカメラ位置とカメラ方向を自動的に決定する誤差最小化部と、
    を備える請求項1乃至3記載の3DCG合成装置。
  5. 前記カメラ位置3D座標演算部は、
    カメラベクトル演算に用いる任意の二つのフレーム画像Fn及びFn+m(m=フレーム間隔)を単位画像として、所望の特徴点の三次元位置座標とカメラベクトルを求める単位演算を繰り返し、
    前記二つのフレーム画像Fn及びFn+mの間のフレーム画像については、簡素化した演算によりカメラベクトルを求め、
    前記誤差最小化部は、
    画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定する請求項4記載の3DCG合成装置。
  6. 前記カメラ位置3D座標演算部は、
    前記フレーム間隔mを、カメラから特徴点までの距離に応じて、カメラから特徴点までの距離が大きいほどmが大きくなるように設定して単位演算を行う請求項5記載の3DCG合成装置。
  7. 前記カメラ位置3D座標演算部は、
    求められたカメラベクトルの誤差の分布が大きい特徴点を削除し、必要が有れば、他の特徴点に基づいてカメラベクトルの再演算を行い、カメラベクトル演算の精度を上げる請求項4乃至6記載の3DCG合成装置。
  8. 前記カメラ位置3D座標演算部は、
    所望の精度となる最低数のフレーム画像と、自動抽出した最低数の特徴点に基づいて演算を行い、カメラベクトルの概略値をリアルタイムで求めて表示し、
    画像の進行により画像が蓄積するにつれて、フレーム数を増加させ、特徴点の数を増加させて、より精度の高いカメラベクトル演算を行い、カメラベクトルの概略値を精度の高いカメラベクトル値に置き換えて表示する請求項4乃至7記載の3DCG合成装置。
  9. 前記一次映像記憶部からカメラベクトル検出部に出力される一次映像が、360度全周画像からなる請求項4乃至8記載の3DCG合成装置。
  10. 前記一次映像記憶部からカメラベクトル検出部に出力される一次映像が、カメラ映像を所定の目的平面に変換した平面変換画像からなる請求項4乃至8記載の3DCG合成装置。
  11. 前記カメラベクトル検出部で求められるカメラ位置とカメラ方向から、各フレーム画像のカメラ回転に起因する揺れを補正した補正信号を生成し、前記一次映像記憶部に記憶された映像を補正処理し、カメラ位置及び補正されたカメラ方向の情報とともに前記二次映像記憶部に出力する画像前処理部を備えた請求項1乃至請求項10記載の3DCG合成装置。
  12. 前記一次映像記憶部が、全周囲実写映像、若しくは広角実写画像を全周囲実写映像の一部分として記録した全周囲実写映像記録部を備え、
    前記3DCG生成部が、3D地図を構成する基本となる地球座標面を生成する3DCG基準面構成部と、予想される3DCG部品を保存した3DCGデータベース部とを備え、
    前記3DCG二次元投影合成部が、前記全周囲実写映像に含まれる目的の対象物に着目し、全周囲実写映像内の目的の対象物と再構成すべき3DCGとの形状及びスケールを三次元的に合わせる再構成作業と、実写映像内の必要部分のみの3DCGの再構成作業を行う平面変換画像上での3DCG再構成部と、再構成された3DCGを決定し、データとして取り込む再構成3DCG部と、全周囲実写映像内の対象物で、再構成した3DCGに含まれる部分を映像から削除して表示するために、又は切り取った映像を背景と分離して表示するために、表示の必要に応じて前記全周囲実写映像から特定の対象物を分離しておく切り取り分離作業部と、前記カメラベクトル検出部において求められた実写映像のカメラ位置座標を取得し、そのカメラ座標に対応して3DCGを移動することで、3DCGと映像との位置関係を保ち、場所を移動しながら作業を繰り返す繰り返し作業部とを備え、
    前記合成映像記録ファイル部が、前記繰り返し作業部の作業により、3DCGと全周囲実写映像との合成した結果を保存する合成映像データベース部を備え、
    前記仮想カメラ視点指示部が、元画像の全周囲実写映像と3DCGを選択し、それらの組み合わせを指定する合成要素選択指定部を備え、
    前記視点選択映像表示部が、3DCGと全周囲実写映像との合成映像を自由視点で表示する自由視点表示部を備えた、映像と3DCGのハイブリッド合成装置からなる請求項1乃至11記載の3DCG合成装置。
  13. 前記映像と3DCGのハイブリッド合成装置が、全周囲実写映像が含んでいる揺れ等を補正処理して画像として安定化させる画像安定化装置を備えた請求項12記載の3DCG合成装置。
JP2003354204A 2003-10-14 2003-10-14 3dcg合成装置 Expired - Lifetime JP4272966B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003354204A JP4272966B2 (ja) 2003-10-14 2003-10-14 3dcg合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003354204A JP4272966B2 (ja) 2003-10-14 2003-10-14 3dcg合成装置

Publications (2)

Publication Number Publication Date
JP2005122315A true JP2005122315A (ja) 2005-05-12
JP4272966B2 JP4272966B2 (ja) 2009-06-03

Family

ID=34612247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003354204A Expired - Lifetime JP4272966B2 (ja) 2003-10-14 2003-10-14 3dcg合成装置

Country Status (1)

Country Link
JP (1) JP4272966B2 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007089111A (ja) * 2005-08-26 2007-04-05 Kazuo Iwane 二次元図面と映像の合成表示装置
JP2007299326A (ja) * 2006-05-02 2007-11-15 Canon Inc 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体
WO2008078790A1 (ja) 2006-12-27 2008-07-03 Waro Iwane レイヤー生成・選択機能を備えたcvタグ映像表示装置
JP2008304269A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2009134719A (ja) * 2007-10-30 2009-06-18 Navteq North America Llc イメージデータセットにおける遮られた物体を明らかにするシステム及び方法
JP2009223220A (ja) * 2008-03-18 2009-10-01 Zenrin Co Ltd 路面標示地図生成方法
JP2009223221A (ja) * 2008-03-18 2009-10-01 Zenrin Co Ltd 路面標示地図生成方法
JP2010514261A (ja) * 2006-12-15 2010-04-30 トムソン ライセンシング 対話型視覚効果合成のためのシステムおよび方法
JP2010175756A (ja) * 2009-01-29 2010-08-12 Zenrin Co Ltd 路面標示地図生成方法及び路面標示地図生成装置
JPWO2010044186A1 (ja) * 2008-10-17 2012-03-08 パナソニック株式会社 動線作成システム、動線作成装置及び3次元動線表示装置
JP2018136706A (ja) * 2017-02-21 2018-08-30 東京瓦斯株式会社 画像表示装置
JP2018537758A (ja) * 2015-10-16 2018-12-20 フュージョン、インコーポレイテッド Imuおよび画像データを使用した合成物体を含む多視点画像データの拡張
WO2019142660A1 (ja) * 2018-01-19 2019-07-25 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
CN111052062A (zh) * 2017-09-08 2020-04-21 三菱电机株式会社 位置校正装置和位置校正方法
JP2023011637A (ja) * 2019-10-11 2023-01-24 トヨタ自動車株式会社 駐車支援装置
WO2023100703A1 (ja) * 2021-12-01 2023-06-08 ソニーグループ株式会社 画像制作システム、画像制作方法、プログラム
WO2023100704A1 (ja) * 2021-12-01 2023-06-08 ソニーグループ株式会社 画像制作システム、画像制作方法、プログラム

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007089111A (ja) * 2005-08-26 2007-04-05 Kazuo Iwane 二次元図面と映像の合成表示装置
JP2007299326A (ja) * 2006-05-02 2007-11-15 Canon Inc 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体
JP2010514261A (ja) * 2006-12-15 2010-04-30 トムソン ライセンシング 対話型視覚効果合成のためのシステムおよび方法
WO2008078790A1 (ja) 2006-12-27 2008-07-03 Waro Iwane レイヤー生成・選択機能を備えたcvタグ映像表示装置
JP2008165331A (ja) * 2006-12-27 2008-07-17 Kazuo Iwane レイヤー生成・選択機能を備えたcvタグ映像表示装置
JP2008304269A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2009134719A (ja) * 2007-10-30 2009-06-18 Navteq North America Llc イメージデータセットにおける遮られた物体を明らかにするシステム及び方法
JP2009223220A (ja) * 2008-03-18 2009-10-01 Zenrin Co Ltd 路面標示地図生成方法
JP2009223221A (ja) * 2008-03-18 2009-10-01 Zenrin Co Ltd 路面標示地図生成方法
JPWO2010044186A1 (ja) * 2008-10-17 2012-03-08 パナソニック株式会社 動線作成システム、動線作成装置及び3次元動線表示装置
JP2010175756A (ja) * 2009-01-29 2010-08-12 Zenrin Co Ltd 路面標示地図生成方法及び路面標示地図生成装置
JP2018537758A (ja) * 2015-10-16 2018-12-20 フュージョン、インコーポレイテッド Imuおよび画像データを使用した合成物体を含む多視点画像データの拡張
JP2018136706A (ja) * 2017-02-21 2018-08-30 東京瓦斯株式会社 画像表示装置
CN111052062A (zh) * 2017-09-08 2020-04-21 三菱电机株式会社 位置校正装置和位置校正方法
WO2019142660A1 (ja) * 2018-01-19 2019-07-25 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP2023011637A (ja) * 2019-10-11 2023-01-24 トヨタ自動車株式会社 駐車支援装置
JP7311004B2 (ja) 2019-10-11 2023-07-19 トヨタ自動車株式会社 駐車支援装置
WO2023100703A1 (ja) * 2021-12-01 2023-06-08 ソニーグループ株式会社 画像制作システム、画像制作方法、プログラム
WO2023100704A1 (ja) * 2021-12-01 2023-06-08 ソニーグループ株式会社 画像制作システム、画像制作方法、プログラム

Also Published As

Publication number Publication date
JP4272966B2 (ja) 2009-06-03

Similar Documents

Publication Publication Date Title
WO2018163898A1 (ja) 自由視点移動表示装置
JP4272966B2 (ja) 3dcg合成装置
US20230017828A1 (en) Method and apparatus for 3-d auto tagging
US8963943B2 (en) Three-dimensional urban modeling apparatus and method
CN106908046B (zh) 测量子系统和测量系统
EP2208021B1 (en) Method of and arrangement for mapping range sensor data on image sensor data
KR101265667B1 (ko) 차량 주변 시각화를 위한 3차원 영상 합성장치 및 그 방법
US8531449B2 (en) System and method for producing multi-angle views of an object-of-interest from images in an image dataset
US20110211040A1 (en) System and method for creating interactive panoramic walk-through applications
JP4980617B2 (ja) 二次元図面と映像の合成表示装置
JP2006053694A (ja) 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
JP2006503379A (ja) 拡張仮想環境
JP2012118666A (ja) 三次元地図自動生成装置
US20110249095A1 (en) Image composition apparatus and method thereof
JP4446041B2 (ja) カメラベクトル演算装置と、このカメラベクトル演算装置に備えられる揺れ成分検出装置,画像安定化装置,位置姿勢安定化装置,目的対象物ロックオン装置及び実写対象物属性呼出装置
JP2004265396A (ja) 映像生成システム及び映像生成方法
JP6110780B2 (ja) 付加情報表示システム
JP2019533875A (ja) 道路の合成トップビュー画像を生成するための方法およびシステム
JP6723533B2 (ja) ドライビングシミュレーター
JP4773794B2 (ja) 新旧映像座標統合装置
JP2008005478A (ja) 湧きだし点基準cv領域画像前置装置
CN108564654B (zh) 三维大场景的画面进入方式
WO2009069165A2 (en) Transition method between two three-dimensional geo-referenced maps
JP4530214B2 (ja) 模擬視界発生装置
US7400343B2 (en) Apparatus and method for generating image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090302

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4272966

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130306

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140306

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term