JP4115117B2 - 情報処理装置および方法 - Google Patents
情報処理装置および方法 Download PDFInfo
- Publication number
- JP4115117B2 JP4115117B2 JP2001334706A JP2001334706A JP4115117B2 JP 4115117 B2 JP4115117 B2 JP 4115117B2 JP 2001334706 A JP2001334706 A JP 2001334706A JP 2001334706 A JP2001334706 A JP 2001334706A JP 4115117 B2 JP4115117 B2 JP 4115117B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- unit
- real
- data
- world
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
現実世界の撮影画像に仮想世界のコンピュータ映像を合成するために用いる、該現実世界を示す画像に含まれる現実物体の3次元モデルを設定するものである。
【0002】
【従来の技術】
複数人で複合現実空間を共有するための技術が、特開2000−350865「複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体」に開示されている。ここに開示されているゲーム装置では、現実世界に存在する物体と同一の幾何形状を有するデータであり、マスクとして機能させるための現実世界の3次元モデルを入力し保持する。現実世界の3次元モデルは使用者の視点からの現実世界の奥行データに変換される。この現実世界の奥行データは、仮想物体を3次元CGとして描画する際に、現実物体に遮蔽されるべき部分を判定し、仮想物体のその部分を描画しないようにするための処理に用いる。この処理により、仮想物体は3次元CGとして現実物体との3次元的な前後関係を正しく表現するように描画される。
【0003】
【発明が解決しようとする課題】
しかし、上記に開示された技術を適用する場合には、現実物体、仮想物体ともに3次元的な幾何形状が必要であり、これらを装置に入力する必要があるが、正確な幾何形状を入力することは多大な労力やコストを必要とし,改善が求められていた。
【0004】
現実物体の3次元モデルについては、現実世界に存在する物体と同一の幾何形状および大きさを持ち、かつ現実世界中の対応する位置、向きに関して適切に配置されることが望ましい。この幾何形状、大きさ、位置、向きが現実のものと異なっていた場合には、現実物体の3次元モデルをある視点位置からの現実世界の奥行データに変換したときに、その視点からの現実世界の映像と一致しなくなり、結果として、現実物体と仮想物体との間の隠蔽関係が適切に表現されなくなる。例えば、現実物体と仮想物体との境界付近において、本来隠されるべき仮想物体の一部分が現実世界の上に描かれることによって見えてしまったり、逆に本来隠されるべきでない現実物体の一部分が仮想物体によって隠されてしまうという現象が生ずる。また、複数人で複合現実空間を共有するような場合には、一つの視点からだけではなく、すべての視点において、現実世界の映像と一致するような奥行データが必要である。しかし、この奥行データを現実物体の3次元モデルから作成する場合には、正確な3次元モデルの作成に加えて、現実物体の3次元モデルを配置するための現実世界中の位置や向きを正確に測定することには困難が伴い、多くのコストを必要とする。
【0005】
本発明は、上述の点に鑑みてなされたものであり、現実物体の3次元モデルを簡単に作成できるようにすることを目的とする。
【0006】
【課題を解決するための手段】
前記の目的を達成するための本実施形態による映像合成装置は以下の構成を備える。
【0007】
本発明は、現実世界の撮影画像に仮想世界のコンピュータ映像を合成するために用いる、該現実世界の現実物体の3次元モデルを設定する情報処理装置であって、前記現実物体を含む現実世界を複数の視点から撮影することにより得られた複数の画像および該複数の画像の各々の視点情報を取得する取得手段と、データ管理部に格納されている前記現実物体の3次元モデルを用いて、前記複数の視点情報の各々に対応するコンピュータ映像を生成する生成手段と、前記複数の画像の各々に、対応する前記生成されたコンピュータ映像を合成する合成手段と、前記合成された画像および前記現実世界の地図を調整画面上に表示する表示手段と、ユーザ指示に応じて、前記データ管理部に格納されている前記現実物体の3次元モデルを調整する調整手段とを有し、前記調整画面の地図上に前記視点情報が表示されることを特徴とする。
【0010】
【発明の実施の形態】
以下、添付の図面を参照して本実施形態の好適な実施形態について説明する。
【0011】
<第1の実施形態>
本実施形態の映像合成装置は、展望台等で望遠鏡として使用されたり、博物館等で情報表示端末とし使用されたりする。図1は本実施形態による映像合成装置の概略構成を示すブロック図である。
【0012】
1は撮像部であり、たとえばカメラからなる。撮像部1は屋外の風景や屋内の展示物といった現実世界を撮影し、撮影映像を映像信号として撮影映像取込部2に出力する。2は撮影映像取込部であり、撮像部1から出た映像信号を映像合成部3に適した形式に変換して映像合成部3に送り出す。3は映像合成部であり、撮影映像取込部2からの撮影映像とコンピュータ映像生成部7からのコンピュータ映像を合成して表示部9に送出する。
【0013】
4は雲台制御部であり、床等に設置され、撮像部1を支える。雲台制御部4は可動部分を持ち、撮像部1を使用者が手動で左右方向および上下方向に自由に回転させることを可能にする。雲台制御部4は床等に固定されてもよいが、たとえばレールや台車の上に載せて移動できるようにしてもよい。また、雲台制御部4は図示しない駆動部分と制御装置から構成され、外部からの制御信号により、自動で左右方向および上下方向に自由に回転させるようにすることも可能である。駆動部分は例えばモータや油圧または空気圧ジャッキなどから成る。5は雲台制御部4と撮像部1の相対的な姿勢を測定する姿勢測定部であり、撮像部1の姿勢情報、すなわち撮像部1の上下方向および左右方向の回転情報をコンピュータ映像生成部7からの要求に応じて、又はコンピュータ映像生成部7からの要求なしにコンピュータ映像生成部7に送り出す。姿勢測定部5は、例えば機械式のエンコーダなどから構成される。姿勢測定部5は支持部と撮像部の相対的な姿勢を測定することができればどういった構成としてもよく、また、他に例えばジャイロや光学式のセンサを利用することも可能である。
【0014】
6はレンズ状態制御部であり、撮像部1で利用するレンズのズーム値やフォーカス値といったレンズ状態情報をコンピュータ映像生成部7からの要求に応じて、又はコンピュータ映像生成部7からの要求なしにコンピュータ映像生成部7に送り出す。ここで、ズーム値・フォーカス値とは、レンズ状態制御部6でエンコーダ等により出力された値であり、たとえばレンズ状態制御部6に8ビットのエンコーダが備えられている場合、出力される値は1〜256の範囲の値となる。レンズ状態制御部6はたとえばマイクロコンピュータを備え、エンコーダ等により出力された値を用いてレンズの焦点距離等を計算し、計算した値をレンズ状態情報として出力してもよい。また、レンズ状態制御部6は図示しない操作部や制御信号などによりレンズの状態を操作する。レンズ状態制御部6は、例えば機械式のエンコーダやステッピングモータからなる。
【0015】
7はコンピュータ映像生成部であり、姿勢測定部5から撮像部1の姿勢情報を取り出して撮像部1が向いている方向を推定し、またレンズ状態制御部6からレンズ状態情報を取り出して撮像部1の画角等を推定する。撮像部1の向いている方向と画角が推定できれば撮像部1の視野が求まるため、コンピュータ映像生成部7はデータ部8から撮像部1の視野に入る部分のデータを取り出し、撮像部1の視野に重なるコンピュータ映像を生成する。生成されたコンピュータ映像は映像合成部3に送られる。
【0016】
8はデータ部であり、たとえばハードディスクから構成され、コンピュータ映像生成部7に引き渡すデータを所持する。データ部8に格納されるデータとしては、仮想物体の3次元CGデータや現実世界の奥行データや現実世界の3次元モデル、テキスト情報やパノラマ映像等といったものが考えられる。データ部8はコンピュータ映像生成部7からの要求に応じて適切なデータをコンピュータ映像生成部7に送出する。たとえばコンピュータ映像生成部7が撮像部1の視野に合成する3次元CGデータを要求してきた時に、データ部8は格納されている3次元CGデータの中から撮像部1の視野に含まれる3次元CGデータを取り出して送出する。なお、データ部8はハードディスクに限らず、データを保持することができる媒体であれば何でもよく、たとえばテープやメモリなどで構成してもよい。
【0017】
データ部8に3次元CG(コンピュータグラフィックス)を格納する場合、格納する3次元CGとしては、たとえば仮想のキャラクタなどが考えられる。ここで、データ部8に格納する3次元CGデータには位置や大きさ、形状、姿勢といった幾何情報だけでなく、テクスチャデータや制約関係、動き、各CGデータを特定するための識別情報といったデータも含まれる。たとえばデータ部8に仮想のキャラクタの形状や動きの情報を格納しておくことで、現実世界中に仮想のキャラクタを登場させることが可能になる。
【0018】
データ部8にはあらかじめ現実世界の奥行情報を表現する現実世界の奥行データを入力して利用する。あらかじめ現実世界の奥行データを持ち利用することで、現実世界の映像とコンピュータ映像との前後関係や接触関係を含む相互関係を正しく反映した映像合成が可能になる。たとえば、ある建物とある建物の間で3次元CGのキャラクタを動かしたいというとき、現実世界の奥行データを持たない場合では、3次元CGのキャラクタの全身が建物の前面に表示されてしまうため、図7のように建物とキャラクタの前後関係が正しく反映されない。これに対して現実世界の奥行データを持つ場合、キャラクタまでの奥行と建物までの奥行を比較し、キャラクタまでの奥行が建物の奥行よりも大きい部分のコンピュータ映像生成を行わないことによって、図8のように建物とキャラクタの前後関係を正しく反映した合成映像を生成することができる。
【0019】
現実世界に奥行情報を持たせること、すなわち現実世界の奥行データを獲得することは現実世界の3次元モデルを用いることで実現できる。現実世界の奥行情報を3次元モデルとして与えた場合には、たとえば図9のように建物の上に3次元CGのキャラクタを乗せるなどのような接触関係を表現することが可能である。現実世界の3次元モデルは形状データ、位置姿勢データ、各モデルを特定するための識別情報などから構成される。
【0020】
9は表示部であり、映像合成部3から送出された合成映像信号を表示する。この際、表示部9は撮像部1と一体的に動くものとすると使用者にとっては直に望遠鏡などを覗き込むかのように直感的で理解しやすいが、必ずしもその必要はなく、たとえば撮像部1が可動で表示部9が固定されるという構成でもよい。また、この表示部9は複数備えられてもよく、その場合は合成映像を多数の人が見ることが可能になる。
【0021】
図2は映像合成装置が通信網を介して相互接続される場合の構成を示すブロック図である。
【0022】
10は映像装置であり、図1の1から9までの機能をすべて含む装置である。
【0023】
11は通信網であり、複数台の映像装置10を相互に接続して、必要に応じて各映像装置10の間で画像や映像、数値などのデータの転送を行う。通信網11はLAN(Local Area Network:構内通信網)などのように比較的狭い範囲を対象とする通信網を独自に構築しても良いし、インターネットやWAN(Wide Area Network:広域通信網)などの一部を構成するような形態でも良い。図2では、複数台の映像装置10が通信網11によって相互接続された場合の構成図を示している。図2における映像装置10と通信網11は図1における映像装置10、通信網11と同一の機能を持つ。
【0024】
12は映像装置管理部である。映像装置管理部12は、各映像装置10中のレンズ状態制御部6および姿勢測定部5から取得され、データ管理部13によって保持されている各映像装置10のレンズ状態制御データ、姿勢データをもとにシステム全体の状態を管理し、必要に応じて各映像装置10に対して、レンズ状態制御部6、雲台制御部4を制御するための信号を送出する。例えば、ある映像装置10の位置、方位、ズーム値などからその映像装置10が観測している対象物を映像装置管理部12が検出し、映像装置管理部12は他の映像装置10についても同一の対象物を観測するように、レンズ状態制御部6、雲台制御部4に制御命令を送出するような制御を行うことが可能である。
【0025】
13はデータ管理部であり、例えばハードディスク等の記憶装置から構成される。映像装置10内のデータ部8が保持するデータの元となるデータを格納しており、データ部8が保持するデータはデータ部13が保持するデータに包含される。データとしては、データ部8と同様、3次元CGデータ、現実世界の奥行データ、現実世界の3次元モデル、テキスト情報、パノラマ映像などが挙げられる。
【0026】
例えば、システムに新たなデータを追加するような場合には、まずデータ管理部13に追加される。データ管理部13は各映像装置10に対して追加されたデータを送出し、映像装置10は受け取ったデータをデータ部8にコピーして保持する。こうすることによって、すべての映像装置10において共通したデータを持つことが可能になる。また、映像装置10がデータ部8を使用せず、常にデータ管理部13からデータを受けるようにしても共通したデータを用いることができるが、本実施形態では、映像装置10はデータに変更があったときのみデータ管理部13のデータを参照し、データ部8にキャッシュしておくようにする。さらにデータ管理部13は各映像装置10中における撮像部1の位置データ、姿勢制御部5から得られる姿勢データ、レンズ状態制御部6から得られるレンズ状態データについても保持しており、必要に応じて映像装置管理部12から各映像装置10へ制御信号を送出するのに用いられる。
【0027】
本実施形態ではデータ管理部13に対してデータの追加を行ったが、ある特定の映像装置10を設定してデータ部8にデータの追加を行い、データ管理部13がその特定の映像装置10のデータ部8の追加データを参照してコピーした後に、他の映像装置10のデータ部8に反映させることも可能である。
【0028】
14はサーバであり、映像装置管理部12とデータ管理部13の機能を含む。サーバ14は通信網11に接続されており、任意の映像制御装置10と通信を行うことが可能である。サーバ14は単独で使用するだけでなく、複数台設置して、制御対象やデータを分散させることも可能である。また、サーバ14はその機能をある特定の映像装置10に内蔵することも可能である。
【0029】
15は制御端末であり、通信網11に接続されている。各映像装置10、サーバ14の内部状態の監視を行うことや、操作を行うことが可能である。制御端末15は単独で使用するだけでなく、複数台設置して用いてもよい。また、ある特定の映像装置10やサーバ14に内蔵される形で用いることも可能である。
【0030】
各映像装置10は、例えば建物や山、博物館内の展示物などの同一対象物を、異なる視点から望むことができるように配置する。同一の対象物を観測することが可能であれば、その配置には制約を受けない。例えば、対象物を観測することができる建物内の同一のフロアに複数台の映像装置10を設置してもよいし、異なる建物に1台ずつ設置してもよい。山などの大きな対象物の場合には、距離的に離れた展望台や、他の山などに設置することも考えられる。
【0031】
以上の様な構成を備えた本実施形態の制御について、以下説明する。図3は映像合成装置における処理の手順を説明するフローチャートである。
【0032】
ステップS0ではデータ準備を行う。ステップS0ではデータ管理部13またはデータ部8に格納するデータを用意する。用意するデータとしてはたとえばテキスト情報やパノラマ映像、3次元CGデータおよび現実世界の奥行データ、現実世界の3次元モデルなどがある。このデータはあらかじめ現実世界との位置の対応づけを行っておく必要があり、たとえば3次元CGならばそれが現実世界中でどの位置に配置されるかを指定しておかねばならない。また、パノラマ映像であればパノラマ映像のどの部分が現実世界のどの部分に対応するかを指定しておかねばならない。
【0033】
データ管理部13またはデータ部8にパノラマ映像を格納する場合、格納するパノラマ映像としては、たとえば異なる時間帯や場所において撮影したパノラマ映像が考えられる。あらかじめ異なる時間帯に撮影したパノラマ映像を格納することで、たとえば展望台において曇天時においても展望台からの晴天時の眺めを再現することができる。また、異なる場所で撮影したパノラマ映像を格納することで、全く異なる場所で撮影されたパノラマ映像があたかもその場にあるかのように再現することができる。
【0034】
データ管理部13またはデータ部8に格納するパノラマ映像は、たとえば撮像部1で撮影する。この場合、図18のように、撮像部1で撮影した映像を撮影映像取込部2で取り込み、データ部8に撮影映像を送ることになる。パノラマ映像はこのように撮像部1で撮影し、それをデータ部8に格納することができるが、データ管理部13およびデータ部8にパノラマ映像を格納できる方法であればこれに限らずどのような方法でもよい。
【0035】
データ管理部13またはデータ部8にパノラマ映像を格納する場合、そのパノラマ映像には空白の部分が含まれていてもよい。パノラマ映像中の空白を表現する方法としては、たとえばパノラマ映像の各画素に透過度を表すα値を与え、空白となっている画素のα値を0とする方法がある。撮影したパノラマ映像中において、パノラマ映像の合成を必要としない部分のα値を0としておけば、映像合成部3が撮影映像とパノラマ映像を合成する際、α値が0となっている部分に撮影映像を合成し、α値が0となっていない部分にはパノラマ映像を合成することで、パノラマ映像と撮影映像を一つの合成映像中に表示することが可能になる。このとき、パノラマ映像の各画素のα値をすべて1とすれば、映像合成時に、撮影映像を含まずパノラマ映像だけを含んだ合成映像が合成されることになる。
【0036】
このパノラマ映像の各画素にα値を与える方法について、展望室において本実施形態の映像合成装置を利用する場合の例を図11を用いて説明する。ステップS0において、展望室から周囲の光景を撮影してパノラマ映像Iが撮影され、このパノラマ映像Iには、室内の映像Rと室外の映像Pが含まれるものとする。室内の映像Rのα値を0とし、室外の映像Pのα値を1とすることで、映像合成部3で映像合成を行う際に、室内部分については撮影映像を合成し、室外部分については室外の映像Pを合成するといったことが可能になる。このことによって、室内を見た時には現実世界の撮影映像が見え、室外を見た時にはあらかじめ撮影されたパノラマ映像が見える、といったことが可能になる。
【0037】
ここではパノラマ映像中の空白の部分を表現する方法としてα値を用いる方法を挙げたが、この方法はパノラマ映像中の空白の部分を表現できる方法であればどのような方法でもよい。
【0038】
また、ここに格納するパノラマ映像データは、たとえば3次元CGをあらかじめパノラマ映像としてレンダリングしたものであってもよい。一般的に3次元CGの生成を実時間で行う場合には描画能力の制限などから3次元CGの精密さが限定されてしまうが、この手法を用いることで3次元CGのモデルを無制限に精密にし、より3次元CGの映像の質を高めることが可能である。この際、レンダリングしたパノラマ映像の各画素に透過度を表すα値を与え、パノラマ映像中においてCGの描かれていない部分のα値を0とすれば、映像合成部3が撮影映像とコンピュータ映像を合成する際、α値が0となっている部分について撮影映像を合成することで、撮影映像中にあらかじめレンダリングした3次元CGを合成することが可能になる。
【0039】
図4は図3の処理手順のうち、データ準備を行うステップS0で行われる現実世界3次元モデルを入力する処理手順を説明するフローチャートである。図3のステップS0は図4のステップS101〜S105を含む。
【0040】
ステップS101では、複数の映像装置10をモデル化の対象となっている物体(例えば建物、山など)の方向に向ける。そして、複数の映像装置10を用いて対象物体(オブジェクト)を複数の視点から撮影し、対象物体を含む現実世界の画像を複数取得する。なお、この作業は手動・自動を問わない。
【0041】
ステップS102では、複数の映像装置10から位置姿勢情報を取得し、ステップS101で得られた撮影画像に対応させてデータ管理部13に送信する。撮影画像と撮影画像の空間位置情報を示すことになる映像装置の位置姿勢情報は正しく対応付けて管理することが重要である。
【0042】
位置を取得するための手段としては、例えばGPS(Global Positioning System:全地球無線測位システム)などの装置を用いる方法や、地図や建物の図面などを基準にして、映像装置10を設置した位置を推定する方法が考えられる。姿勢に関しては、姿勢測定部5によって測定された結果を用いる。これらの位置姿勢情報はサーバ14内のデータ管理部13に送られる。
【0043】
ステップS103では、現在対象となっている物体の現実世界の3次元モデル、あるいは現実世界の奥行データを入力する。この3次元モデルおよび奥行データは、現実世界の映像とコンピュータ映像との相互関係を正しく反映させた状態で両者を合成するために必要となる。
【0044】
ここで、地図データから現実世界の3次元モデルを生成する方法について図16、図17を用いて説明する。
【0045】
図16のような地図があるものとして、その地図の中には建物E,F,G,Hが描かれ、またこの建物E,F,G,Hの高さ情報が何らかの方法で得られたものとする。ここで、地図の左下端を原点とし、1mを1単位とした、図17のようなXYZ座標系を定義すると、建物Hは高さ10,幅15,奥行15の直方体として表現することができ、また他の建物E,F,Gも同様に表現することができる。
【0046】
以上のようにして地図データから現実世界の3次元モデルを生成することができる。ここでは図17のような座標系を定義したが、この座標系がいかなるものであれ地図データから現実世界の3次元モデルを生成することができるのは言うまでもない。また、現実世界に3次元形状モデルデータを持たせる方法は上記の方法に限らず、現実世界の3次元形状モデルが構築できる方法であればどのような方法でもよい。
【0047】
また、現実世界の奥行情報は必ずしも3次元のモデルでなくてもよく、たとえば図10のように二次元のモデルとしてもよい。また、必ずしもすべての映像装置10で統一されている現実世界の3次元モデルを持つ必要はなく、各映像装置10においてレンジスキャナなどで得られた現実世界の奥行データを持ち、利用することとしてもよい。また,1台の映像装置10が複数の撮像部1および撮影映像取込部2を持つような場合には、それぞれの撮影映像取込部2から得られた映像を用いて三角測量により現実世界の奥行情報を求め、利用してもよい。現実世界に奥行情報を持たせる方法は上記の方法に限らず、たとえば距離画像を用いる方法でもよく、現実世界までの奥行がわかるものであればどのような方法でもよい。
【0048】
ステップS104では、ステップS103によって得られた現実世界の3次元モデルについて、その大きさや配置する位置、向きなどを調整する作業を行う。
【0049】
具体的には、映像装置10の撮影映像取込部2によって獲得された現実世界の映像に対して、現実世界の3次元モデルをある映像装置10の視点からの現実世界の奥行データに変換し、可視化した画像を合成する。そして、合成された現実世界の撮影画像に3次元モデルを合成した画像を表示する。具体的には、現実世界の3次元モデルを映像装置10の視点からのCGとして生成し、撮影画像に合成する。
【0050】
ステップS103で作成された現実世界の3次元モデルまたは現実世界の奥行データは、必ずしも現実の物体の形状を正確に表現しているものであるとは限らない。現実の物体を計測した際に誤差が含まれている場合もあるし、モデル化する対象が建物のような場合には、例えば直方体などのような単純な立体で近似することも考えられる。また、現実の物体の形状は正確に得られていても、それを配置する現実世界の位置や向きの情報が正確でない場合も考えられる。これらの要因によって、現実世界の3次元モデルを映像装置10の視点での現実世界の奥行データに変換した映像と、同一の視点から実際に観測された映像中の対象物とが必ずしも厳密には一致せず、仮想物体の3次元CGを合成するときに、現実世界の映像とコンピュータ映像との間にずれが生じてしまうことがある。
【0051】
ステップS104では、現実世界の映像と現実世界の3次元モデルのCGとが一致するように、後述する調整画面を用いて操作者がマニュアルで現実世界の3次元モデルの大きさ、位置、向きなどのパラメータを調整する。
【0052】
現実世界の3次元モデルは、データ管理部13によって、システム全体で同一のパラメータを用いて管理される。したがって、単独の映像装置10の視点からのみこの調整作業を行うと、他の視点においてはずれが拡大してしまう可能性がある。特に奥行方向の位置の変化については、その量を把握しにくいため、その傾向が顕著になる。
【0053】
そこで、本実施形態では、操作者は複数の視点からの合成映像を同時に確認し、すべての視点でずれを少なくするように3次元モデルを調整できる調整画面を提供する。
【0054】
また、現実世界の3次元モデルが正確でないときには、すべての視点において正確に一致させるようなパラメータが存在しないことがあるが、そのような場合には目的に応じて、全体としてずれが少なくなるように調整するか、特定の視点を重要視して調整を行うことになる。
【0055】
調整方法の具体例を以下に説明する。
【0056】
(3次元モデル調整方法1)
操作者が制御端末15上で図5に示すようなGUI(Graphical User Interface:グラフィカルユーザインタフェース)を用いて調整作業を行う。図5のGUIにおいては、複数の映像装置10から観測された現実世界の映像50に、その視点から描画した現実世界の3次元モデルのCG51を合成した映像が同時に表示される。さらに、現実世界の3次元モデルのパラメータを詳細に表示するパラメータ表示部52を有する。
【0057】
操作者は、任意の合成映像上でマウスなどの入力装置を用いてカーソル54を移動させ、現実世界の3次元モデルの大きさ、配置する位置、向きを調整する。
【0058】
パラメータを調整された現実世界の3次元モデルのデータは、直ちにデータ管理部13から各映像装置10に送られ、各映像装置10は変更後のパラメータを用いて再度現実世界の3次元モデルを現実世界の奥行データに変換して、現実世界の映像と合成した映像を生成する。各映像装置10により生成された複数の合成映像はGUIに表示される。このようにしてGUIを用いることにより、パラメータの変更結果を即座に確認しながら現実世界の3次元モデルの調整作業を行うことが可能である。
【0059】
この調整方法によれば、3次元モデルの調整結果を複数の視点からの映像上で確認することができ、適切な3次元モデルの調整を簡単に行うことができる。
【0060】
(3次元モデル調整方法2)
調整方法2では、調整方法1で用いた調整画面(図5)に、地図データ53を追加する。
【0061】
そして、地図データから現実世界の3次元モデルを作成する機能を有する。操作者は地図という2次元上で対象物体の2次元情報を、カーソル54を操作することにより指示する。
【0062】
地図データ53上で指示された対象物体の2次元情報に所定の高さ情報を加えて3次元モデルを作成し、合成映像に表示する。そして、操作者は、合成映像上で高さ情報を調整方法1と同様に、カーソルを用いて高さ情報などのパラメータを調整する。
【0063】
調整方法2によれば、対象物体の2次元情報を地図データを用いて簡単に作成することができる。したがって、位置や方向のパラメータを簡単に調整することができる。
【0064】
なお、地図データを用いた対象物体の2次元情報の作成は、図20に示されるように操作者が対象物体を含む領域をラフに指示すると、指示された領域内の画像を解析し対象物体の輪郭を抽出し、2次元情報が自動作成されるようにしても構わない。画像解析を用いることにより、複雑な形状を有する対象物体の2次元情報を簡単にかつ高精度に作成することができる。
【0065】
また、図21に示されるように、調整画面上に表示する合成映像の視点位置(視点および方向)を、地図データ上に矢印55を用いて表示しても構わない。
【0066】
地図データ上で視点位置を矢印を用いて表示することにより、操作者は合成映像の視点位置を視覚的に確認することができる。
【0067】
さらには、ステップS101において調整画面上に表示可能な数以上の映像装置からの撮影画像を取得している場合には、ステップS102で取得した位置姿勢情報を地図データ上に表示し、そして操作者が選択した位置姿勢情報に対応する視点からの合成映像を調整画面に表示するようにしても構わない。
【0068】
このようにすることにより、操作者はステップS101で取得した撮影画像から任意の撮影画像を用いて3次元モデルを調整することができる。また、選択可能な視点が地図データ上に表示されるので、簡単に所望の視点(撮影画像)を選択することができる。
【0069】
(3次元調整方法3)
調整方法1または2の変形例である調整方法3を説明する。調整方法3では、図22に示されるように、パレット55に予め複数の形状モデルを用意する。そして、カーソル54を用いて操作者によって選択された形状モデルを、地図上の任意の位置に配置する。そして、配置された結果が合成映像に反映される。操作者は、合成映像および地図データを用いて配置された形状モデルを調整することにより、3次元モデルのパラメータを調整する。
【0070】
調整方法3によれば、地図データで作成された2次元情報に高さ情報を付加するだけでは作成することができない形状(円錐や球など)にも対応することができる。
【0071】
(3次元モデル調整方法4)
3次元モデルの調整は、操作者が手動で行う場合に限られない。例えば、操作者は図19のようにGUIを用いて現実世界の3次元モデルの頂点などの特徴的な点である特徴点と、その点がある映像装置10の視点から見た現実世界の映像中で観測される対応点とを入力する。1つの映像装置10について複数の特徴点を入力し、これを複数の映像装置10に対して行う。入力した特徴点や対応点のデータはサーバ14に送られ、サーバ14では現実世界の3次元モデルの大きさ、位置、向きなどを自動的に変更する。
【0072】
また特徴点や対応点の入力は、操作者が手動で行う場合に限られない。取得された現実世界の映像にエッジ抽出などの画像処理を適用して自動で対応点を抽出してもよいし、前記現実世界の3次元モデルの幾何特徴などを利用して,自動的に特徴点と対応点の対応付けを行ってもよい。
【0073】
現実世界の3次元モデルの大きさ、位置、向きをなどを自動的に変更する方法として、例えば現実世界の3次元モデル中の特徴点を現実世界の映像上に射影したときの座標と対応点の座標との距離を尺度とするような評価関数を定め、この関数を最小化するパラメータを求める方法が考えられる。この評価関数は3次元モデルの大きさ、位置、向きなどをパラメータとして取るようにすると、すべての視点において、現実世界の3次元モデルと現実世界との映像を最もよく一致させるような現実世界の3次元モデルの大きさ、位置、向きなどを求めることができる。
【0074】
ここで評価関数の例を示す。M台の映像装置10があり、現実世界の3次元モデルにN点の特徴点を設定して入力したとする。このとき、現実世界の映像上の対応点の画素の二次元座標をP,特徴点の現実世界の3次元モデルの3次元座標をXとする。また、現実世界の3次元モデルの位置、向き、大きさをそれぞれL,A,Sとし、3次元モデルの回転、平行移動、スケーリングを表現する行列をL,A,Sの関数で表す。これをR(L,A,S)とする。ある映像装置10の現在の位置、姿勢において、現実世界の3次元モデルを描画し、二次元の映像上に射影する行列をMとする。このとき評価関数F(L,A,S)は現実世界の3次元モデルの特徴点を現実世界の映像上に射影した点と対応点とのユークリッド距離を尺度として
【外1】
【0075】
と表すことができる。
【0076】
また、評価関数を定めるときに、映像装置の視点や役割に応じて重みづけ係数を用いて、現実世界の3次元モデルと現実世界の映像とを、ある視点について重点的に一致させるようにしてもよい。ゲームを行うための映像装置10と、そのゲームを傍観するための別の映像装置10があったとき、例えばゲームを行う映像装置10については重み付けの係数を大きく取り、傍観するための映像装置10については重み付けの係数を小さく取ると、現実世界の3次元モデルはゲームを行う映像装置10から見た現実世界の映像により正確に一致するようになる。
【0077】
ステップS101からステップS104までの作業を、現実世界をモデル化する対象物体すべてについて繰り返す。ただし、これらの作業は映像装置10の設置時に一度行っておき、その結果を保存しておくことによって、映像装置10の位置およびモデル化した現実世界そのものが変化しない限り、次回からは保存した結果を読み込むだけでよい。
【0078】
データ準備後、ステップS1でシステムが起動される。ステップS2で撮像部1から映像が取得され、取得された撮影映像はたとえばNTSC映像信号として撮影映像取込部2に送られる。この際、撮像部1から撮影映像取込部2に送られる撮影映像はNTSC映像信号に限らず、映像を表現できるものであれば何でもよい。
【0079】
撮像部1で撮影された撮影映像は撮影映像取込部2で適切なフォーマットに変換され、映像合成部3に送られる。撮影映像取込部2ではたとえば撮像部1から送られてきたNTSC映像信号をデジタルデータに変換して映像合成部3に送るが、撮像部1の送り出す映像はNTSC映像信号に限らず映像を表現するものであれば何でもよく、また、撮影映像取込部2が映像合成部3に送り出す撮影映像もデジタルデータに限らず映像を表現し、映像合成部3が処理できるものであれば何でもよい。
【0080】
ステップS3で姿勢測定部5が撮像部1の姿勢を検知し、検知された姿勢情報はコンピュータ映像生成部7に送られる。ステップS4でレンズ状態制御部6が撮像部1で利用するレンズのズーム値やフォーカス値といったレンズ状態情報を検知し、検知されたレンズ状態情報はコンピュータ映像生成部7に送られる。
【0081】
ステップS5ではコンピュータ映像生成部7が、姿勢測定部5から送出された姿勢情報とレンズ状態制御部6から送出されたレンズ状態情報から撮像部1の視野を推定し、データ部8から撮像部1の視野に含まれる範囲のデータを取得する。
【0082】
ここで、姿勢測定部5から送出された姿勢情報と、レンズ状態制御部6から送出されたレンズ状態情報から撮像部1の視野を求める方法にはさまざまなものがあるが、ここではそのうち一つの方法を示す。一般的に、撮像部1で利用するレンズのレンズ中心の位置と撮像部1の視野角を求めれば視野を求めることが可能であるため、以下ではまず姿勢測定部5から送出された姿勢情報から撮像部1で利用するレンズのレンズ中心の位置を求める方法について記し、その後にレンズ状態制御部6から送出されたレンズ状態情報から撮像部1の視野角を求める方法について記す。
【0083】
姿勢測定部5から送出された姿勢情報から撮像部1で利用するレンズのレンズ中心の位置を求める方法を図12と図13を用いて説明する。図12は本実施形態の映像合成装置の外観図である。撮像部1と表示部9は雲台制御部4に一体的に支持されており、回転中心0を中心として上下方向および左右方向に回転できるものとする。雲台制御部4は床に固定されているため、床と回転中心0の位置関係は不変である。そのため、回転中心0とレンズ中心L0の相対的な位置関係がわかれば、現実世界に対するレンズ中心L0の位置が一意に定まることとなる。
【0084】
ここで、回転中心0を原点としたXYZ座標系を図のように定義し、左右の回転角φと上下の回転角θを図13のように定義する。撮像部1で用いるレンズのレンズ中心L0から回転中心0までの距離をdとして表すと、レンズ中心L0の座標は
x=−dsinθsinφ
y=dsinθcosφ
z=dcosθ
として表される。ここではXYZ座標系を図13のように定義したが、座標系をどのように定義しても、また上下および左右の回転角をどのように定義しても、左右方向の回転角と上下方向の回転角から撮像部1で利用するレンズのレンズ中心の位置が求まることは言うまでもない。
【0085】
レンズ状態制御部6から送出されたレンズ状態情報から撮像部1の視野角を求める方法を図14と図15を用いて説明する。まず、レンズ状態制御部6から送出されるズーム値から撮像部1で利用するレンズの焦点距離を算出する。ここで、レンズ状態制御部6から送出されるズーム値は撮像部1に備えられた8ビットのエンコーダから出力される値であるものとし、その値とレンズの焦点距離が図14のテーブルのように求まっているものとする。すると、図14のテーブルを用い、テーブルに載っていない値については補間を行うことで、撮像部1で利用するレンズの焦点距離をレンズ状態制御部6から送出されるズーム値を用いて求めることができる。ただし、レンズ状態制御部6が直接焦点距離を出力することができる場合には、図14のようなテーブルを用いて焦点距離を算出する必要はない。
【0086】
以上のようにして求まった撮像部1で利用するレンズの焦点距離をfとして、撮像部1に備わる撮像面の横幅をxとすると、図15から撮像部1の左右方向の視野角ψは次の式で求めることができる。
【0087】
ψ=2arctan(x/2f)
同様に、撮像部1に備わる撮像面の高さをyとすると、図15から撮像部1の上下方向の視野角μは次の式で求めることができる。
【0088】
μ=2arctan(y/2f)
以上のように、姿勢測定部5から送出された姿勢情報とレンズ状態制御部6から送出されたレンズ状態情報から撮像部1で利用するレンズのレンズ中心の位置と撮像部1の視野角が求まり、したがって撮像部1の視野を求めることが可能である。この際、撮像部1の視野を求める方法として上記のような方法を用いたが、撮像部1の視野が求まる方法であれば上記のような方法に限らずどのような方法でもよい。
【0089】
また、ステップS5では通信網11を通じて、サーバ14へ姿勢推定部5によって得られた姿勢データ、レンズ状態制御部6で得られたレンズ状態データを送出する。また同時に、サーバ14からはシステム全体の状態、雲台制御部4へ送られる制御信号、レンズ状態制御部6へ送られるレンズ制御信号などを受け取る。雲台制御部4、レンズ状態制御部6は受信した信号に従って、担当する機器を制御する。
【0090】
さらにステップS5ではコンピュータ映像生成部7が、姿勢測定部5から送出された姿勢情報とレンズ状態制御部6から送出されたレンズ状態情報から撮像部1の視野を推定し、データ部8から撮像部1の視野に含まれる範囲のデータを取得する。同時にこのデータは通信網を通じてサーバ14へも送られる。
【0091】
ステップS6ではデータ部8から取得したデータを用いてコンピュータ映像生成部7がコンピュータ映像を生成する。生成した映像は映像合成部3に送られる。
【0092】
ステップS6の時点で、データ部8にパノラマ映像を解像度を変えて多段に持ち利用すれば、撮像部1で利用するレンズのレンズ状態情報のうちズーム情報を用いてパノラマ映像の解像度を切り替えて表示することも可能である。すなわち、ズームアウトした時には解像度の粗いパノラマを表示し、ズームインしていくにつれ解像度の細かい映像を表示していくことで、常に鮮明なパノラマ映像をストレスなく提示することが可能である。
【0093】
ステップS7では、映像合成部3において撮影映像取込部2から送出された撮影映像と、コンピュータ映像生成部7から送出されたコンピュータ映像が合成される。合成された合成映像は表示部9に送られる。ステップS8では映像合成部3から送出されてきた映像情報を表示部9が表示する。その後ステップS9でシステムを終了するかどうかがチェックされ、システムを終了させる場合はステップS10でシステムを終了させ、終了させない場合にはステップS2に戻り、上述の処理を繰り返す。
【0094】
以上のように、第一の実施形態によれば、たとえば展望台において曇天時においても展望台からの晴天時の眺めを再現することができる。展望台において晴天時に撮影したパノラマ映像をあらかじめデータ管理部13またはデータ部8に格納し、姿勢情報とレンズ状態情報を用いて撮像部1の視野を定め、パノラマ映像からその視野の部分を切り出して表示部9に表示することで、前記の事項は達成される。
【0095】
以上のように、本実施形態に映像合成装置によれば、たとえば実際の風景のビルに重ねて仮想のキャラクタを見ることができる。データ管理部13またはデータ部8にあらかじめ現実世界の3次元モデル、現実世界の奥行データおよび仮想キャラクタの3次元CGデータを格納することで前記の事項は達成される。すなわち、あらかじめ現実世界のビルの間の部分に仮想の3次元CGのキャラクタの位置を定めておき、位置姿勢情報とレンズ状態情報を用いて適切な位置、すなわちビルの間の部分に仮想のキャラクタの映像を生成し、撮影映像取込部2で獲得した映像に合成すればよい。
【0096】
さらには、たとえば複数台の映像装置10から実際の風景の同一のビルに重ねて、それぞれの視点からの見え方で仮想のキャラクタを見ることができる。装置に入力した現実世界の3次元モデルが正確でないような場合でも、その位置・大きさ・向きなどのパラメータを調整することによって、現実のビルと仮想のキャラクタの前後関係をより正確に表現することが可能である。この調整は、映像装置10の撮影映像取込部2から取り込まれる映像にその視点から見た現実世界の奥行データを可視化して合成した映像を、複数の視点から同時に観測しながら行うことによって、調整を正確に効率よく行うことが可能である。また、3次元モデルの座標と映像中での対応点を入力することによって、これらの調整作業を自動で行うことも可能である。
【0097】
また、本実施形態によれば、たとえば特定の1台の映像装置10を手動で人が操作し、他の映像装置10については、手動で操作されている前記映像装置10において、観測されている対象と同一の対象を追跡することによって教示などに役立てることができる。また、他の映像装置10上で合成された映像を別の映像装置10に伝送することによって、ある視点からは死角になっていて見えない対象やその一部分(例えば建物の裏側など)を、別の角度から観測することも可能となる。
【0098】
本実施形態の映像合成装置においては、撮像部1に加えてもう一つ撮像部を持ち、それぞれの撮像部について撮影映像取込部2・コンピュータ映像生成部7・映像合成部3・表示部9を持つことで、本実施形態の映像合成装置を双眼鏡として使うことが可能になる。言うまでもないが、この際の映像合成装置の処理手順は撮像部1が一つの構成の場合と何ら変わりはない。この際、図示しない操作部や制御信号によりレンズの状態を操作する時には、それぞれの撮像部で利用するレンズの状態を連動させることが必要である。
【0099】
<第2の実施形態>
第2の実施形態では、図示しない合成映像記憶部20と図示しない記憶映像出力部21を備え、本実施形態の使用者が観察する合成映像を記憶し、表示部9以外の媒体に出力する。
【0100】
合成映像記憶部20は例えばハードディスクからなり、映像合成部3から合成映像信号を受け取り、記録する。合成映像記憶部20としては他にたとえばビデオレコーダやハードディスク等を用いることが考えられ、映像を記憶できる媒体であれば何でもよい。また、合成映像記憶部20には合成映像以外の情報も記憶され、たとえば合成した日付や場所といったテキスト情報や画像情報が記録される。
【0101】
合成映像記憶部20に合成映像などの情報を記憶する処理はステップS8に含まれる。映像合成部3は映像情報を表示部9に送出すると同時に、合成映像記憶部20に対しても映像情報を送出する。また、テキスト情報や画像情報などはデータ管理部13またはデータ部8から合成映像記憶部20に送出される。
【0102】
また、合成映像記憶部20は映像装置10に備えるだけでなく、サーバ14に備えることも可能である。映像合成部3から出力された合成映像は通信網11を介して合成映像記憶部20に入力される。この場合、合成映像記憶部20にはすべての映像装置10からの合成映像が記録されるので、複数の映像装置10からの合成映像を同時に参照することが可能である。
【0103】
記憶映像出力部21は例えばプリンタからなり、合成映像記憶部20が保持している情報を表示部9以外の媒体に出力する。この処理はステップS10に含まれる。本映像合成装置の使用者がステップS9で使用を終えたとき、ステップS8で記憶映像出力部21から出力された結果は使用者に渡される。使用者は自らが本実施形態の映像合成装置を使用した際の合成映像の静止画を記念として持ち帰ることや、また記憶映像出力部21にビデオレコーダを用いれば、使用者本人および他の使用者が合成装置を使用した際の合成映像の動画を持ち帰ることも可能である。
【0104】
以上のように第2の実施形態によれば、使用者は自らが体験して観察した映像のプリントアウトや合成映像の動画を持ち帰ることが可能となる。
【0105】
以上のように、前記各実施形態によれば、展望台などにおいて、本実施形態の映像合成装置を通して自由に視点を変えながら使用者は現実世界に重ねてCGを見たり、また現実世界のかわりにあらかじめ格納していたパノラマ映像を見たりすることができる。また、使用者は現実世界に現れたCGのキャラクタを自由に動かしたり、また合成映像の静止画や動画を記念品として持ち帰ることが可能である。さらに、現実世界と仮想世界との前後関係を表現するための調整作業を効率的に行うことも可能である。
【0106】
また、本実施形態の映像合成装置は、当然のことながら展望台や博物館での利用に限られるものではなく、本実施形態の映像合成装置が有効に利用可能な全ての状況において用いることが可能である。
【0107】
本実施形態の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本実施形態を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているオペレーティングシステム(0S)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0108】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0109】
【発明の効果】
本発明によれば、現実物体の3次元モデルを簡単に作成することができる。
【図面の簡単な説明】
【図1】映像合成装置の概略構成を示すブロック図である。
【図2】映像合成装置が通信網を介して相互接続される場合の構成を示すブロック図である。
【図3】映像合成装置の処理手順を説明するフローチャートである。
【図4】映像合成装置の処理手順のうち、データ準備の詳細を説明するフローチャートである。
【図5】現実世界の3次元モデルの調整作業を行うGUIの例を示す図である。
【図6】地図データから現実世界の3次元モデルを作成するためのGUIの例を示す図である.
【図7】現実世界の建物と仮想のキャラクタの前後関係が表現されていない場合の図である。
【図8】現実世界の建物と仮想のキャラクタの前後関係が表現されている場合の図である。
【図9】現実世界の建物と仮想のキャラクタの接触関係が表現されている場合の図である。
【図10】現実世界のモデルを二次元のモデルとして表現した場合の図である。
【図11】パノラマ映像の一部分にα値を与える場合を説明する図である。
【図12】姿勢制御部から送られる姿勢情報から撮像部で利用するレンズのレンズ中心の位置を求める方法を説明する図である。
【図13】姿勢制御部から送られる姿勢情報から撮像部で利用するレンズのレンズ中心の位置を求める方法を説明する図である。
【図14】レンズ状態制御部から送られるレンズ状態情報から撮像部で利用するレンズの焦点距離を求める方法を説明する図である。
【図15】撮像部で利用するレンズの焦点距離からレンズの視野角を求める方法を説明する図である。
【図16】地図データから現実世界の3次元モデルを生成する方法を説明する図である。
【図17】地図データから現実世界の3次元モデルを生成する方法を説明する図である。
【図18】撮像部でパノラマ映像を撮影し、データ部に格納する場合を説明する図である。
【図19】現実世界の3次元モデルの点と現実世界の映像中の点との対応付け作業を説明する図である。
【図20】現実世界の3次元モデルの調整作業を行うGUIの例を示す図である。
【図21】現実世界の3次元モデルの調整作業を行うGUIの例を示す図である。
【図22】現実世界の3次元モデルの調整作業を行うGUIの例を示す図である。
Claims (5)
- 現実世界の撮影画像に仮想世界のコンピュータ映像を合成するために用いる、該現実世界の現実物体の3次元モデルを設定する情報処理装置であって、
前記現実物体を含む現実世界を複数の視点から撮影することにより得られた複数の画像および該複数の画像の各々の視点情報を取得する取得手段と、
データ管理部に格納されている前記現実物体の3次元モデルを用いて、前記複数の視点情報の各々に対応するコンピュータ映像を生成する生成手段と、
前記複数の画像の各々に、対応する前記生成されたコンピュータ映像を合成する合成手段と、
前記合成された画像および前記現実世界の地図を調整画面上に表示する表示手段と、
ユーザ指示に応じて、前記データ管理部に格納されている前記現実物体の3次元モデルを調整する調整手段とを有し、
前記調整画面の地図上に前記視点情報が表示されることを特徴とする情報処理装置。 - 前記調整画面の地図上に表示される視点情報は視点および方向を示すことを特徴とする請求項1記載の情報処理装置。
- さらに、前記調整画面の地図上に表示された視点情報を選択する選択手段を有し、
前記調整画面上に表示される前記合成された画像は、前記選択された視点情報に応じていることを特徴とする請求項1記載の情報処理装置。 - 請求項1乃至3のいずれかに記載の情報処理装置をコンピュータを用いて実現するためのコンピュータが読み取り可能に記憶媒体に記憶されたプログラム。
- 取得部、生成部、合成部、表示部、調整部とを有する情報処理装置が実行する情報処理方法であり、現実世界の撮影画像に仮想世界のコンピュータ映像を合成するために用いる、該現実世界の現実物体の3次元モデルを設定するための情報処理方法であって、
前記取得部が前記現実物体を含む現実世界を複数の視点から撮影することにより得られた複数の画像および該複数の画像の各々の視点情報を取得する取得工程と、
前記生成部がデータ管理部に格納されている前記現実物体の3次元モデルを用いて、前記複数の視点情報の各々に対応するコンピュータ映像を生成する生成工程と、
前記合成部が前記複数の画像の各々に、対応する前記生成されたコンピュータ映像を合成する合成工程と、
前記表示部が前記合成された画像および前記現実世界の地図を調整画面上に表示する表示工程と、
前記調整部がユーザ指示に応じて、前記データ管理部に格納されている前記現実物体の3次元モデルを調整する調整工程とを有し、
前記調整画面の地図上に前記視点情報が表示されることを特徴とする情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001334706A JP4115117B2 (ja) | 2001-10-31 | 2001-10-31 | 情報処理装置および方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001334706A JP4115117B2 (ja) | 2001-10-31 | 2001-10-31 | 情報処理装置および方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2003141569A JP2003141569A (ja) | 2003-05-16 |
JP2003141569A5 JP2003141569A5 (ja) | 2007-01-11 |
JP4115117B2 true JP4115117B2 (ja) | 2008-07-09 |
Family
ID=19149797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001334706A Expired - Fee Related JP4115117B2 (ja) | 2001-10-31 | 2001-10-31 | 情報処理装置および方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4115117B2 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4235522B2 (ja) * | 2003-09-25 | 2009-03-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US7427996B2 (en) | 2002-10-16 | 2008-09-23 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP4677273B2 (ja) * | 2004-06-29 | 2011-04-27 | キヤノン株式会社 | 情報処理方法および情報処理装置 |
DE102006005044B4 (de) * | 2006-02-03 | 2011-01-27 | Metaio Gmbh | Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung |
JP4863790B2 (ja) * | 2006-07-03 | 2012-01-25 | 三菱プレシジョン株式会社 | 3次元コンピュータグラフィックス合成方法及び装置 |
JP2009017480A (ja) * | 2007-07-09 | 2009-01-22 | Nippon Hoso Kyokai <Nhk> | カメラキャリブレーション装置およびそのプログラム |
JP4973455B2 (ja) * | 2007-11-08 | 2012-07-11 | カシオ計算機株式会社 | 撮像装置、及び、プログラム |
US8570320B2 (en) * | 2011-01-31 | 2013-10-29 | Microsoft Corporation | Using a three-dimensional environment model in gameplay |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
JP5557043B2 (ja) * | 2011-03-29 | 2014-07-23 | ブラザー工業株式会社 | 仮想ラベル表示処理プログラム |
JP5734080B2 (ja) * | 2011-05-10 | 2015-06-10 | キヤノン株式会社 | 情報処理装置、その処理方法及びプログラム |
JP5915996B2 (ja) * | 2012-06-20 | 2016-05-11 | 清水建設株式会社 | 合成画像表示システム及びその方法 |
JP6091161B2 (ja) * | 2012-10-29 | 2017-03-08 | 三菱電機株式会社 | スケジュール作成装置およびコンテンツ表示システム |
US9058693B2 (en) * | 2012-12-21 | 2015-06-16 | Dassault Systemes Americas Corp. | Location correction of virtual objects |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
JP6314394B2 (ja) * | 2013-09-13 | 2018-04-25 | 富士通株式会社 | 情報処理装置、設定方法、設定プログラム、システムおよび管理装置 |
JP6298613B2 (ja) * | 2013-10-17 | 2018-03-20 | 株式会社ソニー・インタラクティブエンタテインメント | ゲームシステム、ゲーム制御方法、及びゲーム制御プログラム |
CN104809689B (zh) * | 2015-05-15 | 2018-03-30 | 北京理工大学深圳研究院 | 一种基于轮廓的建筑物点云模型底图配准方法 |
JP6685814B2 (ja) * | 2016-04-15 | 2020-04-22 | キヤノン株式会社 | 撮像装置およびその制御方法 |
US10607405B2 (en) * | 2016-05-27 | 2020-03-31 | Rakuten, Inc. | 3D model generating system, 3D model generating method, and program |
JP6768400B2 (ja) * | 2016-08-04 | 2020-10-14 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10885714B2 (en) | 2017-07-07 | 2021-01-05 | Niantic, Inc. | Cloud enabled augmented reality |
JP2018038837A (ja) * | 2017-10-30 | 2018-03-15 | 株式会社スクウェア・エニックス | ビデオゲーム処理プログラム、ビデオゲーム処理システム、およびユーザ端末 |
JP7144796B2 (ja) * | 2018-02-08 | 2022-09-30 | 株式会社バンダイナムコ研究所 | シミュレーションシステム及びプログラム |
WO2022264519A1 (ja) * | 2021-06-14 | 2022-12-22 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
JP7216874B1 (ja) | 2021-12-20 | 2023-02-02 | 株式会社電通 | 合成処理装置 |
WO2024095356A1 (ja) * | 2022-11-01 | 2024-05-10 | 株式会社バーチャルウインドウ | グラフィックス生成装置、グラフィックス生成方法及びプログラム |
-
2001
- 2001-10-31 JP JP2001334706A patent/JP4115117B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003141569A (ja) | 2003-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4115117B2 (ja) | 情報処理装置および方法 | |
JP5093053B2 (ja) | 電子カメラ | |
US8963943B2 (en) | Three-dimensional urban modeling apparatus and method | |
JP5538667B2 (ja) | 位置姿勢計測装置及びその制御方法 | |
JP5490040B2 (ja) | ディジタル3d/360度カメラシステム | |
JP5740884B2 (ja) | 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム | |
US8014985B2 (en) | Setting and visualizing a virtual camera and lens system in a computer graphic modeling environment | |
US11776577B2 (en) | Camera tracking system for live compositing | |
US7428482B2 (en) | Visualization and setting of a virtual camera and lens system in a computer graphic modeling environment | |
US20240087157A1 (en) | Image processing method, recording medium, image processing apparatus, and image processing system | |
JP2023546739A (ja) | シーンの3次元モデルを生成するための方法、装置、およびシステム | |
JP2003143477A (ja) | 映像合成装置および方法 | |
JP2005063041A (ja) | 3次元モデリング装置、方法、及びプログラム | |
JP4124995B2 (ja) | 映像合成装置および情報処理方法 | |
JP4135934B2 (ja) | 電子機器 | |
JP4498450B2 (ja) | ディスプレイ装置 | |
JP5200141B2 (ja) | 映像提示システム、映像提示方法、プログラム及び記録媒体 | |
JP5647813B2 (ja) | 映像提示システム、プログラム及び記録媒体 | |
US11682175B2 (en) | Previsualization devices and systems for the film industry | |
JP2002312810A (ja) | 合成動画像生成装置および合成動画像生成方法 | |
JP4368748B2 (ja) | コンテンツの編集方法、文書ファイル構造、情報処理装置およびシステム並びにプログラム | |
JP2024017224A (ja) | 情報処理装置、入出力装置、情報処理システム、情報処理方法、入出力方法、およびプログラム | |
JP2007226765A (ja) | 指示装置、指示システム、指示方法、及び指示プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040903 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070522 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071009 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080108 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080408 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080415 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110425 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110425 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130425 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130425 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140425 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |