JP2938845B1 - 3D CG live-action image fusion device - Google Patents

3D CG live-action image fusion device

Info

Publication number
JP2938845B1
JP2938845B1 JP6341298A JP6341298A JP2938845B1 JP 2938845 B1 JP2938845 B1 JP 2938845B1 JP 6341298 A JP6341298 A JP 6341298A JP 6341298 A JP6341298 A JP 6341298A JP 2938845 B1 JP2938845 B1 JP 2938845B1
Authority
JP
Japan
Prior art keywords
live
unit
viewpoint
image
display object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6341298A
Other languages
Japanese (ja)
Other versions
JPH11259685A (en
Inventor
俊彰 佐伯
信仁 宮内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP6341298A priority Critical patent/JP2938845B1/en
Application granted granted Critical
Publication of JP2938845B1 publication Critical patent/JP2938845B1/en
Publication of JPH11259685A publication Critical patent/JPH11259685A/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【要約】 【課題】 3次元CGとビデオ映像をリアルタイムに融
合し、3次元CGに代えてビデオ映像を利用する。 【解決手段】 2次元の実写映像をマッピングした実写
映像表示オブジェクトを見るユーザの視点位置/視線方
向の変化に応じて動的に実写映像表示オブジェクトの移
動先を計算するオブジェクト設置位置算定部1100
と、ユーザの視点位置/視線方向の変化に応じて実写映
像表示オブジェクトの3次元CGモデルを変更し、マッ
ピングする映像を変更するマッピング映像変更部120
0と、前記オブジェクト設置位置算定部1100と、前
記マッピング映像変更部1200の指示により変更を加
えた実写映像表示オブジェクトを作成するテクスチャオ
ブジェクト部1000からなる融合部105を備えるこ
とにより、実物が存在しているかのような臨場感、画像
品質を得る。
Abstract: PROBLEM TO BE SOLVED: To fuse a three-dimensional CG and a video image in real time and use a video image instead of the three-dimensional CG. SOLUTION: An object installation position estimating unit 1100 which dynamically calculates a destination of the real image display object according to a change in a viewpoint position / line of sight of a user who views a real image display object on which a two-dimensional real image is mapped.
And a mapping image changing unit 120 that changes the three-dimensional CG model of the real image display object according to the change in the user's viewpoint position / viewing direction and changes the image to be mapped.
0, the object installation position calculation unit 1100, and the fusion unit 105 including the texture object unit 1000 that creates a live-action video display object modified by an instruction from the mapping video change unit 1200, so that a real object exists. Realism and image quality as if you were

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】ビデオカメラで撮影した実写
映像と3次元CG(コンピュータグラフィックス)で作
られたオブジェクトを自然に見えるように融合して表示
する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for fusing and displaying a real image taken by a video camera and an object made by three-dimensional CG (computer graphics) so as to look natural.

【0002】[0002]

【従来の技術】以下に、従来の3次元CGに実写映像を
融合する発明について説明を行う。特開平5−1741
29号公報では、3次元場面の出力映像を、3次元CG
モデルデータ、背景映像データ、中間景映像データとい
った3種類のデータを合成することにより、3次元CG
モデルを現実的な環境下でリアルタイムの写真現実感あ
る表現として生成することを目的としたモデリング装置
が発明されている。背景映像は、図26に示すように、
対象物である3次元CGモデル2を囲むように設置され
た半球の内面上に写像された背景ビデオデータである。
背景を画定するビデオデータは、半球の内面上に画定さ
れる。例えば、背景は、建物の所定の位置での完全な3
60度の視界を形成する静止画を投射して得られる。中
間景映像は、遠方にある背景と3次元CGモデル2との
間の景観映像である。この中間景を画定する映像は、図
26に示すように、半球6の上のトポグラフィックな面
上に画定される。モデリング装置の基本機能ブロック図
を、図27に示す。モデリング装置は、コンピュータグ
ラフィックスモデラ11からの出力と背景ビデオ記憶装
置16Aと中間景ビデオ記憶装置16Bからのビデオ映
像とを制御装置15において組み合わせて、3次元場面
の出力映像を生成し、ディスプレイモニタ20に表示す
るというものである。
2. Description of the Related Art A description will be given below of an invention in which a real image is fused with a conventional three-dimensional CG. JP-A-5-1741
In Japanese Patent No. 29, an output image of a three-dimensional scene is converted into a three-dimensional CG image.
By combining three types of data such as model data, background video data, and mid-view video data, a three-dimensional CG
There has been invented a modeling device for generating a model as a real-time photorealistic expression in a realistic environment. The background image is, as shown in FIG.
This is background video data mapped on the inner surface of a hemisphere that is set so as to surround the three-dimensional CG model 2 that is the object.
The video data defining the background is defined on the inner surface of the hemisphere. For example, the background is a full 3
It is obtained by projecting a still image forming a field of view of 60 degrees. The intermediate scene image is a scene image between the distant background and the three-dimensional CG model 2. The image defining this intermediate view is defined on a topographic surface above the hemisphere 6, as shown in FIG. FIG. 27 shows a basic functional block diagram of the modeling device. The modeling device combines the output from the computer graphics modeler 11 and the video images from the background video storage device 16A and the intermediate scene video storage device 16B in the control device 15 to generate an output image of a three-dimensional scene, 20 is displayed.

【0003】また、被写体と3次元CGオブジェクトの
奥行き値を比較して前後関係を判定して、オブジェクト
のどの部分が実写背景映像に隠れるかを判断して表示す
るといった合成を行っているものがある。特開平8−1
53213号公報では、2次元実写動画像に、動きを伴
う3次元CGを合成して、立体感、現実感のある動画像
を作成し表示することを目的として、以下に示す画像合
成表示方法が記載されている。この発明に記載されてい
る画像合成表示方法は、コマンド入力手段により、使用
するCGモデルの選択と、選択したCGモデルを描画す
る3次元位置及び向きの指定を行い、実写画像の視点位
置を表す視点情報とその実写画像に写された物体の3次
元情報から、そのCGモデルのどの部分が見え、どの部
分が隠れるかを算出し、見える部分のみをその実写画像
に合成することにより、表示画像を作成するというもの
である。即ち、実写画像内に撮影された物体の3次元構
造の中に、上記CGモデルを埋め込むことができる。
[0003] In addition, there is a type of composition in which the depth value of a subject and that of a three-dimensional CG object are compared to determine the anterior-posterior relationship, and which part of the object is determined and hidden by the actual background image is displayed. is there. JP-A-8-1
No. 53213 discloses an image combining and displaying method described below for the purpose of creating and displaying a three-dimensional and realistic moving image by combining a two-dimensional real moving image with a three-dimensional CG with motion. Are listed. According to the image synthesizing and displaying method described in the present invention, a command input unit is used to select a CG model to be used and to specify a three-dimensional position and a direction in which the selected CG model is to be drawn, so as to represent a viewpoint position of a photographed image. From the viewpoint information and the three-dimensional information of the object captured in the actual image, the display image is calculated by calculating which part of the CG model is visible and which part is hidden and combining only the visible part with the actual image. Is created. That is, the CG model can be embedded in the three-dimensional structure of the object photographed in the real image.

【0004】また、撮影した実写映像から画像を選択
し、選択した画像を簡単な形状をした静的な平板などに
テクスチャとして貼り付けてCGとの合成を行い、この
合成処理を各映像のフレーム毎に繰り返し行うことによ
り、連続した合成画像を生成するものがある(199
3.4.25グループウェア研究会資料「仮想空間を用
いた画像コミュニケーション環境」NTTヒューマンイ
ンターフェース研究所、pp67−74)。
Further, an image is selected from a photographed video image, and the selected image is pasted as a texture on a static flat plate or the like having a simple shape and synthesized with CG. There is a type that generates a continuous synthesized image by repeating the process every time (199).
3.4.25 Groupware Study Group Materials, "Image Communication Environment Using Virtual Space," NTT Human Interface Laboratories, pp. 67-74).

【0005】[0005]

【発明が解決しようとする課題】一般に、3次元仮想世
界を3次元CGで構築すれば、その仮想世界の中をユー
ザの自由にウォークスルーすることができる。しかしな
がら、仮想世界を3次元CGのみで構築することは、仮
想世界が複雑になればなるほど、開発コストがかかり、
専門家が専用ツールを用いなければ作成できないとか、
コンテンツの画像品質が実写映像に比べて落ちるといっ
た問題を抱えている。そこで、これらの問題点を解消す
べく、3次元CGで構築された仮想世界に実写映像を取
り込むことが考えられている。しかしながら、上記従来
手法では、 (1)遠景、中間景は、静止画の映像で、ある視点位
置、即ち、ある3次元CGモデルを中心にして撮影され
た映像であるため、視点は、その3次元CGモデルの回
りしか移動できない。 (2)視点が移動しても、遠景、中間景の映像データが
変わらないと同時に、映像をマッピングしている投影部
が動かないため、視点の移動に伴う実写映像の見え方の
変化を反映させることができない。 (3)実写映像の撮影時のカメラの進行方向にしかウォ
ークスルーできない。 (4)3DCGの仮想世界へのイマージョン(イマージ
ョンとは、3次元CGで構築された仮想世界の中をウォ
ークスルーなどして仮想世界の中に入り込むこと)と実
写映像の世界へのイマージョンの使い分けができない。 (5)実写映像により作成された世界を複数のユーザに
より共有することができない。よって、実写映像の中を
イマージョン中、同じ実写映像の世界をイマージョンし
ている他のユーザとの出会い、コミュニケーションをす
ることができない。
Generally, when a three-dimensional virtual world is constructed by three-dimensional CG, a user can freely walk through the virtual world. However, constructing a virtual world only with three-dimensional CG requires more development costs as the virtual world becomes more complex.
Experts can not create without using special tools,
There is a problem that the image quality of the content is lower than that of the actual video. Therefore, in order to solve these problems, it has been considered to capture a real image in a virtual world constructed by three-dimensional CG. However, according to the above-described conventional method, (1) the distant view and the intermediate view are still images and are images captured at a certain viewpoint position, that is, a certain 3D CG model. It can only move around the dimensional CG model. (2) Even if the viewpoint moves, the video data of the distant view and the intermediate view do not change, and at the same time, since the projection unit that maps the image does not move, the change in the appearance of the real image due to the movement of the viewpoint is reflected. I can't let it. (3) Walk-through can be performed only in the traveling direction of the camera at the time of shooting the actual video. (4) Immersion into the virtual world of 3DCG (Immersion is to walk into the virtual world by walking through the virtual world constructed by 3D CG) and immersion into the world of live-action video Can not. (5) The world created by live-action video cannot be shared by a plurality of users. Therefore, during the immersion in the live-action video, it is not possible to meet and communicate with other users immersing in the world of the same live-action video.

【0006】この発明は、上記のような問題点を解消す
るためになされたものであり、3次元CGモデルにより
構築された3次元仮想世界に、2次元実写画像を融合す
ることにより、現実感のある3次元仮想世界を提供する
3次元CG実写映像融合装置を提供することを目的とす
る。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and has been developed to fuse a two-dimensional real image with a three-dimensional virtual world constructed by a three-dimensional CG model. It is an object of the present invention to provide a three-dimensional CG live-action image fusion device that provides a certain three-dimensional virtual world.

【0007】[0007]

【課題を解決するための手段】この発明に係る3次元C
G実写映像融合装置は、平面オブジェクトに実写映像を
融合した実写映像表示オブジェクトを3次元仮想世界に
配置する3次元コンピュータグラフィックス(以下、
「コンピュータグラフィックス」を「CG」と称する)
実写映像融合装置において、以下の要素を備えることを
特徴とする。 (a)3次元仮想世界を3次元CGモデルで構築する仮
想世界構築部、(b)上記3次元CGモデルで構築され
た3次元仮想世界に対して視点の変化を検出する視点管
理部、(c)平面オブジェクトに映像をマッピングして
表示する実写映像表示オブジェクトの情報を記憶する記
憶部を有し、上記視点管理部で検出した視点の変化に基
づいて視界にある実写映像表示オブジェクトを検出して
上記記憶部に記憶された実写映像表示オブジェクトの情
報を用いて、少なくとも、平面オブジェクトの形状と位
置のいずれかを変化させて実写映像表示オブジェクトを
3次元仮想世界に配置する融合部。
A three-dimensional C according to the present invention is provided.
The G live-action image fusion device is a three-dimensional computer graphics (hereinafter, referred to as “hereafter”) that arranges a live-action image display object obtained by fusing a real object image with a plane object in a three-dimensional virtual world.
"Computer graphics" is called "CG")
The live-action video fusion device is provided with the following elements. (A) a virtual world construction unit that constructs a three-dimensional virtual world with a three-dimensional CG model, (b) a viewpoint management unit that detects a change in viewpoint with respect to the three-dimensional virtual world constructed with the three-dimensional CG model, c) a storage unit for storing information of a live-action video display object that maps and displays a video on a plane object, and detects a live-action video display object in a field of view based on a change in viewpoint detected by the viewpoint management unit. A fusion unit for arranging at least one of the shape and the position of the planar object and arranging the real image display object in the three-dimensional virtual world using the information of the real image display object stored in the storage unit.

【0008】上記融合部は、実写映像表示オブジェクト
を特定するオブジェクト情報を記憶する実写映像表示オ
ブジェクトデータベース部と、上記視点管理部により検
出された視点の変化に基づいて視界を求め、上記視界に
ある実写映像表示オブジェクトを上記実写映像表示オブ
ジェクトデータベース部を検索して検出する視点位置視
線方向検出部と、上記視点位置視線方向検出部が検出し
たオブジェクト情報に基づいて上記平面オブジェクトの
設置位置を算定するオブジェクト設定位置算定部と、上
記視点位置視線方向検出部が検出したオブジェクト情報
に基づいて上記平面オブジェクトの形状と、上記平面オ
ブジェクトに融合する映像とを決定するマッピング映像
変更部と、上記マッピング映像変更部により決定された
映像を上記マッピング映像変更部により決定された形状
の平面オブジェクトに融合し、上記オブジェクト設定位
置算定部により算定された設置位置に上記映像を融合し
た平面オブジェクトを設置して実写映像表示オブジェク
トを生成するテクスチャオブジェクト部とを備えたこと
を特徴とする。
[0008] The fusion unit obtains a field of view based on a change in the viewpoint detected by the viewpoint management unit, and a real image display object database unit that stores object information specifying the real image display object. A viewpoint position gaze direction detecting unit that searches for the real image display object by searching the real image display object database unit, and calculates an installation position of the plane object based on the object information detected by the viewpoint position gaze direction detection unit. An object setting position calculating unit, a mapping image changing unit that determines a shape of the plane object and an image fused with the plane object based on the object information detected by the viewpoint position gaze direction detecting unit, and the mapping image change The video determined by the Texture object unit that fuses with the planar object having the shape determined by the video image changing unit and installs the planar object that fuses the image at the installation position calculated by the object setting position calculation unit to generate a real image display object And characterized in that:

【0009】上記マッピング映像変更部は、映像を記憶
する映像データベース部と、平面オブジェクトの形状を
記憶する形状データベース部とを備え、上記視点位置視
線方向検出部が検出したオブジェクト情報に基づいて、
上記映像データベース部を参照し平面オブジェクトに融
合する映像を決定し、上記形状データベース部を参照し
平面オブジェクトの形状を決定することを特徴とする。
The mapping image changing section includes an image database section for storing an image and a shape database section for storing a shape of a plane object.
The image to be merged with the plane object is determined with reference to the image database section, and the shape of the plane object is determined with reference to the shape database section.

【0010】上記実写映像表示オブジェクトデータベー
ス部は、1つの視界に対して実写映像表示オブジェクト
を特定するオブジェクト情報を複数記憶するとともに、
上記複数のオブジェクト情報から所定のオブジェクト情
報を選択する選択条件を記憶し、上記視点位置視線方向
検出部は、上記実写映像表示オブジェクトデータベース
部より上記選択条件に基づいてオブジェクト情報を取得
し、上記3次元CG実写映像融合装置は、上記視点位置
視線方向検出部と、上記実写映像表示オブジェクトデー
タベース部と、上記オブジェクト設定位置算定部と、上
記マッピング映像変更部とを備える複数のオブジェクト
管理部とを備えるとともに、1つの上記テクスチャオブ
ジェクト部を備えることを特徴とする。
The live-action image display object database stores a plurality of pieces of object information for specifying the live-action image display object for one view.
A selection condition for selecting predetermined object information from the plurality of pieces of object information is stored, and the viewpoint position gaze direction detection unit acquires object information from the real image display object database unit based on the selection condition. The three-dimensional CG live-action image fusion device includes a plurality of object management units including the viewpoint position gaze direction detection unit, the real-life image display object database unit, the object setting position calculation unit, and the mapping image change unit. And one texture object section.

【0011】上記3次元CG実写映像融合装置は、ユー
ザ毎にネットワークに接続されるとともに、ユーザ毎に
備えられた上記オブジェクト管理部により少なくとも平
面オブジェクトの設置位置と平面オブジェクトに表示す
る映像と平面オブジェクトの形状のいずれかを所定のユ
ーザ間で共有するように制御する共有制御部を備えるこ
とを特徴とする。
[0011] The three-dimensional CG live-action image fusion device is connected to a network for each user. And a sharing control unit that controls to share any of the shapes among predetermined users.

【0012】上記実写映像表示オブジェクトは、遠景オ
ブジェクトと中間景オブジェクトと近景オブジェクトと
により構成され、上記テクスチャオブジェクト部は、視
点位置及び視線方向の変化に関係なく、遠景オブジェク
トとして表示する3次元CGモデルと、遠景オブジェク
トの設置位置と、遠景オブジェクトに表示する映像とを
固定する遠景テクスチャオブジェクト部と、視点位置及
び視線方向のいずれか一方の変化に伴い、中間景オブジ
ェクトの設置位置を変更する中間景テクスチャオブジェ
クト部と、視点位置及び視線方向のいずれか一方の変化
に伴い、近景オブジェクトとして表示する3次元CGモ
デルと、近景オブジェクトの設置位置と、近景オブジェ
クトに表示する映像とを変更する近景テクスチャオブジ
ェクト部とを備えたことを特徴とする。
The real image display object is composed of a distant view object, an intermediate view object and a near view object, and the texture object portion is a three-dimensional CG model for displaying as a distant view object regardless of a change in a viewpoint position and a line of sight direction. A distant view texture object section that fixes the installation position of the distant view object and the image displayed on the distant view object, and an intermediate view that changes the installation position of the intermediate view object according to a change in one of the viewpoint position and the line of sight A texture object portion, a three-dimensional CG model displayed as a foreground object, a setting position of the foreground object, and a video displayed on the foreground object in response to a change in one of the viewpoint position and the line-of-sight direction. Parts It is characterized in.

【0013】上記オブジェクト管理部は、上記視点位置
視線方向検出部が検出した新たな視点位置から表示して
いた実写映像表示オブジェクトの設置位置までの距離を
算出し、算出した距離に基づいて表示していた実写映像
表示オブジェクトを中間景オブジェクトとして表示する
か近景オブジェクトとして表示するかを決定し、決定し
た結果を上記テクスチャオブジェクト部に通知する制御
モード変更部を備え、上記テクスチャオブジェクト部
は、上記制御モード変更部からの通知に従い上記中間景
テクスチャオブジェクト部と上記近景テクスチャオブジ
ェクト部のいずれか一方により新たな実写映像表示オブ
ジェクトを生成することを特徴とする。
The object management unit calculates a distance from the new viewpoint position detected by the viewpoint position gaze direction detection unit to the installation position of the displayed real image display object, and displays based on the calculated distance. A control mode change unit that determines whether to display the actual photographed video display object as an intermediate view object or a near view object, and notifies the texture object unit of the determined result. In accordance with the notification from the mode changing unit, a new real image display object is generated by one of the intermediate view texture object unit and the close view texture object unit.

【0014】この発明に係る3次元CG実写映像融合装
置は、平面オブジェクトに実写映像を融合した実写映像
表示オブジェクトを3次元仮想世界に配置する3次元C
G実写映像融合装置において、以下の要素を備えること
を特徴とする。 (a)上記実写映像を撮影した視点位置と視線方向とを
上記実写映像と対応させ記憶する視点実写データベース
部、(b)所定の視界に表示すべき実写映像表示オブジ
ェクトを特定するオブジェクト情報を記憶する実写映像
表示オブジェクトデータベース部、(c)3次元仮想世
界における少なくとも視点位置と視線方向のいずれかを
変化させる入力部、(d)上記入力部により変化される
視点位置と上記視線方向とを、上記視点実写データベー
ス部に記憶された視点位置と視線方向とにより定まる撮
影経路に従いガイドし、上記入力部より入力された視点
位置と視線方向とにより所定の領域を求め、上記所定の
領域に表示する実写映像表示オブジェクトを特定するオ
ブジェクト情報を上記実写映像表示オブジェクトデータ
ベース部より取得し、上記取得したオブジェクト情報に
基づいて実写映像表示オブジェクトに表示する実写映像
を決定する視点制御部、(e)上記視点制御部により決
定された実写映像表示オブジェクトに表示する実写映像
を融合する平面オブジェクトの映像融合面と上記視線方
向とが直交するように実写映像表示オブジェクトの設置
位置を算出するテクスチャオブジェクト移動先算定部、
(f)上記実写映像表示オブジェクトデータベース部よ
り取得したオブジェクト情報に基づいて上記平面オブジ
ェクトの形状と、上記平面オブジェクトに融合する映像
とを決定するマッピング映像変更部、(g)上記マッピ
ング映像変更部により決定された映像を上記マッピング
映像変更部により決定された形状の平面オブジェクトに
融合して実写映像表示オブジェクトを生成し、上記テク
スチャオブジェクト移動先算定部により算定された設置
位置に上記生成した実写映像表示オブジェクトを設置す
るテクスチャオブジェクト部。
A three-dimensional CG live-action image fusion device according to the present invention is a three-dimensional CG real-view image fusion device for arranging a real-life image display object obtained by fusing a real-life image with a plane object in a three-dimensional virtual world.
The G live-action image fusion device includes the following elements. (A) a viewpoint live-action database unit that stores a viewpoint position and a line-of-sight direction in which the live-action video was captured in association with the live-view video; (C) an input unit for changing at least one of the viewpoint position and the line-of-sight direction in the three-dimensional virtual world; (d) the viewpoint position and the line-of-sight direction changed by the input unit; It guides according to a shooting path determined by the viewpoint position and the line-of-sight direction stored in the viewpoint actual-photography database unit, obtains a predetermined area based on the viewpoint position and the line-of-sight direction input from the input unit, and displays the predetermined area. Obtain object information specifying the live-action video display object from the live-action video display object database unit A viewpoint control unit for determining a real image displayed on the real image display object based on the acquired object information; and (e) a plane object for fusing the real image displayed on the real image display object determined by the viewpoint control unit. Texture object movement destination calculation unit that calculates the installation position of the real image display object so that the image fusion plane and the line of sight are orthogonal to each other,
(F) a mapping image changing unit that determines the shape of the plane object and an image to be merged with the plane object based on the object information acquired from the real image display object database unit; and (g) the mapping image changing unit. The determined image is fused with the planar object having the shape determined by the mapping image changing unit to generate a real image display object, and the generated real image display is generated at the installation position calculated by the texture object moving destination calculation unit. Texture object section where objects are placed.

【0015】この発明に係る3次元CG実写映像融合装
置は、平面オブジェクトに実写映像を融合した実写映像
表示オブジェクトを3次元仮想世界に配置する3次元C
G実写映像融合装置において、以下の要素を備えること
を特徴とする。 (a)3次元仮想世界における少なくとも視点位置と視
線方向のいずれかを変化させる入力部、(b)所定の視
界に表示すべき実写映像表示オブジェクトを特定するオ
ブジェクト情報を記憶する実写映像表示オブジェクトデ
ータベース部、(c)複数の実写映像表示オブジェクト
を水平方向に張り合わせて円筒状の3次元仮想世界を設
置し、上記入力部より入力された視点位置に応じて上記
複数の実写映像表示オブジェクトより所定の実写映像表
示オブジェクトを選択して表示及び非表示のいずれかを
行う表示管理部、(d)上記複数の実写映像表示オブジ
ェクトより1つを選択し、上記入力部より入力された視
点位置が上記選択した実写映像表示オブジェクトに向か
って移動していることを監視するとともに、上記視点位
置が選択していない他の実写映像表示オブジェクトの所
定の範囲の領域に存在することを監視するユーザ監視
部。
[0015] A three-dimensional CG live-action image fusion device according to the present invention is a three-dimensional CG real-view image fusion device in which a real-life image display object obtained by fusing a real-life image with a plane object is arranged in a three-dimensional virtual world.
The G live-action image fusion device includes the following elements. (A) an input unit that changes at least one of a viewpoint position and a line-of-sight direction in a three-dimensional virtual world; (b) a live-action video display object database that stores object information for specifying a live-action video display object to be displayed in a predetermined field of view (C) a cylindrical three-dimensional virtual world is installed by laminating a plurality of live-action video display objects in the horizontal direction, and a predetermined three-dimensional virtual world is set from the plurality of live-action video display objects according to the viewpoint position input from the input unit. (D) selecting one of the plurality of live-action video display objects and selecting a viewpoint position input from the input unit; That the camera is moving toward the live-action video image display object The user monitoring unit for monitoring the presence in a region of a predetermined range of the other photographed image display objects.

【0016】上記3次元CG実写映像融合装置は、更
に、上記実写映像を撮影した視点位置と視線方向とを上
記実写映像と対応させ記憶する視点実写データベース部
と、上記ユーザ監視部により監視された視点位置が存在
する所定の範囲内の領域を含む実写映像表示オブジェク
トに基づいて上記視点実写データベース部より撮影経路
を取得し、取得した撮影経路に従い視点位置の移動に制
約を加える視点制御管理部とを備えることを特徴とす
る。
The three-dimensional CG live-action image fusion device is further monitored by the viewpoint live-action database unit for storing a viewpoint position and a line-of-sight direction in which the real-life image was taken in correspondence with the real-life image, and by the user monitoring unit. A viewpoint control management unit that acquires a photographing path from the viewpoint actual photograph database unit based on a photographed image display object including a region within a predetermined range in which the viewpoint position exists, and restricts movement of the viewpoint position according to the acquired photographing path; It is characterized by having.

【0017】[0017]

【発明の実施の形態】実施の形態1.実施の形態1は、
3次元CGモデルである平面オブジェクトに映像をマッ
ピングした実写映像表示オブジェクトを3次元仮想世界
に配置し、3次元仮想世界を見るユーザの視点位置と移
動(視線方向)に合わせて実写映像表示オブジェクトを
移動し、マッピングする実写映像を変更する。このこと
により、あたかも実物があるかのような現実感を提供
し、臨場感を向上させることができる。実写映像表示オ
ブジェクトとは、3次元CGモデルとその3次元CGモ
デルにマッピング表示する映像テクスチャから構成され
るものである。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 Embodiment 1
A live-action video display object in which a video is mapped to a plane object, which is a three-dimensional CG model, is arranged in a three-dimensional virtual world, and the real-life video display object is adjusted according to the viewpoint position and movement (gaze direction) of a user who views the three-dimensional virtual world. Move and change the live-action video to map. As a result, it is possible to provide a sense of reality as if there is a real object, and to improve the sense of presence. The live-action video display object is composed of a three-dimensional CG model and a video texture mapped and displayed on the three-dimensional CG model.

【0018】図1は、融合装置の基本構成について示し
た機能ブロック図である。図1において、100は入力
されたコマンドや受け付けたデータ/信号の処理を行う
キーボード/マウス/ジョイスティック/自転車型デバ
イス等の入力部で、101は前記入力部100を操作し
て、3次元仮想世界を見るユーザの視点位置/視線方向
を変化させたときの新しい視点位置と視線方向とを検出
する視点管理部である。105は視点管理部101が検
出した視点及び視線方向の変化に基づき、ユーザの視界
にある前記実写映像表示オブジェクトを特定するオブジ
ェクト情報を取得し、取得したオブジェクト情報に基づ
いて、平面オブジェクトの形状と設置位置を変更し、そ
の平面オブジェクトに表示する映像を選択し、選択した
映像を平面オブジェクトに融合して実写映像表示オブジ
ェクトを生成する融合部である。融合部105の詳細な
構成を後で説明する。1600は3次元CGモデルを登
録保管している3次元CGモデルデータベース部であ
り、1500はテクスチャデータを格納するテクスチャ
データベース部であり、102はユーザの視界に入る3
次元CGモデルを3次元CGモデルデータベース部16
00より抽出して、更に、その中から表示すべき3次元
CGモデルとその3次元CGモデルが必要とするテクス
チャデータを抽出して融合部105が生成した実写映像
表示オブジェクトと3次元CGモデルとテクスチャデー
タとを合成するレンダリング部であり、106は前記レ
ンダリング部102にてその合成した映像を表示する表
示部である。仮想世界構築部99は、入力部100とテ
クスチャデータベース部1500と3次元CGモデルデ
ータベース部1600とレンダリング部102と表示部
106とにより構成される。
FIG. 1 is a functional block diagram showing the basic configuration of the fusion device. In FIG. 1, reference numeral 100 denotes an input unit such as a keyboard / mouse / joystick / bicycle-type device for processing input commands and received data / signals, and 101 denotes a three-dimensional virtual world by operating the input unit 100. This is a viewpoint management unit that detects a new viewpoint position and a line-of-sight direction when the viewpoint position / line-of-sight direction of the user who views the image is changed. 105 acquires object information that specifies the real-life image display object in the user's field of view based on the change in the viewpoint and the line-of-sight direction detected by the viewpoint management unit 101, and, based on the acquired object information, This is a fusion unit that changes the installation position, selects a video to be displayed on the plane object, and fuses the selected video with the plane object to generate a live-action video display object. The detailed configuration of the fusion unit 105 will be described later. Reference numeral 1600 denotes a three-dimensional CG model database unit that stores and stores a three-dimensional CG model. 1500 denotes a texture database unit that stores texture data.
3D CG model database unit 16
00, a three-dimensional CG model to be displayed, and texture data required by the three-dimensional CG model are extracted therefrom. A rendering unit for synthesizing the texture data and a display unit 106 displays the video synthesized by the rendering unit 102. The virtual world construction unit 99 includes an input unit 100, a texture database unit 1500, a three-dimensional CG model database unit 1600, a rendering unit 102, and a display unit 106.

【0019】以下に、入力部100を操作して、3次元
仮想世界をウォークスルーするシステムにおいて、実写
映像をマッピングしたテクスチャオブジェクトを3次元
仮想世界に配置することにより、あたかも実オブジェク
トモデルが存在するかのように見せかけるための動作に
ついて説明する。
In the following, in a system in which the input unit 100 is operated to walk through a three-dimensional virtual world, a real object model exists by arranging a texture object on which a real image is mapped in the three-dimensional virtual world. An operation for making it appear as if it is will be described.

【0020】まず、ユーザは、入力部100を操作し
て、3次元仮想世界を見るユーザ(アバタ)の視点位置
や視線方向を変化させる。入力部100により、視点位
置や視線方向を変化させると、その変化を視点管理部1
01が検出する。その検出した新しい視点位置や視線方
向を用いて、融合部105にて、視点位置と視線方向か
ら求められるユーザの視界に入る実写映像表示オブジェ
クトを生成する。そして、レンダリング部102におい
て、視点管理部101により検出された新しいユーザの
視点位置、視線方向から、ユーザの視界に入る3次元C
Gモデルを3次元CGモデルデータベース部1600よ
り抽出し、更に、その3次元CGモデルが必要とするテ
クスチャデータをテクスチャデータベース部1500よ
り抽出して、融合部105により生成された実写映像表
示オブジェクトと3次元CGモデルとテクスチャデータ
とを合成する。合成した映像は、ディスプレイなどの表
示部106に表示する。
First, the user operates the input unit 100 to change the viewpoint position and line-of-sight direction of the user (avatar) viewing the three-dimensional virtual world. When the viewpoint position or the line-of-sight direction is changed by the input unit 100, the change is recognized by the viewpoint management unit 1.
01 detects. Using the detected new viewpoint position and line-of-sight direction, the fusion unit 105 generates a real image display object that enters the user's field of view determined from the viewpoint position and the line-of-sight direction. Then, in the rendering unit 102, the three-dimensional C that enters the user's field of view from the new user's viewpoint position and line-of-sight direction detected by the viewpoint management unit 101.
The G model is extracted from the three-dimensional CG model database unit 1600, and the texture data required by the three-dimensional CG model is extracted from the texture database unit 1500. The dimensional CG model and the texture data are synthesized. The synthesized video is displayed on a display unit 106 such as a display.

【0021】融合部105の動作を詳しく説明する。図
2は、実施の形態1に係る融合装置の融合部の機能ブロ
ック図である。図2において、1000は3次元CGに
より構成されたポリゴン(ポリゴンとは、図形を構成す
る最小単位である)からなる平面オブジェクトに映像を
マッピングするテクスチャオブジェクト部である。19
00は視点位置/視線方向検出部であり、視点管理部1
01より検出されたユーザの視点位置及び視線方向か
ら、ユーザの視界を求め、視界に入る実写映像表示オブ
ジェクトを特定するオブジェクト情報を実写映像表示オ
ブジェクトデータベース部1700より取得する。
The operation of the fusion unit 105 will be described in detail. FIG. 2 is a functional block diagram of the fusion unit of the fusion device according to the first embodiment. In FIG. 2, reference numeral 1000 denotes a texture object unit for mapping an image onto a plane object formed of a polygon (a polygon is a minimum unit forming a figure) formed by three-dimensional CG. 19
Reference numeral 00 denotes a viewpoint position / viewing direction detecting unit.
01, the user's field of view is determined from the user's viewpoint position and line-of-sight direction, and object information for specifying a real-field video display object entering the field of view is obtained from the real-field video object database unit 1700.

【0022】図3に、実写映像表示オブジェクトデータ
ベース部1700に記憶されているオブジェクト情報の
一例を示す。図3において、17001は領域定義テー
ブルであり、X座標の最小値と最大値及びY座標の最小
値と最大値により定まる所定の領域を定義するテーブル
である。X座標とY座標とにより定まる領域には領域I
Dがふられており、領域ID毎に遠景を定義する情報
(17002,17003)と中間景を定義する情報
(17004,17005)と近景を定義する情報(1
7006,17007,17008,17009)が記
憶されている。各定義テーブルには、「画像ファイル
名」を示す項目があり、画像ファイル名が示すテーブル
に実写映像の情報が記憶されている。更に、視点位置/
視線方向検出部1900は、ユーザの視点位置及び視線
方向と実写映像表示オブジェクトとの位置関係を求め
る。一例を、図4に示す。図4(a)に3次元座標を示
す。Y座標は高さを示すが、3次元仮想世界を2次元の
平面上に表現するため、高さに対するスカラー値はない
ものとする。図4(b)における基線1は、Z軸と平行
であり、Z軸の正の方向に向いているものとする。そし
て、基本となる実写映像表示オブジェクトは基線に対し
て垂直になるように設置されるものとする。実写映像表
示オブジェクトは、ユーザの視線方向の変化に基づいて
基本となる実写映像表示オブジェクトを回転させて生成
する。このため、1900はユーザの視線方向ベクトル
2と基線1との視線角αを求める。更に、視点3から実
写映像表示オブジェクト5までの距離4を求める。距離
4は、ユーザの視点3から視線方向ベクトル3と実写映
像表示オブジェクト5が垂直に交わる点までの距離であ
る。距離によって実写映像表示オブジェクトの大きさを
大きくしたり小さくする。これにより、映像がよりリア
ルになる。1100は視点管理部101より検出された
ユーザの視点位置/視線方向に応じた実写映像表示オブ
ジェクトを構成する平面オブジェクトの移動先を計算す
るオブジェクト設定位置算定部である。1200は視点
管理部101より検出されたユーザの視点位置/視線方
向と視点位置/視線方向検出部1900により求めた位
置関係に応じて表示(マッピング)すべき映像を選択
し、テクスチャオブジェクト部1000に対して表示
(マッピング)する映像の変更指示を出すマッピング映
像変更部である。マッピング映像変更部1200は、視
点管理部101より検出されたユーザの視点位置/視線
方向と視点位置/視線方向検出部1900により求めた
位置関係に基づいて表示する映像を映像データベース部
1300より選択し、また、選択された映像を表示する
平面オブジェクトの3次元形状(3次元CGモデル)を
形状データベース部1400より入手する。例えば、視
点位置/視線方向検出部1900により求めた距離によ
って平面オブジェクトの横と縦の比率を変化させる。テ
クスチャオブジェクト部1000は、マッピング映像変
更部1200より平面オブジェクトの3次元形状を通知
され、オブジェクト設定位置算定部1100より、平面
オブジェクトの設置位置の変更先/移動先を通知され
る。その後、テクスチャオブジェクト部1000は、表
示していた実写映像表示オブジェクトを消去(非表示)
して、指定されたオブジェクト形状に指定された映像を
マッピングした実写映像表示オブジェクトを生成し、指
定された場所に設置する。映像データベース部1300
よりマッピング映像変更部1200が取得する映像は静
止画であったり、動画である場合もある。また、指定さ
れたカメラ、或いは、ユーザの視点からリアルタイムに
入力されているビデオ映像である場合もある。映像が動
画である場合、ユーザの視点(カメラ)の移動速度に応
じて、再生速度を変更したり、その視点/カメラの現在
位置に応じて、表示する映像フレームを変更する。
FIG. 3 shows an example of object information stored in the live-action video display object database unit 1700. In FIG. 3, reference numeral 17001 denotes an area definition table which defines a predetermined area determined by the minimum and maximum values of the X coordinate and the minimum and maximum values of the Y coordinate. Area I is defined by the X coordinate and the Y coordinate.
D, the information (17002, 17003) defining the distant view, the information (17004, 17005) defining the intermediate view, and the information (1) defining the near view for each area ID.
7006, 17007, 17008, 17909) are stored. Each definition table has an item indicating “image file name”, and information of the actually shot video is stored in the table indicated by the image file name. Furthermore, the viewpoint position /
The line-of-sight direction detection unit 1900 obtains the positional relationship between the user's viewpoint position and line-of-sight direction and the real image display object. An example is shown in FIG. FIG. 4A shows three-dimensional coordinates. Although the Y coordinate indicates the height, it is assumed that there is no scalar value for the height because the three-dimensional virtual world is represented on a two-dimensional plane. The base line 1 in FIG. 4B is parallel to the Z axis and is oriented in the positive direction of the Z axis. Then, it is assumed that the basic real image display object is installed so as to be perpendicular to the base line. The real image display object is generated by rotating the basic real image display object based on a change in the user's line of sight. For this reason, 1900 finds the viewing angle α between the user's viewing direction vector 2 and the base line 1. Further, a distance 4 from the viewpoint 3 to the real image display object 5 is obtained. The distance 4 is a distance from the user's viewpoint 3 to a point at which the line-of-sight direction vector 3 and the real image display object 5 intersect vertically. The size of the real image display object is increased or decreased depending on the distance. This makes the image more realistic. Reference numeral 1100 denotes an object setting position calculation unit that calculates a destination of a plane object that constitutes a real image display object according to the viewpoint position / line of sight of the user detected by the viewpoint management unit 101. 1200 selects a video to be displayed (mapped) in accordance with the user's viewpoint position / viewing direction detected by the viewpoint management unit 101 and the positional relationship obtained by the viewpoint position / viewing direction detection unit 1900, and sends it to the texture object unit 1000. This is a mapping video changing unit that issues a change instruction for a video to be displayed (mapped). The mapping video changing unit 1200 selects a video to be displayed from the video database unit 1300 based on the user's viewpoint position / sight direction detected by the viewpoint management unit 101 and the positional relationship obtained by the viewpoint position / view direction detection unit 1900. Also, the three-dimensional shape (three-dimensional CG model) of the planar object displaying the selected video is obtained from the shape database unit 1400. For example, the horizontal / vertical ratio of the plane object is changed according to the distance obtained by the viewpoint position / viewing direction detecting unit 1900. The texture object unit 1000 is notified of the three-dimensional shape of the plane object from the mapping image changing unit 1200, and is notified of the change destination / movement destination of the installation position of the plane object from the object setting position calculation unit 1100. Thereafter, the texture object unit 1000 deletes (non-displays) the displayed live-action video display object.
Then, a live-action video display object in which the specified video is mapped to the specified object shape is generated and installed at the specified location. Video database unit 1300
The video acquired by the mapping video changing unit 1200 may be a still image or a moving image. Further, the video image may be a video image input in real time from a designated camera or a user's viewpoint. When the image is a moving image, the reproduction speed is changed according to the moving speed of the viewpoint (camera) of the user, and the image frame to be displayed is changed according to the current position of the viewpoint / camera.

【0023】オブジェクト設置位置算定部1100は、
例えば、図5に示すように、入力されたユーザの視点の
位置からユーザの視点位置を始点とする水平外向きの視
線ベクトルaと実写映像表示オブジェクトcとが直行す
る方向に、実写映像表示オブジェクトの設定位置を算定
する。また、視線ベクトルがaからbへ移動したら、視
線ベクトルbと直交する方向に実写映像表示オブジェク
トの設定位置を算定する。テクスチャオブジェクト部1
000は、実写映像表示オブジェクトの3次元形状とマ
ッピング映像を変更する通知をマッピング映像変更部1
200より受けると、実写映像表示オブジェクトの形状
とマッピング映像を変更する。このことにより、従来の
ブラウザでテクスチャオブジェクト部1000を設置し
た3次元仮想世界をユーザの視点で見える映像を計算し
てレンダリングするだけで、実写映像を融合した3次元
仮想世界を表示することができる。
The object installation position calculation unit 1100 includes:
For example, as shown in FIG. 5, in the direction in which the horizontal outward line-of-sight vector a starting from the user's viewpoint position and the real-view image display object c are orthogonal to the input position of the user's viewpoint, Calculate the setting position of. When the line-of-sight vector moves from a to b, the set position of the real image display object is calculated in a direction orthogonal to the line-of-sight vector b. Texture object part 1
000 is a notification that changes the three-dimensional shape of the live-action video display object and the mapping video,
When the information is received from 200, the shape of the real image display object and the mapping image are changed. As a result, a 3D virtual world obtained by fusing actual shot images can be displayed only by calculating and rendering a video that can be viewed from the user's viewpoint with respect to the 3D virtual world in which the texture object unit 1000 is installed in a conventional browser. .

【0024】次に、融合部105の動作を幾つかのタイ
プに分けて説明する。まず、図6に示すような平板をZ
軸回りにEの方向に回転させ、映像を変更して、実物が
あるかのように見せかける方法について説明する。その
処理フローを図7に示す。このタイプ(仮に「タイプ
A」と呼ぶ)では、特定の対象物(例えば、木)の映像
を360°、1回りのビデオ映像を取り、n分割する。
そして、360°/n°*i(但し、1≦i≦n−1,
n>0)の方向から見た映像を抽出し、その映像より特
定の対象物を抽出し、抽出した対象物以外の部分を透明
表示とする。例えば、抽出した映像に、木と空と芝が撮
影されていたら、木を特定の対象物として抽出し、空と
芝が撮影されている部分を透明表示にする。このn個の
映像を、映像データベース部1300に登録しておく。
Next, the operation of the fusion unit 105 will be described for several types. First, a flat plate as shown in FIG.
A method of rotating an image in the direction of E around the axis and changing the image to make it appear as if there is a real object will be described. FIG. 7 shows the processing flow. In this type (tentatively referred to as “type A”), an image of a specific object (for example, a tree) is taken at 360 ° and one-turn video image, and is divided into n.
Then, 360 ° / n ° * i (where 1 ≦ i ≦ n−1,
An image viewed from the direction of n> 0) is extracted, a specific object is extracted from the image, and a portion other than the extracted object is transparently displayed. For example, if a tree, sky, and turf are photographed in the extracted video, the tree is extracted as a specific object, and a portion where the sky and turf are photographed is displayed in a transparent manner. The n videos are registered in the video database unit 1300.

【0025】図7の処理フローにおいて、まず、視点管
理部101より視点位置/視線方向検出部1900に、
ユーザの視点位置/視線方向が通知される(S1)。視
点位置/視線方向検出部1900は、ユーザの視点位置
/視線方向より対象とするオブジェクトの基線Cから何
度回転した地点にユーザの視点があるか視線角を計算す
る(S2)。座標は、図6に示すように、高さ方向を
z、奥行きをx、広がりをyとすると、基線Cは、回転
軸Eを通るyに平行な線とする。そして、実写映像表示
オブジェクトは、視線ベクトルBに対して垂直になるよ
うに設置する。このため、視点A、視線ベクトルBに対
する視線角は、図6に示すように、「α」となる。視点
位置/視線方向検出部1900は、検出した視線角をマ
ッピング映像変更部1200とオブジェクト設定位置算
定部1100に通知する。マッピング映像変更部120
0は、視線角αから撮影した映像を映像データベース部
1300より選択し、その映像をマッピングする映像表
示オブジェクトの3次元形状を形状データベース部14
00より選択する。但し、図6の場合は、3次元形状は
変更しない。次いで、テクスチャオブジェクト部100
0に対してマッピング映像変更部1200は、実写映像
表示オブジェクトに表示する映像を指示する(S3)。
ユーザの視点位置(先ほど計算したユーザの視線角でも
良い)を受け取ったオブジェクト設定位置算定部110
0は(S4)、受け取ったユーザの視点位置/視線方向
における視線ベクトルBと実写映像表示オブジェクトの
面方向が直行するように、実写映像表示オブジェクトを
設置する位置を計算する。計算後、オブジェクト設定位
置算定部1100は、テクスチャオブジェクト部100
0に実写映像表示オブジェクトの変更移動先を通知する
(S5)。テクスチャオブジェクト部1000は、マッ
ピング映像変更部1200から指示された実写映像を平
面オブジェクトにマッピングし、実写映像をマッピング
した平面オブジェクトをオブジェクト設定位置算定部1
100から指示された場所に設置する(S6)。このよ
うな処理を繰り返すことにより、ユーザが移動すると実
写映像表示オブジェクトが移動し、表示映像が変更され
るため、あたかも特定の対象物がその場所にあるかのよ
うに表示させることができる。
In the processing flow of FIG. 7, first, the viewpoint management unit 101 sends the information to the viewpoint position / viewing direction detection unit 1900.
The user's viewpoint position / viewing direction is notified (S1). The viewpoint position / line-of-sight direction detection unit 1900 calculates the line-of-sight angle at which point the user's viewpoint is rotated from the base line C of the target object based on the user's viewpoint position / line-of-sight direction (S2). As shown in FIG. 6, assuming that the height direction is z, the depth is x, and the spread is y, the base line C is a line passing through the rotation axis E and parallel to y, as shown in FIG. Then, the real image display object is set so as to be perpendicular to the line-of-sight vector B. Therefore, the viewing angle with respect to the viewpoint A and the viewing vector B becomes “α” as shown in FIG. The viewpoint position / viewing direction detecting unit 1900 notifies the mapping view changing unit 1200 and the object setting position calculating unit 1100 of the detected viewing angle. Mapping video changing unit 120
0 selects an image captured from the visual line angle α from the image database unit 1300, and sets the three-dimensional shape of the image display object on which the image is mapped to the shape database unit 14;
Select from 00. However, in the case of FIG. 6, the three-dimensional shape is not changed. Next, the texture object unit 100
For 0, the mapping video changing unit 1200 instructs a video to be displayed on the live-action video display object (S3).
Object setting position calculating unit 110 that receives the user's viewpoint position (or may be the user's gaze angle calculated earlier)
0 (S4) calculates the position at which the real image display object is installed so that the received line of sight vector B at the viewpoint position / line of sight of the user is orthogonal to the plane direction of the real image display object. After the calculation, the object setting position calculation unit 1100 sets the texture object unit 100
0 is notified of the change destination of the real image display object (S5). The texture object unit 1000 maps the real image instructed by the mapping image changing unit 1200 to a plane object, and maps the plane object on which the real image is mapped to the object setting position calculating unit 1.
It is installed at a location designated by 100 (S6). By repeating such processing, when the user moves, the live-action video display object moves, and the display video is changed, so that it is possible to display as if a specific target is at that location.

【0026】ビルのように直方体にテクスチャを貼るだ
けで良いような建物の場合は、立方体のポリゴン、或い
は、5つの平板形状の平面オブジェクトに、各5方向か
ら撮影した映像をそれぞれの面にマッピングして建物を
立方体形状に組み上げれば良い。この場合、実写映像表
示オブジェクトは、ユーザの視点が変わっても移動させ
る必要がなく、マッピングする映像も変更する必要がな
い。
In the case of a building such as a building in which it is only necessary to paste texture on a rectangular parallelepiped, images taken from each of the five directions are mapped onto a cubic polygon or five flat plate-shaped planar objects on each surface. Then build the building into a cubic shape. In this case, the live-action video display object does not need to be moved even when the viewpoint of the user changes, and the video to be mapped does not need to be changed.

【0027】次いで、図8のように通路や建物やトンネ
ルの外側を3次元CGモデルで表示して、通路や建物や
トンネルの内部を実写映像にて代替し、通路や建物やト
ンネルの内部を外から見た映像を表示させるタイプの処
理について説明する。このタイプを仮に「タイプB」と
呼ぶ。映像を撮影する高さとウォークスルー時の視点を
同じ位置に設定して、対象オブジェクトの映像を撮影す
る。対象オブジェクトの撮影は、図9に示すように、例
えば、対象物eを中心に所定の長さの半径を持つ円を描
き、その円周上のA点,B点,C点のそれぞれの分轄地
点にカメラを設置して撮影する。A点,B点,C点は、
角度βで等分割してある。各分割地点から撮影した映像
の中から特定の対象を抽出し、抽出した映像をマッピン
グする平面オブジェクトの3次元形状を決定し、マッピ
ング時に特定対象物以外の映像部分を透明表示にする。
図8では、トンネルの入口を外から見た映像を表示して
いる。例えば、トンネルの入口に人物を撮影した映像を
表示する場合、撮影した映像には人物のバックに海が映
っていたとすると、海の背景は透明表示にして人物だけ
を映像より抽出して平面オブジェクトにマッピングす
る。処理のフローは、図7とほぼ同じである。図7と異
なる部分は、オブジェクト設定位置算定部1100によ
る映像をマッピングした実写映像表示オブジェクトの移
動先の計算処理である。テクスチャオブジェクト部10
00は、図6では3次元形状は変更せずに、実写映像表
示オブジェクトを回転させるだけであった。しかし、図
8の場合は、ユーザの視点位置に応じた3次元形状を選
択し、その映像を貼り込む3次元仮想世界のオブジェク
ト、例えば、建物側のモデルと実写映像表示オブジェク
トの映像が一致するように実写映像表示オブジェクトを
設置しなければならない。図8では、トンネル入口を外
から見た映像を表示している。視点Aから見えるトンネ
ル入口部の3次元形状は、実写映像表示オブジェクトG
の斜線部分である。映像は、斜線部分の他に格子縞部分
も含む。格子縞部分は、表示しないようにしなければな
らない。更に、図8に示した実写映像表示オブジェクト
Gは、トンネル入口部分を空きがないように、全てカバ
ーするように設置されている。もし、実写映像表示オブ
ジェクトGが上にすれたり、下にずれたりして設置され
ると、実写映像表示オブジェクトGとトンネル入口部分
の3次元CGモデルが重ならなくなってしまう。このた
め、この実写映像表示オブジェクトの設置位置は、あら
かじめ計算して算出しておき、映像データベース部13
00に登録しておく。よって、ウォークスルー時は、こ
のデータの示す位置に実写映像表示オブジェクトを設置
する。設置後、レンダラー(レンダラーとは、3次元C
Gとビデオ映像からなる3次元仮想世界を表示する装置
である)にて、ユーザの視点から見える映像を計算し表
示すればよい。こうすることにより、特定した建物の窓
や、通路の入口の内部を実物を見ているかのように外か
ら見ることができる。
Next, as shown in FIG. 8, the outside of the passage, the building, or the tunnel is displayed by a three-dimensional CG model, and the inside of the passage, the building, or the tunnel is replaced by a real image, and the inside of the passage, the building, or the tunnel is replaced. A process of displaying an image viewed from the outside will be described. This type is temporarily called "type B". The image of the target object is shot by setting the height at which the image is shot and the viewpoint during the walk-through at the same position. As shown in FIG. 9, the target object is photographed, for example, by drawing a circle having a radius of a predetermined length centering on the target object e, and dividing points A, B, and C on the circumference of the circle. Install a camera at the point and shoot. The points A, B and C are
It is equally divided by the angle β. A specific target is extracted from the video captured from each division point, the three-dimensional shape of the plane object on which the extracted video is mapped is determined, and the video portion other than the specific target is transparently displayed at the time of mapping.
FIG. 8 shows an image of the entrance of the tunnel viewed from the outside. For example, if an image of a person is displayed at the entrance of a tunnel, and if the captured image shows the sea behind the person, the background of the sea is transparently displayed and only the person is extracted from the image to create a planar object. To map. The processing flow is almost the same as in FIG. The difference from FIG. 7 is the calculation processing of the destination of the real image display object to which the image is mapped by the object setting position calculation unit 1100. Texture object section 10
In FIG. 6, in FIG. 6, the three-dimensional shape is not changed, and only the real image display object is rotated. However, in the case of FIG. 8, a three-dimensional shape corresponding to the user's viewpoint position is selected, and the object of the three-dimensional virtual world where the image is pasted, for example, the image of the building side model and the image of the real image display object match. The live-action video display object must be installed as shown. FIG. 8 shows an image of the tunnel entrance viewed from the outside. The three-dimensional shape of the tunnel entrance seen from the viewpoint A is a real image display object G
It is a shaded portion of. The image includes a checkered portion in addition to a hatched portion. Plaid portions must not be displayed. Further, the live-action video display object G shown in FIG. 8 is installed so as to cover the entire tunnel entrance so that there is no space. If the live-action video display object G is placed upside down or shifted downward, the live-action video display object G and the three-dimensional CG model of the tunnel entrance will not overlap. For this reason, the installation position of the live-action video display object is calculated and calculated in advance, and the video database 13
Register at 00. Therefore, at the time of the walk-through, the real image display object is set at the position indicated by this data. After installation, renderer (Renderer is a 3D C
It is a device that displays a three-dimensional virtual world composed of G and video images), and calculates and displays images that can be viewed from the user's viewpoint. By doing so, the windows of the identified building and the inside of the entrance of the passage can be seen from the outside as if they were looking at the real thing.

【0028】実施の形態2.この実施の形態2では、上
記実施の形態1において説明した図6及び図8とは異な
り、図8で示した建物の入口や、通路の入口、トンネル
の入口から、実写映像にて作成された建物や通路やトン
ネル等の内部へウォークスルーする場合について説明す
る。このタイプを仮に「タイプC」と呼ぶ。図10に、
トンネルの内部へウォークスルーする例を説明する。図
10では、実写映像表示オブジェクトの形状が実物の通
路と同じサイズでその実写映像表示オブジェクトにマッ
ピングされる映像もユーザの見る視点から実際に写真を
撮影したものをテクスチャとして貼り付けて、仮想世界
をウォークスルーする場合を考える。図11は、実施の
形態2の3次元CG実写映像融合装置の主要部分の機能
ブロック図を示す。図11において、2000はカメラ
を自動車、或いは、台車等に載せて、ユーザの視点位置
にてカメラを移動させながら撮影したビデオ映像の各フ
レームと、そのフレームの映像を撮影したカメラの視点
位置/視線方向の情報を対にして記憶する視点実写デー
タベース部である。2100はカメラの移動経路に沿っ
て、ユーザの視点をガイドし、ユーザが決定した経路の
前進移動距離/後進移動距離より、新たなユーザの視点
/視線方向を決定する視点制御部で、2200は前記ユ
ーザの視点の移動と同じ方向、かつ、同じ移動量でユー
ザの視線方向と前記実写映像表示オブジェクトの映像面
とが直交するように、前記実写映像表示オブジェクトの
設置位置を算出するテクスチャオブジェクト移動先算定
部である。他の要素は、図1及び図2の同じ符号の要素
と同一の要素であるものとする。
Embodiment 2 In the second embodiment, unlike FIGS. 6 and 8 described in the first embodiment, a live-action image is created from the entrance of the building, the entrance of the passage, and the entrance of the tunnel shown in FIG. A case of walking through a building, a passage, a tunnel, or the like will be described. This type is temporarily called "type C". In FIG.
An example of walking through the inside of the tunnel will be described. In FIG. 10, in the virtual world, the shape of the live-view image display object is the same size as the real path and mapped to the live-view image display object is obtained by pasting, as a texture, an actual photograph taken from the user's viewpoint. Consider the case of walking through. FIG. 11 is a functional block diagram of a main part of the three-dimensional CG live-action image fusion device according to the second embodiment. In FIG. 11, reference numeral 2000 denotes each frame of a video image taken by moving the camera at the viewpoint position of the user with the camera mounted on a car or a trolley, and the viewpoint position / This is a viewpoint actual photograph database unit that stores information on the line of sight in pairs. A viewpoint control unit 2100 guides the user's viewpoint along the movement path of the camera, and determines a new viewpoint / gaze direction of the user based on the forward movement distance / reverse movement distance of the path determined by the user. Texture object movement for calculating the installation position of the live-action video display object so that the direction of the user's line of sight and the image plane of the live-action video display object are orthogonal to each other in the same direction as the movement of the user's viewpoint and by the same amount of movement This is the calculation unit. The other elements are the same as the elements having the same reference numerals in FIGS. 1 and 2.

【0029】3次元仮想世界をウォークスルーするユー
ザの視点の位置にて、実際の世界をカメラにて撮影す
る。撮影時の映像と撮影地点(カメラの視点位置/視線
方向)がわかるように映像データを作成し、視点実写デ
ータベース部2000に登録しておく。映像データで不
必要な部分は、編集して削除しておく。テクスチャオブ
ジェクト部1000は、レンダリング時に自然に見える
ように、背景をその削除した部分に書き込む。また、出
口から外の3次元仮想世界が見えるように、出口部分を
透明表示にしておく。図12に、実施の形態2における
3次元CG実写映像融合装置の処理手順を示す。建物や
通路やトンネルの入口部に接近するまでは、上記実施の
形態1で図8を用いて説明したタイプBの方法で3次元
仮想世界の表示を実現する(S10)。ユーザの視点か
ら見た映像が入口の中の映像のみになった時点で、撮影
した映像に切り替える(S11)。入口の中の映像のみ
になったか否かは、テクスチャオブジェクト部1000
により判断する。テクスチャオブジェクト部1000
は、ユーザの視点位置と視線方向とから視界を求め、視
界に入る映像データを実写映像表示オブジェクトデータ
ベース部1700より取得し、取得した映像が入口より
内部のデータであるか否かにより判断する。映像が切り
替わった瞬間、これまで表示していた実写映像表示オブ
ジェクトは、非表示とし、他の実写映像表示オブジェク
トに表示を切り替える。ユーザは、入力部100より前
進、或いは、後退コマンドを入力し、視点位置を移動さ
せる。このとき、視点の移動は、視点制御部2100の
制約を受け、視点実写データベース部2000に登録さ
れているカメラの撮影経路に沿った移動しかできない
(S12)。視点の移動が完了すると、テクスチャオブ
ジェクト移動先算定部2200により、実写映像表示オ
ブジェクトの移動先をユーザの視点の移動に追随させて
移動するように算定する(S13)。移動先、即ち、設
置位置が確定すると、テクスチャオブジェクト部100
0に移動先を通知する。そして、マッピング映像変更部
1200は、移動先で表示するユーザの視点位置/視線
方向から見える実写映像を映像データベース部1300
より選択し、テクスチャオブジェクト部1000に通知
する(S14)。テクスチャオブジェクト部1000
は、映像データと実写映像表示オブジェクトの設置位置
を受け取ると、直ちにこれまで表示していた実写映像表
示オブジェクトを消去し、受け取った移動先に実写映像
表示オブジェクトを設置し、映像をマッピングする(S
15)。視点の進行に応じて、その視点から見える実写
映像が実写映像表示オブジェクトにマッピングされる。
ユーザの視点と実写映像表示オブジェクトとの間隔は、
常に一定に保たれるように、ユーザの視点の動きに合わ
せて実写映像表示オブジェクトは、3次元仮想世界を移
動することになる。このとき、ユーザは決められたコー
スを前進、或いは、後進することしかできない。視点制
御部2100は、前記ユーザの視点位置を監視し、視点
位置がある一定の範囲内にあり、かつ、実写映像表示オ
ブジェクトに向かって移動している場合に、ユーザの視
点の制御(束縛)を開始し、一定のコース(視点実写デ
ータベース部2000に登録されている経路)を終了す
るまで視点の制御(束縛)を行う。経路を抜け出し、こ
の映像表示オブジェクトから一定の距離を離れ、このオ
ブジェクトに向かって進行しなければ、視点を束縛され
ることはない。実写映像表示オブジェクトの設置位置と
マッピングする映像が決まると、あとは、レンダリング
部102の描画により、他の3次元CGモデルと同じ処
理にて表示部106に表示される。
At the position of the viewpoint of the user who walks through the three-dimensional virtual world, the real world is photographed by a camera. Video data is created so that the video at the time of shooting and the shooting location (viewpoint position / line of sight of the camera) can be understood, and registered in the viewpoint real-photography database unit 2000. Unnecessary parts of the video data are edited and deleted. The texture object unit 1000 writes the background in the deleted portion so that it looks natural at the time of rendering. Also, the exit portion is displayed in a transparent manner so that the outside three-dimensional virtual world can be seen from the exit. FIG. 12 shows a processing procedure of the three-dimensional CG live-action image fusion device according to the second embodiment. Until approaching the entrance of the building, the passage, or the tunnel, the display of the three-dimensional virtual world is realized by the type B method described with reference to FIG. 8 in the first embodiment (S10). When the video viewed from the user's viewpoint becomes only the video in the entrance, the video is switched to the captured video (S11). Whether or not only the image in the entrance has been reached is determined by the texture object section 1000
Judge by Texture object section 1000
Determines the field of view from the user's viewpoint position and line-of-sight direction, obtains video data entering the field of view from the real image display object database unit 1700, and determines whether the obtained video is data inside the entrance. At the moment the video is switched, the live-action video display object that has been displayed so far is hidden, and the display is switched to another live-action video display object. The user inputs a forward or backward command from the input unit 100 to move the viewpoint position. At this time, the movement of the viewpoint is restricted only by the viewpoint control unit 2100, and can only move along the photographing route of the camera registered in the viewpoint actual photograph database unit 2000 (S12). When the movement of the viewpoint is completed, the texture object movement destination calculation unit 2200 calculates that the movement destination of the live-action video display object follows the movement of the user's viewpoint (S13). When the movement destination, that is, the installation position is determined, the texture object unit 100
0 is notified of the destination. Then, the mapping video changing unit 1200 converts the live-view video displayed from the viewpoint / gaze direction of the user displayed at the destination to the video database unit 1300.
And then notifies the texture object unit 1000 (S14). Texture object section 1000
Receives the video data and the installation position of the live-view video display object, immediately deletes the live-view video display object that has been displayed so far, installs the live-view video display object at the received destination, and maps the video (S
15). In accordance with the progress of the viewpoint, the real image viewed from the viewpoint is mapped to the real image display object.
The distance between the user's viewpoint and the live-action video display object is
The real image display object moves in the three-dimensional virtual world in accordance with the movement of the user's viewpoint so that the object is always kept constant. At this time, the user can only move forward or backward on the determined course. The viewpoint control unit 2100 monitors the viewpoint position of the user, and controls (constrains) the viewpoint of the user when the viewpoint position is within a certain range and is moving toward the live-action video display object. Is started, and the viewpoint is controlled (bound) until a certain course (path registered in the viewpoint actual photograph database unit 2000) is completed. If the user exits the route, leaves a certain distance from the video display object, and does not proceed toward the object, the viewpoint is not restricted. When the image to be mapped to the installation position of the real image display object is determined, the image is displayed on the display unit 106 by the rendering unit 102 in the same process as the other three-dimensional CG models.

【0030】タイプCでは、ユーザが早く前進すれば、
映像も早く切り替わることになる。よって、ユーザの進
行スピードを高速にした場合は、テクスチャオブジェク
ト部1000は、表示する映像を間引いて表示すること
になる。
In type C, if the user moves forward quickly,
The video will also switch quickly. Therefore, when the traveling speed of the user is increased, the texture object unit 1000 thins out and displays the video to be displayed.

【0031】通路、或いは、建物の出口に近づくと、外
に見える3次元CGモデルにより構成された3次元仮想
世界の映像と通路の実写映像を融合した映像を、実写映
像表示オブジェクトにマッピングすることになる(S1
6)。通路を抜けると、これまで実写映像を表示してい
た映像表示オブジェクトを非表示とする。そのときは、
出口から見た外の3次元仮想世界の映像が表示される。
また、その外の3次元仮想世界に、実写映像表示オブジ
ェクトが存在する場合は、その映像表示オブジェクトに
ついては、実写映像がマッピングされたものとなる。ま
た、逆走した映像を同様にして作成すれば、ウォークス
ルーの途中にて、前進後進を切り替えることが可能であ
る。例えば、車にカメラをセットして、ユーザの視点位
置に高さを調整して、車のウォークスルーに合わせて撮
影したものを表示すると、車から見た実写映像の中をウ
ォークスルーするようなシステムを構築することが可能
である。
When approaching a passage or an exit of a building, mapping an image obtained by fusing an image of a three-dimensional virtual world formed by a three-dimensional CG model that is visible to the outside with a real image of a passage to a real image display object. (S1
6). When passing through the passage, the image display object, which has been displaying the actual image, is not displayed. That time,
An image of the outside three-dimensional virtual world seen from the exit is displayed.
Further, when a live-action video display object exists in the other three-dimensional virtual world, the live-view video is mapped to the video display object. In addition, if the reverse running image is created in the same manner, it is possible to switch between forward and backward during the walk-through. For example, if you set a camera on a car, adjust the height to the user's viewpoint, and display what was shot according to the walkthrough of the car, you would walk through the live-action video seen from the car It is possible to build a system.

【0032】実施の形態3.図13,14に、実写映像
表示オブジェクトに実写映像と3次元CGモデルを融合
する実施の形態3の機能ブロック図を示す。図13,1
4において、3000は実写映像表示オブジェクトにマ
ッピングされている実写映像に、3次元CGモデルをオ
ーバーライトする実写映像CGモデル融合部であり、3
100は前記ユーザの視点から見える仮想世界の映像に
表示されている3次元CGモデルの中から、適宜必要に
応じて表示する3次元CGモデルを選択するオブジェク
ト選択部である。その他の符号の要素については、図
1,2,11の同じ符号の要素と同一要素とする。
Embodiment 3 FIG. FIGS. 13 and 14 are functional block diagrams of a third embodiment in which a real image and a three-dimensional CG model are combined with a real image display object. Figures 13 and 1
4, reference numeral 3000 denotes a live-action video CG model fusion unit that overwrites a three-dimensional CG model on a real-life video mapped to a real-life video display object.
An object selection unit 100 selects a three-dimensional CG model to be displayed as needed from the three-dimensional CG model displayed in the image of the virtual world viewed from the viewpoint of the user. Elements of the other reference numerals are the same as those of the same reference numerals in FIGS.

【0033】実写映像表示オブジェクトにマッピングす
る映像が、例えば、建物の通路の出口から外に向かって
見えている映像である場合、外の景色が3次元CGモデ
ルで構成されているときは、その外の景色に相当する部
分に3次元CGモデルを融合しなければならない。オブ
ジェクト選択部3100は、視点位置/視線方向検出部
1900で求めたユーザの視界に基づいて、その視界に
入っている3次元CGモデルを3次元CGモデルデータ
ベース部1600から抽出し、更に、その中から実行モ
ードに応じて、レンダリングする3次元CGモデルを選
択する。ここでいう「実行モード」とは、例えば、季節
を示すモードであり、「春のモード」、「秋のモー
ド」、「冬のモード」、「夏のモード」により選択する
3次元CGモデルを変更するためのパラメータである。
実写映像CGモデル融合部3000は、オブジェクト選
択部3100により選択された3次元CGモデルを、実
写映像表示オブジェクトにマッピングされた実写テクス
チャのレンダリング映像の上にオーバーライトして合成
する。丁度、実写映像表示オブジェクトのマッピング映
像に3次元CGモデルが合成されたように表示される。
即ち、実写映像CGモデル融合部3000は、実写映像
表示オブジェクトにより死角になる部分の仮想世界に、
ユーザの視点から見える3次元CGモデルを実行モード
に応じて3次元CGモデルデータベース部1600より
選択し、実写映像表示オブジェクトにマッピングされた
映像の上に選択した3次元CGモデルの映像をマッピン
グ合成する。よって、実写映像表示オブジェクトに表示
されている映像の中のオブジェクトと3次元CGモデル
との位置(奥行き)関係を計算して、どの部分が表示さ
れ、隠れるかなどの処理は一切行わない。こうすること
により、処理の高速化が実現される。このオブジェクト
選択部3100と実写映像CGモデル融合部3000を
設けることにより、実写映像だけでなく、その映像表示
オブジェクトの先(死角部分)に存在する、即ち、その
先に見える3次元CGモデルを表示することが可能とな
る。
For example, when the image to be mapped to the real image display object is an image viewed outward from the exit of the passage of the building, and when the outside scene is constituted by a three-dimensional CG model, the image is displayed. A three-dimensional CG model must be fused to a part corresponding to the outside scenery. The object selecting unit 3100 extracts a three-dimensional CG model included in the field of view from the three-dimensional CG model database unit 1600 based on the user's field of view obtained by the viewpoint position / line-of-sight direction detecting unit 1900. And selects a three-dimensional CG model to be rendered according to the execution mode. The “execution mode” here is, for example, a mode indicating a season, and changes a three-dimensional CG model selected from “spring mode”, “autumn mode”, “winter mode”, and “summer mode”. Parameters to perform.
The live-action video CG model fusion unit 3000 overwrites and synthesizes the three-dimensional CG model selected by the object selection unit 3100 on the rendering image of the real-life texture mapped to the real-life video display object. Just like the three-dimensional CG model is displayed on the mapping video of the real video display object.
In other words, the live-action video CG model fusion unit 3000 creates a virtual
A three-dimensional CG model that can be viewed from the user's viewpoint is selected from the three-dimensional CG model database unit 1600 according to the execution mode, and the image of the selected three-dimensional CG model is mapped and synthesized on the image mapped to the real image display object. . Therefore, the position (depth) relationship between the object in the video displayed on the real video display object and the three-dimensional CG model is calculated, and no processing such as which part is displayed or hidden is not performed. By doing so, the processing can be speeded up. By providing the object selection unit 3100 and the real image CG model fusion unit 3000, not only the real image but also the three-dimensional CG model that exists at the end (the blind spot) of the image display object, that is, appears ahead of the image display object is displayed. It is possible to do.

【0034】図13に示した構成の3次元CG実写映像
融合装置では、ユーザの視点位置/視線方向を撮影経路
にガイドされて視線位置/視線方向に追随して実写映像
表示オブジェクトを移動させる。しかし、視点位置の移
動に追随して実写映像表示オブジェクトを移動させるの
ではなく、移動前と移動後の視点位置/視線方向におけ
る実写映像表示オブジェクトを静止画のように表示し
て、実写映像表示オブジェクトのマッピング映像に3次
元CGモデルを融合する場合は、図14に示すような構
成の3次元CG実写映像融合装置とする。
In the three-dimensional CG real image fusion device having the configuration shown in FIG. 13, the user's viewpoint position / view direction is guided by the photographing path, and the real image display object is moved following the view position / view direction. However, instead of moving the real image display object in accordance with the movement of the viewpoint position, the real image display object at the viewpoint position / gaze direction before and after movement is displayed as a still image, and the real image display is performed. When a three-dimensional CG model is fused to a mapping video of an object, a three-dimensional CG real image fusion device having a configuration as shown in FIG. 14 is used.

【0035】また、3次元仮想世界のモデル全てを3次
元CGで作成する必要がなく、特定のオブジェクトのみ
を3次元CGで作成し、正確な仮想世界内の座標値に設
置するだけでよいような場合は、3次元仮想世界を実写
映像で補うことが可能である。このように、3次元CG
モデルと実写映像を融合する実写映像CGモデル融合部
3000を設けることにより、コンテンツ開発コストの
削減と現実感/臨場感を向上させることができる。
Further, it is not necessary to create all the models of the three-dimensional virtual world by the three-dimensional CG, but to create only the specific object by the three-dimensional CG and to set them at the coordinate values in the accurate virtual world. In such a case, it is possible to supplement the three-dimensional virtual world with a real image. Thus, three-dimensional CG
By providing the live-action video CG model fusion unit 3000 that fuses the model and the live-action video, it is possible to reduce the content development cost and improve the realism / realism.

【0036】実施の形態4.実施の形態2のテクスチャ
オブジェクト部1000が作成する実写映像表示オブジ
ェクトでは、進行方向が視点実写データベース部200
0に登録された経路に示された方向に限定される。この
ため、ユーザは、自由に進行方向を変えることができな
い。そこで、以下に示す機構を設けることにより、ユー
ザにある程度進行方向を選択できるようにする。図15
は、実施の形態4の3次元CG実写映像融合装置の主要
部分の構成について示した機能ブロック図である。図1
6は、実施の形態4における実写映像表示オブジェクト
を示す図である。図15において、4000は図16に
示すように、円筒状に複数の実写映像表示オブジェクト
を水平方向に張り合わせて3次元仮想世界に設置し、ユ
ーザの視点位置に応じて、前記円筒状に張り合わせた実
写映像表示オブジェクトを表示したり、非表示させる表
示管理部である。4100は前記ユーザが実写映像表示
オブジェクトの中から1つを選択し、例えば、実写映像
表示オブジェクト4310aを選択し、選択した前記実
写映像表示オブジェクトの映像表示面と垂直の方向に視
点を移動しようとしているかどうか、即ち、視点位置が
ある一定の範囲内にあり、かつ、前記映像表示オブジェ
クトに向かって移動しているかどうかを監視するユーザ
監視部である。4200はユーザの視点位置/視線方向
に基づいて、視点の移動経路を制御する視点制御管理部
である。図16の例では、選択した実写映像表示オブジ
ェクト4310aに、ユーザの視点位置が近づいている
か否かを境界線4310bと4310cの間にユーザの
視点位置が存在するか否かで判断する。更に、視点の移
動経路を制御するか否かはユーザの視点位置が分岐部4
340の内側(図16の格子縞部分)にあるか否かを管
理して分岐部4340の内側にユーザの視点位置がある
場合には、ユーザの視点位置をガイドするように制御す
る。
Embodiment 4 FIG. In the live-action video display object created by the texture object unit 1000 of the second embodiment, the traveling direction is the viewpoint real-life database unit 200
The direction is limited to the direction indicated by the route registered as 0. Therefore, the user cannot freely change the traveling direction. Therefore, the following mechanism is provided so that the user can select the traveling direction to some extent. FIG.
FIG. 14 is a functional block diagram illustrating a configuration of a main part of a three-dimensional CG real-life image fusion device according to a fourth embodiment. FIG.
FIG. 6 is a diagram showing a live-action video display object according to the fourth embodiment. In FIG. 15, as shown in FIG. 16, reference numeral 4000 denotes a cylindrical shape in which a plurality of live-view image display objects are horizontally attached to each other to be installed in a three-dimensional virtual world, and the cylindrical shape is attached to the cylindrical shape according to the user's viewpoint position. It is a display management unit for displaying and hiding the real image display object. 4100, the user selects one of the live-action video display objects, for example, selects the live-action video display object 4310a, and moves the viewpoint in a direction perpendicular to the video display surface of the selected live-action video display object. A user monitoring unit that monitors whether or not the viewpoint position is within a certain range and is moving toward the video display object. Reference numeral 4200 denotes a viewpoint control management unit that controls the movement path of the viewpoint based on the viewpoint position / sight line direction of the user. In the example of FIG. 16, it is determined whether or not the user's viewpoint position is approaching the selected live-action video display object 4310a based on whether or not the user's viewpoint position exists between the boundary lines 4310b and 4310c. Furthermore, whether to control the movement path of the viewpoint depends on the viewpoint position of the user.
It manages whether or not it is inside 340 (the checkerboard portion in FIG. 16), and if the user's viewpoint is inside the branching unit 4340, it controls to guide the user's viewpoint.

【0037】図16の実写映像表示オブジェクト431
0のように、円筒状に複数の実写映像表示オブジェクト
を水平方向に張り合わせたものを、ここでは分岐オブジ
ェクトと称する。この分岐オブジェクトの設置位置のあ
る領域に、ユーザの視点が入り込んだことをユーザ監視
部4100が確認すると、表示管理部4000により分
岐オブジェクトを表示する。例えば、図17に示すよう
に、ユーザが視点4320から視線ベクトル4330の
矢印の方向に移動し、ハッチング部4350に入り込む
と、今まで表示していた分岐オブジェクトである実写映
像表示オブジェクト4310aを表示管理部4000に
より非表示する。表示管理部4000は、ユーザの視点
位置/視線方向により視界に入る実写映像表示オブジェ
クトを表示する。例えば、ハッチング部4350の中に
ユーザの視点があり、視線ベクトルが実写映像表示オブ
ジェクト4310cの方を向いていると、表示管理部4
000は、実写映像表示オブジェクト4310cを表示
する。ウォークスルーしたい映像が映っている実写映像
表示オブジェクトの方に視点位置を進めると、その実写
映像表示オブジェクトに視点が束縛されるようになる。
視点制御管理部4200は、ユーザの視点位置を監視
し、実写映像表示オブジェクトの設定したある領域に、
例えば、図16の分岐部4340に、ユーザの視点が入
り込むかどうかをチェックする。ユーザの視点が入り込
んだことを認識すると、ユーザの視点の移動に制約を加
える。即ち、視点の移動は、選択した実写映像表示オブ
ジェクト4310aに登録されている経路に沿ったもの
となる。ユーザは、前進、或いは、後進のいずれかのみ
に視点を移動させることができる。よって、用意した実
写映像表示オブジェクトの数だけ、進行方向をユーザが
自由に選択することができる。但し、ユーザの属性によ
り進行できたり、できないといった切り分けを視点制御
管理部4200において実現することができる。また、
ユーザの属性に応じて、表示させる分岐オブジェクトを
変えたり、非表示/表示を切り替えるといった制御を表
示管理部4000において行うことが可能である。例え
ば、ある部署のユーザには非表示としたい実写映像表示
オブジェクトがある場合、進行方向を制約して非表示に
したい実写映像表示オブジェクトに近づけないように制
御する。
The photographed image display object 431 shown in FIG.
A cylindrical object, such as 0, in which a plurality of live-action video display objects are horizontally attached is referred to as a branch object. When the user monitoring unit 4100 confirms that the user's viewpoint has entered the area where the branch object is located, the display management unit 4000 displays the branch object. For example, as shown in FIG. 17, when the user moves from the viewpoint 4320 in the direction of the arrow of the line-of-sight vector 4330 and enters the hatched portion 4350, the display management of the live-action image display object 4310a, which is the branch object displayed so far, is performed. Not displayed by the unit 4000. The display management unit 4000 displays a live-action video display object that enters the field of view according to the user's viewpoint position / gaze direction. For example, if the user's viewpoint is inside the hatching unit 4350 and the line-of-sight vector points toward the real image display object 4310c, the display management unit 4
000 displays a live-action video display object 4310c. When the viewpoint position is advanced toward the live-action video display object on which the video to be walked is reflected, the viewpoint is bound to the live-action video display object.
The viewpoint control management unit 4200 monitors the viewpoint position of the user, and places the image in a certain area set by the real image display object.
For example, it is checked whether or not the user's viewpoint enters the branching unit 4340 in FIG. When recognizing that the user's viewpoint has entered, the movement of the user's viewpoint is restricted. That is, the movement of the viewpoint is along the route registered in the selected real image display object 4310a. The user can move the viewpoint only to either forward or backward travel. Therefore, the user can freely select the traveling direction by the number of prepared real image display objects. However, the viewpoint control management unit 4200 can realize the separation that the user can proceed or not depending on the attribute of the user. Also,
The display management unit 4000 can perform control such as changing a branch object to be displayed or switching between non-display / display according to the attribute of the user. For example, if a user in a certain department has a real-life video display object to be hidden, control is performed so that the traveling direction is restricted so as not to approach the real-life video display object to be hidden.

【0038】ユーザがイマージョンできる、即ち、進行
できる実写映像表示オブジェクトはあらかじめ決められ
ている。分岐ポイントを増やせば増やすほどより精巧
で、現実感が向上する。
The real image display object that the user can immerse, that is, can advance, is predetermined. The more branch points you have, the more refined and realistic you will be.

【0039】実施の形態5.この実施の形態5では、オ
ブジェクト管理部5000を設けることにより、テクス
チャオブジェクト部1000の処理を一括して行うこと
を可能とし、処理性能を向上させるとともに、モジュー
ル性を向上させる。また、マッピング映像変更部120
0、オブジェクト設定位置算定部1100へ入力する視
点位置/視線方向を一括管理し、ユーザの視界に入る実
写映像表示オブジェクトを検出して、レンダリングに必
要な実写映像表示オブジェクトに限ることにより、処理
効率を向上させるものである。
Embodiment 5 In the fifth embodiment, by providing the object management unit 5000, the processing of the texture object unit 1000 can be performed collectively, thereby improving the processing performance and the modularity. Also, the mapping video changing unit 120
0, collectively manages the viewpoint position / line-of-sight direction input to the object setting position calculation unit 1100, detects a live-action video display object entering the user's field of view, and limits the process to a live-action video display object necessary for rendering. Is to improve.

【0040】図18は、実施の形態5に係る融合装置の
機能ブロック図である。5000はユーザの視界に複数
個の実写映像表示オブジェクトが存在する場合、ユーザ
の視点(カメラの視点)位置を監視し、視点位置情報を
用いて、ユーザの視界に入っている実写映像表示オブジ
ェクトを検出し、検出された全ての実写映像表示オブジ
ェクトの位置と表示する実写映像とを制御するオブジェ
クト管理部である。オブジェクト管理部5000は、上
記マッピング映像変更部1200と、上記映像データベ
ース部1300と、上記形状データベース部1400
と、上記オブジェクト設定位置算定部1100と、ユー
ザの視点位置と視線方向から得られる視界から、視界に
入る実写映像表示オブジェクトを検出する上記視点位置
/視線方向検出部1900と、上記実写映像表示オブジ
ェクトデータベース部1700からなる。視点位置/視
線方向検出部1900は、検出したユーザの視点位置と
視線方向より求めた視界に入る実写映像表示オブジェク
トを特定するオブジェクト情報を実写映像表示オブジェ
クトデータベース部1700より検出する。検出できる
オブジェクト情報は、所定の視界に存在する実写映像表
示オブジェクトが複数あるため、オブジェクト情報も複
数検出できるものとする。検出した各々のオブジェクト
情報について、マッピング映像変更部1200によりマ
ッピングする実写映像を映像データベース部1300よ
り取得し、映像をマッピングする実写映像表示オブジェ
クトの3次元CGモデルを形状データベース部1400
より取得し、実写映像表示オブジェクトの設置場所(移
動先)をオブジェクト設置位置算定部1100にて決定
し、テクスチャオブジェクト部1000が実写映像表示
オブジェクトを決定した表示場所に移動する。1つのテ
クスチャオブジェクト部1000が複数のオブジェクト
管理部5000を管理する。このため、複数のユーザの
仮想環境にて表示するユーザ毎の映像を1つのテクスチ
ャオブジェクト部1000を制御することが可能であ
る。
FIG. 18 is a functional block diagram of the fusion device according to the fifth embodiment. 5000 monitors the position of the user's viewpoint (the viewpoint of the camera) when a plurality of live-action video display objects are present in the user's field of view, and uses the viewpoint position information to display the live-action video display object in the user's field of view. It is an object management unit that controls the positions of all the detected and detected real image display objects and the real images to be displayed. The object management unit 5000 includes the mapping video changing unit 1200, the video database unit 1300, and the shape database unit 1400.
The object setting position calculating unit 1100, the viewpoint position / line-of-sight direction detecting unit 1900 that detects a real image display object entering the field of view from the field of view obtained from the user's viewpoint position and line-of-sight direction, and the real image display object It comprises a database unit 1700. The viewpoint position / line-of-sight direction detection unit 1900 detects object information that specifies a real image display object that enters the field of view obtained from the detected user's viewpoint position and line-of-sight direction from the real image display object database unit 1700. Since there are a plurality of real image display objects existing in a predetermined field of view as detectable object information, it is assumed that a plurality of object information can also be detected. For each of the detected object information, a real video image to be mapped by the mapping video changing unit 1200 is acquired from the video database unit 1300, and a three-dimensional CG model of the real video image display object for mapping the video is obtained from the shape database unit 1400.
Then, the installation location (movement destination) of the real image display object is determined by the object installation position calculation unit 1100, and the texture object unit 1000 moves to the display position where the real image display object is determined. One texture object unit 1000 manages a plurality of object management units 5000. Therefore, it is possible to control one texture object unit 1000 for each user's video displayed in the virtual environment of a plurality of users.

【0041】次に、ネットワーク接続された複数のユー
ザの仮想環境において、それぞれのユーザの視点位置/
視線方向を監視して視界を求め、その視界に入る実写映
像表示オブジェクトの設置位置、表示映像を制御する方
法について説明する。図9に、実施の形態5における視
点位置/視線方向検出部1900の処理フローを示す。
視点位置/視線方向を入力部100により変更する度
に、各ユーザの仮想環境から視点位置/視線方向検出部
1900に変更情報が送信されてくる(S20)。視点
位置/視線方向検出部1900は、その変更情報に基づ
いて、新たな視界を求め、新たに視界に加わった実写映
像表示オブジェクトを特定するオブジェクト情報を実写
映像表示オブジェクトデータベース部1700より取得
する(S21)。更に、視界から消えた実写映像表示オ
ブジェクトの検出を行う。各々の実写映像表示オブジェ
クトに対して、マッピング映像変更部1200にて視点
位置に対応する映像を映像データベース部1300より
取得するとともに、3次元形状を形状データベース部1
400より選択し、オブジェクト設置位置算定部110
0にて、視点位置に対応する実写映像表示オブジェクト
の設置位置を求め、テクスチャオブジェクト部1000
にて実写映像をマッピングする(S22)。
Next, in the virtual environment of a plurality of users connected to the network, the viewpoint positions /
A method of monitoring the line of sight, obtaining a field of view, and controlling the installation position of a real image display object that enters the field of view and the display image will be described. FIG. 9 shows a processing flow of the viewpoint position / viewing direction detecting unit 1900 in the fifth embodiment.
Each time the viewpoint position / viewing direction is changed by the input unit 100, change information is transmitted from the virtual environment of each user to the viewpoint position / viewing direction detection unit 1900 (S20). The viewpoint position / line-of-sight direction detecting unit 1900 obtains a new field of view based on the change information, and obtains object information for specifying the real image display object newly added to the field of view from the real image display object database unit 1700 ( S21). Further, a real image display object that has disappeared from the field of view is detected. For each live-action video display object, a video corresponding to the viewpoint position is acquired from the video database unit 1300 by the mapping video changing unit 1200, and the three-dimensional shape is converted to the shape database unit 1.
400, the object installation position calculation unit 110
At 0, the installation position of the real image display object corresponding to the viewpoint position is obtained, and the texture object unit 1000
The real image is mapped in (S22).

【0042】オブジェクト管理部5000では、1つの
テクスチャオブジェクト部1000により、各ユーザの
仮想環境における映像のマッピング処理を行う。このた
め、各ユーザの仮想環境毎にテクスチャオブジェクト部
を備えるよりも、処理効率を向上させることが可能であ
る。例えば、一旦ロードしたデータを繰り返し利用する
ことにより、処理時間を短縮することが可能である。こ
のような映像を表示している映像表示オブジェクトを設
置場所だけ変えて、複数の同一の映像表示オブジェクト
を設置する場合などがこれに当たる。
In the object management section 5000, one texture object section 1000 performs a video mapping process in the virtual environment of each user. For this reason, it is possible to improve processing efficiency as compared with the case where a texture object unit is provided for each virtual environment of each user. For example, it is possible to shorten the processing time by repeatedly using the data once loaded. This corresponds to a case where a plurality of identical video display objects are installed by changing the video display object displaying such video only at the installation location.

【0043】実施の形態6.ネットワーク接続された複
数のユーザの仮想環境において共有される3次元仮想世
界に設置された実写映像表示オブジェクトに表示する映
像によって、表示する映像、設定位置をユーザ間で共有
することが必要な場合と、個々のユーザによって変更す
る場合がある。このような実写映像表示オブジェクトの
利用方法を実現するために実写映像融合装置に共有制御
の機構を設けることにより、この実写映像表示オブジェ
クトをユーザ間で共有するか、非共有にするかを切り替
えることも可能にするものである。
Embodiment 6 FIG. A case where it is necessary to share a displayed image and a set position among users by a video displayed on a live-action video display object installed in a three-dimensional virtual world shared in a virtual environment of a plurality of users connected to a network. May be changed by individual users. By providing a sharing control mechanism in the live-action video fusion device to realize such a method of using the live-action video display object, it is possible to switch between sharing or non-sharing the live-action video display object between users. It also makes it possible.

【0044】図20は、実施の形態6に係る融合装置の
機能ブロック図である。図20において、6000はネ
ットワーク接続された複数のユーザの仮想環境において
共有される3次元仮想世界に設置された実写映像表示オ
ブジェクトにおいて、各ユーザ毎に独自に設置位置、表
示映像、3次元形状を自由に変更したり、特定のユーザ
の間で設置位置、表示映像、3次元形状をリアルタイム
に同期させるといった共有制御を状況に応じて変更する
共有制御部である。共有制御部6000では、実写映像
表示オブジェクトを特定ユーザ間で共用管理したり、共
用メンバーの動的な変更管理を行う。個々の実写映像表
示オブジェクト毎に、アクセス権を示す情報を持つもの
とする。ユーザの視界に入っている個々の実写映像表示
オブジェクトの制御を行っているテクスチャオブジェク
ト部1000に対して、マルチキャストされたユーザの
視点(カメラの視点)位置/視線方向を用いて、実写映
像表示オブジェクトの位置と表示する実写映像を実写映
像表示オブジェクト毎に制御することも可能である。例
えば、ある実写映像表示オブジェクトを特定するオブジ
ェクト情報にアクセス権を管理するデータを以下のよう
に持っている。 実写映像表示オブジェクト名:アクセス許可メンバーリ
スト 実写映像表示オブジェクト1:佐伯、宮内 実写映像表示オブジェクト2:岩瀬、下田
FIG. 20 is a functional block diagram of the fusion device according to the sixth embodiment. In FIG. 20, reference numeral 6000 denotes a live-action video display object installed in a three-dimensional virtual world shared in a virtual environment of a plurality of users connected to a network. This is a shared control unit that changes shared control, such as freely changing or synchronizing an installation position, a display image, and a three-dimensional shape between specific users in real time, according to a situation. The sharing control unit 6000 manages the sharing of the live-action video display object between specific users, and performs dynamic change management of sharing members. It is assumed that each of the live-action video display objects has information indicating access rights. For the texture object unit 1000 that controls the individual live-view video display objects in the field of view of the user, the live-view video display object is displayed using the multicast viewpoint / viewpoint position of the user. It is also possible to control the position of the real image and the real image to be displayed for each real image display object. For example, data for managing an access right to object information specifying a certain live-action video display object is provided as follows. Live-action video display object name: access permitted member list Live-action video display object 1: Saeki, Miyauchi Live-action video display object 2: Iwase, Shimoda

【0045】ユーザの視界に上記実写映像表示オブジェ
クトが入ってきたときに、共有制御部6000は、アク
セス権があるかどうかをチェックして、アクセスが許可
されていれば、その実写映像表示オブジェクトのデータ
をユーザの利用環境へ転送する。アクセスが許可されて
いなければ、データを転送しない。例えば、上記した管
理データをオブジェクト情報に登録してある場合、ユー
ザ「岩瀬」は、実写映像表示オブジェクト1に対してア
クセス権がないため、表示させることができない。ま
た、特定のオブジェクト毎に、同期的共有利用、或い
は、独立個別利用といった制御を行う。共有制御部で
は、条件1、条件2を満足するユーザ間での実写映像表
示オブジェクト1の同期的共有を許可し、その他は個別
利用するといった制御が可能である。映像オブジェクト
の排他的利用を実現するような制御も合わせて実現する
ことができる。共有制御部は、これらの情報を持ち合わ
せている。 実写映像表示オブジェクト:アクセス許可条件 実写映像表示オブジェクト1:条件1、かつ、条件2 実写映像表示オブジェクト2:条件3
When the live-action video display object enters the field of view of the user, the sharing control unit 6000 checks whether or not the user has an access right. Transfer the data to the user's usage environment. If access is not allowed, do not transfer data. For example, when the management data described above is registered in the object information, the user “Iwase” cannot display the live-action video display object 1 because the user has no access right. In addition, control such as synchronous shared use or independent individual use is performed for each specific object. The sharing control unit allows a user who satisfies the conditions 1 and 2 to synchronously share the live-action video display object 1 and controls the others individually. Control for achieving exclusive use of the video object can also be realized. The sharing control unit has such information. Real image display object: Access permission condition Real image display object 1: Condition 1 and condition 2 Real image display object 2: Condition 3

【0046】共有制御部6000を設けることにより、
特定ユーザ間で実写映像表示オブジェクトを同期的に共
用したり、個人環境毎に固有に利用するといった切り替
えが容易に実現することが可能となるため、実写映像表
示オブジェクトの可制御性が向上する。共用されている
実写映像表示オブジェクトの設置位置、3次元形状、表
示する実写映像が変更されると、その変更情報が共用メ
ンバーの全ての仮想環境にマルチキャストされる。共用
される実写映像表示オブジェクトの例としては、掲示
板、入り口の扉などが考えられる。例えば、入口の扉を
実写映像表示オブジェクトにより構成すると、扉のシャ
ッターを下ろしているときは、シャッターの映像を貼る
だけでよいため、この実写映像表示オブジェクトの実態
を共有している全てのユーザで、その表示映像設定位置
なども共有する。また、シャッターを上げて中が見える
ガラスの扉にした場合は、各ユーザ毎に、ユーザの視点
位置/視線方向に合わせて、表示する映像、設置位置を
決めることができるように、非共有とする。このよう
に、共有制御部6000は、表示する内容により、共有
/非共有の切り替えを行う。また、実写映像表示オブジ
ェクトを共有する者の数がある値を超えると、その後の
実写映像表示オブジェクトの存在する仮想世界を共有し
たとき、そのユーザには、その映像表示オブジェクトを
非表示とする。また、ユーザの属性により共有する情
報、即ち、実写映像表示オブジェクトの映像を変更す
る。
By providing the sharing control unit 6000,
Since it is possible to easily realize the switching between the specific users in a synchronized manner and to use the live-action video display object uniquely for each personal environment, the controllability of the live-action video display object is improved. When the installation position, the three-dimensional shape, and the displayed live-action video of the shared live-action video display object are changed, the change information is multicast to all virtual environments of the shared members. Examples of shared live-action image display objects include a bulletin board and an entrance door. For example, if the entrance door is configured by a live-action video display object, when the shutter of the door is down, it is only necessary to paste the shutter video, so that all users sharing the actual state of this live-action video display object Also, the display video setting position and the like are shared. In addition, when the shutter is raised to make the inside of a glass door visible, the video to be displayed and the installation position can be determined for each user in accordance with the user's viewpoint position / sight line direction, so that it is not shared. I do. As described above, the sharing control unit 6000 switches between sharing and non-sharing according to the content to be displayed. When the number of persons sharing the live-action video display object exceeds a certain value, when the virtual world where the live-action video display object exists is shared, the video display object is not displayed to the user. Further, the information to be shared, that is, the image of the real image display object is changed according to the attribute of the user.

【0047】実施の形態7.この実施の形態7では、実
写映像表示オブジェクトを遠景、中間景、近景に分け
る。遠景型は、実写映像表示オブジェクトの設置位置と
マッピング映像を固定したままとする。中間景型は、映
像は固定してままで、ユーザの視点から見た映像が3次
元映像に見えるように実写映像表示オブジェクトを移動
させる。近景型は、ユーザの視点位置/視線方向に応じ
て、マッピングする映像を変更し、実写映像表示オブジ
ェクトの3次元形状を変更し実写映像表示オブジェクト
の位置を移動する。このように、実写映像表示オブジェ
クトの用途に応じて、処理法を変更することにより、処
理効率を向上させ、コンテンツの開発効率を向上させる
ことを狙ったものである。
Embodiment 7 FIG. In the seventh embodiment, the real image display object is divided into a distant view, an intermediate view, and a near view. In the distant view type, the installation position of the real image display object and the mapping image are kept fixed. In the intermediate scene type, the real image display object is moved so that the image viewed from the user's viewpoint looks like a three-dimensional image while the image is fixed. In the foreground type, the video to be mapped is changed in accordance with the viewpoint position / gaze direction of the user, the three-dimensional shape of the real video display object is changed, and the position of the real video display object is moved. As described above, the processing method is changed in accordance with the use of the real image display object, thereby improving the processing efficiency and improving the content development efficiency.

【0048】図21は、実施の形態7に係る融合装置の
機能ブロック図である。図21において、9000は遠
景を平面オブジェクトにマッピングし、ユーザの視点位
置/視線方向が変化しても、マッピングする映像、位
置、映像を表示する形状を変更しない遠景テクスチャオ
ブジェクト部である。9100はユーザの視点位置/視
線方向が変化すると、映像を表示する位置のみを変更す
る中間景テクスチャオブジェクト部である。9200は
近景を平面オブジェクトにマッピングし、ユーザの視点
位置/視線方向の変化に伴い、表示する映像、映像をマ
ッピングする3次元CGモデルの形状と設置位置を変更
する近景テクスチャオブジェクト部である。これら遠景
テクスチャオブジェクト部9000、中間景テクスチャ
オブジェクト部9100、近景テクスチャオブジェクト
部9200は、テクスチャオブジェクト部1000が備
える。例えば、図22に示すように、遠景テクスチャオ
ブジェクト部9000が表示した実写映像表示オブジェ
クト9000a、中間景テクスチャオブジェクト部91
00が表示した実写映像表示オブジェクト9100b、
近景テクスチャオブジェクト部9200が表示した実写
映像表示オブジェクト9200cを配置する。遠景テク
スチャオブジェクト部9000は、図22に示すよう
に、円筒状に実写映像表示オブジェクト9000aを張
り合わせ、中間景テクスチャオブジェクト部9100
は、図22の破線ハッチング領域に実写映像表示オブジ
ェクト9100bを配置し、近景テクスチャオブジェク
ト部9200は、実線ハッチング領域に実写映像表示オ
ブジェクト9200cを配置する。このように、映像表
示オブジェクトを分けて配置することにより、ユーザか
ら見た映像のlabel of detail(詳細度
のレベルわけ)を実現することができる。
FIG. 21 is a functional block diagram of the fusion device according to the seventh embodiment. In FIG. 21, reference numeral 9000 denotes a distant view texture object unit that maps a distant view to a plane object and does not change the image to be mapped, the position, or the shape in which the image is displayed even if the user's viewpoint position / viewing direction changes. Reference numeral 9100 denotes an intermediate scenery texture object unit that changes only the position at which an image is displayed when the viewpoint position / gaze direction of the user changes. Reference numeral 9200 denotes a foreground texture object unit that maps a foreground onto a plane object and changes the shape of a video to be displayed and the position and location of a three-dimensional CG model for mapping the video in accordance with a change in the viewpoint position / gaze direction of the user. The texture object section 1000 includes the distant view texture object section 9000, the intermediate view texture object section 9100, and the near view texture object section 9200. For example, as shown in FIG. 22, a real image display object 9000a displayed by a distant view texture object unit 9000 and an intermediate view texture object unit 91
00 is a live-action video display object 9100b,
The real image display object 9200c displayed by the foreground texture object unit 9200 is arranged. As shown in FIG. 22, the distant-view texture object unit 9000 has a live-view video display object 9000a attached in a cylindrical shape, and an intermediate-view texture object unit 9100.
Arranges the real image display object 9100b in the dashed hatched area in FIG. 22, and the foreground texture object unit 9200 arranges the real image display object 9200c in the solid hatched area. In this way, by separately arranging the video display objects, it is possible to realize the label of detail (level of detail) of the video viewed from the user.

【0049】また、この実写映像表示オブジェクトを中
間景、近景というように分けたインプリメントが考えら
れるが、1個の実写映像表示オブジェクトに中間景、近
景の機能を持たせておけば、実行モードに応じて、実写
映像表示オブジェクトを制御するテクスチャオブジェク
ト部1000の制御モードを制御モード変更部におい
て、動的に切り替えることにより、表示される3次元仮
想世界の映像の詳細度を自由に変更することができる。
It is also conceivable to implement the real-view video display object as an intermediate view or a close-up view. Accordingly, the control mode changing unit dynamically changes the control mode of the texture object unit 1000 for controlling the live-action video display object, thereby freely changing the degree of detail of the displayed image of the three-dimensional virtual world. it can.

【0050】図23に、制御モード変更部を備える実施
の形態7における融合装置を示す。図23において、7
000は前記オブジェクト管理部5000において、ユ
ーザの視点位置と前記映像表示オブジェクトとの距離を
計算し、その距離に応じて、ユーザの視点位置/視線方
向が変化すると映像を表示する3次元形状オブジェクト
の位置のみを変更する制御モードと、前記ユーザの視点
位置/視線方向の変化に伴い、表示する映像、映像を表
示する3次元形状オブジェクトの形状と位置を変更する
制御モードとに切り替える制御モード変更部である。ユ
ーザが図22の実線ハッチング領域内を動き回っても、
遠景テクスチャオブジェクト部9000は移動しない
し、映像も変化しない。中間景テクスチャオブジェクト
部9100は、ユーザが実線ハッチング領域内を移動す
る場合は、ユーザの視点位置に応じて、ユーザから見て
最も自然に見える場所に、実写映像表示オブジェクトを
移動する。
FIG. 23 shows a fusion device according to the seventh embodiment having a control mode changing unit. In FIG. 23, 7
000 calculates the distance between the user's viewpoint position and the video display object in the object management unit 5000, and changes the viewpoint position / line-of-sight direction of the user according to the distance. A control mode changing unit that switches between a control mode that changes only the position and a control mode that changes the image to be displayed and the shape and position of the three-dimensional object displaying the image in accordance with the change in the viewpoint position / gaze direction of the user. It is. Even if the user moves around in the solid hatched area in FIG.
The distant view texture object section 9000 does not move, and the image does not change. When the user moves in the solid-line hatched area, the middle-view texture object unit 9100 moves the live-action video display object to a place where the user looks most natural according to the viewpoint position of the user.

【0051】中間景テクスチャオブジェクト部の動作
を、図24を用いて説明する。図24では、ビルの1枚
の写真をマッピングした実写映像表示オブジェクト94
00,9500が、ある3次元仮想世界に設置されてい
る。ユーザが、この実写映像表示オブジェクトをA地点
から見たときと、B地点から見たときのこの実写映像表
示オブジェクトの挙動について示したものである。ユー
ザには、あたかも図24に示すように、実際にビル93
00が存在しているように見える。ユーザが、A地点か
ら実写映像表示オブジェクトを見ると、図24のJに示
す位置に実写映像表示オブジェクト9500が移動す
る。この位置Jは、ユーザがA地点からビルを見たとき
のe部分とd部分の大きさの比率と、ビル9300のe
部分とd部分の大きさの比率とが同じ比率になる場所で
ある。次いで、ユーザがB地点に移動したとする。ユー
ザが、B地点から実写映像表示オブジェクトを見ると、
実写映像表示オブジェクトは、図24に示したようにK
の場所に移動する。この移動先Kでは、ユーザがB地点
からビルを見たときのe部分とd部分の大きさの比率
と、ビル9300のe部分とd部分の大きさの比率とが
同じになる。このように、中間景テクスチャオブジェク
ト部9100は、ユーザから見て実写映像表示オブジェ
クトに表示されている映像(例えば、建物)の左右の比
率(例えば、e部分とd部分の比率)を、実物をユーザ
の移動先から見たときの左右の比率(例えば、e部分と
d部分の比率)と一致するように、実写映像表示オブジ
ェクトを移動する。
The operation of the intermediate scene texture object will be described with reference to FIG. In FIG. 24, a live-action image display object 94 mapping one photo of a building is shown.
00, 9500 are installed in a certain three-dimensional virtual world. This shows the behavior of the live-action video display object when the user views the live-action video display object from point A and when viewed from the point B. As shown in FIG.
00 appears to be present. When the user views the live-action video display object from point A, the live-action video display object 9500 moves to the position indicated by J in FIG. The position J is determined by the ratio of the size of the portion e and the size of the portion d when the user views the building from the point A, and the e of the building 9300.
This is a location where the ratio of the size of the portion and the size of the d portion is the same. Next, it is assumed that the user has moved to the point B. When the user looks at the live-action video display object from point B,
The live-action video display object is K as shown in FIG.
Go to the location. At the destination K, the ratio of the size of the portion e to the portion d when the user views the building from the point B is the same as the ratio of the size of the portion e to the portion d of the building 9300. As described above, the intermediate view texture object unit 9100 determines the right / left ratio (for example, the ratio between the e portion and the d portion) of the video (for example, the building) displayed on the real video display object as viewed from the user, and The real image display object is moved so as to match the left / right ratio (for example, the ratio between the e portion and the d portion) when viewed from the destination of the user.

【0052】次いで、図25に示すように、ユーザが図
25のa地点からb地点に移動した場合の遠景オブジェ
クト部、中間景オブジェクト部、近景オブジェクト部の
動作について説明する。ユーザの視点がa地点からb地
点へ移動すると、遠景テクスチャオブジェクト部900
0は、図25に示すように、遠景を表示していた実写映
像表示オブジェクトAを非表示とし、新たに図25に示
す実写映像表示オブジェクトBを表示する。また、ユー
ザの視点の移動に伴い、実線ハッチング部に設置されて
いる実写映像表示オブジェクト9200cは、近景から
中間景に変わる。波線ハッチング領域に設置されている
9100bは、中間景から近景に変わる。まず、視点位
置/視線方向検出部1900より、制御モード変更部7
000に視点位置の移動が通知される。制御モード変更
部7000は、実写映像表示オブジェクトが近景なのか
中間景なのかを判断し、処理の変更をテクスチャオブジ
ェクト部1000に指示する。また、表示される実写映
像表示オブジェクトを、例えば、中間景型から近景型に
変更する。
Next, the operation of the distant view object section, the intermediate view object section, and the close view object section when the user moves from the point a to the point b in FIG. 25 as shown in FIG. 25 will be described. When the user's viewpoint moves from point a to point b, the distant view texture object unit 900
0, as shown in FIG. 25, hides the real image display object A displaying the distant view and newly displays the real image display object B shown in FIG. Further, as the user moves the viewpoint, the live-action image display object 9200c installed in the solid hatched portion changes from a near view to an intermediate view. 9100b installed in the wavy hatched area changes from the middle view to the close view. First, the viewpoint mode / line-of-sight direction detecting unit 1900 sends the control mode changing unit 7
000 is notified of the movement of the viewpoint position. The control mode change unit 7000 determines whether the real image display object is a near view or an intermediate view, and instructs the texture object unit 1000 to change the processing. In addition, the displayed real image display object is changed, for example, from the intermediate view type to the near view type.

【0053】上記実施の形態1〜7に説明した3次元C
G実写映像融合装置は、コマンドの入力と受け付けたデ
ータ/信号の処理ができる入力部と、前記入力部を操作
して3次元仮想世界において、3次元仮想世界を見るユ
ーザの視点位置/視線方向を変化させたときのその変化
を検出する視点管理部と、検出した視点位置/視線方向
の変化に基づき、そのユーザの視界にある3次元CGモ
デルとその3次元CGモデルにマッピング表示する実写
映像テクスチャからなる実写映像表示オブジェクトを検
出し、検出された前記実写映像表示オブジェクトの3次
元形状と設置位置を変更し、その前記実写映像表示オブ
ジェクトに表示する映像を選択しその映像を表示する融
合部と、3次元CGモデルを登録保管している3次元C
Gモデルデータベース部と、テクスチャデータを格納す
るテクスチャデータベース部と、ユーザの視界に入る3
次元CGモデルを抽出して、その中から表示すべき3次
元CGモデルとその3次元CGモデルが必要とするテク
スチャデータを抽出して映像を合成するレンダリング部
と、その合成した映像を表示する表示部とを備えたもの
である。
The three-dimensional C described in the first to seventh embodiments.
The G live-action image fusion device includes an input unit capable of inputting a command and processing received data / signal, and a viewpoint position / line-of-sight direction of a user who views the three-dimensional virtual world in the three-dimensional virtual world by operating the input unit. A viewpoint management unit for detecting the change when the image is changed, and a three-dimensional CG model in the field of view of the user based on the detected change in the viewpoint position / viewing direction, and a live-action image to be mapped and displayed on the three-dimensional CG model A fusion unit that detects a real image display object composed of a texture, changes a three-dimensional shape and an installation position of the detected real image display object, selects an image to be displayed on the real image display object, and displays the image. And a 3D C that registers and stores a 3D CG model
A G model database unit, a texture database unit for storing texture data, and 3
A rendering unit that extracts a three-dimensional CG model, extracts a three-dimensional CG model to be displayed from the three-dimensional CG model, texture data required by the three-dimensional CG model, and synthesizes an image, and a display that displays the synthesized image. And a part.

【0054】また、前記融合部において、マッピングす
る2次元の実写映像と設置する位置を受け取り、前記実
写映像表示オブジェクトに前記実写映像をマッピングし
て、その実写映像表示オブジェクトを指示された設置場
所に設定するテクスチャオブジェクト部と、3次元仮想
世界を移動するユーザの視点位置/視線方向の変化に応
じて、前記実写映像表示オブジェクトの設置位置を計算
するオブジェクト設置位置算定部と、前記実写映像表示
オブジェクトにマッピングする実写映像を変更するマッ
ピング映像変更部とを備えたものである。
Further, the fusion unit receives the two-dimensional real image to be mapped and the installation position, maps the real image to the real image display object, and moves the real image display object to the designated installation location. A texture object section to be set; an object installation position calculation section for calculating an installation position of the live-action video display object according to a change in the viewpoint position / line-of-sight direction of a user moving in the three-dimensional virtual world; And a mapping video changing unit that changes the actual video to be mapped.

【0055】また、前記ユーザの視界に入っている前記
実写映像表示オブジェクトを検出し、検出した前記実写
映像表示オブジェクトの中からユーザの属性、或いは、
全システムの実行モードに応じて前記実写映像表示オブ
ジェクトを選択し、その前記実写映像表示オブジェクト
の管理をしている前記オブジェクト設定位置算定部と前
記マッピング映像変更部に対して前記ユーザの視点位置
/視線方向を通知し、その視点位置/視線方向に応じ
て、選択された前記テクスチャオブジェクト部の表示す
る実写映像、位置、映像を表示する3次元形状オブジェ
クトを変更することを指示するオブジェクト管理部を備
えたものである。
Further, the live-action video display object in the field of view of the user is detected, and a user attribute or a user attribute is detected from the detected live-action video display objects.
The live view video display object is selected according to the execution mode of the entire system, and the user's viewpoint position / the mapping video change section, which manages the live view video display object, is calculated. An object management unit that notifies the gaze direction and instructs to change the three-dimensional shape object that displays the actual image, the position, and the image displayed by the selected texture object unit according to the viewpoint position / gaze direction. It is provided.

【0056】また、ネットワーク接続された複数の前記
ユーザの仮想環境にて共有される3次元仮想世界に設置
された前記実写映像表示オブジェクトを管理している前
記テクスチャオブジェクト部において、各前記ユーザの
仮想環境ごとに独自に設置位置、表示映像、映像をマッ
ピングする3次元CGモデルを自由に変更したり、特定
の複数の前記ユーザの仮想環境間で、設置位置、表示映
像、前記3次元CGモデルをリアルタイムに同期させる
といった共有制御を状況に応じて変更する共有制御部を
備えたものである。
Further, in the texture object section which manages the live-action video display object installed in a three-dimensional virtual world shared by a plurality of network-connected virtual environments of the users, the virtual object of each of the users It is possible to freely change an installation position, a display image, and a three-dimensional CG model for mapping an image independently for each environment, and to set an installation position, a display image, and the three-dimensional CG model between a plurality of virtual environments of the specific user. It is provided with a sharing control unit that changes sharing control such as real-time synchronization according to the situation.

【0057】また、前記実写映像表示オブジェクトを管
理しているテクスチャオブジェクト部において遠景をマ
ッピングし、前記ユーザの視点位置/視線方向が変化し
ても、マッピングする映像、設置位置、映像を表示する
3次元CGモデルを変更しない遠景テクスチャオブジェ
クト部と、前記ユーザの視点位置/視線方向が変化する
と映像を表示する3次元CGモデルの位置のみを変更す
る中間景テクスチャオブジェクト部と近景をマッピング
し、ユーザの視点位置/視線方向の変化に伴い、表示す
る映像、映像をマッピングする3次元CGモデル、設置
位置を変更する近景テクスチャオブジェクト部とを備え
たものである。
Further, a distant view is mapped in the texture object section which manages the live-action video display object, and the video to be mapped, the installation position, and the video are displayed even if the viewpoint / gaze direction of the user changes. A near-view texture object portion that changes only the position of a three-dimensional CG model that displays an image when the viewpoint position / line-of-sight direction of the user changes and a near-view texture object portion that does not change the three-dimensional CG model are mapped. It is provided with a video to be displayed, a three-dimensional CG model for mapping the video, and a foreground texture object section for changing the installation position in accordance with a change in the viewpoint position / gaze direction.

【0058】また、前記オブジェクト管理部において、
前記ユーザの視点位置と前記実写映像表示オブジェクト
との距離を計算し、その距離に応じて、前記ユーザの視
点位置/視線方向が変化すると映像をマッピングする3
次元CGモデルの位置のみを変更する制御モードと、前
記ユーザの視点位置/視線方向の変化に伴い、表示する
映像、映像を表示する3次元CGモデル、設置位置を変
更する制御モードとに切り替える制御モード変更部を備
えたものである。
Further, in the object management unit,
Calculating a distance between the user's viewpoint position and the real image display object, and mapping an image when the user's viewpoint position / gaze direction changes according to the distance; 3
Control that switches between a control mode that changes only the position of the three-dimensional CG model and a control mode that changes the image to be displayed, the three-dimensional CG model that displays the image, and the installation position in accordance with the change in the viewpoint position / gaze direction of the user. It has a mode changing unit.

【0059】また、カメラを自動車、或いは、台車等に
載せて、カメラを移動させながら撮影したビデオ映像の
各フレームとそのフレームの映像を撮影したカメラの視
点位置/視線方向を対にしたデータからなる視点実写デ
ータベース部と、カメラの移動経路に沿って、ユーザの
視点をガイドし、ユーザが決定した経路の前進移動距離
/後進移動距離より、新たなユーザの視点/視線方向を
決定する視点制御部と、前記ユーザの視点の移動と同じ
方向、かつ、同じ移動量でユーザの視線方向と前記実写
映像表示オブジェクトの映像面が直交するように、前記
実写映像表示オブジェクトの設置位置を算出するテクス
チャオブジェクト移動先算定部を備えたものである。
Further, the camera is mounted on a car or a trolley and the like, and each frame of the video image shot while moving the camera and the viewpoint position / line-of-sight direction of the camera that shot the image of the frame are paired. And a viewpoint control for guiding a user's viewpoint along a movement path of a camera and determining a new viewpoint / gaze direction of a user based on a forward movement distance / reverse movement distance of a path determined by the user. And a texture for calculating an installation position of the real image display object so that the user's line of sight is orthogonal to the image plane of the real image display object with the same direction as the movement of the user's viewpoint and the same amount of movement. An object destination calculation unit is provided.

【0060】また、円筒状に複数の前記実写映像表示オ
ブジェクトを水平方向に張り合わせて3次元仮想世界に
設置し、ユーザの視点位置に応じて、前記円筒状に貼り
あわせた前記実写映像表示オブジェクトを表示したり、
非表示させる表示管理部と、前記ユーザが前記実写映像
表示オブジェクトの中から1つを選択し、選択した前記
実写映像表示オブジェクトの映像表示面と垂直の方向に
視点を移動しようとしているかどうか、即ち、視点位置
がある一定の範囲内にあり、かつ、前記映像表示オブジ
ェクトに向かって移動しているかどうかを監視するユー
ザ監視部と、ユーザの視点/視線方向の変更の制御の仕
方を管理する視点制御管理部を備えたものである。
Further, a plurality of the live-action video display objects are attached in a horizontal direction in a cylindrical shape and installed in a three-dimensional virtual world, and the live-action video display objects stuck together in the cylindrical shape according to a user's viewpoint position. Display,
A display management unit to be hidden, and whether the user selects one of the live-action video display objects and moves the viewpoint in a direction perpendicular to the video display surface of the selected live-action video display object, A user monitoring unit that monitors whether a viewpoint position is within a certain range and is moving toward the video display object, and a viewpoint that manages a control method of changing a viewpoint / gaze direction of the user. It has a control management unit.

【0061】[0061]

【発明の効果】この発明における3次元CG実写映像融
合装置は、以上に示したように構成されているので、以
下に示されるような効果を奏する。
The three-dimensional CG live-action image fusion device according to the present invention is configured as described above, and has the following effects.

【0062】3次元仮想世界を見るユーザの視点位置/
視線方向を変化させたときのその変化を検出する視点管
理部と、検出した視点位置/視線方向の変化に基づき、
そのユーザの視界にある3次元CGモデルとその3次元
CGモデルにマッピング表示する実写映像テクスチャか
らなる実写映像表示オブジェクトを検出し、検出された
前記実写映像表示オブジェクトの3次元形状と設置位置
を変更し、その前記実写映像表示オブジェクトに表示す
る映像を選択しその映像を表示する融合部を備えたた
め、3次元仮想世界の構築に実写映像の利用が可能とな
り、臨場感が向上するとともに、実写映像を表示(レン
ダリング)するために特別の機構を必要としないことか
ら、汎用性が高く移植性にすぐれている効果がある。
Point of View of User Looking at 3D Virtual World /
Based on a viewpoint management unit that detects the change when the gaze direction is changed, and based on the detected viewpoint position / gaze direction change,
A real-image display object consisting of a three-dimensional CG model in the field of view of the user and a real-image video texture mapped and displayed on the three-dimensional CG model is detected, and the detected three-dimensional shape and installation position of the detected real-image video object are changed. In addition, since a fusion unit for selecting an image to be displayed on the actual image display object and displaying the image is provided, it is possible to use the actual image for constructing a three-dimensional virtual world, and the realism is improved. Since no special mechanism is required for displaying (rendering), there is an effect that versatility is high and portability is excellent.

【0063】また、前記融合部において、マッピングす
る2次元の実写映像と設置する位置を受け取り前記実写
映像表示オブジェクトに前記実写映像をマッピングし
て、その実写映像表示オブジェクトを指示された設置場
所に設定するテクスチャオブジェクト部と、3次元仮想
世界を移動するユーザの視点位置/視線方向の変化に応
じて、前記実写映像表示オブジェクトの設置位置を計算
するオブジェクト設置位置算定部と、前記実写映像表示
オブジェクトにマッピングする実写映像を変更するマッ
ピング映像変更部と、を備えたため、静止画を貼り付け
た実写映像表示オブジェクトをユーザの視点位置/視線
方向に合わせて移動させるだけでも、その場に実物があ
るかのような臨場感を醸し出すことができる効果があ
る。また、必要とする映像データ量の低減効果がある。
The fusion unit receives the two-dimensional real image to be mapped and the installation position, maps the real image to the real image display object, and sets the real image display object at the designated installation location. A texture object portion to be set, an object installation position calculation unit for calculating an installation position of the live-action video display object according to a change in a viewpoint position / line-of-sight direction of a user moving in the three-dimensional virtual world, and Since there is a mapping video changing unit for changing a real video to be mapped, if the real video display object on which the still image is pasted is moved only in accordance with the user's viewpoint position / line of sight, is there a real object on the spot? There is an effect that can create a sense of realism as described above. Further, there is an effect of reducing the amount of required video data.

【0064】また、前記ユーザの視界に入っている前記
実写映像表示オブジェクトを検出し、その前記実写映像
表示オブジェクトの中からユーザの属性、或いは、全シ
ステムの実行モードに応じて前記実写映像表示オブジェ
クトを選択し、その前記実写映像表示オブジェクトを管
理している前記オブジェクト設置位置算定部と前記マッ
ピング映像変更部に対して前記ユーザの視点位置/視線
方向を通知し、その視点位置/視線方向に応じて、選択
された前記テクスチャオブジェクト部の表示する実写映
像、位置、映像を表示する3次元CGモデルを変更する
ことを指示するオブジェクト管理部を備えたため、ユー
ザの視界に入った実写映像表示オブジェクトのみを実体
化して処理するため、処理性能を向上できる効果があ
る。また、複数の実写映像表示オブジェクトを一括して
処理することができるため処理性能を向上することがで
きる効果がある。
Further, the live-action video display object in the field of view of the user is detected, and the live-action video display object is selected from the live-action video display objects according to the attribute of the user or the execution mode of the entire system. And notifies the object installation position calculation unit and the mapping image change unit that manage the live-action video display object of the viewpoint / gaze direction of the user, and responds to the viewpoint position / gaze direction. And the object management unit that instructs to change the three-dimensional CG model that displays the actual image, the position, and the image displayed by the selected texture object unit, so that only the actual image display object that is in the field of view of the user Is processed as a substance, which has the effect of improving processing performance. In addition, since a plurality of real image display objects can be processed collectively, there is an effect that processing performance can be improved.

【0065】また、ネットワーク接続された複数の前記
ユーザの仮想環境にて共有される3次元仮想世界に設置
された前記実写映像表示オブジェクトを管理している前
記テクスチャオブジェクト部において、各前記ユーザの
仮想環境ごとに独自に設置位置、表示映像、映像をマッ
ピングする3次元CGモデルを自由に変更したり、特定
の複数の前記ユーザの仮想環境間で、設置位置、表示映
像、前記3次元CGモデルをリアルタイムに同期させる
といった共有制御を状況に応じて変更することができる
ため、テクスチャオブジェクト部の可制御性が向上する
効果がある。
In the texture object section which manages the live-action video display objects installed in a three-dimensional virtual world shared by the virtual environments of a plurality of users connected to a network, It is possible to freely change an installation position, a display image, and a three-dimensional CG model for mapping an image independently for each environment, and to set an installation position, a display image, and the three-dimensional CG model between a plurality of virtual environments of the specific user. Since the sharing control such as real-time synchronization can be changed according to the situation, the controllability of the texture object portion is improved.

【0066】また、前記実写映像表示オブジェクトを管
理しているテクスチャオブジェクト部において遠景をマ
ッピングし、前記ユーザの視点位置/視線方向が変化し
てもマッピングする映像、設置位置、映像を表示する3
次元CGモデルを変更しない遠景テクスチャオブジェク
ト部と、前記ユーザの視点位置/視線方向が変化すると
映像を表示する3次元CGモデルの位置のみを変更する
中間景テクスチャオブジェクト部と、近景をマッピング
しユーザの視点位置/視線方向の変化に伴い、表示する
映像、映像をマッピングする3次元CGモデル、設置位
置を変更する近景テクスチャオブジェクト部とを備えた
ため、要求される実写映像表示オブジェクトの映像品質
に応じてデータと処理法を変更でき、処理効率を向上す
ることができ、また、コンテンツの開発効率を向上させ
ることが可能である効果がある。
Further, a distant view is mapped in the texture object section which manages the live-action video display object, and the video to be mapped, the installation position, and the video are displayed even if the viewpoint / gaze direction of the user changes.
A distant view texture object section that does not change the three-dimensional CG model; an intermediate view texture object section that changes only the position of the three-dimensional CG model that displays an image when the viewpoint position / line of sight of the user changes; Since it has a video to be displayed, a three-dimensional CG model for mapping the video, and a foreground texture object section for changing the installation position in accordance with a change in the viewpoint position / line-of-sight direction, according to the required video quality of the live-action video display object The data and the processing method can be changed, the processing efficiency can be improved, and the development efficiency of the content can be improved.

【0067】また、前記オブジェクト管理部において、
前記ユーザの視点位置と前記実写映像表示オブジェクト
との距離を計算し、その距離に応じて、前記ユーザの視
点位置/視線方向が変化すると映像をマッピングする3
次元CGモデルの位置のみを変更する制御モードと、前
記ユーザの視点位置/視線方向の変化に伴い、表示する
映像、映像をマッピングする3次元CGモデル、設置位
置を変更する制御モードとに切り替えることができるた
め、1つの実写映像表示オブジェクトを近景用、中間景
用に利用でき、複数の実写映像表示オブジェクトを仮想
世界に設置する必要がないため、処理効率の向上、3次
元仮想世界のモデルデータのデータサイズの低減化を実
現できる効果がある。
In the object management section,
Calculating a distance between the user's viewpoint position and the real image display object, and mapping an image when the user's viewpoint position / gaze direction changes according to the distance; 3
Switching between a control mode in which only the position of the three-dimensional CG model is changed and a control mode in which the image to be displayed, the three-dimensional CG model for mapping the image, and the installation position are changed in accordance with the change in the viewpoint position / gaze direction of the user. , One real image display object can be used for the foreground and intermediate views, and there is no need to install a plurality of real image display objects in the virtual world, so that processing efficiency is improved and model data of the three-dimensional virtual world is improved. This has the effect that the data size can be reduced.

【0068】また、カメラを自動車、或いは、台車等に
載せて、カメラを移動させながら撮影したビデオ映像の
各フレームとそのフレームの映像を撮影したカメラの視
点位置/視線方向を対にしたデータからなる視点実写デ
ータベース部と、カメラの移動経路に沿って、ユーザの
視点をガイドし、ユーザが決定した経路の前進移動距離
/後進移動距離より、新たなユーザの視点/視線方向を
決定する視点制御部と、前記ユーザの視点の移動と同じ
方向、かつ、同じ移動量でユーザの視線方向と前記実写
映像表示オブジェクトの映像面が直交するように、前記
実写映像表示オブジェクトの設置位置を算出するテクス
チャオブジェクト移動先算定部を備えたため、実写映像
の中をウォークスルーすることができ、あたかも現実世
界の中をウォークスルーしているかのような体感を得る
ことができるほどに、臨場感を向上することができる効
果がある。
The camera is mounted on a car or a trolley, and each frame of the video image shot while moving the camera is paired with the viewpoint position / line-of-sight direction of the camera that shot the image of the frame. And a viewpoint control for guiding a user's viewpoint along a movement path of a camera and determining a new viewpoint / gaze direction of a user based on a forward movement distance / reverse movement distance of a path determined by the user. And a texture for calculating an installation position of the real image display object so that the user's line of sight is orthogonal to the image plane of the real image display object with the same direction as the movement of the user's viewpoint and the same amount of movement. Equipped with an object destination calculation unit, allowing you to walk through live-action images, as if walking in the real world Enough can be obtained feel as if the route, there is an effect capable of improving the realism.

【0069】更に、円筒状に複数の前記実写映像表示オ
ブジェクトを水平方向に張り合わせて3次元仮想世界に
設置し、ユーザの視点位置に応じて、前記円筒状に貼り
あわせた前記実写映像表示オブジェクトを表示したり、
非表示にする表示管理部と、前記ユーザが前記実写映像
表示オブジェクトの中から1つを選択し、選択した前記
実写映像表示オブジェクトの映像表示面と垂直の方向に
視点を移動しようとしているかどうか、即ち、視点位置
がある一定の範囲内にあり、かつ、前記映像表示オブジ
ェクトに向かって移動しているかどうかを監視するユー
ザ監視部と、ユーザの視点/視線方向の変更の制御の仕
方を管理する視点制御管理部を備えたため、実写映像の
中を自由に移動ができるようになり、ユーザの視点移動
の自由度が向上する効果がある。
Further, a plurality of the live-action video display objects are attached in a horizontal direction in a cylindrical shape, and are installed in a three-dimensional virtual world. Display,
A display management unit to be hidden, and whether the user is to select one of the live-action video display objects and move the viewpoint in a direction perpendicular to the video display surface of the selected live-action video display object, That is, a user monitoring unit that monitors whether the viewpoint position is within a certain range and is moving toward the video display object, and manages a control method of changing the viewpoint / sight direction of the user. Since the viewpoint control management unit is provided, it is possible to freely move in the actual photographed video, and there is an effect that the degree of freedom of the user's viewpoint movement is improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の実施の形態1における融合装置の
機能ブロック図である。
FIG. 1 is a functional block diagram of a fusion device according to Embodiment 1 of the present invention.

【図2】 この発明の実施の形態1における融合装置の
融合部の機能ブロック図である。
FIG. 2 is a functional block diagram of a fusion unit of the fusion device according to the first embodiment of the present invention.

【図3】 この発明の実施の形態1における実写映像表
示オブジェクトデータベース部1500に記憶されてい
る情報の一例を示す図である。
FIG. 3 is a diagram showing an example of information stored in a live-action video display object database unit 1500 according to Embodiment 1 of the present invention.

【図4】 (a)3次元座標を示す図である。(b)こ
の発明の実施の形態1における視点位置/視線方向検出
部1900により求める視線角と距離を示す図である。
FIG. 4A is a diagram showing three-dimensional coordinates. FIG. 3B is a diagram illustrating a line-of-sight angle and a distance obtained by a viewpoint position / line-of-sight direction detection unit 1900 according to Embodiment 1 of the present invention.

【図5】 ユーザの視点と実写映像表示オブジェクトと
の関係を示した平面図である。
FIG. 5 is a plan view showing a relationship between a user's viewpoint and a real image display object.

【図6】 実写映像表示オブジェクトの回転についての
説明図である。
FIG. 6 is an explanatory diagram of rotation of a live-action video display object.

【図7】 実施の形態1の融合装置の処理フローを示し
た図である。
FIG. 7 is a diagram showing a processing flow of the fusion device of the first embodiment.

【図8】 建物/通路/トンネル等の外から内部を見た
場合の映像の表示について説明した図である。
FIG. 8 is a diagram illustrating a display of an image when the inside of a building / passage / tunnel or the like is viewed from outside.

【図9】 この発明の実施の形態1における対象オブジ
ェクトを分割地点から撮影することを説明する図であ
る。
FIG. 9 is a diagram for explaining shooting of a target object from a division point according to the first embodiment of the present invention.

【図10】 建物/通路/トンネル等の内部から外部へ
向かって視点位置/視線方向を移動させた場合の映像の
表示について説明した図である。
FIG. 10 is a diagram illustrating display of an image when the viewpoint position / sight line direction is moved from the inside of a building / passage / tunnel to the outside.

【図11】 この発明の実施の形態2における融合装置
の構成を説明する機能ブロック図である。
FIG. 11 is a functional block diagram illustrating a configuration of a fusion device according to a second embodiment of the present invention.

【図12】 実施の形態2の融合装置の処理フローを示
した図である。
FIG. 12 is a diagram showing a processing flow of the fusion device of the second embodiment.

【図13】 この発明の実施の形態3の融合装置におけ
る実写映像と3次元CGモデルを融合する装置の構成を
説明する機能ブロック図である。
FIG. 13 is a functional block diagram illustrating a configuration of a device that fuses a real image and a three-dimensional CG model in the fusion device according to the third embodiment of the present invention.

【図14】 この発明の実施の形態3の融合装置におけ
る実写映像と3次元CGモデルを融合する装置の構成を
説明する機能ブロック図である。
FIG. 14 is a functional block diagram illustrating a configuration of a device that fuses a real image and a three-dimensional CG model in the fusion device according to the third embodiment of the present invention.

【図15】 この発明の実施の形態4の融合装置の構成
を説明する機能ブロック図である。
FIG. 15 is a functional block diagram illustrating a configuration of a fusion device according to a fourth embodiment of the present invention.

【図16】 この発明の実施の形態4の融合装置の構成
を補足説明する図である。
FIG. 16 is a diagram supplementarily describing the configuration of the fusion device according to the fourth embodiment of the present invention.

【図17】 この発明の実施の形態4における実写映像
表示オブジェクトの表示について説明する図である。
FIG. 17 is a diagram for describing display of a real image display object according to Embodiment 4 of the present invention.

【図18】 この発明の実施の形態5の融合装置の構成
を説明する機能ブロック図である。
FIG. 18 is a functional block diagram illustrating a configuration of a fusion device according to a fifth embodiment of the present invention.

【図19】 実施の形態5の融合装置の処理フローを示
した図である。
FIG. 19 is a diagram showing a processing flow of the fusion device of the fifth embodiment.

【図20】 この発明の実施の形態6における融合装置
の構成を説明する機能ブロック図である。
FIG. 20 is a functional block diagram illustrating a configuration of a fusion device according to Embodiment 6 of the present invention.

【図21】 この発明の実施の形態7におけるテクスチ
ャオブジェクト部1000の構成を示す図である。
FIG. 21 is a diagram showing a configuration of a texture object unit 1000 according to Embodiment 7 of the present invention.

【図22】 実施の形態7における遠景、中間景、近景
用の実写映像表示オブジェクトの利用イメージ図であ
る。
FIG. 22 is a diagram illustrating the use of a real image display object for a distant view, an intermediate view, and a near view according to the seventh embodiment.

【図23】 この発明の実施の形態7における融合装置
の構成を説明する機能ブロック図である。
FIG. 23 is a functional block diagram illustrating a configuration of a fusion device according to a seventh embodiment of the present invention.

【図24】 実施の形態7における中間景テクスチャオ
ブジェクト部の動作を説明するイメージ図である。
FIG. 24 is an image diagram for explaining the operation of the intermediate scene texture object unit according to the seventh embodiment.

【図25】 実施の形態7におけるユーザの移動に伴う
遠景、中間景、近景の説明図である。
FIG. 25 is an explanatory diagram of a distant view, an intermediate view, and a near view accompanying movement of a user according to the seventh embodiment.

【図26】 従来技術の実現イメージ図である。FIG. 26 is a conceptual diagram of a conventional technology.

【図27】 従来技術の機能ブロック図である。FIG. 27 is a functional block diagram of a conventional technique.

【符号の説明】[Explanation of symbols]

99 仮想世界構築部、100 入力部、101 視点
管理部、102 レンダリング部、105 融合部、1
06 表示部、1000 テクスチャオブジェクト部、
1100 オブジェクト設定位置算定部、1200 マ
ッピング映像変更部、1300 映像データベース部、
1400 形状データベース部、1500 テクスチャ
データベース部、1600 3次元CGモデルデータベ
ース部、1700 実写映像表示オブジェクトデータベ
ース部、1900 視点位置/視線方向検出部、200
0 視点実写データベース部、2100 視点制御部、
2200 テクスチャオブジェクト移動先算定部、30
00 実写映像CGモデル融合部、3100 オブジェ
クト選択部、4000 表示管理部、4100 ユーザ
監視部、4200 視点制御管理部、4300 3次元
仮想世界、4310実写映像表示オブジェクト、432
0 視点、4330 視線ベクトル、4340 分岐
部、5000 オブジェクト管理部、6000 共有制
御部、7000 制御モード変更部、9000 遠景テ
クスチャオブジェクト部、9100中間景テクスチャオ
ブジェクト部、9200 近景テクスチャオブジェクト
部、9300 ビル、9400,9500 実写映像表
示オブジェクト。
99 virtual world construction unit, 100 input unit, 101 viewpoint management unit, 102 rendering unit, 105 fusion unit, 1
06 display unit, 1000 texture object unit,
1100 Object setting position calculation unit, 1200 mapping video change unit, 1300 video database unit,
1400 shape database section, 1500 texture database section, 1600 three-dimensional CG model database section, 1700 real image display object database section, 1900 viewpoint position / view direction detecting section, 200
0 viewpoint live-action database unit, 2100 viewpoint control unit,
2200 Texture object destination calculation unit, 30
00 CG model fusion unit, 3100 object selection unit, 4000 display management unit, 4100 user monitoring unit, 4200 viewpoint control management unit, 4300 three-dimensional virtual world, 4310 real-world video display object, 432
0 viewpoint, 4330 gaze vector, 4340 branch, 5000 object management unit, 6000 shared control unit, 7000 control mode change unit, 9000 distant view texture object unit, 9100 intermediate view texture object unit, 9200 close view texture object unit, 9300 building, 9400 , 9500 live-action video display object.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G06T 1/00 - 17/50 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int.Cl. 6 , DB name) G06T 1/00-17/50

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 以下のオブジェクト管理部と共有制御部
とを備えることを特徴とする3次元コンピュータグラフ
ィックス(以下、「コンピュータグラフィックス」を
「CG」と称する)実写映像融合装置 (1)(a)3次元仮想世界をウォークスルーするユー
ザの視点の変化を検出する視点管理部と、 (b)3次元CGモデルにより構成された平面オブジェ
クトに映像をマッピングして表示する実写映像表示オブ
ジェクトを特定するオブジェクト情報、すなわち、上記
3次元仮想世界を見るユーザの視点位置及び視線方向と
上記実写映像表示オブジェクトとの位置関係を記憶する
実写映像表示オブジェクトデータベース部と、 上記視点管理部により検出された視点の変化に基づいて
視界を求め、上記視界にある実写映像表示オブジェクト
のオブジェクト情報を、上記実写映像表示オブジェクト
データベース部を検索して検出する視点位置視線方向検
出部と、 上記視点位置視線方向検出部が検出したオブジェクト情
報に基づいて、上記視点から実物を見た時に見える各部
分の大きさの比率と実写映像表示オブジェクトの各部分
の大きさの比率とが同じ比率になるような位置に上記平
面オブジェクトの設置位置を算定するオブジェクト設定
位置算定部と、 上記視点位置視線方向検出部が検出したオブジェクト情
報に基づいて上記平面オブジェクトの形状と、上記平面
オブジェクトに融合する映像とを決定するマッピング映
像変更部と、 上記マッピング映像変更部により決定された映像を上記
マッピング映像変更部により決定された形状の平面オブ
ジェクトに融合し、上記オブジェクト設定位置算定部に
より算定された設置位置に上記映像を融合した平面オブ
ジェクトを設置して実写映像表示オブジェクトを生成す
るテクスチャオブジェクト部とを備えた融合部とを備
え、ネットワーク接続されたユーザ毎に設けられたオブ
ジェクト管理部、 (2)ネットワーク接続された複数のユーザ間で共有す
る上記3次元仮想世界に実写映像表示オブジェクトを登
録し、その登録されている特定の実写映像表示オ ブジェ
クト毎に、 それぞれのユーザに固有の視点位置、視線方向を用い
て、上記実写映像表示オブジェクトの設置位置、マッピ
ングする映像、形状をユーザ毎に個別に決定して独立個
別利用するモードと、 ネットワーク接続された所定のユーザ間で、前記実写映
像表示オブジェクトの設置位置、マッピングする映像、
形状のいずれかを共有して同期的に共有利用するモード
のいずれかのモードを状況に応じて適宜切り替え選択
して表示する制御を行う共有制御部。
An object management unit and a sharing control unit described below.
Three-dimensional computer graph characterized by comprising:
("Computer Graphics"
(CG)) Live-action image fusion device (1) (a) A user who walks through a three-dimensional virtual world
A viewpoint management unit for detecting a change in the viewpoint of the object ; and (b) a planar object constituted by a three-dimensional CG model.
Live video display object that maps video to
Object information that identifies the object,
The viewpoint position and line-of-sight direction of the user viewing the three-dimensional virtual world
Store the positional relationship with the live-action video display object
Based on the change of the viewpoint detected by the live-action image display object database unit and the viewpoint management unit
Obtains a field of view, and a live-action image display object in the field of view
Object information of the above-mentioned live-action image display object
Viewpoint position gaze direction detection by searching database part
And the object information detected by the viewpoint position / gaze direction detection unit.
Based on the information, each part seen when looking at the real thing from the above viewpoint
Minute ratio and each part of live-action video display object
In the position where the size ratio of the
Object setting to calculate the installation position of the plane object
The position calculation unit and the object information detected by the viewpoint position gaze direction detection unit.
The shape of the plane object and the plane
Mapping video that determines the video that fuses with the object
An image changing unit and the image determined by the mapping image changing unit
Plane object of the shape determined by the mapping video changing unit
Into the object setting position calculation unit
Plane object that fuses the above image with the installation position calculated by
Object to create a live-action video display object
And a fusion part with a texture object part
The object provided for each user connected to the network
Project management unit, be shared among a plurality of users (2) Network Connection
A live-action video display object in the 3D virtual world
Lok Si, particular Stock Video display Oh Buje, which is the registered
For each extract, specific viewpoint position to each user, using the line-of-sight direction
The location of the live-action video display object
Video and shape to be individually determined for each user
Between the separate use mode and the predetermined users connected to the network,
The installation position of the image display object, the video to be mapped,
Select one of the modes that share one of the shapes and share and use it synchronously as appropriate according to the situation
A shared control unit that controls the display by displaying.
【請求項2】 上記3次元CG実写映像融合装置は、さ
らに、3次元CGモデルを登録する3次元CGモデルデ
ータベース部と、 3次元仮想世界に上記実写映像表示オブジェクトを設置
することにより死角になる部分に存在し、かつ、上記実
写映像表示オブジェクトを設置しなければユーザの視点
から見える3次元CGモデルを上記3次元CGモデルデ
ータベース部より選択するオブジェクト選択部と、 上記オブジェクト選択部が選択する3次元CGモデルを
該ユーザの視点から見た時に見える上記3次元CGモデ
ルの映像を抽出して、実写映像表示オブジェクトに融合
された実写映像にオーバーライトする実写映像CGモデ
ル融合部とを備えることを特徴とする請求項1に記載の
3次元CG実写映像融合装置。
2. The three-dimensional CG live-action image fusion device comprises:
3D CG model data for registering a 3D CG model
Database and the above-mentioned live-action video display object in a 3D virtual world
Is present in the blind spot, and
User's point of view if no video display object is installed
The three-dimensional CG model seen from
An object selection unit selected from the database unit and a three-dimensional CG model selected by the object selection unit.
The three-dimensional CG model seen from the viewpoint of the user
And merge it into a live-action video display object
Live image CG model that overwrites the live image
2. The combination according to claim 1, further comprising:
3D CG live-action image fusion device.
【請求項3】 以下の要素を備えることを特徴とする3
次元CG実写映像融合装置 (a)所定の視点位置と視線方向とに対応する撮影経路
で撮影した実写映像と上記実写映像を撮影した視点位置
と視線方向とを複数記憶する視点実写データベース部、 (b)3次元仮想世界における少なくとも視点位置と視
線方向のいずれかを変化させる入力部、 (c)上記入力部により変化される視点位置と上記視線
方向とを、上記視点実写データベース部に記憶された視
点位置と視線方向とにより定まる撮影経路に従うよう
に、すなわち撮影経路を前進か後進しかできないように
し、進行方向を自由 に変えることができないように束縛
することにより制御し、ユーザが決めた経路の前進移動
距離/後進移動距離から、上記制御された新たな視点位
置と視線方向を決定するとともに、また、視点位置があ
る一定の範囲内にあり、かつ、実写映像表示オブジェク
トに向かって移動している場合にユーザの視点の上記束
縛を開始する視点制御部、 (d)ユーザの視点の移動と同じ方向かつ同じ移動量
で、ユーザの視点の移動に追随させて移動するように、
ユーザの視線方向と実写映像表示オブジェクトの映像面
とが直交するように、実写映像をマッピングする実写映
像表示オブジェクトの移動先の設置位置を算出するテク
スチャオブジェクト移動先算定部、 (e)視点制御部が決定した新たなユーザの視点位置/
視線方向から見える実写映像を視点実写データベース部
より選択するマッピング映像変更部、 (f)上記テクスチャオブジェクト移動先算定部により
算定された設置位置に実写映像表示オブジェクトを設置
し、上記マッピング映像変更部が選択した実写映像を上
記実写映像表示オブジェクトにマッピングするテクスチ
ャオブジェクト部、 (g)上記複数の撮影経路で撮影した実写映像のそれぞ
れに対応する各実写映像表示オブジェクトより1つを選
択し、上記入力部より入力された視点位置が上記選択し
た実写映像表示オブジェクトに向かって移動しているこ
とを監視するとともに、上記視点位置が所定の領域内に
あることを監視するユーザ監視部、 (h)上記複数の撮影経路で撮影した実写映像のそれぞ
れに対応する各実写映像表示オブジェクトを円筒状に水
平方向に張り合わせ、上記ユーザ監視部が監視する所定
の領域内にある視点位置に応じて上記複数の実写映像表
示オブジェクトのうち所定の実写映像表示オブジェクト
を選択することにより該実写映像表示オブジェクトに対
応する撮影経路を選択するとともに、選択した撮影経路
に対応する実写映像を選択して表示する表示管理部。
3. 3, characterized in that it comprises the following elements
Dimensional CG live-action image fusion device (a) shooting path corresponding to predetermined viewpoint position and line-of-sight
And the viewpoint position where the above live-action video was shot
And a viewpoint real-photographing database unit storing a plurality of viewpoint directions, and (b) at least a viewpoint position and a viewpoint in a three-dimensional virtual world.
An input unit for changing any of the line directions; (c) a viewpoint position and the line of sight changed by the input unit
The direction and the viewpoint stored in the viewpoint live-action database
Follow the shooting path determined by the point position and gaze direction
So that you can only move forward or backward in the shooting path
And bind so that you cannot freely change the direction of travel
To move forward on the route determined by the user.
From the distance / reverse travel distance, the new viewpoint position controlled above
Position and line-of-sight direction, and
Objects within a certain range and
Above the bunch of user perspectives when moving towards
Viewpoint control unit to start a strapping, (d) the same direction and the same amount of movement of the point of view of the user
In such a way as to follow the movement of the user's viewpoint,
Visual direction of user's gaze direction and live-action video display object
A live-action projection that maps live-action footage so that
A technique for calculating the installation position of the destination of the image display object
Texturizing object destination calculation unit, (e) a new user to the viewpoint control unit has determined viewpoint position /
Database of live-action video images viewed from the line of sight
Mapping image changing section for more selective, by (f) the textured object destination calculator
Install a live-action video display object at the calculated installation position
The actual video selected by the mapping video changing unit
Text mapping to live-action video display objects
(G) Each of the real shot images shot in the above plurality of shooting paths
One from each live-action video display object corresponding to
Select the viewpoint position input from the input unit.
Moving toward the live-action image display object
And that the viewpoint position is within a predetermined area.
A user monitoring unit that monitors the presence of the camera;
Each live-action video display object corresponding to
Laminated in the horizontal direction, the specified
The above plurality of live-action video tables according to the viewpoint position in the area of
Predetermined live-action video display object among display objects
To select the live-action video display object.
Select the corresponding shooting route and select the shooting route
A display management unit that selects and displays live-action images corresponding to.
JP6341298A 1998-03-13 1998-03-13 3D CG live-action image fusion device Expired - Fee Related JP2938845B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6341298A JP2938845B1 (en) 1998-03-13 1998-03-13 3D CG live-action image fusion device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6341298A JP2938845B1 (en) 1998-03-13 1998-03-13 3D CG live-action image fusion device

Publications (2)

Publication Number Publication Date
JP2938845B1 true JP2938845B1 (en) 1999-08-25
JPH11259685A JPH11259685A (en) 1999-09-24

Family

ID=13228560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6341298A Expired - Fee Related JP2938845B1 (en) 1998-03-13 1998-03-13 3D CG live-action image fusion device

Country Status (1)

Country Link
JP (1) JP2938845B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110869980A (en) * 2017-05-18 2020-03-06 Pcms控股公司 System and method for distribution and presentation of content as a spherical video and 3D portfolio
CN116012564A (en) * 2023-01-17 2023-04-25 宁波艾腾湃智能科技有限公司 Equipment and method for intelligent fusion of three-dimensional model and live-action photo

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3672561B2 (en) * 2003-02-14 2005-07-20 三菱電機株式会社 Moving picture synthesizing apparatus, moving picture synthesizing method, and information terminal apparatus with moving picture synthesizing function
CN1942903A (en) * 2004-03-31 2007-04-04 日本先锋公司 Plotting method, plotting program, and plotting equipment
KR100668159B1 (en) * 2005-07-01 2007-01-11 김문정 Landscape Architecture Design Method Based On Real Image and System thereof
JP4640011B2 (en) * 2005-07-19 2011-03-02 株式会社セガ Image processing apparatus, distant view image display method, and distant view image display program
JP4896761B2 (en) * 2007-02-16 2012-03-14 株式会社日立製作所 3D map display system, 3D map display method, and program thereof
JP2008219390A (en) * 2007-03-02 2008-09-18 Victor Co Of Japan Ltd Image reader
JP5524965B2 (en) * 2008-08-12 2014-06-18 グーグル インコーポレイテッド Inspection in geographic information system
KR101134466B1 (en) * 2009-03-31 2012-04-13 한국전자통신연구원 Virtual world service apparatus, virtual world service system and its method
WO2018100928A1 (en) * 2016-11-30 2018-06-07 キヤノン株式会社 Image processing device and method
JP6948171B2 (en) * 2016-11-30 2021-10-13 キヤノン株式会社 Image processing equipment and image processing methods, programs
JP6362795B1 (en) 2017-04-27 2018-07-25 三菱電機株式会社 Machining control device, machine tool, and machining control method
JP7418956B2 (en) * 2018-12-28 2024-01-22 株式会社バンダイナムコエンターテインメント Image generation system and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110869980A (en) * 2017-05-18 2020-03-06 Pcms控股公司 System and method for distribution and presentation of content as a spherical video and 3D portfolio
CN110869980B (en) * 2017-05-18 2024-01-09 交互数字Vc控股公司 Distributing and rendering content as a spherical video and 3D portfolio
CN116012564A (en) * 2023-01-17 2023-04-25 宁波艾腾湃智能科技有限公司 Equipment and method for intelligent fusion of three-dimensional model and live-action photo
CN116012564B (en) * 2023-01-17 2023-10-20 宁波艾腾湃智能科技有限公司 Equipment and method for intelligent fusion of three-dimensional model and live-action photo

Also Published As

Publication number Publication date
JPH11259685A (en) 1999-09-24

Similar Documents

Publication Publication Date Title
CN111701238B (en) Virtual picture volume display method, device, equipment and storage medium
JP3311830B2 (en) 3D video creation device
EP3798801A1 (en) Image processing method and apparatus, storage medium, and computer device
CN106157359B (en) Design method of virtual scene experience system
JP5450563B2 (en) Method for transition between scenes
JP2938845B1 (en) 3D CG live-action image fusion device
JP2023175930A (en) Occlusion rendering method utilizing ray-casting and live depth
CN105339987B (en) For land, aerial and/or the visual manifold of crowdsourcing image zooming-out and based on the rendering of image
Klinker et al. Augmented reality for exterior construction applications
EP2629265A1 (en) Method and system for driving simulated virtual environments with real data
JP2004537082A (en) Real-time virtual viewpoint in virtual reality environment
CN107895399A (en) A kind of omnibearing visual angle switching method, device, terminal device and storage medium
CN111026261A (en) Method for AR interactive display of tourist attractions
CN109461210A (en) A kind of Panoramic Warping method of online house ornamentation
US20210038975A1 (en) Calibration to be used in an augmented reality method and system
WO2020050103A1 (en) Virtual viewpoint control device and method for controlling same
Tschirschwitz et al. Virtualising an Ottoman Fortress–Laser scanning and 3D modelling for the development of an interactive, immersive virtual reality application
JP2000076488A (en) Three-dimensional virtual space display device and texture object setting information generating device
Martínez et al. Augmented reality to preserve hidden vestiges in historical cities. a case study
Fukuda et al. Integration of a structure from motion into virtual and augmented reality for architectural and urban simulation: demonstrated in real architectural and urban projects
JPH03296176A (en) High-speed picture generating/displaying method
Inoue et al. Post-Demolition landscape assessment using photogrammetry-based diminished reality (DR)
Hamadouche Augmented reality X-ray vision on optical see-through head mounted displays
Kimura et al. “Wall Hack AR”: AR See-through system with LiDAR and VPS
Huang et al. Innovative Application and Improvement of Panoramic Digital Technology in Indoor Display Scenes

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080611

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees