JP2002140715A - Multi-screen composition system - Google Patents

Multi-screen composition system

Info

Publication number
JP2002140715A
JP2002140715A JP2000332282A JP2000332282A JP2002140715A JP 2002140715 A JP2002140715 A JP 2002140715A JP 2000332282 A JP2000332282 A JP 2000332282A JP 2000332282 A JP2000332282 A JP 2000332282A JP 2002140715 A JP2002140715 A JP 2002140715A
Authority
JP
Japan
Prior art keywords
screen
video
image
data
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000332282A
Other languages
Japanese (ja)
Inventor
Hideki Murota
秀樹 室田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2000332282A priority Critical patent/JP2002140715A/en
Publication of JP2002140715A publication Critical patent/JP2002140715A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a multi-screen composition system for a virtual reality technology applying device provided with a function for easily and effectively processing the joint part of partial projected videos. SOLUTION: The system is provided with a plurality of VR video generating/ plotting devices 10 for generating VR videos which are to be projected on a common screen for every allocated part and outputting them as video signals, a plotting instructing part 40 for supplying camera position information with a synchronizing signal, a VR space data storing part 30 for supplying modeling data of a three-dimensional object, and projectors 20 whose number is similar to that of the VR video generating/plotting devices. The VR video generating/ plotting device 10 holds virtual object data for suppressing the joint. At the time of operating and generating a VR image, it is operated by including virtual object data. Thus, one VR video is obtained so that a difference in level due to the difference of luminance between adjacent partial picture videos when the video is projected on the common screen does not become conspicuous.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、高解像度のデジタ
ル3次元コンピュータグラフィック画像を、複数台の投
影機を用いて、共通な大きな1つのスクリーンにそれぞ
れの投影像を分割投影して全体として1つの像として提
示するシステムに関して、各々の投影像の繋ぎ目の段差
を簡単に抑制する事が可能な、マルチ画面合成システム
に関する。このようなシステムはバーチャルリアリティ
技術を用いた大型表示システムとして様々な分野への利
用が考えられている。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a high-resolution digital three-dimensional computer graphic image that is divided and projected onto a common large screen by using a plurality of projectors, and as a whole, one projection image is obtained. The present invention relates to a multi-screen combining system that can easily suppress a step of a joint between projection images with respect to a system that presents two images. Such a system is considered to be used in various fields as a large-sized display system using virtual reality technology.

【0002】[0002]

【従来技術】このようなマルチ画面合成システムにおい
ては、個々の部分投影像は、隣接する部分投影像と縁辺
部分が重なるように投影されるが、この重なり部分にお
いて、輝度を抑えて、かつ違和感なく1つの画像のよう
に表示させることが必要であった。従来は、個々の分割
した映像を表示するプロジェクター装置内に、重なり合
う部分の輝度を調整する専用装置を設け、電気的または
光学的に繋ぎ目部分の段差の抑制を行っていた。
2. Description of the Related Art In such a multi-screen synthesizing system, each partial projection image is projected such that an adjacent partial projection image and an edge portion overlap, but in this overlapping portion, luminance is suppressed and uncomfortable feeling is obtained. Instead, it is necessary to display the image as a single image. Conventionally, a dedicated device for adjusting the luminance of an overlapping portion has been provided in a projector device for displaying individual divided images, and a step at an electrically or optically connected portion has been suppressed.

【0003】[0003]

【発明が解決しようとする課題】上記の方法の場合、専
用装置となる為、非常に高価であった。また、大型で可
搬性に乏しく、なおかつ、調整時間が掛かるという問題
があった。本発明はこのような問題点を考慮してなされ
たものであり、部分投映像の繋ぎ目部分の処理を簡単に
効果的に行う機能を備えたバーチャルリアリティ技術応
用装置のためのマルチ画面合成システムを提供すること
を課題とする。
In the case of the above-mentioned method, since it is a dedicated device, it is very expensive. In addition, there is a problem that it is large, poor in portability, and requires a long adjustment time. The present invention has been made in view of such a problem, and has a multi-screen synthesis system for a virtual reality technology application apparatus having a function of easily and effectively processing a joint portion of a partial projection image. The task is to provide

【0004】[0004]

【課題を解決するための手段】そこで本発明の第1の態
様は、1つの大きな共通スクリーンに投影されるべきバ
ーチャルリアリティ映像を割当てられた部分毎に生成し
映像信号として出力する複数台のVR映像生成描画装置
と、操作者の入力を受けてカメラ位置情報を生成し、前
記VR映像生成描画装置に、同期信号とともにカメラ位
置情報を供給する描画指示部と、前記VR映像生成描画
装置に、3次元オブジェクトのモデリングデータを供給
するVR空間データ格納部と、前記VR映像生成描画装
置の1台から出力される映像信号を入力して部分画面映
像として前記共通スクリーンの割当てられた部分に、隣
接する他の部分画面映像と重なりを持たせて投影する、
VR映像生成描画装置と同数の投影機と、により構成さ
れるバーチャルリアリティ映像のマルチ画面合成システ
ムにおいて、前記VR映像生成描画装置はそれぞれ繋ぎ
目抑制用の仮想的なオブジェクトデータを保持してお
り、バーチャルリアリティ画像を演算生成する際にこの
仮想的なオブジェクトデータを含めて演算することによ
り、共通スクリーンに投影された時の隣接する部分画面
映像との輝度の違いによる段差がめだたないように1つ
のバーチャルリアリティ映像を得ることができる構成と
したことを特徴とするマルチ画面合成システムであっ
て、このマルチ画面合成システムにより上記課題を解決
する。
Accordingly, a first aspect of the present invention is a plurality of VRs for generating a virtual reality image to be projected on one large common screen for each assigned part and outputting the generated VR signal as a video signal. An image generation / drawing apparatus, a drawing instruction unit that generates camera position information in response to an input from an operator, and supplies camera position information together with a synchronization signal to the VR image generation / drawing apparatus; A VR space data storage unit that supplies modeling data of a three-dimensional object, and a video signal output from one of the VR video generation / drawing apparatuses is input, and is adjacent to the allocated portion of the common screen as a partial screen video. Project with overlapping with other partial screen images,
In a virtual reality video multi-screen synthesis system configured by the same number of projectors as the VR video generation / drawing device, each of the VR video generation / drawing devices holds virtual object data for joint suppression, By calculating the virtual reality image by including this virtual object data at the time of calculation and generation, one step is prevented so that a step due to a difference in luminance between adjacent partial screen images when projected on a common screen is inconspicuous. A multi-screen synthesis system characterized in that a virtual reality video can be obtained. The above-mentioned problem is solved by the multi-screen synthesis system.

【0005】本発明のより好ましい態様は、前記繋ぎ目
抑制用の仮想的なオブジェクトデータを、部分画面映像
が重なり合う部分を覆う複数の長方形オブジェクトデー
タであって、対応する部分画面領域の中心に近い部分か
ら縁部分に向けて1.0から0.0に連続的に変化する透過度
の分布を有し、一様にR=G=B=0で定義される色を持つオ
ブジェクトとして定義する前記第1の態様に記載のマル
チ画面合成システムである。
In a more preferred aspect of the present invention, the virtual object data for joint suppression is a plurality of rectangular object data covering a portion where the partial screen video overlaps, and is close to the center of the corresponding partial screen area. The first aspect in which the object has a distribution of transmittance that continuously changes from 1.0 to 0.0 from a portion to an edge portion and is defined as an object having a color defined by R = G = B = 0 uniformly 2 is a multi-screen synthesis system.

【0006】本発明のより好ましい別の態様は、前記繋
ぎ目抑制用の仮想的なオブジェクトデータを、一つの部
分画面領域と等しいサイズの長方形オブジェクトデータ
であって、他の部分画面領域と重ならない部分の透過度
を1.0、他の部分画面領域と重なる部分は、その中心に
近い部分から縁部分に向けて1.0から0.0に連続的に変化
する透過度の分布を有する、一様にR=G=B=0で定義され
る色を持つオブジェクトとして定義する前記第1の態様
に記載のマルチ画面合成システムである。
In another preferred aspect of the present invention, the virtual object data for joint suppression is rectangular object data having the same size as one partial screen area and does not overlap with another partial screen area. The transmittance of the portion is 1.0, and the portion overlapping with the other partial screen area has a transmittance distribution that continuously changes from 1.0 near the center to the edge from the portion near the center, and R = G uniformly The multi-screen combining system according to the first aspect, wherein the object is defined as an object having a color defined by = B = 0.

【0007】[0007]

【発明の実施の形態】以下図面を参照しながら本発明の
実施形態を説明してゆく。図1は、本発明の一実施形態
であるマルチ画面合成システムの全体構成図である。5
0はスクリーンである。スクリーン50に対して複数の
投影機20がそれぞれが担当する部分映像を投影する。
投影機20は、入力される映像信号に応じてスクリーン
に投影する投映像を発光する市販の液晶プロジェクタを
使用する。全体画面を分割表示する数だけ投影機20が
必要である。10はVR映像生成描画装置である。1台
の投影機20に対して1台のVR映像生成描画装置10
が映像信号を供給する。VR映像生成描画装置10は、
VR空間データに基づいて、カメラ位置から眺めた3次
元画像を計算するVR空間描画部101、繋ぎ目抑制用
データ配置部102、カメラ分割情報格納部103を備
えている。30は、VR空間データ格納部である。VR
空間上の様々なオブジェクトのモデルデータが格納され
ており、VR映像生成描画装置10は、VR空間データ
格納部30から、3次元画像の計算に必要なデータを取
出す。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is an overall configuration diagram of a multi-screen synthesis system according to an embodiment of the present invention. 5
0 is a screen. The plurality of projectors 20 project partial images respectively assigned to the screen 50.
The projector 20 uses a commercially available liquid crystal projector that emits a projected image to be projected on a screen according to an input image signal. The projectors 20 are required by the number of divisions of the entire screen. Reference numeral 10 denotes a VR video generation / drawing apparatus. One VR image generation / drawing apparatus 10 for one projector 20
Supplies a video signal. The VR video generation / drawing apparatus 10
A VR space rendering unit 101 that calculates a three-dimensional image viewed from a camera position based on VR space data, a joint suppression data arrangement unit 102, and a camera division information storage unit 103 are provided. Reference numeral 30 denotes a VR space data storage unit. VR
Model data of various objects in the space are stored, and the VR video generation / drawing apparatus 10 extracts data necessary for calculating a three-dimensional image from the VR space data storage unit 30.

【0008】40は、VR映像生成描画装置10にカメ
ラ位置情報を供給する描画指示部である。カメラ移動情
報入力部41から得た信号をカメラ位置情報に変換して
各VR映像生成描画装置10に供給する。42はカメラ
初期位置設定部である。カメラ初期位置設定部42は、
図2に示すように、起動時のカメラ初期情報(カメラ視
点、カメラ注視点、画角<CX/CY>、視野角)を設
定する。カメラ移動情報入力部41は、カメラの移動情
報(カメラ視点移動量、カメラ注視点移動量)を計算す
るための信号を発生させるものである。実際には描画指
示部40、カメラ移動情報入力部41、カメラ初期位置
設定部42は、コンピュータ本体とマウス、ジョイステ
ィック、キーボードなどで構成することができる。描画
指示部40は、このコンピュータ本体に備えられた制御
プログラムが起動されることで実現される。
Reference numeral 40 denotes a drawing instruction unit that supplies camera position information to the VR video generation / drawing apparatus 10. The signal obtained from the camera movement information input unit 41 is converted into camera position information and supplied to each VR video generation / drawing device 10. Reference numeral 42 denotes a camera initial position setting unit. The camera initial position setting unit 42
As shown in FIG. 2, camera initial information (camera viewpoint, camera gazing point, view angle <CX / CY>, view angle) at the time of startup is set. The camera movement information input unit 41 generates a signal for calculating camera movement information (camera viewpoint movement amount, camera fixation point movement amount). Actually, the drawing instruction unit 40, the camera movement information input unit 41, and the camera initial position setting unit 42 can be configured by a computer main body, a mouse, a joystick, a keyboard, and the like. The drawing instruction unit 40 is realized by activating a control program provided in the computer main body.

【0009】この制御プログラムは、決められた時間間
隔で、カメラ移動情報入力部41から得られるカメラ移
動信号を読込み、この信号とカメラ初期位置設定部42
に設定されている初期カメラ位置情報とから、現在のカ
メラ位置情報を繰り返し計算して、各VR映像生成描画
装置10に、そのカメラ位置情報を同期信号とともに送
出する。各VR映像生成描画装置10のVR空間描画部
101は同期信号に合わせて、現在のカメラ位置情報に
基づいて、3次元画像のレンダリング計算を行う。
This control program reads the camera movement signal obtained from the camera movement information input section 41 at a predetermined time interval, and reads this signal and the camera initial position setting section 42.
The current camera position information is repeatedly calculated from the initial camera position information set in (1), and the camera position information is transmitted to each VR video generation / drawing apparatus 10 together with a synchronization signal. The VR space drawing unit 101 of each VR video generation / drawing apparatus 10 performs a rendering calculation of a three-dimensional image based on the current camera position information in accordance with the synchronization signal.

【0010】カメラ分割情報格納部103は、VR空間
を描画する際の、カメラ分割情報(描画領域の左上<LX,
TY>、右下<RX,BY>の位置)が格納される。図3にその様
子を示す。描画領域の左上<LX,TY>、右下<RX,BY>の位置
は、全体表示エリアを複数台のVR映像生成描画部で分
割処理できるように設けてある。図4(A)には、1つ
のスクリーンを9個の部分投影像で分割する場合の例を
示す。図中のVR1、VR2、・・は個々のVR映像生
成描画装置VR1、VR2、・・が担当する部分領域を
示す。この分割例による重なり領域を図4(B)に示
す。
[0010] The camera division information storage unit 103 stores camera division information (upper left <LX,
TY>, lower right <RX, BY> position) are stored. FIG. 3 shows this state. The upper left <LX, TY> and lower right <RX, BY> positions of the drawing area are provided so that the entire display area can be divided by a plurality of VR video generation / drawing units. FIG. 4A shows an example in which one screen is divided into nine partial projection images. In the drawing, VR1, VR2,... Indicate partial areas assigned to the respective VR video generation / drawing apparatuses VR1, VR2,. FIG. 4B shows an overlap region according to this division example.

【0011】カメラ分割情報は分割表示する位置及び、
繋ぎ目の重なり幅、各画面投影部が表示できる解像度
(画素数)、最終的に表示する解像度によって変わり、
下記の式、数1により算出される。
[0011] The camera division information includes a position to be divided and displayed, and
It depends on the overlap width of the seam, the resolution (number of pixels) that each screen projection unit can display, and the resolution that is finally displayed,
It is calculated by the following equation, Equation 1.

【数1】LX = (Ex ― Ox) × (Xcount ? 1) 但し LX < 0 の場合は LX = 0 RX = (Ex ― Ox) × (Xcount ? 1) + Ex ? 1 但し RX >= CX の場合は RX = CX ― 1 TY = (Ey ― Oy) × (Ycount ? 1) 但し TY< 0 の場合は TY = 0 BY = (Ey ― Oy) × (Ycount?1) + Ey ? 1 但し BY >= CY の場合は BY = CY ― 1 ここで、 Ex:各画面投影部が表示できるXサイズ Xcount:この画面投影部が受け持つX方向の位置(左か
らの数) CX:X方向の表示解像度 Ox:X方向の重なり幅 Ycount:この画面投影部が受け持つY方向の位置(上か
らの数) CY:X方向の表示解像度 Oy:Y方向の重なり幅 Ey:各画面投影部が表示できるYサイズ
[Equation 1] LX = (Ex-Ox) x (Xcount? 1) However, if LX <0, LX = 0 RX = (Ex-Ox) x (Xcount? 1) + Ex? 1 However, when RX> = CX, RX = CX-1 TY = (Ey-Oy) x (Ycount? 1) However, when TY <0, TY = 0 BY = (Ey-Oy) x (Ycount? 1) + Ey? 1 However, if BY> = CY, BY = CY-1 where Ex: X size that each screen projection unit can display Xcount: Position in the X direction that this screen projection unit covers (number from left) CX: X direction Display resolution Ox: Overlap width in X direction Ycount: Position in Y direction (number from the top) covered by this screen projection unit CY: Display resolution in X direction Oy: Overlap width in Y direction Ey: Displayed by each screen projection unit Possible Y size

【0012】また、繋ぎ目の重なり部分の大きさOx、Oy
は下記の式、数2により算出される。
The sizes Ox and Oy of the overlapping portions of the joints
Is calculated by the following equation, Expression 2.

【数2】 Ox = (Ex × Xs ― CX)/(Xs ― 1) Oy = (Ey × Ys ― CY)/(Ys ― 1) ただし、 Xs:X方向の分割数 Ys:Y方向の分割数Ox = (Ex x Xs-CX) / (Xs-1) Oy = (Ey x Ys-CY) / (Ys-1) where Xs: number of divisions in X direction Ys: number of divisions in Y direction

【0013】繋ぎ目抑制用データ配置部102は、分割
処理された個々の映像の繋ぎ目を抑制する為、カメラの
前面端に配置する板形状のサイズ、位置情報、透過度が
格納される。例えば、図4に示すように9分割したVR
投影面の内、VR映像生成描画装置10(VR5)に関
しての板形状は図5に示すように、4辺に添って4つの
板形状が配置される。また、VR映像生成描画装置10
(VR9)に関しては図6に示すように、左と上に2つ
の板形状が配置される。また、繋ぎ目抑制の為の、板形
状の輝度(色)は通常R=0,G=0,B=0とし、透過度は通常
図7に示すように中から外に向けて1.0から0.0の値とな
るように設定する。
The joint suppressing data arranging unit 102 stores the size, position information, and transparency of a plate shape arranged at the front end of the camera in order to suppress joints of the divided images. For example, as shown in FIG.
As shown in FIG. 5, four plate shapes are arranged along the four sides of the VR image generation / drawing apparatus 10 (VR5) among the projection surfaces. In addition, the VR video generation / drawing apparatus 10
As for (VR9), as shown in FIG. 6, two plate shapes are arranged on the left and upper sides. In addition, the brightness (color) of the plate shape for suppressing the joint is usually set to R = 0, G = 0, B = 0, and the transmittance is usually set from 1.0 to 0.0 from the inside to the outside as shown in FIG. Set to be the value of.

【0014】VR空間描画部101は、描画指示部40
からカメラ位置情報を受取るとともに、VR空間データ
格納部30、カメラ分割情報格納部103からVR空間
データ、カメラ分割情報を、また、繋ぎ目抑制用データ
配置部102に格納されている透過度付きの板形状デー
タを読込み、繋ぎ目の抑制処理を伴った形でVR映像を
描画する。図8および図9はこの繋ぎ目抑制処理の効果
を説明する図である。図9は、繋ぎ目の抑制処理を行わ
ない場合を示す。図8は、繋ぎ目の抑制処理を施した図
4のVR5の部分映像を担当する投影機20から投影さ
れる像を示す。繋ぎ目抑制処理により端の部分が徐々に
暗くなっていることが示されている。図8のように繋ぎ
目部分は外側に行くに従い、輝度が0に落ちているが、
隣り合った部分と後述の表示部上で、合成される為、結
果として繋ぎ目部分は段差が無くなった形で表示され
る。
The VR space drawing unit 101 includes a drawing instruction unit 40
From the VR space data storage unit 30, the VR space data and camera division information from the camera division information storage unit 103, and the camera with the transparency stored in the joint suppression data arrangement unit 102. The board shape data is read, and a VR image is drawn in a form accompanied by the joint suppression processing. 8 and 9 are diagrams illustrating the effect of the joint suppression processing. FIG. 9 shows a case in which the joint suppression processing is not performed. FIG. 8 shows an image projected from the projector 20 in charge of the partial image of the VR5 in FIG. It is shown that the end portion is gradually darkened by the joint suppression processing. As shown in FIG. 8, the brightness decreases to 0 as the seam goes outward.
Since the adjacent part is synthesized on the display unit described later, the joint part is displayed as a result with no step.

【0015】VR空間データ格納部30は、VR空間を
定義する為の、形状データ、質感データ、ライトデータ
が格納されている。図10は、1つのオブジェクト(立
方体)の形状データを説明する図である。形状データ
は、頂点の座標を定める頂点テーブルと面と頂点との関
係を記述する面テーブルで構成され、VR空間上のオブ
ジェクトの図形的な定義を与える。質感データは、上記
形状データにおける各面の色の属性値であり、環境色:
Ra,Ga,Ba、拡散色:Rd,Gd,Bd、鏡面色:Rs,Gs,Bs、鏡面
係数:Sで表される。ライトデータは、VR空間中に置
かれる光源の3次元的な位置(X,Y,Z)、方向(NX,NY,N
Z)、強度、色(R,G,B)を表す。VR空間データ格納部3
0には、仮想空間を構成する全てのオブジェクトの形状
データ、質感データと、仮想空間に配置される全ての光
源のライトデータが格納される。
The VR space data storage section 30 stores shape data, texture data, and write data for defining a VR space. FIG. 10 is a diagram illustrating shape data of one object (cube). The shape data is composed of a vertex table that defines the coordinates of the vertices and a surface table that describes the relationship between the surface and the vertices, and gives a graphic definition of the object in the VR space. The texture data is an attribute value of a color of each surface in the shape data, and is an environment color:
Ra, Ga, Ba, diffuse color: Rd, Gd, Bd, specular color: Rs, Gs, Bs, specular coefficient: S. The light data includes the three-dimensional position (X, Y, Z) and direction (NX, NY, N) of the light source placed in the VR space.
Z), intensity, and color (R, G, B). VR space data storage unit 3
In 0, the shape data and texture data of all the objects constituting the virtual space and the light data of all the light sources arranged in the virtual space are stored.

【0016】スクリーン50は、画面投影部から投影さ
れた映像を表示する。図4のVR4、VR5、VR6の画面投影
部からの出力状態を図11に、スクリーン50への投影
結果の輝度の状態を図12に示す。
The screen 50 displays an image projected from the screen projection unit. FIG. 11 shows the output states of the screen projection units of VR4, VR5, and VR6 in FIG. 4, and FIG. 12 shows the luminance state of the projection result on the screen 50.

【0017】図13は、本マルチ画面合成システムの処
理フローを説明する流れ図である。3600画素×2832画素
の高解像度VR映像を1280画素×1024画素が表示できる
VR映像生成描画装置9台で分割表示する場合を例に取
り、図13に従って処理の流れを説明する。
FIG. 13 is a flowchart for explaining the processing flow of the present multi-screen composition system. The flow of processing will be described with reference to FIG. 13 by taking as an example a case where a high resolution VR video of 3600 pixels × 2832 pixels is divided and displayed by nine VR video generation / drawing apparatuses capable of displaying 1280 pixels × 1024 pixels.

【0018】まず、最初に、X方向3、Y方向3に分割
した各領域を投影機(プロジェクターなど)9台を配置
し、図4及び表1に示すように繋ぎ目が重なるように表
示部に投影する(S10)。次に、下記に示すようにカ
メラ初期位置を設定する(S13)。 カメラ視点=<0.0,0.0,100.0>、カメラ注視点=<0.0,0.0,
0.0> 画角 = <3600/2832>、視野角 = 60°
First, nine projectors (such as projectors) are arranged in each of the areas divided into three in the X direction and three in the Y direction, and the display unit is arranged such that the joints overlap as shown in FIG. (S10). Next, a camera initial position is set as described below (S13). Camera viewpoint = <0.0,0.0,100.0>, camera fixation point = <0.0,0.0,
0.0> Angle of view = <3600/2832>, Viewing angle = 60 °

【0019】次に、9台の画面投影部各々のカメラ位置
分割情報を数1、数2により算出し、カメラ分割情報格
納部に格納する(S16)。この例では、解像度1280画
素×1024画素のVR映像生成描画部をX方向3台、Y方向
3台、計9台用い、3600画素×2832画素のVR映像を表
示する為、図15に示すような値が各VR映像生成描画
部内の、カメラ分割情報格納部に格納される。
Next, the camera position division information of each of the nine screen projection units is calculated by Equations 1 and 2, and stored in the camera division information storage unit (S16). In this example, three VR image generation / drawing units having a resolution of 1280 pixels × 1024 pixels are used in the X direction and three units in the Y direction, a total of nine units, and a VR image of 3600 pixels × 2832 pixels is displayed. Is stored in the camera division information storage unit in each VR video generation / drawing unit.

【0020】9台の画面投影部における、繋ぎ目抑制用
板形状の配置位置を設定する(S19)。抑制用板形状
の配置位置は、図15に基づいて、図16に示すように
設定される。図16の表中sx、syは板形状の左上の頂点
の座標(sx、sy)を、ex、eyは板形状の右下の頂点の座標
(ex、ey)を示す。
The arrangement positions of the joint suppressing plate shapes in the nine screen projection units are set (S19). The arrangement position of the suppression plate shape is set as shown in FIG. 16 based on FIG. In the table of FIG. 16, sx and sy are the coordinates (sx, sy) of the upper left vertex of the plate shape, and ex and ey are the coordinates of the lower right vertex of the plate shape.
(ex, ey).

【0021】次に、描画指示部40からの指示の元、V
R空間データ、カメラ分割情報、繋ぎ目抑制情報を読み
込み、現在のカメラ位置からのVR映像をVR1〜VR9の
各VR空間描画装置で描画する(S22)。ここで、各
VR空間描画装置10のVR空間描画部101は、描画
指示部40から送られる現在のカメラ位置情報を、図1
5のカメラ位置分割情報により、各VR空間描画装置1
0に対応する仮想的なカメラの位置情報に変換してから
3次元画像レンダリング計算を行う。尚、描画指示部4
0の指示の元、VR空間の描画を行うのは9台のVR空
間描画装置を同期をとって動作させる為である。
Next, based on an instruction from the drawing instruction unit 40, V
The R space data, the camera division information, and the joint suppression information are read, and the VR video from the current camera position is drawn by each of the VR space drawing devices VR1 to VR9 (S22). Here, the VR space drawing unit 101 of each VR space drawing device 10 uses the current camera position information sent from the drawing instruction unit 40 as shown in FIG.
5, each VR space drawing device 1
After conversion into virtual camera position information corresponding to 0, three-dimensional image rendering calculation is performed. Note that the drawing instruction unit 4
The drawing of the VR space based on the instruction of 0 is performed in order to operate the nine VR space drawing devices in synchronization.

【0022】描画指示部40は、次の同期信号のタイミ
ングで、カメラ移動情報入力部41よりカメラの視点、
注視点の移動量を取り込む(S25)。描画指示部40
はステップS25で取り込んだカメラの視点、注視点の
移動量を元に新たな、カメラ位置を算出する(S2
8)。
At the timing of the next synchronizing signal, the drawing instruction unit 40 sends a camera viewpoint,
The movement amount of the fixation point is captured (S25). Drawing instruction unit 40
Calculates a new camera position based on the amount of movement of the viewpoint and gazing point of the camera captured in step S25 (S2
8).

【0023】描画指示部40は同期信号とともに、新た
なカメラ位置情報を各VR空間描画装置10に送出す
る。9台のVR映像生成描画装置10の各VR空間描画
部101で新たなVR映像を描画する(S31)。同期
信号のサイクルに合わせて、上記ステップS25〜S3
1を繰り返し実行する。なお、同期信号は指示されたカ
メラ位置からのVR映像の描画処理を行うための開始合
図であり、VR映像生成描画装置10は、同期信号を受
けると、指示されたカメラ位置からのVR映像の描画処
理を開始する。
The drawing instruction section 40 sends new camera position information to each VR space drawing apparatus 10 together with a synchronization signal. Each VR space drawing unit 101 of the nine VR video generation / drawing apparatuses 10 draws a new VR video (S31). In accordance with the cycle of the synchronization signal, the above steps S25 to S3
Step 1 is repeated. Note that the synchronization signal is a start signal for performing a VR image drawing process from the instructed camera position. When the VR image generation / drawing apparatus 10 receives the synchronization signal, the VR image generation / drawing apparatus 10 converts the VR image from the instructed camera position into the VR image. Start drawing processing.

【0024】以上、マルチ画面合成システム1の動作を
説明した。図13のフローではステップS22、S31
において、図5から図7に示した仮想的な板形状オブジ
ェクトをレンダリング計算に含ませることで、図12に
示すように、重なり部分の輝度の最大レベルを重なって
いない部分の最大輝度レベルと同等とすることと、隣接
する投影像の最大輝度の差を重なり部分でなだらかにす
る効果を生じ、結果的にスクリーン50に段差が目立た
ないように投影させることを可能としている。これは、
重なり部分上の任意の点eについて、常に二つの部分画
面映像(図12ではVR4とVR5)に対する透過度の和がほ
ぼ1になるようにしているためと、このe点の輝度が、
重なり部分の境界(図12のa、b、c、dの各点)ではそ
の境界を含む部分画面映像に対する透過度が1.0である
ことによりa、b、c、dの各点の輝度と一致するからであ
る。繋ぎ目抑制用の仮想的なオブジェクトとしては、こ
のような板形状のもの以外のものも可能である。
The operation of the multi-screen composition system 1 has been described above. In the flow of FIG. 13, steps S22 and S31
By including the virtual plate-shaped object shown in FIGS. 5 to 7 in the rendering calculation, the maximum luminance level of the overlapping portion is equal to the maximum luminance level of the non-overlapping portion as shown in FIG. And the effect of making the difference between the maximum luminances of the adjacent projected images gentle at the overlapping portion is obtained, and as a result, it is possible to project the screen 50 so that the steps are not conspicuous. this is,
At any point e on the overlapped portion, the sum of the transmissivities for the two partial screen images (VR4 and VR5 in FIG. 12) is always approximately 1, and the luminance at this point e is
At the boundary of the overlapped portion (each point of a, b, c, and d in FIG. 12), the transmittance for the partial screen image including the boundary is 1.0, so that the brightness of each point of a, b, c, and d matches. Because you do. As a virtual object for suppressing joints, a virtual object other than such a plate-shaped object can be used.

【0025】図14は、繋ぎ目抑制用の仮想的なオブジ
ェクトとして、カメラの前面に部分投映像と同一サイズ
の長方形形状を用いる場合を説明する図である。図14
(A)には、この長方形形状の色が一面R=0,G=0,B=0で
あることを、図14(B)では、VR5用の場合の長方形
形状の透過度の指定を示している。長方形形状の透過度
の指定は、中心部が1.0で、4辺に向かって0.0とする。
ただし、他の部分投影像と重ならない辺縁部は透過度1.
0のままと設定する。したがって透過度の設定は担当す
る部分投影像の位置によって異なる。また、図14の長
方形形状を使用する場合は、繋ぎ目抑制用データ配置デ
ータはカメラ分割情報と一致する。この仮想オブジェク
トを使用した時の効果は、板形状を用いた時に得られる
効果と同じである。
FIG. 14 is a view for explaining a case where a rectangular shape having the same size as the partial projection image is used on the front of the camera as a virtual object for joint suppression. FIG.
(A) shows that the color of this rectangular shape is R = 0, G = 0, B = 0 on one side, and FIG. 14 (B) shows the specification of the transmittance of the rectangular shape for VR5. ing. The transmittance of the rectangular shape is specified as 1.0 at the center and 0.0 toward the four sides.
However, the edges that do not overlap with other partial projection images have a transmittance of 1.
Set to 0. Therefore, the setting of the transmittance varies depending on the position of the assigned partial projection image. When the rectangular shape in FIG. 14 is used, the joint arrangement data arrangement data matches the camera division information. The effect when using this virtual object is the same as the effect obtained when using the plate shape.

【0026】[0026]

【発明の効果】従来技術では、電気的または光学的機械
的に重なり合う部分の輝度を調節する専用装置を個々の
投影機20にそれぞれ取付け、それぞれに調節する必要
があった。これに対し、マルチ画面合成システム1で
は、VR映像生成描画装置10を構成するコンピュータ
に適切なデータを設定するだけで、重なり部分の輝度が
調節された映像を簡単に得ることができる。しかも、マ
ルチ画面合成システム1は、複数台のパソコンと通常の
プロジェクターにより構成できるので、安価で且つ可搬
性のあるバーチャルリアリティ用表示システムを構築す
ることが可能となる。
According to the prior art, it is necessary to attach a dedicated device for adjusting the brightness of an electrically or optically mechanically overlapping portion to each of the projectors 20, and to adjust each of them individually. On the other hand, in the multi-screen composition system 1, it is possible to easily obtain an image in which the luminance of the overlapping portion is adjusted only by setting appropriate data in the computer constituting the VR image generation / drawing apparatus 10. Moreover, since the multi-screen synthesis system 1 can be configured by a plurality of personal computers and a normal projector, it is possible to construct an inexpensive and portable virtual reality display system.

【0027】バーチャルリアリティ用表示システムは、
商品紹介、販促支援などのプレゼンテーションシステ
ム、コンピュータゲーム、美術館等でのアーカイブデー
タの展示システム、ビジュアルな製品設計システムなど
今後様々な応用が考えられるため、本発明のマルチ画面
合成システムはこれらの産業応用システムの実現に大き
く役立つものと期待される。
The display system for virtual reality is
Various applications are expected in the future, such as presentation systems for product introduction and sales support, computer games, archive data display systems in museums, etc., and visual product design systems. It is expected to greatly contribute to the realization of the system.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施形態であるマルチ画面合成シ
ステム1の全体構成図である。
FIG. 1 is an overall configuration diagram of a multi-screen composition system 1 according to an embodiment of the present invention.

【図2】 カメラ情報の説明図である。FIG. 2 is an explanatory diagram of camera information.

【図3】 カメラ情報の説明図である。FIG. 3 is an explanatory diagram of camera information.

【図4】 部分画面領域の説明図である。FIG. 4 is an explanatory diagram of a partial screen area.

【図5】 繋ぎ目抑制用の板形状データの説明図であ
る。
FIG. 5 is an explanatory diagram of plate shape data for joint suppression.

【図6】 繋ぎ目抑制用の板形状データの説明図であ
る。
FIG. 6 is an explanatory diagram of plate shape data for joint suppression.

【図7】 板形状データの透過度の設定を説明する図で
ある。
FIG. 7 is a diagram for explaining setting of transparency of plate shape data.

【図8】 繋ぎ目抑制処理した部分画面映像例である。FIG. 8 is an example of a partial screen image that has undergone joint suppression processing.

【図9】 繋ぎ目抑制処理しない場合の部分画面映像例
である。
FIG. 9 is an example of a partial screen image when no joint suppression processing is performed.

【図10】オブジェクトの形状データの説明図である。FIG. 10 is an explanatory diagram of shape data of an object.

【図11】部分映像VR4、VR5、VR6 それぞれの映像信
号の輝度レベルのグラフである。
FIG. 11 is a graph of the luminance level of each video signal of the partial video VR4, VR5, VR6.

【図12】部分映像VR4、VR5、VR6 を合成表示した時
のスクリーン上の輝度を示すグラフである。
FIG. 12 is a graph showing luminance on a screen when partial images VR4, VR5, and VR6 are combined and displayed.

【図13】マルチ画面合成システム1の動作フローチャ
ートである。
FIG. 13 is an operation flowchart of the multi-screen composition system 1.

【図14】繋ぎ目抑制用の部分画面形状データの説明図
である。
FIG. 14 is an explanatory diagram of partial screen shape data for joint suppression.

【図15】カメラ位置分割情報の説明図である。FIG. 15 is an explanatory diagram of camera position division information.

【図16】繋ぎ目抑制用の板形状データの配置位置定義
表である。
FIG. 16 is an arrangement position definition table of plate shape data for joint suppression.

【符号の説明】[Explanation of symbols]

1 マルチ画面合成システム 10 VR映像生成描画装置 20 投影機 30 VR空間データ格納部 40 描画指示部 41 カメラ移動情報入力部 42 カメラ初期位置設定部 50 スクリーン 101 VR空間描画部 102 繋ぎ目抑制用データ配置部 103 カメラ分割情報格納部 DESCRIPTION OF SYMBOLS 1 Multi-screen synthesis system 10 VR image generation / drawing apparatus 20 Projector 30 VR space data storage unit 40 Drawing instruction unit 41 Camera movement information input unit 42 Camera initial position setting unit 50 Screen 101 VR space drawing unit 102 Data arrangement for joint suppression Unit 103 Camera division information storage unit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 1つの大きな共通スクリーンに投影され
るべきバーチャルリアリティ映像を割当てられた部分毎
に生成し映像信号として出力する複数台のVR映像生成
描画装置と、操作者の入力を受けてカメラ位置情報を生
成し、前記VR映像生成描画装置に、同期信号とともに
カメラ位置情報を供給する描画指示部と、前記VR映像
生成描画装置に、3次元オブジェクトのモデリングデー
タを供給するVR空間データ格納部と、前記VR映像生
成描画装置の1台から出力される映像信号を入力して部
分画面映像として前記共通スクリーンの割当てられた部
分に、隣接する他の部分画面映像と重なりを持たせて投
影する、VR映像生成描画装置と同数の投影機と、によ
り構成されるバーチャルリアリティ映像のマルチ画面合
成システムにおいて、前記VR映像生成描画装置はそれ
ぞれ繋ぎ目抑制用の仮想的なオブジェクトデータを保持
しており、バーチャルリアリティ画像を演算生成する際
にこの仮想的なオブジェクトデータを含めて演算するこ
とにより、共通スクリーンに投影された時の隣接する部
分画面映像間の輝度の違いによる段差がめだたないよう
に1つのバーチャルリアリティ映像を得ることができる
構成としたことを特徴とするマルチ画面合成システム。
1. A plurality of VR image generation / drawing apparatuses for generating a virtual reality image to be projected on one large common screen for each assigned portion and outputting the generated image as a video signal, and a camera receiving an input from an operator A drawing instruction unit that generates position information and supplies camera position information together with a synchronization signal to the VR video generation / drawing device; and a VR space data storage unit that supplies modeling data of a three-dimensional object to the VR video generation / drawing device And inputting a video signal output from one of the VR video generating / drawing apparatuses, and projecting the allocated portion of the common screen as a partial screen image so as to overlap with another adjacent partial screen image. , A VR image generation / drawing device and the same number of projectors Each of the VR image generation / drawing apparatuses holds virtual object data for joint suppression, and performs calculation including the virtual object data when calculating and generating a virtual reality image. A multi-screen synthesis system characterized in that a single virtual reality image can be obtained so that a step due to a difference in luminance between adjacent partial screen images when projected on a virtual reality screen is inconspicuous.
【請求項2】 前記繋ぎ目抑制用の仮想的なオブジェク
トデータを、部分画面映像が重なり合う部分を覆う複数
の長方形オブジェクトデータであって、対応する部分画
面領域の中心に近い部分から縁部分に向けて1.0から0.0
に次第に変化する透過度を有し、一様にR=G=B=0で定義
される色を持つオブジェクトとして定義する請求項1に
記載のマルチ画面合成システム。
2. A method according to claim 1, wherein the joint object suppression virtual object data is a plurality of rectangular object data covering a portion where the partial screen video overlaps, and is directed from a portion near the center of the corresponding partial screen region to an edge portion. 1.0 to 0.0
2. The multi-screen composition system according to claim 1, wherein the multi-screen composition system is defined as an object having a transmittance that gradually changes and having a color defined uniformly by R = G = B = 0.
【請求項3】 前記繋ぎ目抑制用の仮想的なオブジェク
トデータを、一つの部分画面領域と等しいサイズの長方
形オブジェクトデータであって、他の部分画面領域と重
ならない部分の透過度を1.0、他の部分画面領域と重な
る部分は、その中心に近い部分から縁部分に向けて1.0
から0.0に次第に変化する透過度の分布を有する、一様
にR=G=B=0で定義される色を持つオブジェクトとして定
義する請求項1に記載のマルチ画面合成システム。
3. The virtual object data for seam suppression is rectangular object data of the same size as one partial screen area, and the transparency of a part that does not overlap with another partial screen area is 1.0. The part that overlaps with the partial screen area is 1.0% from the part near the center to the edge part.
2. The multi-screen composition system according to claim 1, wherein the object is defined as an object having a color distribution defined by R = G = B = 0 and having a distribution of transmittance that gradually changes from 0 to 0.0.
JP2000332282A 2000-10-31 2000-10-31 Multi-screen composition system Pending JP2002140715A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000332282A JP2002140715A (en) 2000-10-31 2000-10-31 Multi-screen composition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000332282A JP2002140715A (en) 2000-10-31 2000-10-31 Multi-screen composition system

Publications (1)

Publication Number Publication Date
JP2002140715A true JP2002140715A (en) 2002-05-17

Family

ID=18808509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000332282A Pending JP2002140715A (en) 2000-10-31 2000-10-31 Multi-screen composition system

Country Status (1)

Country Link
JP (1) JP2002140715A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012102349A1 (en) 2011-01-27 2012-08-02 シャープ株式会社 Multi-display system and translucent cover used thereby
JPWO2018025825A1 (en) * 2016-08-02 2019-01-17 ナーブ株式会社 Imaging system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6427374A (en) * 1987-03-19 1989-01-30 Eizou Center Kk Large screen display device
JPH04269793A (en) * 1991-02-25 1992-09-25 Nippon Telegr & Teleph Corp <Ntt> Large-picture display device
JPH0836355A (en) * 1994-07-22 1996-02-06 Namco Ltd Pseudo three-dimensional image forming method and device therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6427374A (en) * 1987-03-19 1989-01-30 Eizou Center Kk Large screen display device
JPH04269793A (en) * 1991-02-25 1992-09-25 Nippon Telegr & Teleph Corp <Ntt> Large-picture display device
JPH0836355A (en) * 1994-07-22 1996-02-06 Namco Ltd Pseudo three-dimensional image forming method and device therefor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012102349A1 (en) 2011-01-27 2012-08-02 シャープ株式会社 Multi-display system and translucent cover used thereby
US9243779B2 (en) 2011-01-27 2016-01-26 Sharp Kabushiki Kaisha Multi-display system and translucent cover used thereby
JPWO2018025825A1 (en) * 2016-08-02 2019-01-17 ナーブ株式会社 Imaging system

Similar Documents

Publication Publication Date Title
JP4013989B2 (en) Video signal processing device, virtual reality generation system
US7475356B2 (en) System utilizing mixed resolution displays
US7546540B2 (en) Methods of using mixed resolution displays
US7629945B2 (en) Mixed resolution displays
US6195102B1 (en) Image transformation processing which applies realistic perspective conversion to a planar image
JP5061227B2 (en) Video signal processing apparatus and virtual reality generation system
JP2001195601A (en) Device and method for presenting composite reality and storage medium
US7333071B2 (en) Methods of using mixed resolution displays
JP2005039788A (en) Projecting system
JP2003522497A (en) Digital correction module for video projector
JP2007318754A (en) Virtual environment experience display device
CA2385906C (en) Mixed resolution displays
Minomo et al. Transforming your shadow into colorful visual media: Multi-projection of complementary colors
JP5624383B2 (en) Video signal processing device, virtual reality generation system
JP2002140715A (en) Multi-screen composition system
JP4496823B2 (en) Image processing apparatus and method, and image display system
JP2007323093A (en) Display device for virtual environment experience
JP2004282712A (en) Adjustment device
Li et al. A real-time seamless tiled display system for 3D graphics
JPH05143710A (en) Synthesized moving image display device
JP2007312420A (en) Video signal processing apparatus and virtual reality creating system
JP2004282711A (en) Projection display device
KR101091572B1 (en) Interactive Projection Apparatus and Method for projecting a plurality of images based on a closed-loop calculation
JP2006127004A (en) Cg presenting device, its method and its program and cg display system
JP6791991B2 (en) Image distribution device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050615

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051018