JP2006094458A - Video signal processor, virtual reality creating apparatus, and recording medium - Google Patents
Video signal processor, virtual reality creating apparatus, and recording medium Download PDFInfo
- Publication number
- JP2006094458A JP2006094458A JP2005041521A JP2005041521A JP2006094458A JP 2006094458 A JP2006094458 A JP 2006094458A JP 2005041521 A JP2005041521 A JP 2005041521A JP 2005041521 A JP2005041521 A JP 2005041521A JP 2006094458 A JP2006094458 A JP 2006094458A
- Authority
- JP
- Japan
- Prior art keywords
- video
- synchronization
- video signal
- projection
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Image Generation (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、平面の表示面に対する通常の入力映像信号を、プロジェクタから壁面などの任意曲率の曲面に投射しても歪み無く映し出すことができるように、前記入力映像信号に予め前記曲面に対する歪み補正を施す映像信号処理装置およびそれを用いて構成される仮想現実感生成装置ならびにその仮想現実感生成装置を実現するためのプログラムを記録した記録媒体に関する。 The present invention corrects distortion of the curved surface in advance in the input video signal so that a normal input video signal with respect to a flat display surface can be projected without distortion even if it is projected from a projector onto a curved surface of an arbitrary curvature such as a wall surface. The present invention relates to a video signal processing apparatus that performs the above-described processing, a virtual reality generation apparatus configured using the video signal processing apparatus, and a recording medium that records a program for realizing the virtual reality generation apparatus.
前記曲面への投射技術は、仮想現実感(バーチャルリアリティ)生成装置で既に実用化されている。たとえば、その先行技術としては、特許文献1などが挙げられる。前記仮想現実感生成装置は、半球状のスクリーンに映像を投射することで、観察者の視野角を超える映像を映し出し、前記仮想現実感を生成するようになっている。
The projection technique to the curved surface has already been put into practical use in a virtual reality generation device. For example,
しかしながら、ドーム状のスクリーンが高価であり、かつ大掛かりで設置が困難であり、常設の用途にしか使用できないのが現状である。 However, the dome-shaped screen is expensive and difficult to install due to its large size, and it can be used only for permanent use.
一方、特許文献2には、コンパクトで机上に設置可能な投射型表示装置が開示されている。同公報の図1には略半球面のスクリーンへの投射が、図3には屏風状の3面のスクリーンへの投射が示されている。
上述の従来技術では、いずれも予め定められたスクリーンへの投射が前提となっている。したがって、予め定められた歪み補正のアルゴリズムを用いて、平面の表示面に対する通常の入力映像信号を、曲面に投射しても歪み無く映し出すことができるように、その入力映像信号に歪み補正を加えるようになっている。したがって、広告やプレゼンテーションなどで、壁面などの任意曲率の投射面に、歪みの無い映像を映し出すことができない。 In the above-described conventional technologies, projection onto a predetermined screen is assumed. Therefore, using a predetermined distortion correction algorithm, distortion correction is applied to the input video signal so that a normal input video signal for a flat display surface can be projected without distortion even if it is projected onto a curved surface. It is like that. Accordingly, an image without distortion cannot be projected on a projection surface having an arbitrary curvature such as a wall surface in an advertisement or a presentation.
本発明の目的は、任意曲率の投射面に、歪みの無い映像を映し出すことができる映像信号処理装置および仮想現実感生成装置ならびに記録媒体を提供することである。 An object of the present invention is to provide a video signal processing device, a virtual reality generation device, and a recording medium that can project a video without distortion on a projection surface having an arbitrary curvature.
本発明の第1の手段に係る映像信号処理装置は、投影手段から任意曲率の投射面に映像を投射するにあたって、平面の表示面に対する入力映像信号に予め前記投射面に対する歪み補正を施して前記投影手段へ与える映像信号処理装置であって、複数種類に亘る規定の投射面形状に関する関数式を予め有し、前記規定の投射面形状のいずれかまたはその組合わせを選択し、変数パラメータを入力することで前記関数式に基づいて投射面のメッシュモデルを作成するモデル作成手段と、観察者および投影手段の前記投射面に対する位置関係に基づいて、前記平面の表示面と投射面のメッシュモデルとの対応マップを作成し、平面の入力映像を前記対応マップを利用したテクスチャマッピング座標を適用して再度映像生成を行うことで、前記歪み補正を実現する歪補正手段とを含むことを特徴とする。 In the video signal processing apparatus according to the first means of the present invention, when projecting an image from a projection unit onto a projection surface having an arbitrary curvature, the input video signal for a flat display surface is subjected to distortion correction for the projection surface in advance. A video signal processing apparatus to be applied to a projection means, which has in advance a functional expression related to a plurality of types of prescribed projection surface shapes, selects one of the prescribed projection surface shapes or a combination thereof, and inputs variable parameters Based on the positional relationship of the observer and the projection unit with respect to the projection surface, based on the positional relationship of the observer and the projection unit with respect to the projection surface, the plane display surface and the projection surface mesh model, The map is generated again by applying texture mapping coordinates using the corresponding map to the input image of the plane, and generating the image again. Characterized in that it comprises a distortion correcting means for implementing.
また、本発明の第2の手段に係る映像信号処理装置では、前記規定の投射面形状は、球面の一部、円筒面の一部、または複数平面の組合わせのいずれかであることを特徴とする。 In the video signal processing apparatus according to the second means of the present invention, the prescribed projection surface shape is any one of a part of a spherical surface, a part of a cylindrical surface, or a combination of a plurality of planes. And
さらにまた、本発明の第3の手段に係る仮想現実感生成装置は、観察者に凹面を向けた球面状で鏡面反射可能な広視野角のスクリーンと、左右各チャネルにそれぞれ設けられ、前記左右各チャネルの圧縮動画映像ファイルをそれぞれ順次デコードして、動画の映像信号に変換するデコード手段を少なくとも有する映像作成手段と、前記各映像作成手段を制御し、前記左右各チャネルの映像信号間の同期を確立する同期手段と、前記左右各チャネルの映像信号に逐次前記スクリーンに対する歪み補正を施してゆく前記の映像信号処理装置と、前記各映像信号処理装置からの映像信号を相互に直交する偏光の映像としてそれぞれスクリーンへ投影する投影手段と、前記観察者が装着し、左右各眼にそれぞれ対応した偏光の映像を透過させて観察者に合成して認識させることで立体動画映像を表示する映像選択手段とを含むことを特徴とする。 Still further, the virtual reality generating apparatus according to the third means of the present invention is provided on each of the left and right channels respectively provided with a spherical and specularly reflecting screen having a concave surface facing the observer and each of the left and right channels. A video creation means having at least a decoding means for sequentially decoding the compressed video video file of each channel and converting it to a video signal of the video, and controlling the video creation means, and synchronizing the video signals of the left and right channels Synchronization means for establishing the image signal, the video signal processing device that sequentially performs distortion correction on the screen on the video signals of the left and right channels, and the video signals from the video signal processing devices having polarizations orthogonal to each other. Projection means for projecting each image as a screen, and the observer wearing the projector and transmitting the polarized images corresponding to the left and right eyes respectively. Characterized in that it comprises a video selection means for displaying a stereoscopic video image by causing recognized synthesized and.
また、本発明の第4の手段に係る仮想現実感生成装置では、前記同期手段は、時間管理ループプロセスおよび同期管理プロセスを実行する同期管理部を有し、前記各映像作成手段は、前記投影手段への出力用とデコードした映像信号の書込み用とに順次切換えて使用可能な2つのフレームメモリを有し、前記デコード手段は、同期管理プロセスを実行する同期管理部、ムービーファイル解凍プロセスを実行する解凍部および映像表示プロセスを実行する再生表示部を有し、前記左右各チャネルの映像信号を順次デコードして前記動画の映像信号に変換し、前記同期手段の時間管理ループプロセスおよび同期管理プロセスにて制御されて前記左右各チャネルの映像信号間の同期を確立することを特徴とする。 In the virtual reality generation apparatus according to the fourth means of the present invention, the synchronization means includes a synchronization management unit that executes a time management loop process and a synchronization management process, and each of the video creation means includes the projection Having two frame memories which can be used by switching to output to the means and writing the decoded video signal in sequence, the decoding means executes a synchronization management process for executing the synchronization management process and a movie file decompression process A time management loop process and a synchronization management process of the synchronization means, comprising: a decompression unit that performs a playback display unit that executes a video display process; To establish synchronization between the video signals of the left and right channels.
さらにまた、本発明の第5の手段に係る記録媒体は、前記の第4の手段における同期手段を構成するコンピュータに、現在時刻を取得する前記同期管理プロセスと、規定時間が経過した場合、各デコード手段に向けて現在時刻を配信する前記時間管理ループプロセスとを実行させ、前記の第4の手段における映像作成手段を構成するコンピュータに、前記現在時刻を受信し、受信したことを表すレシートを同期手段に返信するとともにリファレンス時刻を更新し、前記ムービーファイル解凍プロセスへそのリファレンス時刻を配信する前記映像表示プロセスと、前記リファレンス時刻を取得し、現在取得しているフレームの表示されるべき時刻と比較し、その結果、遅延が2フレーム以内ならばフレームデータを更新し、フレームバッファ内のアドレスを映像表示プロセスへ通知するとともに、フレームデータを更新したことを映像表示プロセスへ通知する前記ムービーファイル解凍プロセスと、フレームデータ更新通知を受けると、すでに通知済のフレームバッファ内のアドレスよりフレームデータを映像信号として取得し、ムービーファイル解凍プロセスへフレームデータ更新完了を通知し、映像信号を映像作成手段内に設けられている2つのフレームメモリの内、出力側に選択されていない方に描画する前記映像表示プロセスと、フレームデータ更新完了通知を受取ると、新たなフレームデータを取得する前記ムービーファイル解凍プロセスとを実行させ、さらに前記の第4の手段における同期手段を構成するコンピュータに、前記レシートを受取ると、スワップ同期メッセージを映像表示プロセスへ送信する前記同期管理プロセスを実行させ、前記の第4の手段における映像作成手段を構成するコンピュータに、前記スワップ同期メッセージに応答して前記2つのフレームメモリのスワップを実行し、前記同期手段の同期管理プロセスへレシートを返信し、再び現在時刻の受信を待受ける映像表示プロセスを実行させるためのプログラムを記録したことを特徴とする。 Furthermore, the recording medium according to the fifth means of the present invention provides the computer that constitutes the synchronizing means in the fourth means, the synchronization management process for acquiring the current time, The time management loop process for delivering the current time to the decoding means is executed, and the computer constituting the video creating means in the fourth means receives the current time and receives a receipt indicating that it has been received. The video display process for returning the reference time to the synchronization means and updating the reference time, and delivering the reference time to the movie file decompression process, the reference time is acquired, and the time at which the currently acquired frame is to be displayed If the delay is within 2 frames, the frame data is updated and the frame buffer is updated. In addition to notifying the video display process of the address and notifying the video display process that the frame data has been updated, and receiving the frame data update notification, the frame data is received from the address in the already notified frame buffer. As a video signal, notifies the movie file decompression process of the completion of the frame data update, and draws the video signal in the two frame memories provided in the video creation means that are not selected on the output side When the video display process and the frame data update completion notification are received, the movie file decompression process for acquiring new frame data is executed, and the computer constituting the synchronization means in the fourth means further includes the receipt. Receive a swap sync message The synchronization management process is transmitted to the video display process, and the computer constituting the video creation means in the fourth means executes swap of the two frame memories in response to the swap synchronization message. A receipt is returned to the synchronization management process of the synchronization means, and a program for executing a video display process waiting for reception of the current time is recorded again.
このような構成の映像信号処理装置は、予め記憶されている複数種類の規定の投射面形状のいずれかまたはその組合わせを選択し、変数パラメータを入力することで前記投射面のメッシュモデルを作成し、そのメッシュモデルに観察者および投影手段の投射面に対する位置関係に基づいて、入力映像をテクスチャマッピングして映像生成を行うことで、歪み補正を実現する。 The video signal processing apparatus having such a configuration creates a mesh model of the projection plane by selecting one of a plurality of types of predetermined projection plane shapes stored in advance or a combination thereof and inputting a variable parameter. Then, distortion correction is realized by generating an image by texture mapping the input image based on the positional relationship between the observer and the projection unit with respect to the projection plane.
それゆえ、壁面などの任意曲率の投射面に、歪みの無い映像を映し出すことができる。 Therefore, a distortion-free image can be projected on a projection surface having an arbitrary curvature such as a wall surface.
このような構成の仮想現実感生成装置は、球面スクリーンに左右各チャネルの動画映像をそれぞれ投影して立体動画映像を表示することで、いわゆるバーチャルリアリティを生成する表示装置において、前記左右各チャネルの圧縮動画映像ファイルをそれぞれ順次デコードして、前記動画映像の信号に変換してゆき、前記投影手段に与えるデコード処理は、時間を要するとともに、映像によって所要時間がばらつくので、処理のばらつきを補正するために、同期手段を設け、前記各映像作成手段を制御し、動画映像の各信号間の同期を確立する。 The virtual reality generating device having such a configuration is a display device that generates so-called virtual reality by projecting the moving image of each of the left and right channels on a spherical screen to display a stereoscopic moving image. Each of the compressed moving image files is sequentially decoded and converted into the moving image signal, and the decoding process applied to the projection unit takes time and the required time varies depending on the image. Therefore, synchronization means is provided to control each of the video creation means to establish synchronization between the signals of the moving image.
それゆえ、実写映像などの動画映像を、ずれなく正確に合成して立体映像を再現することができる。 Therefore, it is possible to reproduce a stereoscopic image by accurately synthesizing a moving image such as a live-action image without deviation.
このような構成の記録媒体は、実写映像などの動画映像を、ずれなく正確に合成して立体映像を再現することができる前記の同期手段および映像作成手段を、コンピュータに実現させることができる。 The recording medium having such a configuration can cause a computer to realize the synchronization unit and the video creation unit that can accurately synthesize a moving image such as a live-action video and reproduce a stereoscopic video.
[実施の形態1]
図1は、本発明の実施の一形態に係る映像信号処理装置1を含む映像再生装置の全体構成を示す図である。この映像再生装置は、映像信号処理装置1に、任意曲面や複数の平面が組合わせられて成るスクリーン2と、スクリーン2に映像をそれぞれ投射するプロジェクタ3と、記録媒体4の再生装置やコンピュータグラッフィックスの作成装置5などの映像信号源と、映像信号処理装置1にスクリーン2の曲面形状やプロジェクタ3の投射位置などの設定データを与える設定手段6とを備えて構成される。そして、映像信号処理装置1は、設定手段6で設定されたデータに基づいて、映像信号源から入力される平面の表示面に対する映像信号を補正してプロジェクタ3へ出力することで、スクリーン2に歪みのない映像を表示させる。
[Embodiment 1]
FIG. 1 is a diagram showing an overall configuration of a video reproduction apparatus including a video
映像信号処理装置1は、ハードウェア部11と、それを動作させるソフトウェア部12とを備えて構成される。ハードウェア部11は、映像信号を処理する映像信号処理回路13と、演算データなどを記憶するメモリ15と、プログラムや入出力の映像信号などを記憶するメモリ16と、中央処理装置(CPU)を含み、各部を制御するデジタルシグナルプロセッサ(DSP)14とを備えて構成される。映像信号は、JPEGファイルやMPEGファイルなどによるVGAやXGAなどのデジタル信号や、アナログコンポジット信号などである。設定手段6からの設定データは、USBケーブルなどで入力される。
The video
ソフトウェア部12は、後に詳述するように、スクリーン2のモデルを創造するスクリーンモデル創造部21と、プロジェクタ3のスクリーン2に対する配置位置の設定およびプロジェクタ3の画角の設定を行うプロジェクタ配置・セットアップ部22と、観察者のスクリーン2に対する位置の設定を行うユーザ位置設定部23と、歪補正部25と、入力映像処理部26とを備えて構成される。歪補正部25は、入力映像処理部26にて平面の入力映像が画素に分解されたデータに、各部21〜23での処理結果に対応した歪み補正、具体的にはテクスチャマッピングを施し、歪処理映像を作成する。これらのソフトウェア部12による以下の処理は、デジタルシグナルプロセッサ(DSP)14によって制御される映像信号処理回路13を使用して行われる。
The
図2は、モデル作成手段であるスクリーンモデル創造部21の機能ブロック図である。このスクリーンモデル創造部21は、前述のようにスクリーン2のメッシュモデルを創造するものであり、先ずスクリーンモデル創造部21には、基本的な3つのモデルが記憶されている。すなわち球形のみのモデル31と、円筒のみのモデル32と、混合モデル33とである。混合モデル33は、球形を主として他の平面または曲面を混合した球形混合モデル34と、円筒を主として他の平面または曲面を混合した円筒混合モデル35と、平面を主として他の平面または曲面を混合した平面混合モデル36とから構成されている。そして、各モデル31,32,34〜36の内容は、設定手段6に呼出すことができ、いずれか1つを設定手段6で設定し、さらに設定手段6から入力パラメータ31a,32a,34a〜36aを入力することで、実際のスクリーン2に適応したメッシュモデル31b,32b,34b〜36bを作成することができる。
FIG. 2 is a functional block diagram of the screen
基本モデルと入力パラメータとしては、以下のとおりである。 The basic model and input parameters are as follows.
図3で示すように球面(真球の一部)の場合、入力パラメータとしては、球の半径Rと、球の中心から切断面までの距離Aとである。 As shown in FIG. 3, in the case of a spherical surface (a part of a true sphere), input parameters are a radius R of the sphere and a distance A from the center of the sphere to the cut surface.
ここで、球の式は、
x2+y2+z2=R2・・・(1)
であり、A≦x≦R、−y1≦y≦y1、−z1≦z≦z1である。y1は、式1において、x=A、z=0を代入して求められ、z1は、式1において、x=A、y=0を代入して求められ、y1=z1となる。したがって、上述のように球面の場合、入力パラメータとしては、球の半径Rと、球の中心から切断面までの距離Aとを入力すればよい。
Where the sphere equation is
x 2 + y 2 + z 2 = R 2 (1)
And A ≦ x ≦ R, −y1 ≦ y ≦ y1, and −z1 ≦ z ≦ z1. y1 is obtained by substituting x = A and z = 0 in
また、図4で示すように、原点(x軸線)からy方向にBの位置で球面の一部を切り欠いた場合、スクリーン面は図5(a)のようになり、Bが負の位置(図4のように下(−y方向))の場合、A≦x≦R、−B≦y≦y1、−z1≦z≦z1であり、y1は、式1において、x=A、z=0を代入して求められ、z1は、式1において、x=A、y=0を代入して求められ、x1は、式1において、y=−B、z=0を代入して求められる。したがって、入力パラメータとしては、球の半径Rと、球の中心から切断面までの距離Aと、原点から切り欠く位置までの距離Bとを入力すればよい。
In addition, as shown in FIG. 4, when a part of the spherical surface is cut out at the position B from the origin (x axis) in the y direction, the screen surface is as shown in FIG. 5A, and B is a negative position. In the case of (lower (−y direction) as in FIG. 4), A ≦ x ≦ R, −B ≦ y ≦ y1, −z1 ≦ z ≦ z1, and y1 is represented by the following equation (1): x = A, z Z1 is obtained by substituting x = A and y = 0 in
同様に、上、右、左で切断した場合は、それぞれ図5(b)、図5(c)、図5(d)のようなスクリーンになり、式は以下のようになる。図5(b)で示すように上にBの高さで切断した場合、A≦x≦R、−y1≦y≦B、−z1≦z≦z1である。図5(c)で示すように右にBの距離で切断した場合、A≦x≦R、−y1≦y≦y1、−z1≦z≦Bである。図5(d)で示すように左にBの距離で切断した場合、A≦x≦R、−y1≦y≦y1、−B≦z≦z1である。入力パラメータを増やせば、2箇所以上の切断位置の組合せも可能である。 Similarly, when the top, right, and left are cut, the screens are as shown in FIGS. 5B, 5C, and 5D, respectively, and the equations are as follows. As shown in FIG. 5 (b), when cutting at the height of B, A ≦ x ≦ R, −y1 ≦ y ≦ B, and −z1 ≦ z ≦ z1. As shown in FIG. 5C, when cutting to the right at a distance of B, A ≦ x ≦ R, −y1 ≦ y ≦ y1, and −z1 ≦ z ≦ B. As shown in FIG. 5D, when cut at a distance B to the left, A ≦ x ≦ R, −y1 ≦ y ≦ y1, and −B ≦ z ≦ z1. If the input parameters are increased, it is possible to combine two or more cutting positions.
一方、図6は円筒を切断したアーチ面を示し、この場合、入力パラメータとしては、アーチの半径Rと、円の中心から切断面までの距離Aと、アーチの高さHとである。 On the other hand, FIG. 6 shows an arch surface obtained by cutting a cylinder. In this case, the input parameters are the radius R of the arch, the distance A from the center of the circle to the cut surface, and the height H of the arch.
ここで、円の式は、
x2+z2=R2・・・(2)
であり、A≦x≦R、0<y≦H、−z1≦z≦z1の制限を加えることで、アーチの表面の式となる。z1は、式1において、x=Aを代入して求められる。
Where the circle formula is
x 2 + z 2 = R 2 (2)
By adding the restrictions of A ≦ x ≦ R, 0 <y ≦ H, and −z1 ≦ z ≦ z1, the equation of the surface of the arch is obtained. z1 is obtained by substituting x = A in
さらにまた、図7(a)は、複数平面(長方形の面が複数存在)から成る場合を示し、この場合、入力パラメータとしては、図7(b)で示すような上面から見たときの面の配置と、面の高さHとである。図7(b)の場合、
z=−x+1(0≦x<1)・・・(3)
z=0(1≦x<3)・・・(4)
z=x−3(3≦x≦4)・・・(5)
0<y≦H・・・(6)
である。
Further, FIG. 7A shows a case where a plurality of planes (a plurality of rectangular surfaces exist), and in this case, as an input parameter, a plane viewed from the top as shown in FIG. 7B. And the height H of the surface. In the case of FIG.
z = −x + 1 (0 ≦ x <1) (3)
z = 0 (1 ≦ x <3) (4)
z = x−3 (3 ≦ x ≦ 4) (5)
0 <y ≦ H (6)
It is.
また、複数同じ大きさの球面を真横に並べたスクリーンの場合には、入力パラメータとしては、図3または図4,5で示す例と同様に、半径Rと、切断面までの距離Aと、切り欠く位置までの距離Bと、個数とを入力すればよい。すなわち、たとえば上下に2つの球面スクリーンを並べる場合、図5(a)と図5(b)とを組合わせることで実現することができ、同様に左右に2つの球面スクリーンを並べる場合、図5(c)と図5(d)とを組合わせることで実現することができ、入力パラメータとしては、前述のように、半径Rと、切断面までの距離Aと、切り欠く位置までの距離Bと、個数とを入力すればよいことが理解される。 Further, in the case of a screen in which a plurality of spherical surfaces of the same size are arranged side by side, as input parameters, as in the example shown in FIG. 3 or FIGS. 4 and 5, the radius R, the distance A to the cut surface, What is necessary is just to input the distance B to the notch position, and the number. That is, for example, when arranging two spherical screens on the top and bottom, it can be realized by combining FIG. 5A and FIG. 5B. Similarly, when arranging two spherical screens on the left and right, FIG. This can be realized by combining (c) and FIG. 5 (d). As input parameters, as described above, the radius R, the distance A to the cut surface, and the distance B to the notch position are as follows. It is understood that the number and the number may be input.
複数の円筒面のスクリーンの場合には、上面から見た配置図に、面の高さHと、各スクリーンの半径Rおよび距離Aと、個数とを入力すればよい。このようにして、スクリーン面の関数式が求まるので、x,y,zに適当な値を代入することで、或る一定個数以上のスクリーン上の点をサンプリング点として記録することで、スクリーン形状を特定することができる。各スクリーン面の関数式は、スクリーンモデル創造部21において、予め各モデル31,32,34〜36内に格納されており、設定手段6によって呼出すことができる。そして、入力パラメータ31a,32a,34a〜36aとして上記のパラメータを入力するだけで、実際のスクリーン2に適応したメッシュモデル31b,32b,34b〜36bを作成することができる。
In the case of a plurality of cylindrical screens, the surface height H, the radius R and the distance A of each screen, and the number of the screens may be input in the layout viewed from above. In this way, the screen surface function is obtained. By substituting appropriate values for x, y, and z, a certain number or more of the points on the screen are recorded as sampling points. Can be specified. The function expression of each screen surface is stored in advance in each
なお、上記のようなスクリーン面上のサンプリング点は,x軸周り、y軸周り、z軸周りに回転可能(傾いたスクリーンを定義可能)である。 Note that the sampling points on the screen surface as described above can be rotated around the x axis, the y axis, and the z axis (a tilted screen can be defined).
すなわち、x軸周りのα度の回転は、下式で表すことができる。 That is, the rotation of α degrees around the x axis can be expressed by the following equation.
また、y軸周りのβ度の回転は、下式で表すことができる。 Further, the rotation of β degrees around the y axis can be expressed by the following equation.
さらにまた、z軸周りのγ度の回転は、下式で表すことができる。 Furthermore, the rotation of γ degrees around the z axis can be expressed by the following equation.
このようにして得たスクリーン面上のサンプリング点に、入力映像処理部26からの平面入力映像の各サンプリング点を、歪補正手段である歪補正手段部25においてメッシュファイルを用いてマッピングすることで歪補正を行うことができ、入力映像信号の各画素データを、メッシュファイル上の対応する画素に割り付けてゆくことで、歪み補正された映像信号を作成することができる。メッシュファイルは、使用するスクリーン2が決定し、各パラメータを入力し、一旦作成してしまえば、パラメータなどの変更がない限り変化はなく、ハードウェア部11のメモリ15に格納され、映像再生中は入力映像信号と出力映像信号との対応画素の読替えに使用されるだけであり、大きな負担にはならない。
By mapping each sampling point of the planar input video from the input
以上図3〜図7を用いた説明は、図8で示すようなスクリーン2の形状に対する補正方法を説明するものである。すなわち、平面の表示装置に対する映像信号を、そのまま球形のスクリーン2に投射すると、図8(a)に示すように歪んだ映像になり、このため球形のスクリーン2に表示したときに歪みが無くなるように、図8(b)に示すように予め映像を歪ませるものである。しかしながら、プロジェクタ3のスクリーン2に対する配置位置の違いおよび観察者のスクリーン2に対する位置の違いなどから、さらなる補正が必要になる。したがって、上述のようにして求めたメッシュファイルには、さらにそのような補正が施され、実際の映像信号の読替えに使用される。以下に、球面スクリーンに対するプロジェクタおよび観察者の位置の違いに対する補正方法について詳しく説明する。この処理は、プロジェクタ配置・セットアップ部22およびユーザ位置設定部23からの入力に応答して、歪補正部25によって行われる。
The above description with reference to FIGS. 3 to 7 describes a correction method for the shape of the
図9は、上述のような球面補正に、プロジェクタ3および観察者の位置補正を含めた歪み補正の手法を説明するための図である。これらの補正は、プロジェクタ配置・セットアップ部22および位置設定部23からの入力に応答して、歪補正部25によって行われる。
FIG. 9 is a diagram for explaining a distortion correction method including the position correction of the
先ず、補正にあたって、図9に示すように、観察者51の視点位置よりビューフラスタムおよびプロジェクタ3の投影位置より映像投影フラスタムを定義する。ビューフラスタムは、視点位置としての頂点をP0、底面をP0,0,Pm,0,Pm,n,P0,nとする四角錐で表現され、投影フラスタムは、プロジェクタバックフォーカス位置としての頂点をQ0、底面をQ0,0,Qm,0,Qm,n,Q0,nとして表現される。ここで、m,nは映像解像度を表すものとし、映像信号が、たとえばSXGAの場合は、m=1279、n=1023である。底面は、仮想スクリーン面とも呼ばれる。
First, for correction, as shown in FIG. 9, a view frustum is defined from the viewpoint position of the
ここで、簡易表現のため、m=iにおけるy−z二次元断面から見たイメージを図10に示す。先ず、仮想スクリーン面2a内に点Pi,jを想定し、ベクトルP0Pi,jとドームスクリーン2(メッシュモデル31b,32b,34b〜36b)との交点Ri,jを求める。次に、ベクトルQ0Ri,jと投影フラスタムの仮想スクリーン面2bとの交点Qi,jを求める。i,jを、0≦i≦m,0≦j≦nで変化してゆくと、Pi,j→Qi,j対応マップを作成することができ、この対応マップが映像の歪みに対する逆補正となる。
Here, for simple expression, an image viewed from a yz two-dimensional section at m = i is shown in FIG. First, assuming a point P i, j in the
すなわち、先ずビューフラスタムに基づいて通常の映像生成を行い、次にこの映像データを取出し、このイメージにPi,j→Qi,j対応マップを利用したテクスチャマッピング座標を適用して再度映像生成を行うことで、映像歪み補正を実現している。グリッド映像にPi,j→Qi,j対応マップを適用したイメージを図11に示す(すなわち図8(b)とは逆になる)。本歪み補正手法は、スクリーン2の形状を制限しない。したがって、上述のようにして求めた球面のメッシュモデル31bだけでなく、他のメッシュモデル32b,34b〜36bなどへも適用可能である。
That is, first, normal video generation is performed based on the view frustum, then this video data is taken out, and the image is again applied by applying texture mapping coordinates using the P i, j → Q i, j correspondence map to this image. By performing the generation, the video distortion correction is realized. An image obtained by applying the P i, j → Q i, j correspondence map to the grid video is shown in FIG. 11 (that is, reverse to FIG. 8B). This distortion correction method does not limit the shape of the
映像信号処理装置1の歪補正部25において、このような補正を行うことで、平面の表示面に対する入力映像信号を逐次歪み処理してプロジェクタ3に与えることができ、任意曲率のスクリーン2には歪みのない映像を表示することができる。
By performing such correction in the
[実施の形態2]
図12は、本発明の実施の他の形態に係る仮想現実感生成装置の電気的構成を示すブロック図である。この仮想現実感生成装置は、ビデオムービーなどの汎用の撮影手段を使用して作成された左右両チャネルの圧縮動画映像ファイルを解凍し、上述のように本発明に係るスクリーン面に対する歪み補正を施し、同期を取って左右各チャネルのプロジェクタ102,103から相互に直交する偏光面の映像で投影することで、仮想現実感映像を生成することである。観察者は、左右各チャネルの映像を左右の目でそれぞれ認識するように、左右それぞれの偏光面に対応した映像のみを透過させる専用の眼鏡をかけてスクリーンを見る。また、スクリーンには、偏光をそのまま反射可能な、シルバースクリーンなどの鏡面反射スクリーンが用いられる。
[Embodiment 2]
FIG. 12 is a block diagram showing an electrical configuration of a virtual reality generation apparatus according to another embodiment of the present invention. This virtual reality generation device decompresses the compressed video image files of both the left and right channels created using general-purpose shooting means such as a video movie, and performs distortion correction on the screen surface according to the present invention as described above. In other words, a virtual reality image is generated by projecting images of polarization planes orthogonal to each other from the
圧縮動画映像ファイルは、DVD(デジタルビデオディスク)などの媒体に圧縮記録されている。図12では、媒体としては、左右それぞれのDVD111,121で示しているけれども、動画映像が圧縮記録されている他の媒体であってもよい。また、人間の両眼視差に対応した間隔だけ水平方向に離間して配置された左右それぞれの撮影手段で撮影された動画映像は、それらの撮影手段で個別のDVD111,121に圧縮して記録されるが、左右の撮影手段が一体化されていて、同じ媒体に記録されていてもよい。
The compressed moving image video file is compressed and recorded on a medium such as a DVD (digital video disc). In FIG. 12, the medium is shown by the left and
MPEG2やMPEG4などで圧縮されたDVD111,121の記録映像は、映像作成手段107,108において、それぞれハードディスク112,122に取込まれる。ハードディスク112,122に取込まれた記録映像は、解凍部113,123において解凍(伸長)され、さらに再生表示部114,124において、映像信号に変換される。解凍部113,123および再生表示部114,124は、デコード手段を構成する。こうして得られた映像信号は、上述の映像信号処理装置1と同様に構成される歪補正部115,125において、スクリーン2の球面形状によって生じる歪に対する歪補正およびプロジェクタ102,103の球の中心軸上からのオフセットによって生じる歪に対する設置位置補正が行われる。
Recorded videos of
歪補正部115,125から出力された映像信号は、切換えスイッチ117,127を介して、それぞれ2つずつ設けられるフレームメモリ118,119;128,129の一方に書込まれ、そのフレームメモリ118,119;128,129の他方からは、切換えスイッチ120,130を介して映像信号が読出され、プロジェクタ102,103に与えられ、投射が行われる。このように構成される映像作成手段107,108において、CGによって作成された映像信号は、解凍部113,123における伸長処理および再生表示部114,124における映像信号への変換処理は不要であり、直接歪補正部115,125から入力される。
The video signals output from the
映像作成手段107,108は、パーソナルコンピュータから成り、解凍部113,123、再生表示部114,124、歪補正部115,125および同期管理部116,126は、そのパーソナルコンピュータに格納されたソフトウェアおよびそれを実行するハードウェアによって構成される。すなわち、映像信号処理用のソフトウェアとして、解凍部113,123にはムービーファイル解凍プロセスを有し、再生表示部114,124には映像表示プロセスを有し、歪補正部115,125には映像歪補正プロセスを有する。また、解凍部113,123、再生表示部114,124および切換えスイッチ117,127;120,130の同期を管理する同期管理部116,126は、同期管理プロセスを有する。
The video creation means 107 and 108 are composed of a personal computer. The
ここで、映像作成手段107,108はスレーブとなり、マスターとなる同期手段109が設けられる。この同期手段109もパーソナルコンピュータから成り、映像作成手段107,108とは、ネットワークによって相互に接続されている。同期手段109でも、DVD111または112(図12では111)からの記録映像がハードディスク132に取込まれ、解凍部133において伸長され、さらに再生表示部134において映像信号に変換される。この映像信号におけるタイムコードを利用して、同期管理部136は、同期管理部116,126を介して、後述するように切換えスイッチ117,127;120,130のスイッチングなどを制御し、映像作成手段107,108からの映像信号間の同期を確立する。解凍部133にはムービーファイル解凍プロセスを有し、再生表示部134には映像表示プロセスを有し、同期管理部136には同期管理プロセスおよび時間管理ループプロセスを有する。映像作成手段107,108が実行する同期管理プロセス、ムービーファイル解凍プロセス、映像表示プロセスおよび映像補正プロセスについては、以下に詳細に説明する。また、同期手段109が実行する時間管理ループプロセス、同期管理プロセス、ムービーファイル解凍プロセスおよび映像表示プロセスについても、以下に詳細に説明する。
Here, the video creation means 107 and 108 are slaves, and a synchronization means 109 is provided as a master. The synchronization means 109 is also composed of a personal computer, and the video creation means 107 and 108 are mutually connected by a network. Also in the synchronization means 109, the recorded video from the
映像作成手段107における解凍部113、再生表示部114、歪補正部115、同期管理部116、切換えスイッチ117,120およびフレームメモリ118,119は、たとえばパーソナルコンピュータのPCIスロットに装着されるボードなどの形態で実現することができる。同様に、映像作成手段108における解凍部123、再生表示部124、歪補正部125、同期管理部126、切換えスイッチ127,130およびフレームメモリ128,129、ならびに同期手段109における解凍部133、再生表示部134および同期管理部136も、PCIスロットに装着されるボードなどの形態で実現することができる。または、映像作成手段107,108は、上述のような機能を実現する映像歪み補正用の専用ユニットとして構成され、DVD111,121等の圧縮動画映像ファイルを再生するデッキやパーソナルコンピュータなどと、プロジェクタ102,103との間に挿入され、さらにそれらに合わせて、同期手段109となる同期ユニットが設けられてもよい。
The
図13は、上述のように構成される仮想現実感生成装置における左右の映像信号間の同期確立動作を説明するためのフローチャートである。本仮想現実感生成装置を実現する主要なソフトウェアは、前述のような時間管理ループプロセス、同期管理プロセス、ムービーファイル解凍プロセス、映像表示プロセスおよび映像歪み補正プロセスの5つから構成される。同期管理プロセス、ムービーファイル解凍プロセスおよび映像表示プロセスは、映像作成手段107,108において、それぞれ一連のプロセスで連携しながら動作する。スレーブパソコンであるこれらの映像作成手段107,108は、2つにとどまらず、マルチスクリーン対応などでさらに拡張することが可能である。時間管理ループプロセスは、唯一のプロセスであり、複数のパーソナルコンピュータのどこか一箇所で実行されればよいが、本実施の形態では、上述のように独立したマスターパソコンである同期手段109上で実行する。そして各プロセスは、ネットワークを利用して通信を行う。図12では、同期管理プロセスによる動作を、破線で示す。 FIG. 13 is a flowchart for explaining the operation of establishing synchronization between the left and right video signals in the virtual reality generating apparatus configured as described above. The main software that realizes the virtual reality generation apparatus includes the time management loop process, the synchronization management process, the movie file decompression process, the video display process, and the video distortion correction process as described above. The synchronization management process, the movie file decompression process, and the video display process operate in the video creation means 107 and 108 in cooperation with each other through a series of processes. These video creation means 107 and 108 which are slave personal computers are not limited to two, and can be further expanded to support multi-screens. The time management loop process is the only process and needs only to be executed at one place in a plurality of personal computers. However, in this embodiment, on the synchronization means 109 which is an independent master personal computer as described above. Execute. Each process communicates using a network. In FIG. 12, the operation | movement by a synchronous management process is shown with a broken line.
マスターパソコンでは、時間管理ループプロセスおよび同期管理プロセスを実行する。これによって、先ず、時間管理ループプロセスで現在時刻を取得し、規定時間が経過した場合、同期管理プロセスからスレーブパソコンに向けて現在時刻を配信する(S101,S102)。すなわち、同期管理プロセスは、一定時間毎に、時刻と、後述するように2つのフレームメモリ118,119;128,129の切換えを行う切換えスイッチ117,127;120,130の切換え指令であるスワップ同期メッセージを送信することになる。
The master personal computer executes a time management loop process and a synchronization management process. Thus, first, the current time is acquired by the time management loop process, and when the specified time has elapsed, the current time is distributed from the synchronization management process to the slave personal computer (S101, S102). That is, the synchronization management process performs swap synchronization, which is a switching command for the changeover switches 117, 127; 120, 130 for switching between the time and the two
一方、スレーブパソコンでは、ムービーファイル解凍プロセス・映像表示プロセス・映像歪み補正プロセスを実行する。これによって、先ず、映像表示プロセスが現在時刻を受信し、受信後確かに受取ったことをレシートとしてマスターパソコンに返信する(S201,S202)。さらに映像表示プロセスは、リファレンス時刻を更新し、さらにムービーファイル解凍プロセスへリファレンス時刻を配信し(S203)、フレームデータ更新通知を待受ける(S204)。 On the other hand, the slave personal computer executes a movie file decompression process, a video display process, and a video distortion correction process. As a result, first, the video display process receives the current time, and sends back to the master personal computer as a receipt that it has been received (S201, S202). Further, the video display process updates the reference time, further distributes the reference time to the movie file decompression process (S203), and waits for a frame data update notification (S204).
これに応答して、ムービーファイル解凍プロセスは、リファレンス時刻を取得し(S301)、現在取得しているフレームの表示されるべき時刻と比較する(S302)。比較の結果、遅延が2フレーム以内ならばフレームデータを更新、すなわち解凍し、フレームバッファ内のアドレスを映像表示プロセスへ通知する(S303)。さらにムービーファイル解凍プロセスは、フレームデータを更新したことを映像表示プロセスへ通知する(S304)。 In response to this, the movie file decompression process obtains a reference time (S301) and compares it with the time at which the currently obtained frame is to be displayed (S302). If the delay is within 2 frames as a result of the comparison, the frame data is updated, that is, decompressed, and the address in the frame buffer is notified to the video display process (S303). Further, the movie file decompression process notifies the video display process that the frame data has been updated (S304).
映像表示プロセスは、フレームデータ更新通知を受けると(S204,S205)、すでにS303で通知済のフレームバッファ内のアドレスよりフレームデータを映像として取得し(S206)、ムービーファイル解凍プロセスへフレームデータ更新完了を通知し(S207)、映像をバックバッファ(2つのフレームメモリ118,119;128,129の内、出力側に選択されていない方(図12ではフレームメモリ118,128))に描画、すなわち映像信号に再生する(S208)。
Upon receiving the frame data update notification (S204, S205), the video display process acquires frame data as video from the address in the frame buffer already notified in S303 (S206), and completes the frame data update process to the movie file decompression process. (S207), and the image is drawn in the back buffer (the two
一方、マスターパソコンでは、同期管理プロセスは、S103でレシートを受取ると、スワップ同期メッセージをスレーブパソコンの映像表示プロセスへ送信する(S104)。これに応答して、映像表示プロセスは、映像歪み補正プロセスを呼び出して処理を実行させ(S209)、続いてバッファスワップを実行し、マスターパソコンの同期管理プロセスへ確かに受取ったことを表すレシートを返信する(S210,S211,S212)。その後、映像表示プロセスは、S201で現在時刻の受信を待受ける。映像歪み補正は、図10で示すように対応マップの読替えによる一定時間の遅延で実現することができ、これによって左右のプロジェクタ102,103からは、相互に同期の取れた動画映像が投射されることになる。
On the other hand, in the master personal computer, when the receipt is received in S103, the synchronization management process transmits a swap synchronization message to the video display process of the slave personal computer (S104). In response to this, the video display process calls the video distortion correction process to execute the processing (S209), and then executes buffer swap, and receives a receipt indicating that it has been received by the synchronization management process of the master personal computer. Reply (S210, S211, S212). Thereafter, the video display process waits for reception of the current time in S201. As shown in FIG. 10, the video distortion correction can be realized with a delay of a predetermined time by rereading the correspondence map, and thereby the left and
ムービーファイル解凍プロセスは、フレームデータ更新完了通知を受取ると(S305)、圧縮ムービーファイルより1フレームを新たに取得する(S306)。また、S302での比較の結果、遅延が2フレームを超えていても、S306で1フレームを新たに取得する。 In the movie file decompression process, when a frame data update completion notification is received (S305), one new frame is acquired from the compressed movie file (S306). Even if the delay exceeds 2 frames as a result of the comparison in S302, one frame is newly acquired in S306.
マスターパソコンの同期管理プロセスでは、映像表示プロセスよりスワップ同期メッセージのレシートを受取るまでプロセスを停止、受取ると現在時刻の取得より開始する(S105)。 In the synchronization management process of the master personal computer, the process is stopped until receipt of the swap synchronization message is received from the video display process, and when the receipt is received, the process starts with acquisition of the current time (S105).
このように構成することによって、特殊なハードウェアを用いることなく、実写映像などのムービーファイルの解凍・再生・歪み補正の各処理をリアルタイムで行いつつ、インタラクティブな複数のムービーファイルを、複数のパソコン上で同期して再生することが可能となる。特に、MPEG2やMPEG4というムービーファイルフォーマットには、1つ1つのフレームという概念がなく、映像信号の差分のみ管理することでファイル容量を圧縮しているので、差分情報よりフレームを再構築する処理(解凍処理)が必要であり、本実施の形態では、この重い処理プロセスを実行しながら、さらに再生・同期・歪み補正という処理を同時に行い、リアルタイム処理(30フレーム/秒)を実現することができる。 By configuring in this way, multiple interactive movie files can be transferred to multiple computers while performing real-time processing of decompression, playback, and distortion correction of movie files such as live-action video without using special hardware. It is possible to play back synchronously. In particular, the movie file formats such as MPEG2 and MPEG4 do not have the concept of each frame, and the file capacity is compressed by managing only the difference between video signals, so the process of reconstructing the frame from the difference information ( In the present embodiment, real-time processing (30 frames / second) can be realized by simultaneously executing playback, synchronization, and distortion correction while executing this heavy processing process. .
1 映像信号処理装置
2 スクリーン
3;102,103 プロジェクタ
4 記録媒体
5 コンピュータグラッフィックスの作成装置
6 設定手段
11 ハードウェア部
12 ソフトウェア部
13 映像信号処理回路
14 デジタルシグナルプロセッサ
15 メモリ
16 メモリ
21 スクリーンモデル創造部
22 プロジェクタ配置・セットアップ部
23 ユーザ位置設定部
25 歪補正部
26 入力映像処理部
31 球形モデル
32 円筒モデル
33 混合モデル
34 球形混合モデル
35 円筒混合モデル
36 平面混合モデル
31a,32a,34a〜36a 入力パラメータ
31b,32b,34b〜36b メッシュモデル
51 観察者
107,108 映像作成手段
109 同期手段
111,112 DVD
112,122,132 ハードディスク
113,123,133 解凍部
114,124,134 再生表示部
115,125 歪補正部
116,126,136 同期管理部
117,127;120,130 切換えスイッチ
118,119;128,129 フレームメモリ
DESCRIPTION OF
112, 122, 132
Claims (5)
複数種類に亘る規定の投射面形状に関する関数式を予め有し、前記規定の投射面形状のいずれかまたはその組合わせを選択し、変数パラメータを入力することで前記関数式に基づいて投射面のメッシュモデルを作成するモデル作成手段と、
観察者および投影手段の前記投射面に対する位置関係に基づいて、前記平面の表示面と投射面のメッシュモデルとの対応マップを作成し、平面の入力映像を前記対応マップを利用したテクスチャマッピング座標を適用して再度映像生成を行うことで、前記歪み補正を実現する歪補正手段とを含むことを特徴とする映像信号処理装置。 When projecting an image from a projection unit onto a projection surface having an arbitrary curvature, a video signal processing apparatus that applies distortion correction to the projection surface in advance to an input video signal for a flat display surface and applies the distortion correction to the projection unit,
A function formula related to a predetermined projection surface shape over a plurality of types is previously stored, and one of the specified projection surface shapes or a combination thereof is selected, and a variable parameter is input to input a projection parameter based on the function formula. A model creation means for creating a mesh model;
Based on the positional relationship between the observer and the projection means with respect to the projection plane, a correspondence map between the plane display plane and the mesh model of the projection plane is created, and the texture mapping coordinates using the plane map are used as the plane input image. A video signal processing apparatus comprising: distortion correction means that realizes the distortion correction by applying and generating video again.
左右各チャネルにそれぞれ設けられ、前記左右各チャネルの圧縮動画映像ファイルをそれぞれ順次デコードして、動画の映像信号に変換するデコード手段を少なくとも有する映像作成手段と、
前記各映像作成手段を制御し、前記左右各チャネルの映像信号間の同期を確立する同期手段と、
前記左右各チャネルの映像信号に逐次前記スクリーンに対する歪み補正を施してゆく前記請求項1または2記載の映像信号処理装置と、
前記各映像信号処理装置からの映像信号を相互に直交する偏光の映像としてそれぞれスクリーンへ投影する投影手段と、
前記観察者が装着し、左右各眼にそれぞれ対応した偏光の映像を透過させて観察者に合成して認識させることで立体動画映像を表示する映像選択手段とを含むことを特徴とする仮想現実感生成装置。 A screen with a wide viewing angle that can be mirror-reflected in a spherical shape with a concave surface facing the viewer,
Video creation means provided at each of the left and right channels respectively, and having at least decoding means for sequentially decoding the compressed video video files of the left and right channels and converting them into video signals of the video,
Synchronization means for controlling the video creation means and establishing synchronization between the video signals of the left and right channels;
The video signal processing apparatus according to claim 1 or 2, wherein distortion correction for the screen is sequentially performed on the video signals of the left and right channels,
Projecting means for projecting the video signals from the respective video signal processing devices onto the screen as polarized images orthogonal to each other,
A virtual reality comprising: a video selection means that is worn by the observer and displays a stereoscopic video image by transmitting a polarized image corresponding to each of the left and right eyes and causing the observer to synthesize and recognize the image. Feeling generation device.
前記各映像作成手段は、前記投影手段への出力用とデコードした映像信号の書込み用とに順次切換えて使用可能な2つのフレームメモリを有し、
前記デコード手段は、同期管理プロセスを実行する同期管理部、ムービーファイル解凍プロセスを実行する解凍部および映像表示プロセスを実行する再生表示部を有し、前記左右各チャネルの映像信号を順次デコードして前記動画の映像信号に変換し、前記同期手段の時間管理ループプロセスおよび同期管理プロセスにて制御されて前記左右各チャネルの映像信号間の同期を確立することを特徴とする請求項3記載の仮想現実感生成装置。 The synchronization means includes a synchronization management unit that executes a time management loop process and a synchronization management process,
Each of the video creation means has two frame memories that can be used by sequentially switching between output to the projection means and writing of the decoded video signal,
The decoding means includes a synchronization management unit that executes a synchronization management process, a decompression unit that executes a movie file decompression process, and a playback display unit that executes a video display process, and sequentially decodes the video signals of the left and right channels. 4. The virtual signal according to claim 3, wherein the video signal is converted into a video signal of the moving image and controlled by a time management loop process and a synchronization management process of the synchronization means to establish synchronization between the video signals of the left and right channels. Reality generator.
前記請求項4における映像作成手段を構成するコンピュータに、前記現在時刻を受信し、受信したことを表すレシートを同期手段に返信するとともにリファレンス時刻を更新し、前記ムービーファイル解凍プロセスへそのリファレンス時刻を配信する前記映像表示プロセスと、前記リファレンス時刻を取得し、現在取得しているフレームの表示されるべき時刻と比較し、その結果、遅延が2フレーム以内ならばフレームデータを更新し、フレームバッファ内のアドレスを映像表示プロセスへ通知するとともに、フレームデータを更新したことを映像表示プロセスへ通知する前記ムービーファイル解凍プロセスと、フレームデータ更新通知を受けると、すでに通知済のフレームバッファ内のアドレスよりフレームデータを映像信号として取得し、ムービーファイル解凍プロセスへフレームデータ更新完了を通知し、映像信号を映像作成手段内に設けられている2つのフレームメモリの内、出力側に選択されていない方に描画する前記映像表示プロセスと、フレームデータ更新完了通知を受取ると、新たなフレームデータを取得する前記ムービーファイル解凍プロセスとを実行させ、
さらに前記請求項4における同期手段を構成するコンピュータに、前記レシートを受取ると、スワップ同期メッセージを映像表示プロセスへ送信する前記同期管理プロセスを実行させ、
前記請求項4における映像作成手段を構成するコンピュータに、前記スワップ同期メッセージに応答して前記2つのフレームメモリのスワップを実行し、前記同期手段の同期管理プロセスへレシートを返信し、再び現在時刻の受信を待受ける映像表示プロセスを実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。 The computer constituting the synchronization means in claim 4 executes the synchronization management process for acquiring the current time and the time management loop process for distributing the current time to each decoding means when a predetermined time has elapsed. Let
5. The computer constituting the video creation means in claim 4 receives the current time, returns a receipt indicating the reception to the synchronization means, updates the reference time, and sends the reference time to the movie file decompression process. The video display process to be distributed and the reference time are acquired and compared with the time at which the currently acquired frame is to be displayed. As a result, if the delay is within 2 frames, the frame data is updated and the frame buffer is updated. The movie file decompression process for notifying the video display process of the address of the video file and the video display process for notifying the video display process that the frame data has been updated. Acquire data as a video signal The video display process for notifying the movie file decompression process of completion of the frame data update, and drawing the video signal on the one not selected on the output side of the two frame memories provided in the video creation means; Upon receipt of the data update completion notification, the movie file decompression process for acquiring new frame data is executed,
Furthermore, when the receipt of the receipt, the computer constituting the synchronization means in claim 4 executes the synchronization management process for transmitting a swap synchronization message to the video display process,
In response to the swap synchronization message, the two frame memories are swapped in response to the swap synchronization message, a receipt is returned to the synchronization management process of the synchronization unit, and the current time again A computer-readable recording medium storing a program for executing a video display process waiting for reception.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005041521A JP4622570B2 (en) | 2004-08-26 | 2005-02-18 | Virtual reality generation device and program used therefor |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004246371 | 2004-08-26 | ||
JP2005041521A JP4622570B2 (en) | 2004-08-26 | 2005-02-18 | Virtual reality generation device and program used therefor |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2006094458A true JP2006094458A (en) | 2006-04-06 |
JP2006094458A5 JP2006094458A5 (en) | 2008-10-30 |
JP4622570B2 JP4622570B2 (en) | 2011-02-02 |
Family
ID=36234941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005041521A Expired - Fee Related JP4622570B2 (en) | 2004-08-26 | 2005-02-18 | Virtual reality generation device and program used therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4622570B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010511360A (en) * | 2006-11-29 | 2010-04-08 | エフ ポスザット エイチユー、 エルエルシー | 3D projection display |
EP2245528A1 (en) * | 2008-01-25 | 2010-11-03 | Microsoft Corporation | Projection of graphical objects on interactive irregular displays |
US7857461B2 (en) | 2007-11-06 | 2010-12-28 | Panasonic Corporation | Projector and projection method |
WO2011049025A1 (en) * | 2009-10-20 | 2011-04-28 | シャープ株式会社 | Three dimensional video display device |
JP2013502151A (en) * | 2009-08-12 | 2013-01-17 | トムソン ライセンシング | Method and system for crosstalk and distortion correction for three dimensional (3D) projection |
US8446367B2 (en) | 2009-04-17 | 2013-05-21 | Microsoft Corporation | Camera-based multi-touch mouse |
WO2014033913A1 (en) * | 2012-08-31 | 2014-03-06 | 三菱電機株式会社 | Display device |
JP2014103518A (en) * | 2012-11-19 | 2014-06-05 | Casio Comput Co Ltd | Projection apparatus, projection state adjustment method, and projection state adjustment program |
JP2015043571A (en) * | 2013-08-26 | 2015-03-05 | シゼイ シジブイ カンパニー リミテッド | Device and method for managing screening theater parameter |
US9143748B2 (en) | 2009-07-02 | 2015-09-22 | Thomson Licensing | Method and system for differential distortion correction for three-dimensional (3D) projection |
US9218116B2 (en) | 2008-07-25 | 2015-12-22 | Hrvoje Benko | Touch interaction with a curved display |
CN110800303A (en) * | 2017-07-03 | 2020-02-14 | 高通股份有限公司 | Reference picture derivation and motion compensation for 360-degree video coding |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63502464A (en) * | 1985-12-19 | 1988-09-14 | ゼネラル・エレクトリック・カンパニイ | Comprehensive distortion correction in real-time image generation systems |
JPH10312162A (en) * | 1997-03-11 | 1998-11-24 | Fujitsu Ltd | Image display system and recording medium in which program for realizing the system is recorded and which is capable of being read by computer |
JP2000010216A (en) * | 1998-06-25 | 2000-01-14 | Takenaka Komuten Co Ltd | Video information recording medium and projection device |
JP2000310826A (en) * | 1999-02-23 | 2000-11-07 | Matsushita Electric Works Ltd | Virtual environmental experience display device |
JP2002243435A (en) * | 2001-02-16 | 2002-08-28 | Matsushita Electric Ind Co Ltd | Method and instrument for measuring shape |
JP2003009039A (en) * | 2001-06-27 | 2003-01-10 | Namco Ltd | Image display device, image display method, information storage medium, and image display program |
-
2005
- 2005-02-18 JP JP2005041521A patent/JP4622570B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63502464A (en) * | 1985-12-19 | 1988-09-14 | ゼネラル・エレクトリック・カンパニイ | Comprehensive distortion correction in real-time image generation systems |
JPH10312162A (en) * | 1997-03-11 | 1998-11-24 | Fujitsu Ltd | Image display system and recording medium in which program for realizing the system is recorded and which is capable of being read by computer |
JP2000010216A (en) * | 1998-06-25 | 2000-01-14 | Takenaka Komuten Co Ltd | Video information recording medium and projection device |
JP2000310826A (en) * | 1999-02-23 | 2000-11-07 | Matsushita Electric Works Ltd | Virtual environmental experience display device |
JP2002243435A (en) * | 2001-02-16 | 2002-08-28 | Matsushita Electric Ind Co Ltd | Method and instrument for measuring shape |
JP2003009039A (en) * | 2001-06-27 | 2003-01-10 | Namco Ltd | Image display device, image display method, information storage medium, and image display program |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010511360A (en) * | 2006-11-29 | 2010-04-08 | エフ ポスザット エイチユー、 エルエルシー | 3D projection display |
US7857461B2 (en) | 2007-11-06 | 2010-12-28 | Panasonic Corporation | Projector and projection method |
US8884883B2 (en) | 2008-01-25 | 2014-11-11 | Microsoft Corporation | Projection of graphical objects on interactive irregular displays |
EP2245528A1 (en) * | 2008-01-25 | 2010-11-03 | Microsoft Corporation | Projection of graphical objects on interactive irregular displays |
EP2245528A4 (en) * | 2008-01-25 | 2011-01-19 | Microsoft Corp | Projection of graphical objects on interactive irregular displays |
US9218116B2 (en) | 2008-07-25 | 2015-12-22 | Hrvoje Benko | Touch interaction with a curved display |
US9459784B2 (en) | 2008-07-25 | 2016-10-04 | Microsoft Technology Licensing, Llc | Touch interaction with a curved display |
US8446367B2 (en) | 2009-04-17 | 2013-05-21 | Microsoft Corporation | Camera-based multi-touch mouse |
US9143748B2 (en) | 2009-07-02 | 2015-09-22 | Thomson Licensing | Method and system for differential distortion correction for three-dimensional (3D) projection |
US9140974B2 (en) | 2009-08-12 | 2015-09-22 | Thomson Licensing | Method and system for crosstalk and distortion corrections for three-dimensional (3D) projection |
JP2013502151A (en) * | 2009-08-12 | 2013-01-17 | トムソン ライセンシング | Method and system for crosstalk and distortion correction for three dimensional (3D) projection |
WO2011049025A1 (en) * | 2009-10-20 | 2011-04-28 | シャープ株式会社 | Three dimensional video display device |
US9047793B2 (en) | 2009-10-20 | 2015-06-02 | Sharp Kabushiki Kaisha | Three dimensional video display device |
CN102576156A (en) * | 2009-10-20 | 2012-07-11 | 夏普株式会社 | Three dimensional video display device |
JP5847315B2 (en) * | 2012-08-31 | 2016-01-20 | 三菱電機株式会社 | Display device |
WO2014033913A1 (en) * | 2012-08-31 | 2014-03-06 | 三菱電機株式会社 | Display device |
JP2014103518A (en) * | 2012-11-19 | 2014-06-05 | Casio Comput Co Ltd | Projection apparatus, projection state adjustment method, and projection state adjustment program |
JP2015043571A (en) * | 2013-08-26 | 2015-03-05 | シゼイ シジブイ カンパニー リミテッド | Device and method for managing screening theater parameter |
US9632405B2 (en) | 2013-08-26 | 2017-04-25 | Cj Cgv Co., Ltd. | Theater parameter management apparatus and method |
US9671684B2 (en) | 2013-08-26 | 2017-06-06 | Cj Cgv Co., Ltd. | Theater parameter management apparatus and method |
CN110800303A (en) * | 2017-07-03 | 2020-02-14 | 高通股份有限公司 | Reference picture derivation and motion compensation for 360-degree video coding |
Also Published As
Publication number | Publication date |
---|---|
JP4622570B2 (en) | 2011-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4622570B2 (en) | Virtual reality generation device and program used therefor | |
JP3992045B2 (en) | Video signal processing apparatus and method, and virtual reality generation apparatus | |
JP7017866B2 (en) | Immersive video formatting methods, equipment and streams for conventional and immersive drawing equipment | |
US7321367B2 (en) | Arrangement and method for spatial visualization | |
US20050052623A1 (en) | Projecting system | |
EP1202247B1 (en) | Image display apparatus | |
JP2007251914A (en) | Image signal processing apparatus, and virtual reality creating system | |
JP2006094458A5 (en) | ||
WO2019131577A1 (en) | Information processing device, information processing method, and program | |
JP4013922B2 (en) | Virtual reality generation apparatus and method | |
JP7378243B2 (en) | Image generation device, image display device, and image processing method | |
JP2008187729A (en) | Image signal processing apparatus | |
CN112672131B (en) | Panoramic video image display method and display device | |
CN112218132B (en) | Panoramic video image display method and display equipment | |
CN111354085A (en) | Immersive interactive Box image production method | |
CN110730340B (en) | Virtual audience display method, system and storage medium based on lens transformation | |
CN114513646B (en) | Method and device for generating panoramic video in three-dimensional virtual scene | |
CN114500970B (en) | Panoramic video image processing and displaying method and equipment | |
JP2001236521A (en) | Virtual reality system based on image dividing system | |
CN116075860A (en) | Information processing apparatus, information processing method, video distribution method, and information processing system | |
WO2019004073A1 (en) | Image placement determination device, display control device, image placement determination method, display control method, and program | |
WO2018134946A1 (en) | Image generation device, and image display control device | |
JP5249733B2 (en) | Video signal processing device | |
KR100799304B1 (en) | A system and method for projecting high-resolution moving pictures under non-planar display environments | |
JP2003323170A (en) | Image display system, image processor and image display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071011 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100706 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100809 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101005 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101018 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131112 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |