JP2006094458A - Video signal processor, virtual reality creating apparatus, and recording medium - Google Patents

Video signal processor, virtual reality creating apparatus, and recording medium Download PDF

Info

Publication number
JP2006094458A
JP2006094458A JP2005041521A JP2005041521A JP2006094458A JP 2006094458 A JP2006094458 A JP 2006094458A JP 2005041521 A JP2005041521 A JP 2005041521A JP 2005041521 A JP2005041521 A JP 2005041521A JP 2006094458 A JP2006094458 A JP 2006094458A
Authority
JP
Japan
Prior art keywords
video
synchronization
video signal
projection
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005041521A
Other languages
Japanese (ja)
Other versions
JP4622570B2 (en
JP2006094458A5 (en
Inventor
Pv Hareesh
ピー.ヴィ ハリーシュ
Koko Yamamoto
厚行 山本
Nobuyuki Shibano
伸之 柴野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2005041521A priority Critical patent/JP4622570B2/en
Publication of JP2006094458A publication Critical patent/JP2006094458A/en
Publication of JP2006094458A5 publication Critical patent/JP2006094458A5/ja
Application granted granted Critical
Publication of JP4622570B2 publication Critical patent/JP4622570B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Image Generation (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To project a video image with no distortion from a projector onto a projection screen of an arbitrary curvature. <P>SOLUTION: A video signal processor 1 is stored with a mesh model of a projection screen (screen 2) in a specific form, such as a part of a spherical surface, a part of a cylindrical surface or combination of a plurality of planes, creates a mesh model of an actual projection screen by inputting, from a setting means 6, variable parameters of a diameter, a distance from the center of a cross section and the like, creates a corresponding map between a planar display screen and a projection screen mesh model on the basis of a positional relationship input from the setting means, between an observer and the projection screen of a projector 3. The video signal processor 1 produces a video image again for an input video image of a plane input from a playback apparatus of a recording medium 4 or a computer graphics creating apparatus 5 by applying texture mapping coordinates utilizing the corresponding map, thereby correcting the distortion of the projection screen. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、平面の表示面に対する通常の入力映像信号を、プロジェクタから壁面などの任意曲率の曲面に投射しても歪み無く映し出すことができるように、前記入力映像信号に予め前記曲面に対する歪み補正を施す映像信号処理装置およびそれを用いて構成される仮想現実感生成装置ならびにその仮想現実感生成装置を実現するためのプログラムを記録した記録媒体に関する。   The present invention corrects distortion of the curved surface in advance in the input video signal so that a normal input video signal with respect to a flat display surface can be projected without distortion even if it is projected from a projector onto a curved surface of an arbitrary curvature such as a wall surface. The present invention relates to a video signal processing apparatus that performs the above-described processing, a virtual reality generation apparatus configured using the video signal processing apparatus, and a recording medium that records a program for realizing the virtual reality generation apparatus.

前記曲面への投射技術は、仮想現実感(バーチャルリアリティ)生成装置で既に実用化されている。たとえば、その先行技術としては、特許文献1などが挙げられる。前記仮想現実感生成装置は、半球状のスクリーンに映像を投射することで、観察者の視野角を超える映像を映し出し、前記仮想現実感を生成するようになっている。   The projection technique to the curved surface has already been put into practical use in a virtual reality generation device. For example, Patent Document 1 is cited as the prior art. The virtual reality generation device projects an image that exceeds the viewing angle of the observer by projecting an image on a hemispherical screen to generate the virtual reality.

しかしながら、ドーム状のスクリーンが高価であり、かつ大掛かりで設置が困難であり、常設の用途にしか使用できないのが現状である。   However, the dome-shaped screen is expensive and difficult to install due to its large size, and it can be used only for permanent use.

一方、特許文献2には、コンパクトで机上に設置可能な投射型表示装置が開示されている。同公報の図1には略半球面のスクリーンへの投射が、図3には屏風状の3面のスクリーンへの投射が示されている。
特許第3387487号公報 米国特許第5502481号明細書
On the other hand, Patent Document 2 discloses a projection display device that is compact and can be installed on a desk. FIG. 1 of the publication shows a projection on a substantially hemispherical screen, and FIG. 3 shows a projection on a screen with a folding screen.
Japanese Patent No. 3387487 US Pat. No. 5,050,481

上述の従来技術では、いずれも予め定められたスクリーンへの投射が前提となっている。したがって、予め定められた歪み補正のアルゴリズムを用いて、平面の表示面に対する通常の入力映像信号を、曲面に投射しても歪み無く映し出すことができるように、その入力映像信号に歪み補正を加えるようになっている。したがって、広告やプレゼンテーションなどで、壁面などの任意曲率の投射面に、歪みの無い映像を映し出すことができない。   In the above-described conventional technologies, projection onto a predetermined screen is assumed. Therefore, using a predetermined distortion correction algorithm, distortion correction is applied to the input video signal so that a normal input video signal for a flat display surface can be projected without distortion even if it is projected onto a curved surface. It is like that. Accordingly, an image without distortion cannot be projected on a projection surface having an arbitrary curvature such as a wall surface in an advertisement or a presentation.

本発明の目的は、任意曲率の投射面に、歪みの無い映像を映し出すことができる映像信号処理装置および仮想現実感生成装置ならびに記録媒体を提供することである。   An object of the present invention is to provide a video signal processing device, a virtual reality generation device, and a recording medium that can project a video without distortion on a projection surface having an arbitrary curvature.

本発明の第1の手段に係る映像信号処理装置は、投影手段から任意曲率の投射面に映像を投射するにあたって、平面の表示面に対する入力映像信号に予め前記投射面に対する歪み補正を施して前記投影手段へ与える映像信号処理装置であって、複数種類に亘る規定の投射面形状に関する関数式を予め有し、前記規定の投射面形状のいずれかまたはその組合わせを選択し、変数パラメータを入力することで前記関数式に基づいて投射面のメッシュモデルを作成するモデル作成手段と、観察者および投影手段の前記投射面に対する位置関係に基づいて、前記平面の表示面と投射面のメッシュモデルとの対応マップを作成し、平面の入力映像を前記対応マップを利用したテクスチャマッピング座標を適用して再度映像生成を行うことで、前記歪み補正を実現する歪補正手段とを含むことを特徴とする。   In the video signal processing apparatus according to the first means of the present invention, when projecting an image from a projection unit onto a projection surface having an arbitrary curvature, the input video signal for a flat display surface is subjected to distortion correction for the projection surface in advance. A video signal processing apparatus to be applied to a projection means, which has in advance a functional expression related to a plurality of types of prescribed projection surface shapes, selects one of the prescribed projection surface shapes or a combination thereof, and inputs variable parameters Based on the positional relationship of the observer and the projection unit with respect to the projection surface, based on the positional relationship of the observer and the projection unit with respect to the projection surface, the plane display surface and the projection surface mesh model, The map is generated again by applying texture mapping coordinates using the corresponding map to the input image of the plane, and generating the image again. Characterized in that it comprises a distortion correcting means for implementing.

また、本発明の第2の手段に係る映像信号処理装置では、前記規定の投射面形状は、球面の一部、円筒面の一部、または複数平面の組合わせのいずれかであることを特徴とする。   In the video signal processing apparatus according to the second means of the present invention, the prescribed projection surface shape is any one of a part of a spherical surface, a part of a cylindrical surface, or a combination of a plurality of planes. And

さらにまた、本発明の第3の手段に係る仮想現実感生成装置は、観察者に凹面を向けた球面状で鏡面反射可能な広視野角のスクリーンと、左右各チャネルにそれぞれ設けられ、前記左右各チャネルの圧縮動画映像ファイルをそれぞれ順次デコードして、動画の映像信号に変換するデコード手段を少なくとも有する映像作成手段と、前記各映像作成手段を制御し、前記左右各チャネルの映像信号間の同期を確立する同期手段と、前記左右各チャネルの映像信号に逐次前記スクリーンに対する歪み補正を施してゆく前記の映像信号処理装置と、前記各映像信号処理装置からの映像信号を相互に直交する偏光の映像としてそれぞれスクリーンへ投影する投影手段と、前記観察者が装着し、左右各眼にそれぞれ対応した偏光の映像を透過させて観察者に合成して認識させることで立体動画映像を表示する映像選択手段とを含むことを特徴とする。   Still further, the virtual reality generating apparatus according to the third means of the present invention is provided on each of the left and right channels respectively provided with a spherical and specularly reflecting screen having a concave surface facing the observer and each of the left and right channels. A video creation means having at least a decoding means for sequentially decoding the compressed video video file of each channel and converting it to a video signal of the video, and controlling the video creation means, and synchronizing the video signals of the left and right channels Synchronization means for establishing the image signal, the video signal processing device that sequentially performs distortion correction on the screen on the video signals of the left and right channels, and the video signals from the video signal processing devices having polarizations orthogonal to each other. Projection means for projecting each image as a screen, and the observer wearing the projector and transmitting the polarized images corresponding to the left and right eyes respectively. Characterized in that it comprises a video selection means for displaying a stereoscopic video image by causing recognized synthesized and.

また、本発明の第4の手段に係る仮想現実感生成装置では、前記同期手段は、時間管理ループプロセスおよび同期管理プロセスを実行する同期管理部を有し、前記各映像作成手段は、前記投影手段への出力用とデコードした映像信号の書込み用とに順次切換えて使用可能な2つのフレームメモリを有し、前記デコード手段は、同期管理プロセスを実行する同期管理部、ムービーファイル解凍プロセスを実行する解凍部および映像表示プロセスを実行する再生表示部を有し、前記左右各チャネルの映像信号を順次デコードして前記動画の映像信号に変換し、前記同期手段の時間管理ループプロセスおよび同期管理プロセスにて制御されて前記左右各チャネルの映像信号間の同期を確立することを特徴とする。   In the virtual reality generation apparatus according to the fourth means of the present invention, the synchronization means includes a synchronization management unit that executes a time management loop process and a synchronization management process, and each of the video creation means includes the projection Having two frame memories which can be used by switching to output to the means and writing the decoded video signal in sequence, the decoding means executes a synchronization management process for executing the synchronization management process and a movie file decompression process A time management loop process and a synchronization management process of the synchronization means, comprising: a decompression unit that performs a playback display unit that executes a video display process; To establish synchronization between the video signals of the left and right channels.

さらにまた、本発明の第5の手段に係る記録媒体は、前記の第4の手段における同期手段を構成するコンピュータに、現在時刻を取得する前記同期管理プロセスと、規定時間が経過した場合、各デコード手段に向けて現在時刻を配信する前記時間管理ループプロセスとを実行させ、前記の第4の手段における映像作成手段を構成するコンピュータに、前記現在時刻を受信し、受信したことを表すレシートを同期手段に返信するとともにリファレンス時刻を更新し、前記ムービーファイル解凍プロセスへそのリファレンス時刻を配信する前記映像表示プロセスと、前記リファレンス時刻を取得し、現在取得しているフレームの表示されるべき時刻と比較し、その結果、遅延が2フレーム以内ならばフレームデータを更新し、フレームバッファ内のアドレスを映像表示プロセスへ通知するとともに、フレームデータを更新したことを映像表示プロセスへ通知する前記ムービーファイル解凍プロセスと、フレームデータ更新通知を受けると、すでに通知済のフレームバッファ内のアドレスよりフレームデータを映像信号として取得し、ムービーファイル解凍プロセスへフレームデータ更新完了を通知し、映像信号を映像作成手段内に設けられている2つのフレームメモリの内、出力側に選択されていない方に描画する前記映像表示プロセスと、フレームデータ更新完了通知を受取ると、新たなフレームデータを取得する前記ムービーファイル解凍プロセスとを実行させ、さらに前記の第4の手段における同期手段を構成するコンピュータに、前記レシートを受取ると、スワップ同期メッセージを映像表示プロセスへ送信する前記同期管理プロセスを実行させ、前記の第4の手段における映像作成手段を構成するコンピュータに、前記スワップ同期メッセージに応答して前記2つのフレームメモリのスワップを実行し、前記同期手段の同期管理プロセスへレシートを返信し、再び現在時刻の受信を待受ける映像表示プロセスを実行させるためのプログラムを記録したことを特徴とする。   Furthermore, the recording medium according to the fifth means of the present invention provides the computer that constitutes the synchronizing means in the fourth means, the synchronization management process for acquiring the current time, The time management loop process for delivering the current time to the decoding means is executed, and the computer constituting the video creating means in the fourth means receives the current time and receives a receipt indicating that it has been received. The video display process for returning the reference time to the synchronization means and updating the reference time, and delivering the reference time to the movie file decompression process, the reference time is acquired, and the time at which the currently acquired frame is to be displayed If the delay is within 2 frames, the frame data is updated and the frame buffer is updated. In addition to notifying the video display process of the address and notifying the video display process that the frame data has been updated, and receiving the frame data update notification, the frame data is received from the address in the already notified frame buffer. As a video signal, notifies the movie file decompression process of the completion of the frame data update, and draws the video signal in the two frame memories provided in the video creation means that are not selected on the output side When the video display process and the frame data update completion notification are received, the movie file decompression process for acquiring new frame data is executed, and the computer constituting the synchronization means in the fourth means further includes the receipt. Receive a swap sync message The synchronization management process is transmitted to the video display process, and the computer constituting the video creation means in the fourth means executes swap of the two frame memories in response to the swap synchronization message. A receipt is returned to the synchronization management process of the synchronization means, and a program for executing a video display process waiting for reception of the current time is recorded again.

このような構成の映像信号処理装置は、予め記憶されている複数種類の規定の投射面形状のいずれかまたはその組合わせを選択し、変数パラメータを入力することで前記投射面のメッシュモデルを作成し、そのメッシュモデルに観察者および投影手段の投射面に対する位置関係に基づいて、入力映像をテクスチャマッピングして映像生成を行うことで、歪み補正を実現する。   The video signal processing apparatus having such a configuration creates a mesh model of the projection plane by selecting one of a plurality of types of predetermined projection plane shapes stored in advance or a combination thereof and inputting a variable parameter. Then, distortion correction is realized by generating an image by texture mapping the input image based on the positional relationship between the observer and the projection unit with respect to the projection plane.

それゆえ、壁面などの任意曲率の投射面に、歪みの無い映像を映し出すことができる。   Therefore, a distortion-free image can be projected on a projection surface having an arbitrary curvature such as a wall surface.

このような構成の仮想現実感生成装置は、球面スクリーンに左右各チャネルの動画映像をそれぞれ投影して立体動画映像を表示することで、いわゆるバーチャルリアリティを生成する表示装置において、前記左右各チャネルの圧縮動画映像ファイルをそれぞれ順次デコードして、前記動画映像の信号に変換してゆき、前記投影手段に与えるデコード処理は、時間を要するとともに、映像によって所要時間がばらつくので、処理のばらつきを補正するために、同期手段を設け、前記各映像作成手段を制御し、動画映像の各信号間の同期を確立する。   The virtual reality generating device having such a configuration is a display device that generates so-called virtual reality by projecting the moving image of each of the left and right channels on a spherical screen to display a stereoscopic moving image. Each of the compressed moving image files is sequentially decoded and converted into the moving image signal, and the decoding process applied to the projection unit takes time and the required time varies depending on the image. Therefore, synchronization means is provided to control each of the video creation means to establish synchronization between the signals of the moving image.

それゆえ、実写映像などの動画映像を、ずれなく正確に合成して立体映像を再現することができる。   Therefore, it is possible to reproduce a stereoscopic image by accurately synthesizing a moving image such as a live-action image without deviation.

このような構成の記録媒体は、実写映像などの動画映像を、ずれなく正確に合成して立体映像を再現することができる前記の同期手段および映像作成手段を、コンピュータに実現させることができる。   The recording medium having such a configuration can cause a computer to realize the synchronization unit and the video creation unit that can accurately synthesize a moving image such as a live-action video and reproduce a stereoscopic video.

[実施の形態1]
図1は、本発明の実施の一形態に係る映像信号処理装置1を含む映像再生装置の全体構成を示す図である。この映像再生装置は、映像信号処理装置1に、任意曲面や複数の平面が組合わせられて成るスクリーン2と、スクリーン2に映像をそれぞれ投射するプロジェクタ3と、記録媒体4の再生装置やコンピュータグラッフィックスの作成装置5などの映像信号源と、映像信号処理装置1にスクリーン2の曲面形状やプロジェクタ3の投射位置などの設定データを与える設定手段6とを備えて構成される。そして、映像信号処理装置1は、設定手段6で設定されたデータに基づいて、映像信号源から入力される平面の表示面に対する映像信号を補正してプロジェクタ3へ出力することで、スクリーン2に歪みのない映像を表示させる。
[Embodiment 1]
FIG. 1 is a diagram showing an overall configuration of a video reproduction apparatus including a video signal processing apparatus 1 according to an embodiment of the present invention. This video reproduction apparatus includes a video signal processing apparatus 1 having a screen 2 formed by combining an arbitrary curved surface or a plurality of planes, a projector 3 for projecting an image on the screen 2, a reproduction apparatus for a recording medium 4, and a computer graphic. A video signal source such as a video generator 5 and setting means 6 for giving the video signal processing device 1 setting data such as the curved surface shape of the screen 2 and the projection position of the projector 3. Then, the video signal processing device 1 corrects the video signal for the flat display surface input from the video signal source based on the data set by the setting means 6 and outputs the corrected video signal to the projector 3. Display images without distortion.

映像信号処理装置1は、ハードウェア部11と、それを動作させるソフトウェア部12とを備えて構成される。ハードウェア部11は、映像信号を処理する映像信号処理回路13と、演算データなどを記憶するメモリ15と、プログラムや入出力の映像信号などを記憶するメモリ16と、中央処理装置(CPU)を含み、各部を制御するデジタルシグナルプロセッサ(DSP)14とを備えて構成される。映像信号は、JPEGファイルやMPEGファイルなどによるVGAやXGAなどのデジタル信号や、アナログコンポジット信号などである。設定手段6からの設定データは、USBケーブルなどで入力される。   The video signal processing apparatus 1 includes a hardware unit 11 and a software unit 12 that operates the hardware unit 11. The hardware unit 11 includes a video signal processing circuit 13 that processes video signals, a memory 15 that stores arithmetic data, a memory 16 that stores programs and input / output video signals, and a central processing unit (CPU). And a digital signal processor (DSP) 14 that controls each unit. The video signal is a digital signal such as VGA or XGA based on a JPEG file or an MPEG file, an analog composite signal, or the like. Setting data from the setting means 6 is input via a USB cable or the like.

ソフトウェア部12は、後に詳述するように、スクリーン2のモデルを創造するスクリーンモデル創造部21と、プロジェクタ3のスクリーン2に対する配置位置の設定およびプロジェクタ3の画角の設定を行うプロジェクタ配置・セットアップ部22と、観察者のスクリーン2に対する位置の設定を行うユーザ位置設定部23と、歪補正部25と、入力映像処理部26とを備えて構成される。歪補正部25は、入力映像処理部26にて平面の入力映像が画素に分解されたデータに、各部21〜23での処理結果に対応した歪み補正、具体的にはテクスチャマッピングを施し、歪処理映像を作成する。これらのソフトウェア部12による以下の処理は、デジタルシグナルプロセッサ(DSP)14によって制御される映像信号処理回路13を使用して行われる。   The software unit 12, as will be described in detail later, a screen model creation unit 21 that creates a model of the screen 2, and a projector arrangement / setup for setting the arrangement position of the projector 3 with respect to the screen 2 and setting the angle of view of the projector 3. A unit 22, a user position setting unit 23 for setting the position of the observer with respect to the screen 2, a distortion correction unit 25, and an input video processing unit 26. The distortion correction unit 25 performs distortion correction corresponding to the processing results of the units 21 to 23, specifically texture mapping, on the data obtained by decomposing the plane input video into pixels by the input video processing unit 26, Create processed video. The following processing by the software unit 12 is performed using a video signal processing circuit 13 controlled by a digital signal processor (DSP) 14.

図2は、モデル作成手段であるスクリーンモデル創造部21の機能ブロック図である。このスクリーンモデル創造部21は、前述のようにスクリーン2のメッシュモデルを創造するものであり、先ずスクリーンモデル創造部21には、基本的な3つのモデルが記憶されている。すなわち球形のみのモデル31と、円筒のみのモデル32と、混合モデル33とである。混合モデル33は、球形を主として他の平面または曲面を混合した球形混合モデル34と、円筒を主として他の平面または曲面を混合した円筒混合モデル35と、平面を主として他の平面または曲面を混合した平面混合モデル36とから構成されている。そして、各モデル31,32,34〜36の内容は、設定手段6に呼出すことができ、いずれか1つを設定手段6で設定し、さらに設定手段6から入力パラメータ31a,32a,34a〜36aを入力することで、実際のスクリーン2に適応したメッシュモデル31b,32b,34b〜36bを作成することができる。   FIG. 2 is a functional block diagram of the screen model creation unit 21 which is a model creation unit. The screen model creation unit 21 creates a mesh model of the screen 2 as described above. First, the screen model creation unit 21 stores three basic models. That is, a spherical model 31, a cylindrical model 32, and a mixed model 33. The mixed model 33 includes a spherical mixed model 34 in which a sphere is mainly mixed with other planes or curved surfaces, a cylindrical mixed model 35 in which a cylinder is mainly mixed with other planes or curved surfaces, and a plane mainly mixed with other planes or curved surfaces. It is composed of a planar mixed model 36. The contents of each model 31, 32, 34 to 36 can be called to the setting means 6, one of which is set by the setting means 6, and further the input parameters 31a, 32a, 34a to 36a from the setting means 6. , Mesh models 31b, 32b, 34b to 36b adapted to the actual screen 2 can be created.

基本モデルと入力パラメータとしては、以下のとおりである。   The basic model and input parameters are as follows.

図3で示すように球面(真球の一部)の場合、入力パラメータとしては、球の半径Rと、球の中心から切断面までの距離Aとである。   As shown in FIG. 3, in the case of a spherical surface (a part of a true sphere), input parameters are a radius R of the sphere and a distance A from the center of the sphere to the cut surface.

ここで、球の式は、
2+y2+z2=R2・・・(1)
であり、A≦x≦R、−y1≦y≦y1、−z1≦z≦z1である。y1は、式1において、x=A、z=0を代入して求められ、z1は、式1において、x=A、y=0を代入して求められ、y1=z1となる。したがって、上述のように球面の場合、入力パラメータとしては、球の半径Rと、球の中心から切断面までの距離Aとを入力すればよい。
Where the sphere equation is
x 2 + y 2 + z 2 = R 2 (1)
And A ≦ x ≦ R, −y1 ≦ y ≦ y1, and −z1 ≦ z ≦ z1. y1 is obtained by substituting x = A and z = 0 in Equation 1, and z1 is obtained by substituting x = A and y = 0 in Equation 1, resulting in y1 = z1. Therefore, in the case of a spherical surface as described above, the radius R of the sphere and the distance A from the center of the sphere to the cut surface may be input as input parameters.

また、図4で示すように、原点(x軸線)からy方向にBの位置で球面の一部を切り欠いた場合、スクリーン面は図5(a)のようになり、Bが負の位置(図4のように下(−y方向))の場合、A≦x≦R、−B≦y≦y1、−z1≦z≦z1であり、y1は、式1において、x=A、z=0を代入して求められ、z1は、式1において、x=A、y=0を代入して求められ、x1は、式1において、y=−B、z=0を代入して求められる。したがって、入力パラメータとしては、球の半径Rと、球の中心から切断面までの距離Aと、原点から切り欠く位置までの距離Bとを入力すればよい。   In addition, as shown in FIG. 4, when a part of the spherical surface is cut out at the position B from the origin (x axis) in the y direction, the screen surface is as shown in FIG. 5A, and B is a negative position. In the case of (lower (−y direction) as in FIG. 4), A ≦ x ≦ R, −B ≦ y ≦ y1, −z1 ≦ z ≦ z1, and y1 is represented by the following equation (1): x = A, z Z1 is obtained by substituting x = A and y = 0 in Equation 1, and x1 is obtained by substituting y = −B and z = 0 in Equation 1. It is done. Therefore, as the input parameters, the radius R of the sphere, the distance A from the center of the sphere to the cut surface, and the distance B from the origin to the notch position may be input.

同様に、上、右、左で切断した場合は、それぞれ図5(b)、図5(c)、図5(d)のようなスクリーンになり、式は以下のようになる。図5(b)で示すように上にBの高さで切断した場合、A≦x≦R、−y1≦y≦B、−z1≦z≦z1である。図5(c)で示すように右にBの距離で切断した場合、A≦x≦R、−y1≦y≦y1、−z1≦z≦Bである。図5(d)で示すように左にBの距離で切断した場合、A≦x≦R、−y1≦y≦y1、−B≦z≦z1である。入力パラメータを増やせば、2箇所以上の切断位置の組合せも可能である。   Similarly, when the top, right, and left are cut, the screens are as shown in FIGS. 5B, 5C, and 5D, respectively, and the equations are as follows. As shown in FIG. 5 (b), when cutting at the height of B, A ≦ x ≦ R, −y1 ≦ y ≦ B, and −z1 ≦ z ≦ z1. As shown in FIG. 5C, when cutting to the right at a distance of B, A ≦ x ≦ R, −y1 ≦ y ≦ y1, and −z1 ≦ z ≦ B. As shown in FIG. 5D, when cut at a distance B to the left, A ≦ x ≦ R, −y1 ≦ y ≦ y1, and −B ≦ z ≦ z1. If the input parameters are increased, it is possible to combine two or more cutting positions.

一方、図6は円筒を切断したアーチ面を示し、この場合、入力パラメータとしては、アーチの半径Rと、円の中心から切断面までの距離Aと、アーチの高さHとである。   On the other hand, FIG. 6 shows an arch surface obtained by cutting a cylinder. In this case, the input parameters are the radius R of the arch, the distance A from the center of the circle to the cut surface, and the height H of the arch.

ここで、円の式は、
2+z2=R2・・・(2)
であり、A≦x≦R、0<y≦H、−z1≦z≦z1の制限を加えることで、アーチの表面の式となる。z1は、式1において、x=Aを代入して求められる。
Where the circle formula is
x 2 + z 2 = R 2 (2)
By adding the restrictions of A ≦ x ≦ R, 0 <y ≦ H, and −z1 ≦ z ≦ z1, the equation of the surface of the arch is obtained. z1 is obtained by substituting x = A in Equation 1.

さらにまた、図7(a)は、複数平面(長方形の面が複数存在)から成る場合を示し、この場合、入力パラメータとしては、図7(b)で示すような上面から見たときの面の配置と、面の高さHとである。図7(b)の場合、
z=−x+1(0≦x<1)・・・(3)
z=0(1≦x<3)・・・(4)
z=x−3(3≦x≦4)・・・(5)
0<y≦H・・・(6)
である。
Further, FIG. 7A shows a case where a plurality of planes (a plurality of rectangular surfaces exist), and in this case, as an input parameter, a plane viewed from the top as shown in FIG. 7B. And the height H of the surface. In the case of FIG.
z = −x + 1 (0 ≦ x <1) (3)
z = 0 (1 ≦ x <3) (4)
z = x−3 (3 ≦ x ≦ 4) (5)
0 <y ≦ H (6)
It is.

また、複数同じ大きさの球面を真横に並べたスクリーンの場合には、入力パラメータとしては、図3または図4,5で示す例と同様に、半径Rと、切断面までの距離Aと、切り欠く位置までの距離Bと、個数とを入力すればよい。すなわち、たとえば上下に2つの球面スクリーンを並べる場合、図5(a)と図5(b)とを組合わせることで実現することができ、同様に左右に2つの球面スクリーンを並べる場合、図5(c)と図5(d)とを組合わせることで実現することができ、入力パラメータとしては、前述のように、半径Rと、切断面までの距離Aと、切り欠く位置までの距離Bと、個数とを入力すればよいことが理解される。   Further, in the case of a screen in which a plurality of spherical surfaces of the same size are arranged side by side, as input parameters, as in the example shown in FIG. 3 or FIGS. 4 and 5, the radius R, the distance A to the cut surface, What is necessary is just to input the distance B to the notch position, and the number. That is, for example, when arranging two spherical screens on the top and bottom, it can be realized by combining FIG. 5A and FIG. 5B. Similarly, when arranging two spherical screens on the left and right, FIG. This can be realized by combining (c) and FIG. 5 (d). As input parameters, as described above, the radius R, the distance A to the cut surface, and the distance B to the notch position are as follows. It is understood that the number and the number may be input.

複数の円筒面のスクリーンの場合には、上面から見た配置図に、面の高さHと、各スクリーンの半径Rおよび距離Aと、個数とを入力すればよい。このようにして、スクリーン面の関数式が求まるので、x,y,zに適当な値を代入することで、或る一定個数以上のスクリーン上の点をサンプリング点として記録することで、スクリーン形状を特定することができる。各スクリーン面の関数式は、スクリーンモデル創造部21において、予め各モデル31,32,34〜36内に格納されており、設定手段6によって呼出すことができる。そして、入力パラメータ31a,32a,34a〜36aとして上記のパラメータを入力するだけで、実際のスクリーン2に適応したメッシュモデル31b,32b,34b〜36bを作成することができる。   In the case of a plurality of cylindrical screens, the surface height H, the radius R and the distance A of each screen, and the number of the screens may be input in the layout viewed from above. In this way, the screen surface function is obtained. By substituting appropriate values for x, y, and z, a certain number or more of the points on the screen are recorded as sampling points. Can be specified. The function expression of each screen surface is stored in advance in each model 31, 32, 34 to 36 in the screen model creation unit 21, and can be called by the setting means 6. And mesh model 31b, 32b, 34b-36b which adapted to the actual screen 2 can be produced only by inputting said parameter as input parameter 31a, 32a, 34a-36a.

なお、上記のようなスクリーン面上のサンプリング点は,x軸周り、y軸周り、z軸周りに回転可能(傾いたスクリーンを定義可能)である。   Note that the sampling points on the screen surface as described above can be rotated around the x axis, the y axis, and the z axis (a tilted screen can be defined).

すなわち、x軸周りのα度の回転は、下式で表すことができる。   That is, the rotation of α degrees around the x axis can be expressed by the following equation.

Figure 2006094458
Figure 2006094458

また、y軸周りのβ度の回転は、下式で表すことができる。   Further, the rotation of β degrees around the y axis can be expressed by the following equation.

Figure 2006094458
Figure 2006094458

さらにまた、z軸周りのγ度の回転は、下式で表すことができる。   Furthermore, the rotation of γ degrees around the z axis can be expressed by the following equation.

Figure 2006094458
Figure 2006094458

このようにして得たスクリーン面上のサンプリング点に、入力映像処理部26からの平面入力映像の各サンプリング点を、歪補正手段である歪補正手段部25においてメッシュファイルを用いてマッピングすることで歪補正を行うことができ、入力映像信号の各画素データを、メッシュファイル上の対応する画素に割り付けてゆくことで、歪み補正された映像信号を作成することができる。メッシュファイルは、使用するスクリーン2が決定し、各パラメータを入力し、一旦作成してしまえば、パラメータなどの変更がない限り変化はなく、ハードウェア部11のメモリ15に格納され、映像再生中は入力映像信号と出力映像信号との対応画素の読替えに使用されるだけであり、大きな負担にはならない。   By mapping each sampling point of the planar input video from the input video processing unit 26 to the sampling points on the screen surface obtained in this way using the mesh file in the distortion correction unit 25 which is a distortion correction unit. Distortion correction can be performed, and a distortion-corrected video signal can be created by assigning each pixel data of the input video signal to a corresponding pixel on the mesh file. The mesh file is determined by the screen 2 to be used, inputs each parameter, and once created, there is no change unless the parameter is changed. The mesh file is stored in the memory 15 of the hardware unit 11 and is being played back. Is only used for replacing corresponding pixels of the input video signal and the output video signal, and does not impose a heavy burden.

以上図3〜図7を用いた説明は、図8で示すようなスクリーン2の形状に対する補正方法を説明するものである。すなわち、平面の表示装置に対する映像信号を、そのまま球形のスクリーン2に投射すると、図8(a)に示すように歪んだ映像になり、このため球形のスクリーン2に表示したときに歪みが無くなるように、図8(b)に示すように予め映像を歪ませるものである。しかしながら、プロジェクタ3のスクリーン2に対する配置位置の違いおよび観察者のスクリーン2に対する位置の違いなどから、さらなる補正が必要になる。したがって、上述のようにして求めたメッシュファイルには、さらにそのような補正が施され、実際の映像信号の読替えに使用される。以下に、球面スクリーンに対するプロジェクタおよび観察者の位置の違いに対する補正方法について詳しく説明する。この処理は、プロジェクタ配置・セットアップ部22およびユーザ位置設定部23からの入力に応答して、歪補正部25によって行われる。   The above description with reference to FIGS. 3 to 7 describes a correction method for the shape of the screen 2 as shown in FIG. That is, when a video signal for a flat display device is projected onto the spherical screen 2 as it is, a distorted image is obtained as shown in FIG. 8A, so that the distortion is eliminated when displayed on the spherical screen 2. Further, as shown in FIG. 8B, the video is distorted in advance. However, further correction is necessary due to the difference in the arrangement position of the projector 3 with respect to the screen 2 and the difference in the position of the observer with respect to the screen 2. Therefore, such a correction is further applied to the mesh file obtained as described above, and it is used to replace the actual video signal. Hereinafter, a correction method for the difference in the positions of the projector and the observer with respect to the spherical screen will be described in detail. This process is performed by the distortion correction unit 25 in response to inputs from the projector arrangement / setup unit 22 and the user position setting unit 23.

図9は、上述のような球面補正に、プロジェクタ3および観察者の位置補正を含めた歪み補正の手法を説明するための図である。これらの補正は、プロジェクタ配置・セットアップ部22および位置設定部23からの入力に応答して、歪補正部25によって行われる。   FIG. 9 is a diagram for explaining a distortion correction method including the position correction of the projector 3 and the observer in addition to the spherical correction as described above. These corrections are performed by the distortion correction unit 25 in response to inputs from the projector arrangement / setup unit 22 and the position setting unit 23.

先ず、補正にあたって、図9に示すように、観察者51の視点位置よりビューフラスタムおよびプロジェクタ3の投影位置より映像投影フラスタムを定義する。ビューフラスタムは、視点位置としての頂点をP0、底面をP0,0,Pm,0,Pm,n,P0,nとする四角錐で表現され、投影フラスタムは、プロジェクタバックフォーカス位置としての頂点をQ0、底面をQ0,0,Qm,0,Qm,n,Q0,nとして表現される。ここで、m,nは映像解像度を表すものとし、映像信号が、たとえばSXGAの場合は、m=1279、n=1023である。底面は、仮想スクリーン面とも呼ばれる。 First, for correction, as shown in FIG. 9, a view frustum is defined from the viewpoint position of the observer 51 and a video projection frustum from the projection position of the projector 3. The view frustum is expressed by a quadrangular pyramid with the vertex as the viewpoint position P 0 and the bottom P 0,0 , P m, 0 , P m, n , P 0, n, and the projection frustum is the projector back focus The vertex as a position is expressed as Q 0 , and the bottom is expressed as Q 0,0 , Q m, 0 , Q m, n , Q 0, n . Here, m and n represent video resolutions. When the video signal is, for example, SXGA, m = 1279 and n = 11023. The bottom surface is also called a virtual screen surface.

ここで、簡易表現のため、m=iにおけるy−z二次元断面から見たイメージを図10に示す。先ず、仮想スクリーン面2a内に点Pi,jを想定し、ベクトルP0i,jとドームスクリーン2(メッシュモデル31b,32b,34b〜36b)との交点Ri,jを求める。次に、ベクトルQ0i,jと投影フラスタムの仮想スクリーン面2bとの交点Qi,jを求める。i,jを、0≦i≦m,0≦j≦nで変化してゆくと、Pi,j→Qi,j対応マップを作成することができ、この対応マップが映像の歪みに対する逆補正となる。 Here, for simple expression, an image viewed from a yz two-dimensional section at m = i is shown in FIG. First, assuming a point P i, j in the virtual screen surface 2a, an intersection R i, j between the vector P 0 P i, j and the dome screen 2 (mesh models 31b, 32b, 34b to 36b) is obtained. Next, an intersection point Q i, j between the vector Q 0 R i, j and the virtual screen surface 2b of the projection frustum is obtained. When i and j are changed as 0 ≦ i ≦ m and 0 ≦ j ≦ n, a P i, j → Q i, j correspondence map can be created, and this correspondence map is the reverse of image distortion. It becomes correction.

すなわち、先ずビューフラスタムに基づいて通常の映像生成を行い、次にこの映像データを取出し、このイメージにPi,j→Qi,j対応マップを利用したテクスチャマッピング座標を適用して再度映像生成を行うことで、映像歪み補正を実現している。グリッド映像にPi,j→Qi,j対応マップを適用したイメージを図11に示す(すなわち図8(b)とは逆になる)。本歪み補正手法は、スクリーン2の形状を制限しない。したがって、上述のようにして求めた球面のメッシュモデル31bだけでなく、他のメッシュモデル32b,34b〜36bなどへも適用可能である。 That is, first, normal video generation is performed based on the view frustum, then this video data is taken out, and the image is again applied by applying texture mapping coordinates using the P i, j → Q i, j correspondence map to this image. By performing the generation, the video distortion correction is realized. An image obtained by applying the P i, j → Q i, j correspondence map to the grid video is shown in FIG. 11 (that is, reverse to FIG. 8B). This distortion correction method does not limit the shape of the screen 2. Therefore, the present invention can be applied not only to the spherical mesh model 31b obtained as described above but also to other mesh models 32b, 34b to 36b, and the like.

映像信号処理装置1の歪補正部25において、このような補正を行うことで、平面の表示面に対する入力映像信号を逐次歪み処理してプロジェクタ3に与えることができ、任意曲率のスクリーン2には歪みのない映像を表示することができる。   By performing such correction in the distortion correction unit 25 of the video signal processing apparatus 1, the input video signal with respect to the flat display surface can be sequentially distorted and given to the projector 3. An image without distortion can be displayed.

[実施の形態2]
図12は、本発明の実施の他の形態に係る仮想現実感生成装置の電気的構成を示すブロック図である。この仮想現実感生成装置は、ビデオムービーなどの汎用の撮影手段を使用して作成された左右両チャネルの圧縮動画映像ファイルを解凍し、上述のように本発明に係るスクリーン面に対する歪み補正を施し、同期を取って左右各チャネルのプロジェクタ102,103から相互に直交する偏光面の映像で投影することで、仮想現実感映像を生成することである。観察者は、左右各チャネルの映像を左右の目でそれぞれ認識するように、左右それぞれの偏光面に対応した映像のみを透過させる専用の眼鏡をかけてスクリーンを見る。また、スクリーンには、偏光をそのまま反射可能な、シルバースクリーンなどの鏡面反射スクリーンが用いられる。
[Embodiment 2]
FIG. 12 is a block diagram showing an electrical configuration of a virtual reality generation apparatus according to another embodiment of the present invention. This virtual reality generation device decompresses the compressed video image files of both the left and right channels created using general-purpose shooting means such as a video movie, and performs distortion correction on the screen surface according to the present invention as described above. In other words, a virtual reality image is generated by projecting images of polarization planes orthogonal to each other from the projectors 102 and 103 of the left and right channels in synchronization. The observer looks at the screen with dedicated glasses that transmit only the images corresponding to the left and right polarization planes, so that the left and right eyes recognize the images of the left and right channels, respectively. Further, a specular reflection screen such as a silver screen that can reflect polarized light as it is is used for the screen.

圧縮動画映像ファイルは、DVD(デジタルビデオディスク)などの媒体に圧縮記録されている。図12では、媒体としては、左右それぞれのDVD111,121で示しているけれども、動画映像が圧縮記録されている他の媒体であってもよい。また、人間の両眼視差に対応した間隔だけ水平方向に離間して配置された左右それぞれの撮影手段で撮影された動画映像は、それらの撮影手段で個別のDVD111,121に圧縮して記録されるが、左右の撮影手段が一体化されていて、同じ媒体に記録されていてもよい。   The compressed moving image video file is compressed and recorded on a medium such as a DVD (digital video disc). In FIG. 12, the medium is shown by the left and right DVDs 111 and 121, but may be another medium on which a moving image is compressed and recorded. In addition, video images shot by the left and right shooting units arranged horizontally apart by an interval corresponding to human binocular parallax are compressed and recorded on individual DVDs 111 and 121 by those shooting units. However, the left and right photographing means may be integrated and recorded on the same medium.

MPEG2やMPEG4などで圧縮されたDVD111,121の記録映像は、映像作成手段107,108において、それぞれハードディスク112,122に取込まれる。ハードディスク112,122に取込まれた記録映像は、解凍部113,123において解凍(伸長)され、さらに再生表示部114,124において、映像信号に変換される。解凍部113,123および再生表示部114,124は、デコード手段を構成する。こうして得られた映像信号は、上述の映像信号処理装置1と同様に構成される歪補正部115,125において、スクリーン2の球面形状によって生じる歪に対する歪補正およびプロジェクタ102,103の球の中心軸上からのオフセットによって生じる歪に対する設置位置補正が行われる。   Recorded videos of DVDs 111 and 121 compressed by MPEG2 and MPEG4 are taken into hard disks 112 and 122 by video creation means 107 and 108, respectively. The recorded video captured in the hard disks 112 and 122 is decompressed (expanded) in the decompression units 113 and 123, and further converted into video signals in the reproduction display units 114 and 124. The decompression units 113 and 123 and the reproduction display units 114 and 124 constitute decoding means. The thus obtained video signal is subjected to distortion correction for distortion caused by the spherical shape of the screen 2 and the central axes of the spheres of the projectors 102 and 103 in the distortion correction units 115 and 125 configured similarly to the video signal processing apparatus 1 described above. Installation position correction is performed for distortion caused by offset from above.

歪補正部115,125から出力された映像信号は、切換えスイッチ117,127を介して、それぞれ2つずつ設けられるフレームメモリ118,119;128,129の一方に書込まれ、そのフレームメモリ118,119;128,129の他方からは、切換えスイッチ120,130を介して映像信号が読出され、プロジェクタ102,103に与えられ、投射が行われる。このように構成される映像作成手段107,108において、CGによって作成された映像信号は、解凍部113,123における伸長処理および再生表示部114,124における映像信号への変換処理は不要であり、直接歪補正部115,125から入力される。   The video signals output from the distortion correction units 115 and 125 are written into one of the two frame memories 118, 119; 128, 129 provided via the changeover switches 117, 127, respectively. From the other of 119; 128, 129, a video signal is read out via the change-over switches 120, 130, and is supplied to the projectors 102, 103 for projection. In the video creation means 107 and 108 configured as described above, the video signal created by CG does not need to be decompressed in the decompression units 113 and 123 and converted into video signals in the reproduction display units 114 and 124. Directly input from the distortion correction units 115 and 125.

映像作成手段107,108は、パーソナルコンピュータから成り、解凍部113,123、再生表示部114,124、歪補正部115,125および同期管理部116,126は、そのパーソナルコンピュータに格納されたソフトウェアおよびそれを実行するハードウェアによって構成される。すなわち、映像信号処理用のソフトウェアとして、解凍部113,123にはムービーファイル解凍プロセスを有し、再生表示部114,124には映像表示プロセスを有し、歪補正部115,125には映像歪補正プロセスを有する。また、解凍部113,123、再生表示部114,124および切換えスイッチ117,127;120,130の同期を管理する同期管理部116,126は、同期管理プロセスを有する。   The video creation means 107 and 108 are composed of a personal computer. The decompression units 113 and 123, the reproduction display units 114 and 124, the distortion correction units 115 and 125, and the synchronization management units 116 and 126 are software and software stored in the personal computer. Configured by the hardware that executes it. That is, as video signal processing software, the decompression units 113 and 123 have a movie file decompression process, the reproduction display units 114 and 124 have a video display process, and the distortion correction units 115 and 125 have a video distortion process. Has a correction process. The synchronization managers 116 and 126 that manage the synchronization of the decompression units 113 and 123, the reproduction display units 114 and 124, and the changeover switches 117 and 127; 120 and 130 have a synchronization management process.

ここで、映像作成手段107,108はスレーブとなり、マスターとなる同期手段109が設けられる。この同期手段109もパーソナルコンピュータから成り、映像作成手段107,108とは、ネットワークによって相互に接続されている。同期手段109でも、DVD111または112(図12では111)からの記録映像がハードディスク132に取込まれ、解凍部133において伸長され、さらに再生表示部134において映像信号に変換される。この映像信号におけるタイムコードを利用して、同期管理部136は、同期管理部116,126を介して、後述するように切換えスイッチ117,127;120,130のスイッチングなどを制御し、映像作成手段107,108からの映像信号間の同期を確立する。解凍部133にはムービーファイル解凍プロセスを有し、再生表示部134には映像表示プロセスを有し、同期管理部136には同期管理プロセスおよび時間管理ループプロセスを有する。映像作成手段107,108が実行する同期管理プロセス、ムービーファイル解凍プロセス、映像表示プロセスおよび映像補正プロセスについては、以下に詳細に説明する。また、同期手段109が実行する時間管理ループプロセス、同期管理プロセス、ムービーファイル解凍プロセスおよび映像表示プロセスについても、以下に詳細に説明する。   Here, the video creation means 107 and 108 are slaves, and a synchronization means 109 is provided as a master. The synchronization means 109 is also composed of a personal computer, and the video creation means 107 and 108 are mutually connected by a network. Also in the synchronization means 109, the recorded video from the DVD 111 or 112 (111 in FIG. 12) is taken into the hard disk 132, decompressed by the decompression unit 133, and further converted into a video signal by the reproduction display unit 134. Using the time code in the video signal, the synchronization management unit 136 controls the switching of the changeover switches 117, 127; 120, 130 as will be described later via the synchronization management units 116, 126, and the video creation means. Synchronization between the video signals from 107 and 108 is established. The decompression unit 133 has a movie file decompression process, the reproduction display unit 134 has a video display process, and the synchronization management unit 136 has a synchronization management process and a time management loop process. The synchronization management process, movie file decompression process, video display process and video correction process executed by the video creation means 107 and 108 will be described in detail below. The time management loop process, synchronization management process, movie file decompression process and video display process executed by the synchronization means 109 will also be described in detail below.

映像作成手段107における解凍部113、再生表示部114、歪補正部115、同期管理部116、切換えスイッチ117,120およびフレームメモリ118,119は、たとえばパーソナルコンピュータのPCIスロットに装着されるボードなどの形態で実現することができる。同様に、映像作成手段108における解凍部123、再生表示部124、歪補正部125、同期管理部126、切換えスイッチ127,130およびフレームメモリ128,129、ならびに同期手段109における解凍部133、再生表示部134および同期管理部136も、PCIスロットに装着されるボードなどの形態で実現することができる。または、映像作成手段107,108は、上述のような機能を実現する映像歪み補正用の専用ユニットとして構成され、DVD111,121等の圧縮動画映像ファイルを再生するデッキやパーソナルコンピュータなどと、プロジェクタ102,103との間に挿入され、さらにそれらに合わせて、同期手段109となる同期ユニットが設けられてもよい。   The decompression unit 113, the reproduction display unit 114, the distortion correction unit 115, the synchronization management unit 116, the changeover switches 117 and 120, and the frame memories 118 and 119 in the video creation unit 107 are, for example, boards installed in a PCI slot of a personal computer. It can be realized in the form. Similarly, the decompression unit 123, the playback display unit 124, the distortion correction unit 125, the synchronization management unit 126, the changeover switches 127 and 130 and the frame memories 128 and 129 in the video creation unit 108, and the decompression unit 133 in the synchronization unit 109, the playback display. The unit 134 and the synchronization management unit 136 can also be realized in the form of a board mounted in the PCI slot. Alternatively, the video creation means 107 and 108 are configured as a dedicated unit for video distortion correction that realizes the functions as described above, and a deck or personal computer that plays a compressed video file such as the DVD 111 or 121, and the projector 102. , 103, and a synchronizing unit serving as the synchronizing means 109 may be provided in accordance with them.

図13は、上述のように構成される仮想現実感生成装置における左右の映像信号間の同期確立動作を説明するためのフローチャートである。本仮想現実感生成装置を実現する主要なソフトウェアは、前述のような時間管理ループプロセス、同期管理プロセス、ムービーファイル解凍プロセス、映像表示プロセスおよび映像歪み補正プロセスの5つから構成される。同期管理プロセス、ムービーファイル解凍プロセスおよび映像表示プロセスは、映像作成手段107,108において、それぞれ一連のプロセスで連携しながら動作する。スレーブパソコンであるこれらの映像作成手段107,108は、2つにとどまらず、マルチスクリーン対応などでさらに拡張することが可能である。時間管理ループプロセスは、唯一のプロセスであり、複数のパーソナルコンピュータのどこか一箇所で実行されればよいが、本実施の形態では、上述のように独立したマスターパソコンである同期手段109上で実行する。そして各プロセスは、ネットワークを利用して通信を行う。図12では、同期管理プロセスによる動作を、破線で示す。   FIG. 13 is a flowchart for explaining the operation of establishing synchronization between the left and right video signals in the virtual reality generating apparatus configured as described above. The main software that realizes the virtual reality generation apparatus includes the time management loop process, the synchronization management process, the movie file decompression process, the video display process, and the video distortion correction process as described above. The synchronization management process, the movie file decompression process, and the video display process operate in the video creation means 107 and 108 in cooperation with each other through a series of processes. These video creation means 107 and 108 which are slave personal computers are not limited to two, and can be further expanded to support multi-screens. The time management loop process is the only process and needs only to be executed at one place in a plurality of personal computers. However, in this embodiment, on the synchronization means 109 which is an independent master personal computer as described above. Execute. Each process communicates using a network. In FIG. 12, the operation | movement by a synchronous management process is shown with a broken line.

マスターパソコンでは、時間管理ループプロセスおよび同期管理プロセスを実行する。これによって、先ず、時間管理ループプロセスで現在時刻を取得し、規定時間が経過した場合、同期管理プロセスからスレーブパソコンに向けて現在時刻を配信する(S101,S102)。すなわち、同期管理プロセスは、一定時間毎に、時刻と、後述するように2つのフレームメモリ118,119;128,129の切換えを行う切換えスイッチ117,127;120,130の切換え指令であるスワップ同期メッセージを送信することになる。   The master personal computer executes a time management loop process and a synchronization management process. Thus, first, the current time is acquired by the time management loop process, and when the specified time has elapsed, the current time is distributed from the synchronization management process to the slave personal computer (S101, S102). That is, the synchronization management process performs swap synchronization, which is a switching command for the changeover switches 117, 127; 120, 130 for switching between the time and the two frame memories 118, 119; A message will be sent.

一方、スレーブパソコンでは、ムービーファイル解凍プロセス・映像表示プロセス・映像歪み補正プロセスを実行する。これによって、先ず、映像表示プロセスが現在時刻を受信し、受信後確かに受取ったことをレシートとしてマスターパソコンに返信する(S201,S202)。さらに映像表示プロセスは、リファレンス時刻を更新し、さらにムービーファイル解凍プロセスへリファレンス時刻を配信し(S203)、フレームデータ更新通知を待受ける(S204)。   On the other hand, the slave personal computer executes a movie file decompression process, a video display process, and a video distortion correction process. As a result, first, the video display process receives the current time, and sends back to the master personal computer as a receipt that it has been received (S201, S202). Further, the video display process updates the reference time, further distributes the reference time to the movie file decompression process (S203), and waits for a frame data update notification (S204).

これに応答して、ムービーファイル解凍プロセスは、リファレンス時刻を取得し(S301)、現在取得しているフレームの表示されるべき時刻と比較する(S302)。比較の結果、遅延が2フレーム以内ならばフレームデータを更新、すなわち解凍し、フレームバッファ内のアドレスを映像表示プロセスへ通知する(S303)。さらにムービーファイル解凍プロセスは、フレームデータを更新したことを映像表示プロセスへ通知する(S304)。   In response to this, the movie file decompression process obtains a reference time (S301) and compares it with the time at which the currently obtained frame is to be displayed (S302). If the delay is within 2 frames as a result of the comparison, the frame data is updated, that is, decompressed, and the address in the frame buffer is notified to the video display process (S303). Further, the movie file decompression process notifies the video display process that the frame data has been updated (S304).

映像表示プロセスは、フレームデータ更新通知を受けると(S204,S205)、すでにS303で通知済のフレームバッファ内のアドレスよりフレームデータを映像として取得し(S206)、ムービーファイル解凍プロセスへフレームデータ更新完了を通知し(S207)、映像をバックバッファ(2つのフレームメモリ118,119;128,129の内、出力側に選択されていない方(図12ではフレームメモリ118,128))に描画、すなわち映像信号に再生する(S208)。   Upon receiving the frame data update notification (S204, S205), the video display process acquires frame data as video from the address in the frame buffer already notified in S303 (S206), and completes the frame data update process to the movie file decompression process. (S207), and the image is drawn in the back buffer (the two frame memories 118, 119; 128, 129 which are not selected on the output side (frame memories 118, 128 in FIG. 12)), that is, the image The signal is reproduced (S208).

一方、マスターパソコンでは、同期管理プロセスは、S103でレシートを受取ると、スワップ同期メッセージをスレーブパソコンの映像表示プロセスへ送信する(S104)。これに応答して、映像表示プロセスは、映像歪み補正プロセスを呼び出して処理を実行させ(S209)、続いてバッファスワップを実行し、マスターパソコンの同期管理プロセスへ確かに受取ったことを表すレシートを返信する(S210,S211,S212)。その後、映像表示プロセスは、S201で現在時刻の受信を待受ける。映像歪み補正は、図10で示すように対応マップの読替えによる一定時間の遅延で実現することができ、これによって左右のプロジェクタ102,103からは、相互に同期の取れた動画映像が投射されることになる。   On the other hand, in the master personal computer, when the receipt is received in S103, the synchronization management process transmits a swap synchronization message to the video display process of the slave personal computer (S104). In response to this, the video display process calls the video distortion correction process to execute the processing (S209), and then executes buffer swap, and receives a receipt indicating that it has been received by the synchronization management process of the master personal computer. Reply (S210, S211, S212). Thereafter, the video display process waits for reception of the current time in S201. As shown in FIG. 10, the video distortion correction can be realized with a delay of a predetermined time by rereading the correspondence map, and thereby the left and right projectors 102 and 103 project moving image images synchronized with each other. It will be.

ムービーファイル解凍プロセスは、フレームデータ更新完了通知を受取ると(S305)、圧縮ムービーファイルより1フレームを新たに取得する(S306)。また、S302での比較の結果、遅延が2フレームを超えていても、S306で1フレームを新たに取得する。   In the movie file decompression process, when a frame data update completion notification is received (S305), one new frame is acquired from the compressed movie file (S306). Even if the delay exceeds 2 frames as a result of the comparison in S302, one frame is newly acquired in S306.

マスターパソコンの同期管理プロセスでは、映像表示プロセスよりスワップ同期メッセージのレシートを受取るまでプロセスを停止、受取ると現在時刻の取得より開始する(S105)。   In the synchronization management process of the master personal computer, the process is stopped until receipt of the swap synchronization message is received from the video display process, and when the receipt is received, the process starts with acquisition of the current time (S105).

このように構成することによって、特殊なハードウェアを用いることなく、実写映像などのムービーファイルの解凍・再生・歪み補正の各処理をリアルタイムで行いつつ、インタラクティブな複数のムービーファイルを、複数のパソコン上で同期して再生することが可能となる。特に、MPEG2やMPEG4というムービーファイルフォーマットには、1つ1つのフレームという概念がなく、映像信号の差分のみ管理することでファイル容量を圧縮しているので、差分情報よりフレームを再構築する処理(解凍処理)が必要であり、本実施の形態では、この重い処理プロセスを実行しながら、さらに再生・同期・歪み補正という処理を同時に行い、リアルタイム処理(30フレーム/秒)を実現することができる。   By configuring in this way, multiple interactive movie files can be transferred to multiple computers while performing real-time processing of decompression, playback, and distortion correction of movie files such as live-action video without using special hardware. It is possible to play back synchronously. In particular, the movie file formats such as MPEG2 and MPEG4 do not have the concept of each frame, and the file capacity is compressed by managing only the difference between video signals, so the process of reconstructing the frame from the difference information ( In the present embodiment, real-time processing (30 frames / second) can be realized by simultaneously executing playback, synchronization, and distortion correction while executing this heavy processing process. .

本発明の実施の一形態に係る映像信号処理装置を含む映像再生装置の全体構成を示す図である。1 is a diagram illustrating an overall configuration of a video reproduction device including a video signal processing device according to an embodiment of the present invention. 図1で示す映像信号処理装置のソフトウェア部におけるスクリーンモデル創造部の機能ブロック図である。It is a functional block diagram of the screen model creation part in the software part of the video signal processing apparatus shown in FIG. 球面モデルの入力パラメータを示す図である。It is a figure which shows the input parameter of a spherical model. 球面の一部を切り欠いたモデルの入力パラメータを示す図である。It is a figure which shows the input parameter of the model which notched a part of spherical surface. 球面スクリーンの一部を切り欠いた正面形状を示す図である。It is a figure which shows the front shape which notched some spherical screens. 円筒モデルの入力パラメータを示す図である。It is a figure which shows the input parameter of a cylindrical model. 複数平面の入力パラメータを示す図である。It is a figure which shows the input parameter of a several plane. スクリーンの球面形状に対する歪補正処理を説明するための図である。It is a figure for demonstrating the distortion correction process with respect to the spherical shape of a screen. 歪み補正の手法を説明するための図である。It is a figure for demonstrating the method of distortion correction. 半球状のスクリーンの中央部で切断した図9の二次元断面図である。FIG. 10 is a two-dimensional cross-sectional view of FIG. 9 taken at the center of the hemispherical screen. グリッド映像の歪補正のイメージ図である。It is an image figure of distortion correction of a grid picture. 本発明の実施の他の形態に係る仮想現実感生成装置の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of the virtual reality production | generation apparatus which concerns on the other embodiment of this invention. 図12で示す仮想現実感生成装置における同期確立動作を説明するためのフローチャートである。13 is a flowchart for explaining a synchronization establishment operation in the virtual reality generation apparatus shown in FIG.

符号の説明Explanation of symbols

1 映像信号処理装置
2 スクリーン
3;102,103 プロジェクタ
4 記録媒体
5 コンピュータグラッフィックスの作成装置
6 設定手段
11 ハードウェア部
12 ソフトウェア部
13 映像信号処理回路
14 デジタルシグナルプロセッサ
15 メモリ
16 メモリ
21 スクリーンモデル創造部
22 プロジェクタ配置・セットアップ部
23 ユーザ位置設定部
25 歪補正部
26 入力映像処理部
31 球形モデル
32 円筒モデル
33 混合モデル
34 球形混合モデル
35 円筒混合モデル
36 平面混合モデル
31a,32a,34a〜36a 入力パラメータ
31b,32b,34b〜36b メッシュモデル
51 観察者
107,108 映像作成手段
109 同期手段
111,112 DVD
112,122,132 ハードディスク
113,123,133 解凍部
114,124,134 再生表示部
115,125 歪補正部
116,126,136 同期管理部
117,127;120,130 切換えスイッチ
118,119;128,129 フレームメモリ
DESCRIPTION OF SYMBOLS 1 Video signal processing apparatus 2 Screen 3; 102,103 Projector 4 Recording medium 5 Computer graphic creation apparatus 6 Setting means 11 Hardware part 12 Software part 13 Video signal processing circuit 14 Digital signal processor 15 Memory 16 Memory 21 Screen model creation Unit 22 Projector arrangement / setup unit 23 User position setting unit 25 Distortion correction unit 26 Input video processing unit 31 Spherical model 32 Cylindrical model 33 Mixed model 34 Spherical mixed model 35 Cylindrical mixed model 36 Planar mixed models 31a, 32a, 34a to 36a Input Parameters 31b, 32b, 34b to 36b Mesh model 51 Viewer 107, 108 Video creation means 109 Synchronization means 111, 112 DVD
112, 122, 132 Hard disk 113, 123, 133 Decompression unit 114, 124, 134 Playback display unit 115, 125 Distortion correction unit 116, 126, 136 Synchronization management unit 117, 127; 120, 130 changeover switch 118, 119; 128, 129 frame memory

Claims (5)

投影手段から任意曲率の投射面に映像を投射するにあたって、平面の表示面に対する入力映像信号に予め前記投射面に対する歪み補正を施して前記投影手段へ与える映像信号処理装置であって、
複数種類に亘る規定の投射面形状に関する関数式を予め有し、前記規定の投射面形状のいずれかまたはその組合わせを選択し、変数パラメータを入力することで前記関数式に基づいて投射面のメッシュモデルを作成するモデル作成手段と、
観察者および投影手段の前記投射面に対する位置関係に基づいて、前記平面の表示面と投射面のメッシュモデルとの対応マップを作成し、平面の入力映像を前記対応マップを利用したテクスチャマッピング座標を適用して再度映像生成を行うことで、前記歪み補正を実現する歪補正手段とを含むことを特徴とする映像信号処理装置。
When projecting an image from a projection unit onto a projection surface having an arbitrary curvature, a video signal processing apparatus that applies distortion correction to the projection surface in advance to an input video signal for a flat display surface and applies the distortion correction to the projection unit,
A function formula related to a predetermined projection surface shape over a plurality of types is previously stored, and one of the specified projection surface shapes or a combination thereof is selected, and a variable parameter is input to input a projection parameter based on the function formula. A model creation means for creating a mesh model;
Based on the positional relationship between the observer and the projection means with respect to the projection plane, a correspondence map between the plane display plane and the mesh model of the projection plane is created, and the texture mapping coordinates using the plane map are used as the plane input image. A video signal processing apparatus comprising: distortion correction means that realizes the distortion correction by applying and generating video again.
前記規定の投射面形状は、球面の一部、円筒面の一部、または複数平面の組合わせのいずれかであることを特徴とする請求項1記載の映像信号処理装置。   2. The video signal processing apparatus according to claim 1, wherein the prescribed projection surface shape is one of a part of a spherical surface, a part of a cylindrical surface, or a combination of a plurality of planes. 観察者に凹面を向けた球面状で鏡面反射可能な広視野角のスクリーンと、
左右各チャネルにそれぞれ設けられ、前記左右各チャネルの圧縮動画映像ファイルをそれぞれ順次デコードして、動画の映像信号に変換するデコード手段を少なくとも有する映像作成手段と、
前記各映像作成手段を制御し、前記左右各チャネルの映像信号間の同期を確立する同期手段と、
前記左右各チャネルの映像信号に逐次前記スクリーンに対する歪み補正を施してゆく前記請求項1または2記載の映像信号処理装置と、
前記各映像信号処理装置からの映像信号を相互に直交する偏光の映像としてそれぞれスクリーンへ投影する投影手段と、
前記観察者が装着し、左右各眼にそれぞれ対応した偏光の映像を透過させて観察者に合成して認識させることで立体動画映像を表示する映像選択手段とを含むことを特徴とする仮想現実感生成装置。
A screen with a wide viewing angle that can be mirror-reflected in a spherical shape with a concave surface facing the viewer,
Video creation means provided at each of the left and right channels respectively, and having at least decoding means for sequentially decoding the compressed video video files of the left and right channels and converting them into video signals of the video,
Synchronization means for controlling the video creation means and establishing synchronization between the video signals of the left and right channels;
The video signal processing apparatus according to claim 1 or 2, wherein distortion correction for the screen is sequentially performed on the video signals of the left and right channels,
Projecting means for projecting the video signals from the respective video signal processing devices onto the screen as polarized images orthogonal to each other,
A virtual reality comprising: a video selection means that is worn by the observer and displays a stereoscopic video image by transmitting a polarized image corresponding to each of the left and right eyes and causing the observer to synthesize and recognize the image. Feeling generation device.
前記同期手段は、時間管理ループプロセスおよび同期管理プロセスを実行する同期管理部を有し、
前記各映像作成手段は、前記投影手段への出力用とデコードした映像信号の書込み用とに順次切換えて使用可能な2つのフレームメモリを有し、
前記デコード手段は、同期管理プロセスを実行する同期管理部、ムービーファイル解凍プロセスを実行する解凍部および映像表示プロセスを実行する再生表示部を有し、前記左右各チャネルの映像信号を順次デコードして前記動画の映像信号に変換し、前記同期手段の時間管理ループプロセスおよび同期管理プロセスにて制御されて前記左右各チャネルの映像信号間の同期を確立することを特徴とする請求項3記載の仮想現実感生成装置。
The synchronization means includes a synchronization management unit that executes a time management loop process and a synchronization management process,
Each of the video creation means has two frame memories that can be used by sequentially switching between output to the projection means and writing of the decoded video signal,
The decoding means includes a synchronization management unit that executes a synchronization management process, a decompression unit that executes a movie file decompression process, and a playback display unit that executes a video display process, and sequentially decodes the video signals of the left and right channels. 4. The virtual signal according to claim 3, wherein the video signal is converted into a video signal of the moving image and controlled by a time management loop process and a synchronization management process of the synchronization means to establish synchronization between the video signals of the left and right channels. Reality generator.
前記請求項4における同期手段を構成するコンピュータに、現在時刻を取得する前記同期管理プロセスと、規定時間が経過した場合、各デコード手段に向けて現在時刻を配信する前記時間管理ループプロセスとを実行させ、
前記請求項4における映像作成手段を構成するコンピュータに、前記現在時刻を受信し、受信したことを表すレシートを同期手段に返信するとともにリファレンス時刻を更新し、前記ムービーファイル解凍プロセスへそのリファレンス時刻を配信する前記映像表示プロセスと、前記リファレンス時刻を取得し、現在取得しているフレームの表示されるべき時刻と比較し、その結果、遅延が2フレーム以内ならばフレームデータを更新し、フレームバッファ内のアドレスを映像表示プロセスへ通知するとともに、フレームデータを更新したことを映像表示プロセスへ通知する前記ムービーファイル解凍プロセスと、フレームデータ更新通知を受けると、すでに通知済のフレームバッファ内のアドレスよりフレームデータを映像信号として取得し、ムービーファイル解凍プロセスへフレームデータ更新完了を通知し、映像信号を映像作成手段内に設けられている2つのフレームメモリの内、出力側に選択されていない方に描画する前記映像表示プロセスと、フレームデータ更新完了通知を受取ると、新たなフレームデータを取得する前記ムービーファイル解凍プロセスとを実行させ、
さらに前記請求項4における同期手段を構成するコンピュータに、前記レシートを受取ると、スワップ同期メッセージを映像表示プロセスへ送信する前記同期管理プロセスを実行させ、
前記請求項4における映像作成手段を構成するコンピュータに、前記スワップ同期メッセージに応答して前記2つのフレームメモリのスワップを実行し、前記同期手段の同期管理プロセスへレシートを返信し、再び現在時刻の受信を待受ける映像表示プロセスを実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。
The computer constituting the synchronization means in claim 4 executes the synchronization management process for acquiring the current time and the time management loop process for distributing the current time to each decoding means when a predetermined time has elapsed. Let
5. The computer constituting the video creation means in claim 4 receives the current time, returns a receipt indicating the reception to the synchronization means, updates the reference time, and sends the reference time to the movie file decompression process. The video display process to be distributed and the reference time are acquired and compared with the time at which the currently acquired frame is to be displayed. As a result, if the delay is within 2 frames, the frame data is updated and the frame buffer is updated. The movie file decompression process for notifying the video display process of the address of the video file and the video display process for notifying the video display process that the frame data has been updated. Acquire data as a video signal The video display process for notifying the movie file decompression process of completion of the frame data update, and drawing the video signal on the one not selected on the output side of the two frame memories provided in the video creation means; Upon receipt of the data update completion notification, the movie file decompression process for acquiring new frame data is executed,
Furthermore, when the receipt of the receipt, the computer constituting the synchronization means in claim 4 executes the synchronization management process for transmitting a swap synchronization message to the video display process,
In response to the swap synchronization message, the two frame memories are swapped in response to the swap synchronization message, a receipt is returned to the synchronization management process of the synchronization unit, and the current time again A computer-readable recording medium storing a program for executing a video display process waiting for reception.
JP2005041521A 2004-08-26 2005-02-18 Virtual reality generation device and program used therefor Expired - Fee Related JP4622570B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005041521A JP4622570B2 (en) 2004-08-26 2005-02-18 Virtual reality generation device and program used therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004246371 2004-08-26
JP2005041521A JP4622570B2 (en) 2004-08-26 2005-02-18 Virtual reality generation device and program used therefor

Publications (3)

Publication Number Publication Date
JP2006094458A true JP2006094458A (en) 2006-04-06
JP2006094458A5 JP2006094458A5 (en) 2008-10-30
JP4622570B2 JP4622570B2 (en) 2011-02-02

Family

ID=36234941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005041521A Expired - Fee Related JP4622570B2 (en) 2004-08-26 2005-02-18 Virtual reality generation device and program used therefor

Country Status (1)

Country Link
JP (1) JP4622570B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010511360A (en) * 2006-11-29 2010-04-08 エフ ポスザット エイチユー、 エルエルシー 3D projection display
EP2245528A1 (en) * 2008-01-25 2010-11-03 Microsoft Corporation Projection of graphical objects on interactive irregular displays
US7857461B2 (en) 2007-11-06 2010-12-28 Panasonic Corporation Projector and projection method
WO2011049025A1 (en) * 2009-10-20 2011-04-28 シャープ株式会社 Three dimensional video display device
JP2013502151A (en) * 2009-08-12 2013-01-17 トムソン ライセンシング Method and system for crosstalk and distortion correction for three dimensional (3D) projection
US8446367B2 (en) 2009-04-17 2013-05-21 Microsoft Corporation Camera-based multi-touch mouse
WO2014033913A1 (en) * 2012-08-31 2014-03-06 三菱電機株式会社 Display device
JP2014103518A (en) * 2012-11-19 2014-06-05 Casio Comput Co Ltd Projection apparatus, projection state adjustment method, and projection state adjustment program
JP2015043571A (en) * 2013-08-26 2015-03-05 シゼイ シジブイ カンパニー リミテッド Device and method for managing screening theater parameter
US9143748B2 (en) 2009-07-02 2015-09-22 Thomson Licensing Method and system for differential distortion correction for three-dimensional (3D) projection
US9218116B2 (en) 2008-07-25 2015-12-22 Hrvoje Benko Touch interaction with a curved display
CN110800303A (en) * 2017-07-03 2020-02-14 高通股份有限公司 Reference picture derivation and motion compensation for 360-degree video coding

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63502464A (en) * 1985-12-19 1988-09-14 ゼネラル・エレクトリック・カンパニイ Comprehensive distortion correction in real-time image generation systems
JPH10312162A (en) * 1997-03-11 1998-11-24 Fujitsu Ltd Image display system and recording medium in which program for realizing the system is recorded and which is capable of being read by computer
JP2000010216A (en) * 1998-06-25 2000-01-14 Takenaka Komuten Co Ltd Video information recording medium and projection device
JP2000310826A (en) * 1999-02-23 2000-11-07 Matsushita Electric Works Ltd Virtual environmental experience display device
JP2002243435A (en) * 2001-02-16 2002-08-28 Matsushita Electric Ind Co Ltd Method and instrument for measuring shape
JP2003009039A (en) * 2001-06-27 2003-01-10 Namco Ltd Image display device, image display method, information storage medium, and image display program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63502464A (en) * 1985-12-19 1988-09-14 ゼネラル・エレクトリック・カンパニイ Comprehensive distortion correction in real-time image generation systems
JPH10312162A (en) * 1997-03-11 1998-11-24 Fujitsu Ltd Image display system and recording medium in which program for realizing the system is recorded and which is capable of being read by computer
JP2000010216A (en) * 1998-06-25 2000-01-14 Takenaka Komuten Co Ltd Video information recording medium and projection device
JP2000310826A (en) * 1999-02-23 2000-11-07 Matsushita Electric Works Ltd Virtual environmental experience display device
JP2002243435A (en) * 2001-02-16 2002-08-28 Matsushita Electric Ind Co Ltd Method and instrument for measuring shape
JP2003009039A (en) * 2001-06-27 2003-01-10 Namco Ltd Image display device, image display method, information storage medium, and image display program

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010511360A (en) * 2006-11-29 2010-04-08 エフ ポスザット エイチユー、 エルエルシー 3D projection display
US7857461B2 (en) 2007-11-06 2010-12-28 Panasonic Corporation Projector and projection method
US8884883B2 (en) 2008-01-25 2014-11-11 Microsoft Corporation Projection of graphical objects on interactive irregular displays
EP2245528A1 (en) * 2008-01-25 2010-11-03 Microsoft Corporation Projection of graphical objects on interactive irregular displays
EP2245528A4 (en) * 2008-01-25 2011-01-19 Microsoft Corp Projection of graphical objects on interactive irregular displays
US9218116B2 (en) 2008-07-25 2015-12-22 Hrvoje Benko Touch interaction with a curved display
US9459784B2 (en) 2008-07-25 2016-10-04 Microsoft Technology Licensing, Llc Touch interaction with a curved display
US8446367B2 (en) 2009-04-17 2013-05-21 Microsoft Corporation Camera-based multi-touch mouse
US9143748B2 (en) 2009-07-02 2015-09-22 Thomson Licensing Method and system for differential distortion correction for three-dimensional (3D) projection
JP2013502151A (en) * 2009-08-12 2013-01-17 トムソン ライセンシング Method and system for crosstalk and distortion correction for three dimensional (3D) projection
US9140974B2 (en) 2009-08-12 2015-09-22 Thomson Licensing Method and system for crosstalk and distortion corrections for three-dimensional (3D) projection
WO2011049025A1 (en) * 2009-10-20 2011-04-28 シャープ株式会社 Three dimensional video display device
US9047793B2 (en) 2009-10-20 2015-06-02 Sharp Kabushiki Kaisha Three dimensional video display device
CN102576156A (en) * 2009-10-20 2012-07-11 夏普株式会社 Three dimensional video display device
JP5847315B2 (en) * 2012-08-31 2016-01-20 三菱電機株式会社 Display device
WO2014033913A1 (en) * 2012-08-31 2014-03-06 三菱電機株式会社 Display device
JP2014103518A (en) * 2012-11-19 2014-06-05 Casio Comput Co Ltd Projection apparatus, projection state adjustment method, and projection state adjustment program
JP2015043571A (en) * 2013-08-26 2015-03-05 シゼイ シジブイ カンパニー リミテッド Device and method for managing screening theater parameter
US9632405B2 (en) 2013-08-26 2017-04-25 Cj Cgv Co., Ltd. Theater parameter management apparatus and method
US9671684B2 (en) 2013-08-26 2017-06-06 Cj Cgv Co., Ltd. Theater parameter management apparatus and method
CN110800303A (en) * 2017-07-03 2020-02-14 高通股份有限公司 Reference picture derivation and motion compensation for 360-degree video coding

Also Published As

Publication number Publication date
JP4622570B2 (en) 2011-02-02

Similar Documents

Publication Publication Date Title
JP4622570B2 (en) Virtual reality generation device and program used therefor
JP3992045B2 (en) Video signal processing apparatus and method, and virtual reality generation apparatus
JP7017866B2 (en) Immersive video formatting methods, equipment and streams for conventional and immersive drawing equipment
US7321367B2 (en) Arrangement and method for spatial visualization
US20050052623A1 (en) Projecting system
EP1202247B1 (en) Image display apparatus
JP2007251914A (en) Image signal processing apparatus, and virtual reality creating system
JP2006094458A5 (en)
WO2019131577A1 (en) Information processing device, information processing method, and program
JP4013922B2 (en) Virtual reality generation apparatus and method
JP2008187729A (en) Image signal processing apparatus
JP7378243B2 (en) Image generation device, image display device, and image processing method
CN112672131B (en) Panoramic video image display method and display device
CN112218132B (en) Panoramic video image display method and display equipment
CN111354085A (en) Immersive interactive Box image production method
CN110730340B (en) Virtual audience display method, system and storage medium based on lens transformation
CN114500970B (en) Panoramic video image processing and displaying method and equipment
JP2001236521A (en) Virtual reality system based on image dividing system
WO2018134946A1 (en) Image generation device, and image display control device
JP5249733B2 (en) Video signal processing device
KR100799304B1 (en) A system and method for projecting high-resolution moving pictures under non-planar display environments
CN114513646B (en) Method and device for generating panoramic video in three-dimensional virtual scene
US20210160561A1 (en) Image arrangement determination apparatus, display controlling apparatus, image arrangement determination method, display controlling method, and program
JP2002108322A (en) Projection system and projecting method
CN116075860A (en) Information processing apparatus, information processing method, video distribution method, and information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071011

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101018

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees