JP3992045B2 - Video signal processing apparatus and method, and virtual reality generation apparatus - Google Patents

Video signal processing apparatus and method, and virtual reality generation apparatus Download PDF

Info

Publication number
JP3992045B2
JP3992045B2 JP2005042983A JP2005042983A JP3992045B2 JP 3992045 B2 JP3992045 B2 JP 3992045B2 JP 2005042983 A JP2005042983 A JP 2005042983A JP 2005042983 A JP2005042983 A JP 2005042983A JP 3992045 B2 JP3992045 B2 JP 3992045B2
Authority
JP
Japan
Prior art keywords
video signal
video
input
signal processing
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005042983A
Other languages
Japanese (ja)
Other versions
JP2006229768A (en
Inventor
厚行 山本
亮 河村
伸之 柴野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2005042983A priority Critical patent/JP3992045B2/en
Publication of JP2006229768A publication Critical patent/JP2006229768A/en
Application granted granted Critical
Publication of JP3992045B2 publication Critical patent/JP3992045B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Projection Apparatus (AREA)
  • Image Generation (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、平面の表示面に対する通常の入力映像信号を、プロジェクタから壁面等の任意曲率の曲面に投射しても歪み無く映し出すことができるように、入力映像信号に予め曲面に対する歪み補正を施す映像信号処理装置及びその方法並びにそれを用いて構成される仮想現実感生成装置に関する。   The present invention performs distortion correction on a curved surface in advance so that a normal input video signal for a flat display surface can be projected without distortion even when projected from a projector onto a curved surface having an arbitrary curvature such as a wall surface. The present invention relates to a video signal processing apparatus and method, and a virtual reality generation apparatus configured using the same.

上述の曲面への投射技術は、仮想現実感(バーチャルリアリティ)生成装置で既に実用化されている。例えば、その先行技術としては、特許文献1等が挙げられる。この仮想現実感生成装置は、有効視野角以上で、観察者に凹面を向けた半球状のスクリーンに映像を投射することで、観察者の視野角を超える映像を映し出し、仮想現実感を生成するようになっている。この仮想現実感生成装置に入力する入力映像信号は、当該仮想現実感生成装置用に生成したCG(コンピュータグラフィック)の信号であった。   The above-described projection technology to a curved surface has already been put into practical use in a virtual reality generation device. For example, Patent Document 1 and the like can be cited as the prior art. This virtual reality generation device projects an image that exceeds the viewing angle of the observer by projecting the image onto a hemispherical screen with a concave surface facing the observer, which is greater than the effective viewing angle, and generates virtual reality. It is like that. The input video signal input to the virtual reality generation apparatus is a CG (computer graphic) signal generated for the virtual reality generation apparatus.

なお、有効視野角とは、人間が物を詳細に認識できる視野角であり、水平方向に約140度、垂直方向に約85度とされている。
特許第3387487号公報
The effective viewing angle is a viewing angle at which a person can recognize an object in detail, and is about 140 degrees in the horizontal direction and about 85 degrees in the vertical direction.
Japanese Patent No. 3387487

ところで、上記特許文献1に係る仮想現実感生成装置に入力する入力映像信号は、当該仮想現実感生成装置用に生成した信号となっているため、入力映像信号に制限あった。   By the way, since the input video signal input to the virtual reality generation device according to Patent Document 1 is a signal generated for the virtual reality generation device, the input video signal is limited.

本発明は、上記事情に鑑みて為された発明であり、当該仮想現実感生成装置用に生成した信号でなくても、予め曲面に対する歪み補正を施すことができる映像信号処理装置及び映像信号処理方法を提供することを目的とする。そして、この映像信号処理装置を用いた仮想現実感生成装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and is a video signal processing apparatus and video signal processing capable of performing distortion correction on a curved surface in advance, even if it is not a signal generated for the virtual reality generation apparatus It aims to provide a method. And it aims at providing the virtual reality production | generation apparatus using this video signal processing apparatus.

上述の目的を達成するために、本発明の一態様に係る、投影手段から任意曲率の投射面に映像を投射するにあたって、平面の表示面に対する映像信号に予め前記投射面に対する歪み補正を施して前記投影手段へ与える映像信号処理装置は、平面の表示面に対するDV方式の映像信号を入力するためのDV端子と、前記DV端子から入力された前記映像信号をフレームメモリに記憶すると共に、前記映像信号の画面サイズを入力することで該フレームメモリに記憶した前記映像信号の前記フレームメモリにおける先頭メモリアドレス及び使用メモリサイズを出力する入力映像処理手段と、複数種類に亘る規定の投射面形状に関する関数式を予め有し、前記規定の投射面形状の何れか又はその組合せを選択し、変数パラメータを入力することで前記関数式に基づいて投射面のメッシュモデルを作成するモデル作成手段と、観察者及び前記投影手段の前記投射面に対する位置関係に基づいて、前記平面の表示面と投射面のメッシュモデルとの対応マップを作成し、前記入力映像処理部から出力された先頭メモリアドレス及びメモリサイズに基づいて、平面の入力映像を前記対応マップを利用したテクスチャマッピング座標を適用して再度映像生成を行うことで、前記歪み補正を実現する歪み補正処理手段とを備えることを特徴とする。   In order to achieve the above object, in projecting an image from a projection unit to an arbitrary curvature projection surface according to an aspect of the present invention, distortion correction for the projection surface is performed in advance on a video signal for a flat display surface. The video signal processing device applied to the projection means stores a DV terminal for inputting a DV video signal for a flat display surface, the video signal inputted from the DV terminal in a frame memory, and the video Input video processing means for outputting the start memory address and the used memory size in the frame memory of the video signal stored in the frame memory by inputting the screen size of the signal, and a function related to a plurality of types of prescribed projection surface shapes Preliminary formula, select any one of the specified projection plane shapes or a combination of them, and input the variable parameters A model creation unit that creates a mesh model of the projection plane based on a functional formula, and a correspondence map between the display surface of the plane and the mesh model of the projection plane based on the positional relationship of the observer and the projection unit with respect to the projection plane And generating a video again by applying texture mapping coordinates using the corresponding map to the plane input video based on the top memory address and memory size output from the input video processing unit, Distortion correction processing means for realizing distortion correction is provided.

そして、上述の映像信号処理装置において、前記歪み補正処理部で歪み補正した映像信号を出力する出力端子をさらに備えることを特徴とする。   The video signal processing apparatus described above further includes an output terminal that outputs a video signal whose distortion has been corrected by the distortion correction processing unit.

また、これら上述の映像信号処理装置において、前記歪み補正処理部で歪み補正した映像信号を記憶する映像信号記憶手段をさらに備えることを特徴とする。   In addition, the above-described video signal processing devices further include video signal storage means for storing the video signal whose distortion has been corrected by the distortion correction processing unit.

さらに、これら上述の映像信号処理装置において、DV方式とは異なる方式の映像信号を入力するための入力端子と、前記入力端子から入力された映像信号をDV方式の映像信号に変換して前記入力映像信号処理部に出力する映像信号変換手段とをさらに備えることを特徴とする。   Further, in these video signal processing devices described above, an input terminal for inputting a video signal of a system different from the DV system, and a video signal input from the input terminal is converted into a video signal of the DV system and the input Video signal converting means for outputting to the video signal processing unit is further provided.

そして、上述の映像信号処理装置において、前記入力端子の方式に対応させた映像信号の画面サイズを記憶する画面サイズ記憶手段と、前記入力端子の方式に応じた画面サイズを前記画面サイズ記憶手段から取り出し、該取り出した画面サイズを前記入力映像処理手段に出力する画面サイズ選択手段とをさらに備えることを特徴とする。   In the above-described video signal processing apparatus, a screen size storage unit that stores a screen size of the video signal corresponding to the input terminal method, and a screen size that corresponds to the input terminal method from the screen size storage unit. The image processing apparatus further includes a screen size selection unit that extracts and outputs the extracted screen size to the input video processing unit.

また、本発明に係る他の一態様に係る、観察者に凹面を向けた任意曲率の投射面を有する該観察者の有効視野角以上に映像を表示可能な広視野角のスクリーンと、平面の表示面に対する入力映像信号に予め前記投射面に対する歪み補正を施して出力する映像信号処理装置と、該映像信号処理装置から出力された映像信号に基づいた映像を前記スクリーンへ投影する投影手段とを備える仮想現実感生成装置において、前記映像信号処理装置は、上述した何れかの映像信号処理装置であることを特徴とする。   Further, according to another aspect of the present invention, a wide viewing angle screen capable of displaying an image more than the effective viewing angle of the observer having a projection surface of an arbitrary curvature with a concave surface facing the observer, A video signal processing device that outputs an input video signal to a display surface after performing distortion correction on the projection surface in advance, and a projection unit that projects an image based on the video signal output from the video signal processing device onto the screen. In the virtual reality generation device provided, the video signal processing device is any one of the video signal processing devices described above.

さらに、本発明に係る他の一態様に係る、観察者に凹面を向けた球面状で鏡面反射可能な広視野角のスクリーンと、平面の表示面に対する入力映像信号に予め前記投射面に対する歪み補正を施して出力する左右各チャンネルにそれぞれ設けられた映像信号処理装置と、前記各映像信号処理装置を制御し前記左右各チャンネルの映像信号間の同期を確立する同期手段と、前記各映像信号処理装置からの映像信号を互いに直行する偏光の映像としてそれぞれ前記スクリーンへ投影する投影手段と、前記観察者が装着し、左右各眼にそれぞれ対応した偏光の映像を透過させて観察者に合成して認識させることで立体動画映像を表示する映像選択手段とを備える仮想現実感生成装置において、前記映像信号処理装置は、上述の何れかの映像信号処理装置であることを特徴とする。   Furthermore, according to another aspect of the present invention, a spherical, specularly reflective screen with a concave surface facing the observer, and distortion correction for the projection surface in advance for an input video signal for a flat display surface Video signal processing devices provided for each of the left and right channels to be output, and synchronizing means for controlling the video signal processing devices to establish synchronization between the video signals of the left and right channels, and the video signal processing The image signal from the apparatus is projected onto the screen as polarized images that are orthogonal to each other, and the observer wears and transmits the polarized images corresponding to the left and right eyes, respectively, and combines them with the observer. In a virtual reality generation device comprising a video selection means for displaying a stereoscopic video image by recognizing the video signal processing device, any one of the video signal processing devices described above is provided. And characterized in that.

そして、本発明に係る他の一態様に係る、投影手段から任意曲率の投射面に映像を投射するにあたって、平面の表示面に対する映像信号に予め前記投射面に対する歪み補正を施して前記投影手段へ与える映像信号処理方法は、入力された平面の表示面に対するDV方式の映像信号をフレームメモリに記憶する記憶ステップと、前記映像信号の画面サイズを入力することで該フレームメモリに記憶した前記映像信号の前記フレームメモリにおける先頭メモリアドレス及び使用メモリサイズを出力する出力ステップと、複数種類に亘る規定の投射面形状に関する関数式を予め有し、前記規定の投射面形状の何れか又はその組合せを選択し、変数パラメータを入力することで前記関数式に基づいて投射面のメッシュモデルを作成するモデル作成ステップと、観察者及び前記投影手段の前記投射面に対する位置関係に基づいて、前記平面の表示面と投射面のメッシュモデルとの対応マップを作成し、前記出力ステップで出力された先頭メモリアドレス及びメモリサイズに基づいて、平面の入力映像を前記対応マップを利用したテクスチャマッピング座標を適用して再度映像生成を行うことで、前記歪み補正を実現する歪み補正処理ステップとを備えることを特徴とする。   Then, when projecting an image from the projection unit to a projection surface having an arbitrary curvature according to another aspect of the present invention, the image signal for the flat display surface is subjected to distortion correction for the projection surface in advance and then applied to the projection unit. A video signal processing method to be applied includes: a storage step of storing a DV format video signal for an input flat display surface in a frame memory; and the video signal stored in the frame memory by inputting a screen size of the video signal. An output step for outputting the start memory address and the used memory size in the frame memory, and a function expression relating to a prescribed projection surface shape over a plurality of types, and selecting any one of the prescribed projection surface shapes or a combination thereof The model creation step for creating a mesh model of the projection plane based on the function formula by inputting the variable parameters. And a correspondence map between the display surface of the plane and the mesh model of the projection plane based on the positional relationship between the observer and the projection means with respect to the projection plane, and the top memory address output in the output step and A distortion correction processing step that realizes the distortion correction by performing image generation again by applying texture mapping coordinates using the correspondence map to a plane input image based on a memory size. .

このような構成の映像信号処理装置及び該方法並びに仮想現実感生成装置は、入力されたDV方式の映像信号をフレームメモリに記憶した際における先頭メモリアドレス及び使用メモリサイズを入力映像処理手段が歪み補正処理手段に通知するので、平面の入力映像における先頭の画素を記憶したメモリアドレスが分かるから、対応マップを利用したテクスチャマッピング座標を適用して再度映像生成を直ちに行うことができる。このため、入力映像信号から略リアルタイムで歪み補正を施した出力映像信号を生成することができる。   In the video signal processing apparatus, method and virtual reality generation apparatus configured as described above, the input video processing means distorts the leading memory address and the used memory size when the input DV video signal is stored in the frame memory. Since the correction processing means is notified, the memory address storing the first pixel in the plane input video is known, so that the video generation can be immediately performed again by applying the texture mapping coordinates using the correspondence map. Therefore, it is possible to generate an output video signal that has been subjected to distortion correction in substantially real time from the input video signal.

以下、本発明に係る実施形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、その説明を省略する。
(第1の実施形態)
図1は、第1の実施形態に係る映像信号処理装置を含む仮想現実感生成装置の全体構成を示す図である。この仮想現実感生成装置M1は、映像信号処理装置1に、任意曲面や複数の平面が組合わせられて成るスクリーン2と、スクリーン2に映像をそれぞれ投射するプロジェクタ3と、テレビジョン(TV)4−1、例えばDVDやビデオテープ等の記録媒体を再生する映像再生装置4−2、ビデオカメラ等の動画を撮影する撮影装置4−3及びゲーム機4−4等の映像信号源4と、映像信号処理装置1にスクリーン2の曲面形状やプロジェクタ3の投射位置や画面サイズ等の設定データを与える設定手段6とを備えて構成される。そして、映像信号処理装置1は、パーソナルコンピュータ等で構成される設定手段6で設定された設定データに基づいて、映像信号源4から入力される平面の表示面に対する映像信号を補正してプロジェクタ3へ出力することで、スクリーン2に歪みのない映像を略リアルタイムで表示させる。ここで、スクリーン2は、観察者に仮想現実感をより効果的に与える観点から、観察者の有効視野角以上に映像を表示可能な広視野角のスクリーンとしてもよい。
Embodiments according to the present invention will be described below with reference to the drawings. In addition, the structure which attached | subjected the same code | symbol in each figure shows that it is the same structure, The description is abbreviate | omitted.
(First embodiment)
FIG. 1 is a diagram illustrating an overall configuration of a virtual reality generation device including a video signal processing device according to the first embodiment. The virtual reality generation device M1 includes a video signal processing device 1, a screen 2 formed by combining an arbitrary curved surface or a plurality of planes, a projector 3 that projects video on the screen 2, and a television (TV) 4 respectively. −1, video signal source 4 such as a video playback device 4-2 that plays back a recording medium such as a DVD or a video tape, a video shooting device 4-3 that takes a video such as a video camera, and a game machine 4-4 The signal processing apparatus 1 includes a setting unit 6 that gives setting data such as the curved surface shape of the screen 2, the projection position of the projector 3, and the screen size. Then, the video signal processing apparatus 1 corrects the video signal with respect to the flat display surface input from the video signal source 4 based on the setting data set by the setting means 6 constituted by a personal computer or the like to correct the projector 3. Is output to the screen 2 in substantially real time. Here, the screen 2 may be a wide viewing angle screen capable of displaying an image that is larger than the effective viewing angle of the observer from the viewpoint of more effectively giving the observer virtual reality.

映像信号処理装置1は、ハードウェア部11と、それを動作させるソフトウェア部12とを備えて構成される。ハードウェア部11は、映像信号を入力するための入力端子13と、DV方式以外の信号方式の映像信号をDV方式の映像信号に変換する信号方式変換回路14と、映像信号を処理する映像信号処理回路15と、演算データ等を記憶するメモリ17と、プログラムや入出力の映像信号等を記憶するメモリ18と、歪み補正を行った映像信号を出力する出力端子19と、中央処理装置(CPU)を含み各部を制御するデジタルシグナルプロセッサ(DSP)16とを備えて構成される。   The video signal processing apparatus 1 includes a hardware unit 11 and a software unit 12 that operates the hardware unit 11. The hardware unit 11 includes an input terminal 13 for inputting a video signal, a signal system conversion circuit 14 for converting a video signal of a signal system other than the DV system into a DV video signal, and a video signal for processing the video signal. A processing circuit 15, a memory 17 for storing operation data, a memory 18 for storing programs and input / output video signals, an output terminal 19 for outputting video signals subjected to distortion correction, and a central processing unit (CPU) ) And a digital signal processor (DSP) 16 that controls each part.

映像信号は、周知のコンポジット方式のコンポジット信号、セパレート方式のセパレート信号、コンポーネント方式のコンポーネント信号及びDV(Digital Video)方式のDV信号等である。映像信号源4の各装置は、コンポジット信号、セパレート信号、コンポーネント信号及びDV信号のうちの1又は複数の信号方式による映像信号を出力する。入力端子13は、DV信号を入力するためのDV端子と、DV方式とは異なる信号方式の映像信号を入力するための端子とを備えて構成される。このDV方式とは異なる信号方式の映像信号を入力するための端子は、例えば、コンポジット信号を入力するためのコンポジット端子、セパレート信号を入力するためのS端子、コンポーネント信号を入力するためのコンポーネント端子である。信号方式変換回路14は、DV方式とは異なる信号方式の映像信号を入力するための端子の種類に応じて設けられ、例えば、周知のコンポジット信号をDV信号に変換するコンバータ回路や、周知のセパレート信号をDV信号に変換するコンバータ回路や、周知のコンポーネント信号をDV信号に変換するコンバータ回路である。設定手段6からの設定データは、USBケーブル等で入力される。   The video signal is a known composite-type composite signal, a separate-type separate signal, a component-type component signal, a DV (Digital Video) -type DV signal, or the like. Each device of the video signal source 4 outputs a video signal according to one or a plurality of signal methods among a composite signal, a separate signal, a component signal, and a DV signal. The input terminal 13 includes a DV terminal for inputting a DV signal and a terminal for inputting a video signal having a signal system different from the DV system. The terminal for inputting a video signal of a signal system different from the DV system is, for example, a composite terminal for inputting a composite signal, an S terminal for inputting a separate signal, and a component terminal for inputting a component signal It is. The signal system conversion circuit 14 is provided according to the type of terminal for inputting a video signal of a signal system different from the DV system. For example, a converter circuit that converts a known composite signal into a DV signal, or a known separate It is a converter circuit that converts a signal into a DV signal, or a converter circuit that converts a known component signal into a DV signal. Setting data from the setting means 6 is input via a USB cable or the like.

ソフトウェア部12は、後に詳述するように、スクリーン2のモデルを創造するスクリーンモデル創造部21と、プロジェクタ3のスクリーン2に対する配置位置の設定及びプロジェクタ3の画角の設定を行うプロジェクタ配置・セットアップ部22と、観察者のスクリーン2に対する位置の設定を行うユーザ位置設定部23と、歪み補正部25と、入力映像処理部26とを備えて構成される。入力映像処理部26は、まず、メモリ18に映像描画用メモリであるフレームメモリのメモリ領域を確保する。そして、入力端子13のDV端子からDV方式の映像信号が入力された場合には、入力映像処理部26は、圧縮されているDV方式の映像信号を圧縮手順とは逆手順によって伸長し、この伸長した1フレーム分の映像信号のデータをこのフレームメモリに、映像信号のデータの中央とフレームメモリの中央とが一致するように記憶する。あるいは、入力端子13のDV端子以外の端子から入力された場合には映像信号の信号方式をDV方式の映像信号に変換した後に、入力映像処理部26は、圧縮されているDV方式の映像信号を圧縮手順とは逆手順によって伸長し、この伸長した映像信号のデータをこのフレームメモリに、映像信号のデータの中央とフレームメモリの中央とが一致するように記憶する。DV方式の映像信号では、通常、逆ハフマン符号化等の逆可変長符号化を施し、逆線形量子化を施し、そして、逆DCT(Discrete Cosine Transform)等の逆直交変換を施して伸長される。そして、入力映像処理部26は、フレームメモリに記憶した映像信号のデータが使用しているメモリ領域における先頭メモリアドレス及び使用メモリサイズを歪み補正部25に通知する。この先頭メモリアドレス及び使用メモリサイズは、メモリ18にフレームメモリのメモリ領域を確保した際のフレームメモリの先頭メモリアドレス及び入力映像信号の画面サイズ(解像度)に基づいて、映像信号のデータの中央とフレームメモリの中央とが一致するように記憶することから算出することができる。画面サイズは、例えば、設定手段6から設定データの一つとして映像信号処理装置1に入力される。   The software unit 12, as will be described in detail later, a screen model creation unit 21 that creates a model of the screen 2, and a projector arrangement / setup for setting the arrangement position of the projector 3 with respect to the screen 2 and setting the angle of view of the projector 3. And a user position setting unit 23 for setting the position of the observer with respect to the screen 2, a distortion correction unit 25, and an input video processing unit 26. The input video processing unit 26 first secures a memory area of a frame memory that is a video drawing memory in the memory 18. When a DV video signal is input from the DV terminal of the input terminal 13, the input video processing unit 26 expands the compressed DV video signal by a procedure reverse to the compression procedure. The expanded video signal data for one frame is stored in this frame memory so that the center of the video signal data matches the center of the frame memory. Alternatively, when input from a terminal other than the DV terminal of the input terminal 13, the input video processing unit 26 converts the DV video signal into a DV video signal, and then the input video processing unit 26 compresses the DV video signal. Is decompressed by a procedure reverse to the compression procedure, and the decompressed video signal data is stored in the frame memory so that the center of the video signal data coincides with the center of the frame memory. A DV video signal is usually subjected to inverse variable length coding such as inverse Huffman coding, inverse linear quantization, and inverse orthogonal transform such as inverse DCT (Discrete Cosine Transform) to be expanded. . Then, the input video processing unit 26 notifies the distortion correction unit 25 of the leading memory address and the used memory size in the memory area used by the video signal data stored in the frame memory. The start memory address and the used memory size are determined based on the start memory address of the frame memory when the memory area of the frame memory is secured in the memory 18 and the screen size (resolution) of the input video signal. It can be calculated from the fact that it is stored so that it matches the center of the frame memory. The screen size is input to the video signal processing apparatus 1 as one of setting data from the setting unit 6, for example.

歪み補正部25は、入力映像処理部26にて平面の入力映像が画素に分解されたデータに、メモリ18に設定されたフレームメモリに記憶された入力映像信号の先頭メモリアドレス及び使用メモリサイズに基づいて、各部21〜23での処理結果に対応した歪み補正、具体的にはテクスチャマッピングを施し、歪処理映像を作成する。これらのソフトウェア部12による以下の処理は、デジタルシグナルプロセッサ(DSP)16によって制御される映像信号処理回路15を使用して行われる。   The distortion correction unit 25 converts the input image of the plane into pixels by the input image processing unit 26, and sets the start memory address and the used memory size of the input image signal stored in the frame memory set in the memory 18. Based on this, distortion correction corresponding to the processing results in the units 21 to 23, specifically, texture mapping is performed, and a distortion processed video is created. The following processing by the software unit 12 is performed using a video signal processing circuit 15 controlled by a digital signal processor (DSP) 16.

図2は、モデル作成手段であるスクリーンモデル創造部の機能ブロック図である。このスクリーンモデル創造部21は、前述のようにスクリーン2のメッシュモデルを創造するものであり、先ずスクリーンモデル創造部21には、基本的な3つのモデルが記憶されている。即ち、球形のみのモデル31と、円筒のみのモデル32と、混合モデル33とである。混合モデル33は、球形を主として他の平面または曲面を混合した球形混合モデル34と、円筒を主として他の平面または曲面を混合した円筒混合モデル35と、平面を主として他の平面または曲面を混合した平面混合モデル36とから構成されている。そして、各モデル31、32、34〜36の内容は、設定手段6に呼出すことができ、いずれか1つを設定手段6で設定し、さらに設定手段6から入力パラメータ31a、32a、34a〜36aを入力することで、実際のスクリーン2に適応したメッシュモデル31b、32b、34b〜36bを作成することができる。   FIG. 2 is a functional block diagram of the screen model creation unit, which is a model creation means. The screen model creation unit 21 creates a mesh model of the screen 2 as described above. First, the screen model creation unit 21 stores three basic models. That is, a spherical model 31, a cylindrical model 32, and a mixed model 33. The mixed model 33 includes a spherical mixed model 34 in which a sphere is mainly mixed with other planes or curved surfaces, a cylindrical mixed model 35 in which a cylinder is mainly mixed with other planes or curved surfaces, and a plane mainly mixed with other planes or curved surfaces. It is composed of a planar mixed model 36. The contents of each model 31, 32, 34 to 36 can be called to the setting means 6, one of which is set by the setting means 6, and the input parameters 31a, 32a, 34a to 36a are further set from the setting means 6. , Mesh models 31b, 32b, 34b to 36b adapted to the actual screen 2 can be created.

基本モデルと入力パラメータとしては、以下のとおりである。   The basic model and input parameters are as follows.

図3で示すように球面(真球の一部)の場合、入力パラメータとしては、球の半径Rと、球の中心から切断面までの距離Aとである。   As shown in FIG. 3, in the case of a spherical surface (a part of a true sphere), input parameters are a radius R of the sphere and a distance A from the center of the sphere to the cut surface.

ここで、球は、式1のように表される。
+y+z=R ・・・(式1)
ここで、A≦x≦R、−y1≦y≦y1、−z1≦z≦z1である。y1は、式1において、x=A、z=0を代入することによって求められ、z1は、式1において、x=A、y=0を代入することによって求められ、y1=z1となる。従って、上述のように球面の場合、入力パラメータとしては、球の半径Rと、球の中心から切断面までの距離Aとを入力すればよい。
Here, the sphere is expressed as Equation 1.
x 2 + y 2 + z 2 = R 2 (Formula 1)
Here, A ≦ x ≦ R, −y1 ≦ y ≦ y1, and −z1 ≦ z ≦ z1. y1 is obtained by substituting x = A and z = 0 in Equation 1, and z1 is obtained by substituting x = A and y = 0 in Equation 1, and y1 = z1. Therefore, in the case of a spherical surface as described above, the radius R of the sphere and the distance A from the center of the sphere to the cut surface may be input as input parameters.

また、図4で示すように、原点(x軸線)からy方向にBの位置で球面の一部を切り欠いた場合、スクリーン面は、図5(a)のようになり、Bが負の位置(図4のように下(−y方向))の場合、A≦x≦R、−B≦y≦y1、−z1≦z≦z1であり、y1は、式1において、x=A、z=0を代入することによって求められ、z1は、式1において、x=A、y=0を代入することによって求められ、x1は、式1において、y=−B、z=0を代入することによって求められる。従って、入力パラメータとしては、球の半径Rと、球の中心から切断面までの距離Aと、原点から切り欠く位置までの距離Bとを入力すればよい。   As shown in FIG. 4, when a part of the spherical surface is cut out at the position B from the origin (x axis) in the y direction, the screen surface is as shown in FIG. 5A, and B is negative. In the case of the position (down (−y direction) as shown in FIG. 4), A ≦ x ≦ R, −B ≦ y ≦ y1, −z1 ≦ z ≦ z1, and y1 in Equation 1 is x = A, z is obtained by substituting z = 0, and z1 is obtained by substituting x = A and y = 0 in Equation 1, and x1 is obtained by substituting y = −B and z = 0 in Equation 1. It is required by doing. Therefore, as the input parameters, the radius R of the sphere, the distance A from the center of the sphere to the cut surface, and the distance B from the origin to the notch position may be input.

同様に、上、右、左で切断した場合は、それぞれ図5(b)、図5(c)、図5(d)のようなスクリーンになり、式1は、以下のようになる。図5(b)で示すように上にBの高さで切断した場合、A≦x≦R、−y1≦y≦B、−z1≦z≦z1である。図5(c)で示すように右にBの距離で切断した場合、A≦x≦R、−y1≦y≦y1、−z1≦z≦Bである。図5(d)で示すように左にBの距離で切断した場合、A≦x≦R、−y1≦y≦y1、−B≦z≦z1である。入力パラメータを増やせば、2箇所以上の切断位置の組合せも可能である。   Similarly, when the top, right, and left are cut, the screens are as shown in FIGS. 5B, 5C, and 5D, respectively, and Equation 1 is as follows. As shown in FIG. 5 (b), when cutting at the height of B, A ≦ x ≦ R, −y1 ≦ y ≦ B, and −z1 ≦ z ≦ z1. As shown in FIG. 5C, when cutting to the right at a distance of B, A ≦ x ≦ R, −y1 ≦ y ≦ y1, and −z1 ≦ z ≦ B. As shown in FIG. 5D, when cut at a distance B to the left, A ≦ x ≦ R, −y1 ≦ y ≦ y1, and −B ≦ z ≦ z1. If the input parameters are increased, it is possible to combine two or more cutting positions.

一方、図6は、円筒を切断したアーチ面を示し、この場合、入力パラメータとしては、アーチの半径Rと、円の中心から切断面までの距離Aと、アーチの高さHとである。   On the other hand, FIG. 6 shows an arch surface obtained by cutting a cylinder. In this case, the input parameters are the radius R of the arch, the distance A from the center of the circle to the cut surface, and the height H of the arch.

ここで、円は、式2のように表される。
+z=R ・・・(式2)
ここで、A≦x≦R、0<y≦H、−z1≦z≦z1の制限を加えることで、アーチの表面の式となる。z1は、式2において、x=Aを代入することによって求められる。
Here, the circle is expressed as Equation 2.
x 2 + z 2 = R 2 (Formula 2)
Here, by adding restrictions of A ≦ x ≦ R, 0 <y ≦ H, and −z1 ≦ z ≦ z1, the equation of the surface of the arch is obtained. z1 is obtained by substituting x = A in Equation 2.

さらにまた、図7(a)は、複数平面(長方形の面が複数存在)から成る場合を示し、この場合、入力パラメータとしては、図7(b)で示すような上面から見たときの面の配置と、面の高さHとである。図7(b)の場合、
z=−x+1(0≦x<1) ・・・(式3−1)
z=0(1≦x<3) ・・・(式3−2)
z=x−3(3≦x≦4) ・・・(式3−3)
0<y≦H ・・・(式3−4)
である。
Further, FIG. 7A shows a case where a plurality of planes (a plurality of rectangular surfaces exist), and in this case, as an input parameter, a plane viewed from the top as shown in FIG. 7B. And the height H of the surface. In the case of FIG.
z = −x + 1 (0 ≦ x <1) (Formula 3-1)
z = 0 (1 ≦ x <3) (Formula 3-2)
z = x−3 (3 ≦ x ≦ 4) (Formula 3-3)
0 <y ≦ H (Formula 3-4)
It is.

また、複数同じ大きさの球面を真横に並べたスクリーンの場合には、入力パラメータとしては、図3または図4、5で示す例と同様に、半径Rと、切断面までの距離Aと、切り欠く位置までの距離Bと、個数とを入力すればよい。即ち、例えば、上下に2つの球面スクリーンを並べる場合、図5(a)と図5(b)とを組合わせることで実現することができ、同様に左右に2つの球面スクリーンを並べる場合、図5(c)と図5(d)とを組合わせることで実現することができ、入力パラメータとしては、前述のように、半径Rと、切断面までの距離Aと、切り欠く位置までの距離Bと、個数とを入力すればよいことが理解される。   Further, in the case of a screen in which a plurality of spherical surfaces of the same size are arranged side by side, as input parameters, as in the example shown in FIG. 3 or FIGS. 4 and 5, the radius R, the distance A to the cut surface, What is necessary is just to input the distance B to the notch position, and the number. That is, for example, when arranging two spherical screens on the top and bottom, it can be realized by combining FIG. 5A and FIG. 5B, and when arranging two spherical screens on the left and right in the same way, FIG. 5 (c) and FIG. 5 (d) can be realized. As described above, the input parameters include the radius R, the distance A to the cut surface, and the distance to the notch position. It will be understood that B and the number may be entered.

複数の円筒面のスクリーンの場合には、上面から見た配置図に、面の高さHと、各スクリーンの半径R及び距離Aと、個数とを入力すればよい。このようにして、スクリーン面の関数式が求まるので、x、y、zに適当な値を代入することで、或る一定個数以上のスクリーン上の点をサンプリング点として記録することで、スクリーン形状を特定することができる。各スクリーン面の関数式は、スクリーンモデル創造部21において、予め各モデル31、32、34〜36内に格納されており、設定手段6によって呼出すことができる。そして、入力パラメータ31a、32a、34a〜36aとして上記のパラメータを入力するだけで、実際のスクリーン2に適応したメッシュモデル31b、32b、34b〜36bを作成することができる。   In the case of a plurality of screens having a cylindrical surface, the height H of the surface, the radius R and the distance A of each screen, and the number of the screens may be input in the layout viewed from above. In this way, the function expression of the screen surface is obtained. By substituting appropriate values for x, y, and z, a certain number or more of the points on the screen are recorded as sampling points. Can be specified. The function formula of each screen surface is stored in advance in each model 31, 32, 34 to 36 in the screen model creation unit 21, and can be called by the setting means 6. And mesh model 31b, 32b, 34b-36b which adapted to the actual screen 2 can be produced only by inputting said parameter as input parameter 31a, 32a, 34a-36a.

なお、上記のようなスクリーン面上のサンプリング点は、x軸周り、y軸周り、z軸周りに回転可能(傾いたスクリーンを定義可能)である。   The sampling points on the screen surface as described above can be rotated around the x axis, the y axis, and the z axis (an inclined screen can be defined).

即ち、x軸周りのα度の回転は、式4で表すことができる。   That is, the rotation of α degrees around the x axis can be expressed by Equation 4.

Figure 0003992045
Figure 0003992045

また、y軸周りのβ度の回転は、式5で表すことができる。   Further, the rotation of β degrees around the y-axis can be expressed by Equation 5.

Figure 0003992045
Figure 0003992045

さらにまた、z軸周りのγ度の回転は、式6で表すことができる。   Furthermore, the rotation of γ degrees around the z-axis can be expressed by Equation 6.

Figure 0003992045
Figure 0003992045

このようにして得たスクリーン面上のサンプリング点に、入力映像処理部26からの平面入力映像の各サンプリング点を、歪補正手段である歪み補正部25においてメッシュファイルを用いてマッピングすることで歪み補正を行うことができ、入力映像信号の各画素データを、メッシュファイル上の対応する画素に割り付けてゆくことで、歪み補正された映像信号を作成することができる。略リアルタイムで入力映像信号から出力映像信号を生成するためには、入力映像信号の各画素データを、メッシュファイル上の対応する画素に割り付けてゆく際に、入力映像信号がメモリ18の何れに記憶されているか知る必要があるが、これは、上述したように、入力映像処理部26から歪み補正部25に入力映像信号の先頭メモリアドレス及び使用メモリサイズが通知されている。メッシュファイルは、使用するスクリーン2が決定し、各パラメータを入力し、一旦作成してしまえば、パラメータ等の変更がない限り変化はなく、ハードウェア部11のメモリ17に格納され、映像再生中は、メモリ18に設定されたフレームメモリに記憶された入力映像信号の先頭メモリアドレス及び使用メモリサイズに基づいて、入力映像信号と出力映像信号との対応画素の読替えに使用されるだけであり、大きな負担にはならない。   Distortion is achieved by mapping each sampling point of the plane input video from the input video processing unit 26 to the sampling points on the screen surface obtained in this way using a mesh file in the distortion correction unit 25 as distortion correction means. Correction can be performed, and by assigning each pixel data of the input video signal to a corresponding pixel on the mesh file, a distortion-corrected video signal can be created. In order to generate the output video signal from the input video signal in substantially real time, the input video signal is stored in any of the memories 18 when each pixel data of the input video signal is allocated to the corresponding pixel on the mesh file. However, as described above, the input video processing unit 26 notifies the distortion correction unit 25 of the leading memory address and the used memory size of the input video signal. The mesh file is determined by the screen 2 to be used, inputs each parameter, and once created, there is no change unless the parameter is changed, and the mesh file is stored in the memory 17 of the hardware unit 11 and is being played back. Is used only to replace the corresponding pixels of the input video signal and the output video signal based on the leading memory address and the used memory size of the input video signal stored in the frame memory set in the memory 18, It will not be a big burden.

以上図3〜図7を用いた説明は、図8で示すようなスクリーン2の形状に対する補正方法を説明するものである。即ち、平面の表示装置に対する映像信号を、そのまま球形のスクリーン2に投射すると、図8(a)に示すように歪んだ映像になり、このため球形のスクリーン2に表示したときに歪みが無くなるように、図8(b)に示すように予め映像を歪ませるものである。しかしながら、プロジェクタ3のスクリーン2に対する配置位置の違い及び観察者のスクリーン2に対する位置の違い等から、さらなる補正が必要になる。従って、上述のようにして求めたメッシュファイルには、さらにそのような補正が施され、実際の映像信号の読替えに使用される。以下に、球面スクリーンに対するプロジェクタ及び観察者の位置の違いに対する補正方法について詳しく説明する。この処理は、プロジェクタ配置・セットアップ部22及びユーザ位置設定部23からの入力に応答して、歪み補正部25によって行われる。   The above description with reference to FIGS. 3 to 7 describes a correction method for the shape of the screen 2 as shown in FIG. That is, when a video signal for a flat display device is projected onto the spherical screen 2 as it is, a distorted image is obtained as shown in FIG. Further, as shown in FIG. 8B, the video is distorted in advance. However, further correction is required due to the difference in the arrangement position of the projector 3 with respect to the screen 2 and the difference in the position of the observer with respect to the screen 2. Therefore, the mesh file obtained as described above is further subjected to such correction and used for the replacement of the actual video signal. Hereinafter, a correction method for the difference in the positions of the projector and the viewer with respect to the spherical screen will be described in detail. This process is performed by the distortion correction unit 25 in response to inputs from the projector arrangement / setup unit 22 and the user position setting unit 23.

図9は、上述のような球面補正に、プロジェクタ3及び観察者の位置補正を含めた歪み補正の手法を説明するための図である。これらの補正は、プロジェクタ配置・セットアップ部22及び位置設定部23からの入力に応答して、歪み補正部25によって行われる。   FIG. 9 is a diagram for explaining a distortion correction method including the position correction of the projector 3 and the observer in addition to the spherical correction as described above. These corrections are performed by the distortion correction unit 25 in response to inputs from the projector arrangement / setup unit 22 and the position setting unit 23.

まず、補正にあたって、図9に示すように、観察者51の視点位置よりビューフラスタム及びプロジェクタ3の投影位置より映像投影フラスタムを定義する。ビューフラスタムは、視点位置としての頂点をP、底面をP0,0、Pm,0、Pm,n、P0,nとする四角錐で表現され、投影フラスタムは、プロジェクタバックフォーカス位置としての頂点をQ、底面をQ0,0、Qm,0、Qm,n、Q0,nとして表現される。ここで、m,nは映像解像度を表すものとし、映像信号が、たとえばSXGAの場合は、m=1279、n=1023である。底面は、仮想スクリーン面とも呼ばれる。 First, in the correction, as shown in FIG. 9, a view frustum is defined from the viewpoint position of the observer 51 and a video projection frustum from the projection position of the projector 3. The view frustum is expressed by a quadrangular pyramid with the vertex as the viewpoint position P 0 and the bottom face P 0,0 , P m, 0 , P m, n , P 0, n, and the projection frustum is the projector back focus The vertex as a position is expressed as Q 0 , and the bottom is expressed as Q 0,0 , Q m, 0 , Q m, n , Q 0, n . Here, m and n represent video resolutions. When the video signal is, for example, SXGA, m = 1279 and n = 11023. The bottom surface is also called a virtual screen surface.

ここで、簡易表現のため、m=iにおけるy−z二次元断面から見たイメージを図10に示す。まず、仮想スクリーン面2a内に点Pi,jを想定し、ベクトルPi,jとドームスクリーン2(メッシュモデル31b,32b,34b〜36b)との交点Ri,jを求める。次に、ベクトルQi,jと投影フラスタムの仮想スクリーン面2bとの交点Qi,jを求める。i,jを、0≦i≦m,0≦j≦nで変化してゆくと、Pi,j→Qi,j対応マップを作成することができ、この対応マップが映像の歪みに対する逆補正となる。 Here, for simple expression, an image viewed from a yz two-dimensional section at m = i is shown in FIG. First, assuming a point P i, j in the virtual screen surface 2a, an intersection R i, j between the vector P 0 P i, j and the dome screen 2 (mesh models 31b, 32b, 34b to 36b) is obtained. Next, an intersection point Q i, j between the vector Q 0 R i, j and the virtual screen surface 2b of the projection frustum is obtained. If i, j is changed as 0 ≦ i ≦ m and 0 ≦ j ≦ n, a P i, j → Q i, j correspondence map can be created, and this correspondence map is the reverse of image distortion. It becomes correction.

即ち、まずビューフラスタムに基づいて通常の映像生成を行い、次にこの映像データを取出し、このイメージにPi,j→Qi,j対応マップを利用したテクスチャマッピング座標を適用して再度映像生成を行うことで、映像歪み補正を実現している。グリッド映像にPi,j→Qi,j対応マップを適用したイメージを図11に示す(すなわち図8(b)とは逆になる)。本歪み補正手法は、スクリーン2の形状を制限しない。従って、上述のようにして求めた球面のメッシュモデル31bだけでなく、他のメッシュモデル32b、34b〜36b等へも適用可能である。 That is, first, normal video generation is performed based on the view frustum, then this video data is taken out, and the image is applied again by applying texture mapping coordinates using the P i, j → Q i, j correspondence map to this image. By performing the generation, the video distortion correction is realized. An image obtained by applying the P i, j → Q i, j correspondence map to the grid video is shown in FIG. 11 (that is, reverse to FIG. 8B). This distortion correction method does not limit the shape of the screen 2. Therefore, the present invention can be applied not only to the spherical mesh model 31b obtained as described above but also to other mesh models 32b, 34b to 36b, and the like.

映像信号処理装置1の歪み補正部25において、このような補正を行うことで、平面の表示面に対するDV方式の入力映像信号を逐次歪み処理してプロジェクタ3に与えることができ、略リアルタイムでDV方式の入力映像信号から出力映像信号を生成し、任意曲率のスクリーン2には歪みのない映像を表示することができる。   By performing such correction in the distortion correction unit 25 of the video signal processing apparatus 1, it is possible to sequentially distort the DV input video signal for the flat display surface and apply it to the projector 3. An output video signal is generated from the input video signal of the system, and an image without distortion can be displayed on the screen 2 having an arbitrary curvature.

なお、上述の実施形態では、入力映像信号の画面サイズは、設定手段6から映像信号処理装置1に入力したが、入力端子13の各端子に対応付けて画面サイズを予めメモリ18に記憶しておき、入力映像処理部26が画面サイズ選択手段としても動作し、入力映像処理部26が入力映像信号の入力された端子を検出して対応する画面サイズをメモリ18から検索し、先頭メモリアドレス及び使用メモリサイズの算出に使用するように構成してもよい。   In the above-described embodiment, the screen size of the input video signal is input from the setting unit 6 to the video signal processing device 1. However, the screen size is stored in advance in the memory 18 in association with each terminal of the input terminal 13. The input video processing unit 26 also operates as a screen size selection unit, and the input video processing unit 26 detects the terminal to which the input video signal is input and searches the memory 18 for the corresponding screen size. You may comprise so that it may be used for calculation of a use memory size.

また、上述の実施形態において、入力端子13の各端子から入力される映像信号を所定の時間間隔で順に又はランダムに切り換え、映像信号処理装置1で歪み補正処理等を行って、プロジェクタ3からスクリーン2へ投射するように構成してもよい。このように構成することによって様々なシーンの映像をスクリーン2に投射することができる。   In the above-described embodiment, the video signal input from each terminal of the input terminal 13 is switched sequentially or randomly at predetermined time intervals, and the video signal processing apparatus 1 performs distortion correction processing and the like, and the projector 3 You may comprise so that it may project to 2. By configuring in this way, images of various scenes can be projected on the screen 2.

次に、別の実施形態について説明する。
(第2の実施形態)
図12は、第2の実施形態に係る映像信号処理装置を含む仮想現実感生成装置の構成を示すブロック図である。この仮想現実感生成装置M2は、人間の両眼視差に対応した間隔だけ水平方向に離間して配置され時刻を同時刻に合わせられた左右それぞれの汎用の撮影装置(例えばビデオカメラ等)111、121を使用して作成された左右両チャネルのDV方式の映像信号から上述のように本発明に係るスクリーン面に対する歪み補正を施し、同期を取って左右各チャネルのプロジェクタ102、103から相互に直交する偏光面の映像で投影することで、仮想現実感映像を生成する。観察者は、左右各チャネルの映像を左右の目でそれぞれ認識するように、左右それぞれの偏光面に対応した映像のみを透過させる専用の眼鏡をかけてスクリーンを見る。そして、スクリーンには、偏光をそのまま反射可能な、シルバースクリーン等の鏡面反射スクリーンが用いられる。また、このスクリーンは、観察者に仮想現実感をより効果的に与える観点から、観察者の有効視野角以上に映像を表示可能な広視野角のスクリーンとしてもよい。
Next, another embodiment will be described.
(Second Embodiment)
FIG. 12 is a block diagram illustrating a configuration of a virtual reality generation device including a video signal processing device according to the second embodiment. This virtual reality generation device M2 is arranged in a horizontal direction by an interval corresponding to human binocular parallax, and left and right general-purpose photographing devices (for example, video cameras) 111 whose time is adjusted to the same time, As described above, distortion correction is performed on the screen surface according to the present invention from the left and right channel DV video signals created using the 121, and the right and left channel projectors 102 and 103 are orthogonal to each other in synchronization. A virtual reality image is generated by projecting the image of the polarization plane. The observer looks at the screen with dedicated glasses that transmit only the images corresponding to the left and right polarization planes, so that the left and right eyes recognize the images of the left and right channels, respectively. The screen is a specular reflection screen such as a silver screen that can reflect polarized light as it is. In addition, this screen may be a wide viewing angle screen capable of displaying an image that is larger than the effective viewing angle of the observer from the viewpoint of more effectively giving the observer a virtual reality.

これら撮影装置111、121で得られたDV方式の映像信号は、DV端子112、122を介して上述の映像信号処理装置1と略同様に構成される入力映像処理部113、123で上述と略同様に処理され、歪み補正部114、124に出力される。上述の映像信号処理装置1と略同様に構成される歪み補正部114、124では、スクリーンの球面形状によって生じる歪みに対する歪み補正及びプロジェクタ102、103の球の中心軸上からのオフセット(初期偏差)によって生じる歪みに対する設置位置補正が行われる。   The DV video signals obtained by the photographing apparatuses 111 and 121 are input to the input video processing units 113 and 123, which are configured in substantially the same manner as the video signal processing apparatus 1 via the DV terminals 112 and 122, respectively. The same processing is performed and output to the distortion correction units 114 and 124. In the distortion correction units 114 and 124 configured substantially in the same manner as the video signal processing apparatus 1 described above, distortion correction for distortion caused by the spherical shape of the screen and offset (initial deviation) from the center axis of the sphere of the projectors 102 and 103. The installation position is corrected for the distortion caused by.

歪み補正部114、124から出力された映像信号は、切換えスイッチ116、126を介して、それぞれ2つずつ設けられるフレームメモリ117、118;127、128の一方に書込まれ、そのフレームメモリ117、118;127、128の他方からは、切換えスイッチ119、129及び出力端子120、130を介して映像信号が読出され、プロジェクタ102、103に与えられ、投射が行われる。   The video signals output from the distortion correction units 114 and 124 are written to one of two frame memories 117 and 118; 127 and 128, respectively, via the changeover switches 116 and 126, and the frame memories 117, A video signal is read from the other of 118; 127, 128 via the changeover switches 119, 129 and the output terminals 120, 130, and is supplied to the projectors 102, 103 for projection.

第2の実施形態における入力映像処理部113、123は、さらに、伸長しフレームメモリに記憶した映像信号のタイムコード(タイムスタンプ)を歪み補正部114、124に通知し、第2の実施形態における歪み補正部114、124は、さらに、歪み補正を施してフレームメモリ117、118;127、128に書き込んだ描画待ちのフレームのタイムコードを同期管理部115、125に通知する。タイムコードは、周知のように、DV方式の映像信号に含まれている。   The input video processing units 113 and 123 in the second embodiment further notify the distortion correction units 114 and 124 of the time code (time stamp) of the video signal that has been decompressed and stored in the frame memory, and in the second embodiment. Further, the distortion correction units 114 and 124 notify the synchronization management units 115 and 125 of the time codes of the frames waiting to be drawn that have been subjected to distortion correction and written in the frame memories 117 and 118; 127 and 128. As is well known, the time code is included in a DV video signal.

映像作成手段107、108は、例えば、パーソナルコンピュータから成り、入力映像処理部113、123、歪補正部114、124及び同期管理部115、125は、そのパーソナルコンピュータに格納されたソフトウェア及びそれを実行するハードウェアによって構成される。即ち、映像信号処理用のソフトウェアとして、入力映像処理部113、123には入力映像処理プロセスを有し、歪み補正部114、124には映像歪み補正プロセスを有する。また、入力映像処理部113、123及び切換えスイッチ116、126;119、129の同期を管理する同期管理部115、125は、同期管理プロセスを有する。   The video creation means 107 and 108 are composed of, for example, a personal computer, and the input video processing units 113 and 123, the distortion correction units 114 and 124, and the synchronization management units 115 and 125 execute software stored in the personal computer and the software. Configured by hardware. That is, as video signal processing software, the input video processing units 113 and 123 have an input video processing process, and the distortion correction units 114 and 124 have a video distortion correction process. Also, the synchronization management units 115 and 125 that manage the synchronization of the input video processing units 113 and 123 and the changeover switches 116 and 126; 119 and 129 have a synchronization management process.

ここで、映像作成手段107、108はスレーブとなり、マスターとなる同期手段109が設けられる。この同期手段109もパーソナルコンピュータから成り、映像作成手段107、108とは、ネットワークによって相互に接続されている。同期手段109は、映像作成手段107、108の同期管理部115、125から通知されたタイムコードを利用して同期管理部115、125を介して後述するように切換えスイッチ116、126;119、129のスイッチング等を制御することによって映像作成手段107、108からの映像信号間の同期を確立する同期管理部136を備える。同期管理部136には同期管理プロセスを有する。映像作成手段107、108が実行する同期管理プロセス、入力映像処理プロセス及び映像補正プロセス、並びに、同期手段109が実行する同期管理プロセスについては、以下に詳細に説明する。   Here, the video creation means 107 and 108 are slaves, and a synchronization means 109 is provided as a master. The synchronization means 109 is also composed of a personal computer, and the video creation means 107 and 108 are mutually connected by a network. The synchronization unit 109 uses the time code notified from the synchronization management units 115 and 125 of the video creation units 107 and 108 to change the switches 116 and 126; 119 and 129 as will be described later via the synchronization management units 115 and 125. A synchronization management unit 136 that establishes synchronization between the video signals from the video creation means 107 and 108 by controlling the switching of the video. The synchronization management unit 136 has a synchronization management process. The synchronization management process, the input video processing process and the video correction process executed by the video creation means 107 and 108, and the synchronization management process executed by the synchronization means 109 will be described in detail below.

映像作成手段107、108における入力端子112、122、入力映像処理部113、123、歪み補正部114、124、同期管理部115、125、切換えスイッチ116、119;126、129、フレームメモリ117、118;127、128及び出力端子120、130、並びに、同期手段109における同期管理部136は、例えばパーソナルコンピュータのPCIスロットに装着されるボード等の形態で実現することができる。または、映像作成手段107、108は、上述のような機能を実現する映像歪み補正用の専用ユニットとして構成され、撮影装置111、121と、プロジェクタ102、103との間に挿入され、さらにそれらに合わせて、同期手段109となる同期ユニットが設けられてもよい。   Input terminals 112 and 122, input video processing units 113 and 123, distortion correction units 114 and 124, synchronization management units 115 and 125, changeover switches 116 and 119; 126 and 129, and frame memories 117 and 118. And 127 and 128, the output terminals 120 and 130, and the synchronization management unit 136 in the synchronization means 109 can be realized in the form of a board or the like mounted in a PCI slot of a personal computer, for example. Alternatively, the video creation means 107 and 108 are configured as dedicated units for video distortion correction that realize the functions described above, and are inserted between the imaging devices 111 and 121 and the projectors 102 and 103, and further to them. In addition, a synchronization unit serving as the synchronization unit 109 may be provided.

図13は、上述のように構成される仮想現実感生成装置における左右の映像信号間の同期確立動作を説明するためのフローチャートである。図13(A)は、映像作成手段107の同期管理プロセスの動作を示すフローチャートであり、図13(B)は、同期手段109の同期管理プロセスの動作を示すフローチャートであり、図13(C)は、映像作成手段108の同期管理プロセスの動作を示すフローチャートである。本仮想現実感生成装置M2を実現する主要なソフトウェアは、同期管理プロセス、入力映像処理プロセス及び映像歪み補正プロセスから構成される。同期管理プロセス、入力映像処理プロセスは、映像作成手段107、108において、それぞれ一連のプロセスで連携しながら動作する。スレーブパソコンであるこれらの映像作成手段107、108は、2つにとどまらず、マルチスクリーン対応等でさらに拡張することが可能である。そして各プロセスは、ネットワークを利用して通信を行う。図12では、同期管理プロセスによる動作を破線で示す。   FIG. 13 is a flowchart for explaining the operation of establishing synchronization between the left and right video signals in the virtual reality generating apparatus configured as described above. FIG. 13A is a flowchart showing the operation of the synchronization management process of the video creation means 107, and FIG. 13B is a flowchart showing the operation of the synchronization management process of the synchronization means 109. FIG. These are flowcharts showing the operation of the synchronization management process of the video creation means 108. The main software that realizes the virtual reality generation apparatus M2 includes a synchronization management process, an input video processing process, and a video distortion correction process. The synchronization management process and the input video processing process operate in cooperation with each other in a series of processes in the video creation means 107 and 108. These video creation means 107 and 108, which are slave personal computers, are not limited to two, and can be further expanded to support multiple screens. Each process communicates using a network. In FIG. 12, the operation | movement by a synchronous management process is shown with a broken line.

同期手段109では、同期プロセスを実行し、描画待ちフレームのタイムコードの受信を待つ(S101)。   The synchronization unit 109 executes a synchronization process and waits for reception of a time code of a drawing wait frame (S101).

映像作成手段107、108では、入力映像処理プロセス、映像歪み補正プロセス及び同期管理プロセスを実行する。映像作成手段107の同期管理プロセスによって指示されると、映像作成手段107の入力映像処理プロセスは、撮影装置111、121から1フレーム分の映像信号を受信し、受信した映像信号を伸長して一方のフレームメモリ、例えばフレームメモリ117に記憶し、先頭メモリアドレス、使用メモリサイズ及びタイムコード等を映像歪み補正プロセスに通知する。そして、この通知を受けると、映像作成手段107の映像歪み補正プロセスは、フレームメモリ117の映像信号に上述した歪み補正を施してフレームメモリ117に記憶し、この描画待ちフレームのタイムコードを同期管理プロセスに通知する。この通知を受けると、映像作成手段107の同期管理プロセスは、この描画待ちフレームのタイムコードを同期手段109の同期管理プロセスに通知し(S201)、スワップ同期メッセージの受信待ちを行う(S202)。   The video creation means 107 and 108 execute an input video processing process, a video distortion correction process, and a synchronization management process. When instructed by the synchronization management process of the video creation means 107, the input video processing process of the video creation means 107 receives a video signal for one frame from the photographing devices 111 and 121, and expands the received video signal while Is stored in the frame memory, for example, the frame memory 117, and the start memory address, the used memory size, the time code, and the like are notified to the video distortion correction process. Upon receiving this notification, the video distortion correction process of the video creation means 107 performs the above-described distortion correction on the video signal in the frame memory 117 and stores it in the frame memory 117, and synchronously manages the time code of this drawing waiting frame. Notify the process. Upon receiving this notification, the synchronization management process of the video creation unit 107 notifies the time code of the drawing waiting frame to the synchronization management process of the synchronization unit 109 (S201), and waits for the reception of the swap synchronization message (S202).

この通知を受けると、同期手段109の同期管理プロセスは、映像作成手段108の同期管理プロセスから描画待ちフレームのタイムコードを受信している場合には、この受信している映像作成手段108の同期管理プロセスから受信した描画待ちフレームのタイムコードと、映像作成手段107の同期管理プロセスから受信した描画待ちフレームのタイムコードとを比較し、一致するか否かを判断する(S102)。判断の結果、一致しない場合(No)には、同期手段109の同期管理プロセスは、処理を処理S101に戻す。   Upon receiving this notification, if the synchronization management process of the synchronization means 109 has received the time code of the drawing waiting frame from the synchronization management process of the video creation means 108, the synchronization of the received video creation means 108 is received. The time code of the drawing wait frame received from the management process is compared with the time code of the drawing wait frame received from the synchronization management process of the video creation means 107, and it is determined whether or not they match (S102). As a result of the determination, if they do not match (No), the synchronization management process of the synchronization means 109 returns the process to step S101.

一方、同様に、映像作成手段108の同期管理プロセスによって指示されると、映像作成手段108の入力映像処理プロセスは、撮影装置121から1フレーム分の映像信号を受信し、受信した映像信号を伸長して一方のフレームメモリ、例えばフレームメモリ127に記憶し、先頭メモリアドレス、使用メモリサイズ及びタイムコード等を映像歪み補正プロセスに通知する。そして、この通知を受けると、映像作成手段108の映像歪み補正プロセスは、フレームメモリ127の映像信号に上述した歪み補正を施してフレームメモリ127に記憶し、この描画待ちフレームのタイムコードを同期管理プロセスに通知する。この通知を受けると、映像作成手段108の同期管理プロセスは、この描画待ちフレームのタイムコードを同期手段109の同期管理プロセスに通知し(S301)、スワップ同期メッセージの受信待ちを行う(S302)。   On the other hand, similarly, when instructed by the synchronization management process of the video creation means 108, the input video processing process of the video creation means 108 receives a video signal for one frame from the photographing device 121 and decompresses the received video signal. Then, the data is stored in one frame memory, for example, the frame memory 127, and the head memory address, the used memory size, the time code, and the like are notified to the video distortion correction process. Upon receiving this notification, the video distortion correction process of the video creation means 108 performs the above-described distortion correction on the video signal in the frame memory 127 and stores it in the frame memory 127, and synchronously manages the time code of this drawing waiting frame. Notify the process. Upon receiving this notification, the synchronization management process of the video creation unit 108 notifies the time code of the drawing waiting frame to the synchronization management process of the synchronization unit 109 (S301), and waits to receive a swap synchronization message (S302).

この通知を受けると、同期手段109の同期管理プロセスは、映像作成手段107の同期管理プロセスから描画待ちフレームのタイムコードを受信している場合には、この受信している映像作成手段107の同期管理プロセスから受信した描画待ちフレームのタイムコードと、映像作成手段108の同期管理プロセスから受信した描画待ちフレームのタイムコードとを比較し、一致するか否かを判断する(S102)。判断の結果、一致する場合(Yes)には、同期手段109の同期管理プロセスは、2つのフレームメモリ117、118;127、128の切換えを行う切換えスイッチ116、126;119、129の切換え指令であるスワップ同期メッセージを映像作成手段107、108の同期管理プロセスにそれぞれ通知し、受信した両タイムコードを破棄する(S103)。   Upon receiving this notification, when the synchronization management process of the synchronization means 109 receives the time code of the drawing waiting frame from the synchronization management process of the video creation means 107, the synchronization of the received video creation means 107 is received. The time code of the drawing wait frame received from the management process is compared with the time code of the drawing wait frame received from the synchronization management process of the video creation means 108, and it is determined whether or not they match (S102). If the result of the determination is that they match (Yes), the synchronization management process of the synchronization means 109 is performed by a changeover command of the changeover switches 116, 126; 119, 129 for switching between the two frame memories 117, 118; A swap synchronization message is notified to the synchronization management process of the video creation means 107 and 108, and both received time codes are discarded (S103).

この通知を受信すると、映像作成手段107、108の同期管理プロセスは、切換えスイッチ116、126;119、129の切換えることによってフレームメモリ117、118;127、128のスワップを行う(S203、S303)。即ち、映像作成手段107の同期管理プロセスは、切換えスイッチ116、119を切換える。例えば、歪み補正部114がフレームメモリ117の映像信号に歪み補正を施すように切換えスイッチ116を切り換えていると共に、プロジェクタ102がフレームメモリ118の映像信号を読み込むように切換えスイッチ119を切り換えている場合には、歪み補正部114がフレームメモリ118の映像信号に歪み補正を施すように切換えスイッチ116を切り換えると共に、プロジェクタ102がフレームメモリ117の映像信号を読み込むように切換えスイッチ119を切り換える。そして、歪み補正部124がフレームメモリ127の映像信号に歪み補正を施すように切換えスイッチ126を切り換えていると共に、プロジェクタ103がフレームメモリ128の映像信号を読み込むように切換えスイッチ129を切り換えている場合には、歪み補正部124がフレームメモリ128の映像信号に歪み補正を施すように切換えスイッチ126を切り換えると共に、プロジェクタ103がフレームメモリ117の映像信号を読み込むように切換えスイッチ119を切り換える。   Upon receiving this notification, the synchronization management process of the video creation means 107 and 108 swaps the frame memories 117, 118; 127, 128 by switching the changeover switches 116, 126; 119, 129 (S203, S303). That is, the synchronization management process of the video creation means 107 switches the changeover switches 116 and 119. For example, when the distortion correction unit 114 switches the changeover switch 116 so as to correct the distortion of the video signal in the frame memory 117, and the projector 102 changes the changeover switch 119 so as to read the video signal in the frame memory 118. The changeover switch 116 is switched so that the distortion correction unit 114 performs distortion correction on the video signal in the frame memory 118, and the changeover switch 119 is switched so that the projector 102 reads the video signal in the frame memory 117. When the changeover switch 126 is switched so that the distortion correction unit 124 performs distortion correction on the video signal in the frame memory 127, and the changeover switch 129 is switched so that the projector 103 reads the video signal in the frame memory 128. The changeover switch 126 is switched so that the distortion correction unit 124 performs distortion correction on the video signal in the frame memory 128, and the changeover switch 119 is switched so that the projector 103 reads the video signal in the frame memory 117.

これによって左右のプロジェクタ102、103からは、相互に同期の取れた動画映像がスクリーンへ投影されることになる。   As a result, the left and right projectors 102 and 103 project the moving image synchronized with each other onto the screen.

そして、映像作成手段107、108の同期管理プロセスは、次の1フレーム分の映像信号を撮影装置111、121から読み込み、上述の処理を行うように映像作成手段107、108の入力映像処理プロセスに通知し(S204、S304)、処理を処理S201、処理S301に戻す。   Then, the synchronization management process of the video creation means 107 and 108 reads the video signal for the next one frame from the photographing apparatuses 111 and 121, and performs the above-described processing to the input video processing process of the video creation means 107 and 108. Notification is made (S204, S304), and the process returns to the process S201 and the process S301.

このように構成することによって、特殊なハードウェアを用いることなく、複数の映像作成手段107、108を実装したパーソナルコンピュータで、実写映像等の映像信号を略リアルタイム(例えば、フレームレート24フレーム/秒や30フレーム/秒)で歪み補正を施しつつ同期してスクリーンへ投影することが可能となる。   With this configuration, a video signal such as a live-action video can be transmitted in substantially real time (for example, a frame rate of 24 frames / second) on a personal computer on which a plurality of video creation units 107 and 108 are mounted without using special hardware. And 30 frames / second), and can be projected onto the screen synchronously while performing distortion correction.

ここで、上述の第1及び第2の実施形態において、出力端子19、120、130に映像信号を記録媒体に読み書きする映像信号記憶装置をさらに備えてもよい。歪み補正を施した映像信号を記録媒体に記憶しておくことで、歪み補正を施した映像信号を頒布することができ、また、映像信号記憶装置で記録媒体から読みこむことで直ちに歪み補正を施した映像信号を得ることができる。このような映像信号記憶装置は、例えば、ハードディスク、CD−R(Compact Disc Recordable)及びDVD−R(Digital Versatile Disc Recordable)等の記録媒体との間でデータを読み込み及び/又は書き込みを行うハードディスクドライブ、CD−Rドライブ及びDVD−Rドライブ等を備えて構成することができる。   Here, in the first and second embodiments described above, the output terminals 19, 120, and 130 may further include a video signal storage device that reads and writes video signals from and on a recording medium. By storing the distortion-corrected video signal in the recording medium, the distortion-corrected video signal can be distributed, and the distortion correction can be performed immediately by reading from the recording medium with the video signal storage device. The applied video signal can be obtained. Such a video signal storage device is, for example, a hard disk drive that reads data from and / or writes data to a recording medium such as a hard disk, CD-R (Compact Disc Recordable), and DVD-R (Digital Versatile Disc Recordable). , A CD-R drive, a DVD-R drive, and the like.

第1の実施形態に係る映像信号処理装置を含む仮想現実感生成装置の全体構成を示す図である。It is a figure which shows the whole virtual reality production | generation apparatus containing the video signal processing apparatus which concerns on 1st Embodiment. モデル作成手段であるスクリーンモデル創造部の機能ブロック図である。It is a functional block diagram of the screen model creation part which is a model creation means. 球面モデルの入力パラメータを示す図である。It is a figure which shows the input parameter of a spherical model. 球面の一部を切り欠いたモデルの入力パラメータを示す図である。It is a figure which shows the input parameter of the model which notched a part of spherical surface. 球面スクリーンの一部を切り欠いた正面形状を示す図である。It is a figure which shows the front shape which notched some spherical screens. 円筒モデルの入力パラメータを示す図である。It is a figure which shows the input parameter of a cylindrical model. 複数平面の入力パラメータを示す図である。It is a figure which shows the input parameter of a several plane. スクリーンの球面形状に対する歪み補正処理を説明するための図である。It is a figure for demonstrating the distortion correction process with respect to the spherical shape of a screen. 歪み補正の手法を説明するための図である。It is a figure for demonstrating the method of distortion correction. 半球状のスクリーンの中央部で切断した図9の二次元断面図である。FIG. 10 is a two-dimensional cross-sectional view of FIG. 9 taken at the center of the hemispherical screen. グリッド映像の歪み補正のイメージ図である。It is an image figure of distortion correction of a grid picture. 第2の実施形態に係る映像信号処理装置を含む仮想現実感生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the virtual reality production | generation apparatus containing the video signal processing apparatus which concerns on 2nd Embodiment. 上述のように構成される仮想現実感生成装置における左右の映像信号間の同期確立動作を説明するためのフローチャートである。It is a flowchart for demonstrating the synchronization establishment operation | movement between the right-and-left video signals in the virtual reality production | generation apparatus comprised as mentioned above.

符号の説明Explanation of symbols

1 映像信号処理装置
2 スクリーン
3、102、103 プロジェクタ
4 映像信号源
4−1 テレビジョン
4−2 映像再生装置
4−3、111、121 撮影装置
4−4 ゲーム機
6 設定手段
11 ハードウェア部
12 ソフトウェア部
13、112、122 入力端子
14 信号方式変換回路
15 映像信号処理回路
16 ディジタルシグナルプロセッサ
17、18 メモリ
19、120、130 出力端子
21 スクリーンモデル創造部
22 プロジェクタ配置・セットアップ部
23 ユーザ位置設定部
25、114、125 歪み補正部
26、113、123 入力映像処理部
107、108 映像作成手段
109 同期手段
116、119、126、129 切換えスイッチ
117、118、127、128 フレームメモリ
115、125、136 同期管理部
DESCRIPTION OF SYMBOLS 1 Video signal processing apparatus 2 Screen 3, 102, 103 Projector 4 Video signal source 4-1 Television 4-2 Video reproduction apparatus 4-3, 111, 121 Shooting apparatus 4-4 Game machine 6 Setting means 11 Hardware part 12 Software unit 13, 112, 122 Input terminal 14 Signal system conversion circuit 15 Video signal processing circuit 16 Digital signal processor 17, 18 Memory 19, 120, 130 Output terminal 21 Screen model creation unit 22 Projector arrangement / setup unit 23 User position setting unit 25, 114, 125 Distortion correction unit 26, 113, 123 Input video processing unit 107, 108 Video creation unit 109 Synchronization unit 116, 119, 126, 129 Changeover switch 117, 118, 127, 128 Frame memory 115, 125, 136 Synchronization Management Department

Claims (8)

投影手段から任意曲率の投射面に映像を投射するにあたって、平面の表示面に対する映像信号に予め前記投射面に対する歪み補正を施して前記投影手段へ与える映像信号処理装置において、
平面の表示面に対するDV方式の映像信号を入力するためのDV端子と、
前記DV端子から入力された前記映像信号をフレームメモリに記憶すると共に、前記映像信号の画面サイズを入力することで該フレームメモリに記憶した前記映像信号の前記フレームメモリにおける先頭メモリアドレス及び使用メモリサイズを出力する入力映像処理手段と、
複数種類に亘る規定の投射面形状に関する関数式を予め有し、前記規定の投射面形状の何れか又はその組合せを選択し、変数パラメータを入力することで前記関数式に基づいて投射面のメッシュモデルを作成するモデル作成手段と、
観察者及び前記投影手段の前記投射面に対する位置関係に基づいて、前記平面の表示面と投射面のメッシュモデルとの対応マップを作成し、前記入力映像処理部から出力された先頭メモリアドレス及びメモリサイズに基づいて、平面の入力映像を前記対応マップを利用したテクスチャマッピング座標を適用して再度映像生成を行うことで、前記歪み補正を実現する歪み補正処理手段とを備えること
を特徴とする映像信号処理装置。
In projecting an image from a projection unit to a projection surface having an arbitrary curvature, a video signal processing apparatus that applies distortion correction to the projection surface in advance to a video signal for a flat display surface and applies the distortion correction to the projection unit.
A DV terminal for inputting a DV video signal to a flat display surface;
The video signal input from the DV terminal is stored in the frame memory, and the start memory address and the used memory size in the frame memory of the video signal stored in the frame memory by inputting the screen size of the video signal Input video processing means for outputting,
A function formula relating to a predetermined projection surface shape over a plurality of types is previously stored, a mesh of the projection surface is selected based on the function formula by selecting any one or a combination of the predetermined projection surface shapes and inputting a variable parameter. A model creation means for creating a model;
Based on the positional relationship between the observer and the projection unit with respect to the projection plane, a correspondence map between the planar display plane and the mesh model of the projection plane is created, and the leading memory address and memory output from the input video processing unit And a distortion correction processing unit that realizes the distortion correction by generating a video again by applying texture mapping coordinates using the correspondence map to a plane input video based on the size. Signal processing device.
前記歪み補正処理部で歪み補正した映像信号を出力する出力端子をさらに備えること
を特徴とする請求項1に記載の映像信号処理装置。
The video signal processing apparatus according to claim 1, further comprising an output terminal that outputs a video signal subjected to distortion correction by the distortion correction processing unit.
前記歪み補正処理部で歪み補正した映像信号を記憶する映像信号記憶手段をさらに備えること
を特徴とする請求項1又は請求項2に記載の映像信号処理装置。
The video signal processing apparatus according to claim 1, further comprising a video signal storage unit that stores the video signal whose distortion is corrected by the distortion correction processing unit.
DV方式とは異なる方式の映像信号を入力するための入力端子と、
前記入力端子から入力された映像信号をDV方式の映像信号に変換して前記入力映像信号処理部に出力する映像信号変換手段とをさらに備えること
を特徴とする請求項1乃至請求項3の何れか1項に記載の映像信号処理装置。
An input terminal for inputting a video signal of a system different from the DV system;
The video signal conversion means for converting the video signal input from the input terminal into a DV video signal and outputting the converted video signal to the input video signal processing unit. The video signal processing device according to claim 1.
前記入力端子の方式に対応させた映像信号の画面サイズを記憶する画面サイズ記憶手段と、
前記入力端子の方式に応じた画面サイズを前記画面サイズ記憶手段から取り出し、該取り出した画面サイズを前記入力映像処理手段に出力する画面サイズ選択手段とをさらに備えること
を特徴とする請求項4に記載の映像信号処理装置。
Screen size storage means for storing the screen size of the video signal corresponding to the method of the input terminal;
5. The display apparatus according to claim 4, further comprising: a screen size selection unit that extracts a screen size corresponding to the method of the input terminal from the screen size storage unit and outputs the extracted screen size to the input video processing unit. The video signal processing apparatus described.
観察者に凹面を向けた任意曲率の投射面を有する該観察者の有効視野角以上に映像を表示可能な広視野角のスクリーンと、平面の表示面に対する入力映像信号に予め前記投射面に対する歪み補正を施して出力する映像信号処理装置と、該映像信号処理装置から出力された映像信号に基づいた映像を前記スクリーンへ投影する投影手段とを備える仮想現実感生成装置において、
前記映像信号処理装置は、請求項1乃至請求項5の何れか1項に記載の映像信号処理装置であること
を特徴とする仮想現実感生成装置。
A screen having a projection surface of an arbitrary curvature with a concave surface facing the viewer, a wide viewing angle screen capable of displaying an image larger than the effective viewing angle of the viewer, and a distortion to the projection surface in advance for an input video signal to a flat display surface In a virtual reality generation device comprising: a video signal processing device that performs correction and outputs; and a projection unit that projects video based on the video signal output from the video signal processing device onto the screen.
6. The virtual reality generation device according to claim 1, wherein the video signal processing device is the video signal processing device according to any one of claims 1 to 5.
観察者に凹面を向けた球面状で鏡面反射可能な広視野角のスクリーンと、平面の表示面に対する入力映像信号に予め前記投射面に対する歪み補正を施して出力する左右各チャンネルにそれぞれ設けられた映像信号処理装置と、前記各映像信号処理装置を制御し前記左右各チャンネルの映像信号間の同期を確立する同期手段と、前記各映像信号処理装置からの映像信号を互いに直行する偏光の映像としてそれぞれ前記スクリーンへ投影する投影手段と、前記観察者が装着し、左右各眼にそれぞれ対応した偏光の映像を透過させて観察者に合成して認識させることで立体動画映像を表示する映像選択手段とを備える仮想現実感生成装置において、
前記映像信号処理装置は、請求項1乃至請求項5の何れか1項に記載の映像信号処理装置であること
を特徴とする仮想現実感生成装置。
A spherical, specularly reflective screen with a concave surface facing the viewer, and a left and right channel that outputs the input video signal for the flat display surface after correcting distortion in advance for the projection surface. A video signal processing device, a synchronizing means for controlling the video signal processing devices to establish synchronization between the video signals of the left and right channels, and a video of polarized light orthogonal to each other from the video signals from the video signal processing devices Projection means for projecting onto the screen, and image selection means for displaying a stereoscopic video image by being attached to the observer and transmitting a polarized image corresponding to each of the left and right eyes and causing the observer to synthesize and recognize the image. In a virtual reality generation device comprising:
6. The virtual reality generation device according to claim 1, wherein the video signal processing device is the video signal processing device according to any one of claims 1 to 5.
投影手段から任意曲率の投射面に映像を投射するにあたって、平面の表示面に対する映像信号に予め前記投射面に対する歪み補正を施して前記投影手段へ与える映像信号処理方法において、
入力された平面の表示面に対するDV方式の映像信号をフレームメモリに記憶する記憶ステップと、
前記映像信号の画面サイズを入力することで該フレームメモリに記憶した前記映像信号の前記フレームメモリにおける先頭メモリアドレス及び使用メモリサイズを出力する出力ステップと、
複数種類に亘る規定の投射面形状に関する関数式を予め有し、前記規定の投射面形状の何れか又はその組合せを選択し、変数パラメータを入力することで前記関数式に基づいて投射面のメッシュモデルを作成するモデル作成ステップと、
観察者及び前記投影手段の前記投射面に対する位置関係に基づいて、前記平面の表示面と投射面のメッシュモデルとの対応マップを作成し、前記出力ステップで出力された先頭メモリアドレス及びメモリサイズに基づいて、平面の入力映像を前記対応マップを利用したテクスチャマッピング座標を適用して再度映像生成を行うことで、前記歪み補正を実現する歪み補正処理ステップとを備えること
を特徴とする映像信号処理方法。
In projecting an image from a projection unit onto a projection surface having an arbitrary curvature, a video signal processing method for performing distortion correction on the projection surface in advance on a video signal for a flat display surface and providing the projection unit with the distortion correction,
A storage step of storing in the frame memory a DV video signal for the input flat display surface;
An output step of outputting a head memory address and a used memory size of the video signal stored in the frame memory by inputting the screen size of the video signal;
A function formula relating to a predetermined projection surface shape over a plurality of types is previously stored, a mesh of the projection surface is selected based on the function formula by selecting any one or a combination of the predetermined projection surface shapes and inputting a variable parameter. A model creation step to create a model;
Based on the positional relationship between the observer and the projection unit with respect to the projection plane, a correspondence map between the display surface of the plane and the mesh model of the projection plane is created, and the first memory address and memory size output in the output step are set. And a distortion correction processing step for realizing the distortion correction by applying the texture mapping coordinates using the correspondence map to the plane input image and generating the image again. Method.
JP2005042983A 2005-02-18 2005-02-18 Video signal processing apparatus and method, and virtual reality generation apparatus Expired - Fee Related JP3992045B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005042983A JP3992045B2 (en) 2005-02-18 2005-02-18 Video signal processing apparatus and method, and virtual reality generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005042983A JP3992045B2 (en) 2005-02-18 2005-02-18 Video signal processing apparatus and method, and virtual reality generation apparatus

Publications (2)

Publication Number Publication Date
JP2006229768A JP2006229768A (en) 2006-08-31
JP3992045B2 true JP3992045B2 (en) 2007-10-17

Family

ID=36990696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005042983A Expired - Fee Related JP3992045B2 (en) 2005-02-18 2005-02-18 Video signal processing apparatus and method, and virtual reality generation apparatus

Country Status (1)

Country Link
JP (1) JP3992045B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10506219B2 (en) 2016-11-29 2019-12-10 Samsung Electronics Co., Ltd. Method and apparatus for determining interpupillary distance (IPD)
US10671158B2 (en) 2016-11-22 2020-06-02 Samsung Electronics Co., Ltd. Three-dimensional (3D) rendering method and apparatus for user' eyes

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5102521B2 (en) * 2007-03-22 2012-12-19 パナソニック株式会社 Video display device and binocular visual function inspection device
GB0709405D0 (en) * 2007-05-16 2007-06-27 Univ Edinburgh Testing vision
JP5121673B2 (en) * 2007-11-06 2013-01-16 パナソニック株式会社 Image projection apparatus and image projection method
JP5173395B2 (en) * 2007-12-25 2013-04-03 パナソニック株式会社 Visual function inspection device
CN102057682A (en) * 2008-06-24 2011-05-11 松下电器产业株式会社 Recording medium, reproducing device, integrated circuit, reproducing method, and program
JP2010068059A (en) * 2008-09-08 2010-03-25 Sp Forum Inc Video data generation program
JP5593911B2 (en) * 2010-07-20 2014-09-24 富士通株式会社 Video generation apparatus, video generation program, and video generation method
JP2017140153A (en) * 2016-02-09 2017-08-17 株式会社ユニバーサルエンターテインメント Game machine and method of manufacturing game machine
JP6669519B2 (en) * 2016-02-09 2020-03-18 株式会社ユニバーサルエンターテインメント Game machine manufacturing method
JP6669518B2 (en) * 2016-02-09 2020-03-18 株式会社ユニバーサルエンターテインメント Game machine manufacturing method
JP6669517B2 (en) * 2016-02-09 2020-03-18 株式会社ユニバーサルエンターテインメント Game machine manufacturing method
JP6669516B2 (en) * 2016-02-09 2020-03-18 株式会社ユニバーサルエンターテインメント Game machine manufacturing method
JP2017140154A (en) * 2016-02-09 2017-08-17 株式会社ユニバーサルエンターテインメント Game machine and method of manufacturing game machine
JP7512963B2 (en) 2021-07-12 2024-07-09 トヨタ自動車株式会社 Virtual reality simulator and virtual reality simulation program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10671158B2 (en) 2016-11-22 2020-06-02 Samsung Electronics Co., Ltd. Three-dimensional (3D) rendering method and apparatus for user' eyes
US11256328B2 (en) 2016-11-22 2022-02-22 Samsung Electronics Co., Ltd. Three-dimensional (3D) rendering method and apparatus for user' eyes
US10506219B2 (en) 2016-11-29 2019-12-10 Samsung Electronics Co., Ltd. Method and apparatus for determining interpupillary distance (IPD)
US10979696B2 (en) 2016-11-29 2021-04-13 Samsung Electronics Co., Ltd. Method and apparatus for determining interpupillary distance (IPD)

Also Published As

Publication number Publication date
JP2006229768A (en) 2006-08-31

Similar Documents

Publication Publication Date Title
JP3992045B2 (en) Video signal processing apparatus and method, and virtual reality generation apparatus
US11381801B2 (en) Methods and apparatus for receiving and/or using reduced resolution images
JP4622570B2 (en) Virtual reality generation device and program used therefor
KR20170132098A (en) Method, apparatus and stream of formatting an immersive video for legacy and immersive rendering devices
JP2005500721A (en) VTV system
KR102308604B1 (en) Method, apparatus and stream for formatting immersive video for legacy and immersive rendering devices
JP2019118026A (en) Information processing device, information processing method, and program
JP2006094458A5 (en)
JP4013922B2 (en) Virtual reality generation apparatus and method
CN110730340B (en) Virtual audience display method, system and storage medium based on lens transformation
KR101725024B1 (en) System for real time making of 360 degree VR video base on lookup table and Method for using the same
GB2565301A (en) Three-dimensional video processing
JP5249733B2 (en) Video signal processing device
JP2003323170A (en) Image display system, image processor and image display method
KR101773929B1 (en) System for processing video with wide viewing angle, methods for transmitting and displaying vide with wide viewing angle and computer programs for the same
JP2007312402A (en) Video generating apparatus and method and video projection system
JPH0937224A (en) Video conference equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070601

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20070607

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20070622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070716

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100803

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100803

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110803

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120803

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130803

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees