JP3840663B2 - 画像処理装置及び方法 - Google Patents

画像処理装置及び方法 Download PDF

Info

Publication number
JP3840663B2
JP3840663B2 JP51874397A JP51874397A JP3840663B2 JP 3840663 B2 JP3840663 B2 JP 3840663B2 JP 51874397 A JP51874397 A JP 51874397A JP 51874397 A JP51874397 A JP 51874397A JP 3840663 B2 JP3840663 B2 JP 3840663B2
Authority
JP
Japan
Prior art keywords
video signal
shadow
memory
transformation matrix
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP51874397A
Other languages
English (en)
Inventor
信之 南
彰博 高島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of JP3840663B2 publication Critical patent/JP3840663B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Description

技術分野
本発明は、画像処理装置に関し、特に3次元的に画像変換されたオブジェクトビデオ信号に対してシャドウをつけることによって立体感を得る特殊効果装置に関するものである。
背景技術
先ず、図1を参照して従来の特殊効果装置について説明する。
従来、画像処理装置の分野において、外部から供給されたソースビデオ信号に3次元的な画像変換を施すための特殊効果装置が実現されている。この種の特殊効果装置は、3次元的な位置に画像変換されたオブジェクトビデオ信号にシャドウを付けて、立体的な効果を出すことが考えられている。尚、オブジェクトビデオ信号とは、3次元変換処理の対象となるビデオ信号のことである。従来の特殊効果装置では、オブジェクトビデオ信号に対してシャドウを付けるためには、まず、オペレータは、3次元ジョイスティック等のポインティングデバイスを操作し、オブジェクトビデオ信号の基となる第1のソースビデオ信号に対して、所望の第1の3次元変換処理を施す。図1Aに示すように、この3次元変換されたビデオ信号をオブジェクトビデオ信号Vobjとして表し、尚、このオブジェクトビデオ信号Vobjはモニタに表示されている。次に、オペレータは、ポインティングデバイスを操作して、シャドウビデオ信号の基となる例えば黒色を有した第2のソースビデオ信号に対して、第2の3次元変換処理を施す。具体的には、オペレータは、3次元変換されたシャドウビデオ信号Vshadowが、モニタに表示されたオブジェクトビデオ信号Vobjの影らしく見えるように、この影の色を有したビデオ信号に対して3次元変換処理を施す。
しかし、このような従来の特殊効果装置では、オブジェクトビデオ信号Vobjとシャドウビデオ信号Vshadowとを、夫々別に3次元変換処理しているので、オブジェクトビデオ信号Vobjに対する影として、自然な影に見えるシャドウビデオ信号Vshadowを生成することが非常に困難であった。また自然な影に見えるシャドウビデオ信号Vshadowを生成するためには、熟練したオペレータでも試行錯誤を繰り返すため、シャドウビデオ信号を生成するための操作には非常に時間がかかるという問題点があった。
また、このような従来の特殊効果装置では、上述したように、オブジェクトビデオ信号Vobjとシャドウビデオ信号Vshadowとを夫々別に3次元変換処理しているので、図1Aに示されるオブジェクトビデオ信号Vobjを、図1Bに示されるオブジェクトビデオ信号Vobj’の位置に3次元変換したとしても、シャドウビデオ信号Vshadowは移動することはない。よって、オブジェクトビデオ信号Vobj’に対して自然なシャドウを新たに生成しなければいけない。このように、オブジェクトビデオ信号に対してこのような3次元変換を施す毎に、シャドウビデオ信号を生成する必要があり、操作が非常に繁雑になるという問題があった。
発明の開示
本発明は、以上の点を考慮してなされたもので、オブジェクトビデオ信号に対して適切なシャドウをオペレータの経験に頼ること無く容易に付けることができる特殊効果装置を提供するものである。また、オブジェクトビデオ信号の空間系的な動きに連動して、自動的にシャドウビデオ信号を生成することがきる特殊効果装置を提供するものである。
さらに詳細には、本発明の特殊効果装置は、ソースビデオ信号に対して3次元画像変換を施すことによって仮想的な3次元オブジェクトビデオ信号を生成し、この仮想的な3次元オブジェクトビデオ信号を2次元平面に投影することによって、3次元画像変換処理を表す2次元オブジェクトビデオ信号を生成するオブジェクト信号生成部と、この3次元ビデオ信号を予め設定されたシャドウ面に投影することによって仮想的な3次元シャドウ信号を生成し、上記仮想的な3次元シャドウ信号を上記スクリーン面に投影することによって、2次元のシャドウ信号を生成するシャドウ信号生成部とを備えている。これによって、3次元変換されたオブジェクトビデオ信号に対応したシャドウビデオ信号を演算によって自動的に得ることができる。
さらに、本発明の特殊効果装置は、ソースビデオ信号に対して仮想空間上に3次元画像変換するための3次元画像変換行列と、3次元空間上に仮想的に存在するビデオ信号をスクリーン面に透視変換するための透視変換演算とに基づいて、ソースビデオ信号から2次元のオブジェクトビデオ信号を生成するオブジェクト信号生成部と、ソースビデオ信号に対して仮想空間上に3次元画像変換するための3次元画像変換行列と、3次元空間上に仮想的に存在するビデオ信号をシャドウ面に透視変換するための透視変換行列と、シャドウ面上に仮想的に存在するビデオ信号をスクリーン面に透視変換するための透視変換行列とに基づいて、2次元シャドウ信号を生成するシャドウ信号生成部と、この2次元オブジェクトビデオ信号が3次元画像変換を視覚的に表すビデオ信号となるように、ビデオ信号生成手段を制御すると共に、シャドウ信号生成手段によって生成された2次元シャドウ信号が2次元オブジェクトビデオ信号のシャドウを表すビデオ信号になるようにシャドウ信号生成手段を制御する制御手段(CPU)とを備えている。よって、これによって、3次元変換されたオブジェクトビデオ信号に対して、自動的に自然なシャドウをつけることができる。
さらに、本発明の特殊効果装置は、ソースビデオ信号に対して3次元画像変換を施すことによって仮想的な3次元ビデオ信号を生成するビデオ信号生成部と、3次元ビデオ信号に透視変換を施すことによって、シャドウ面上に存在する仮想的な3次元のシャドウ信号を生成するシャドウ信号生成部と、3次元ビデオ信号を3次元空間において仮想的に移動するようにビデオ信号処理部を制御すると共に、3次元ビデオ信号の仮想的な移動に連動して上記シャドウ信号が上記シャドウ面上を移動するように上記シャドウ信号生成部を制御する制御手段(CPU)とを備ている。これによって、オブジェクトビデオ信号の3次元空間上での移動に伴って、シャドウ信号がシャドウ面上で移動する効果を得ることができる。
【図面の簡単な説明】
図1は、背景技術を説明するための図である。
図2は、本発明の特殊効果装置の全体構成を示すためのブロック図である。
図3は、本発明の特殊効果装置において定義されるワールド座標系を説明するための図である。
図4は、オブジェクトビデオ信号を得るための変換処理を説明するための図である。
図5は、フレームメモリ上のアドレスと、モニタスクリーン上とのアドレスの関係を表す図である。
図6は、シャドウ座標系を説明するための図である。
図7は、点光源モード時において、シャドウビデオ信号を得るための変換処理を説明するための図である。
図8は、点光源モード時において、3次元オブジェクトビデオ信号から3次元シャドウビデオ信号を得るための透視変換処理を説明するための図である。
図9は、点光源及び3次元オブジェクトビデオ信号に対する変換処理の手順を示すフローである。
図10は、平行光源モード時において、シャドウビデオ信号を得るための変換処理を説明するための図である。
図11は、平行光源及び3次元オブジェクトビデオ信号に対する変換処理の手順を示すフローである。
図12は、ワールド座標系及びシャドウ座標系における、球面座標と直交座標との関係を夫々示すたの図である。
図13は、平行光源モード時において、3次元オブジェクトビデオ信号から3次元シャドウビデオ信号を得るための透視変換処理を説明するための図である。
図14は、仮想3次元オブジェクトビデオ信号から仮想3次元シャドウビデオ信号を得るための透視変換処理を説明するための図である。
図15は、シャドウ座標系の原点を自動的に設定する原点設定モードを説明するための図である。
図16は、本発明の特殊効果装置による効果を説明するための図である。
発明を実施するための最良の形態
(1)全体構成
まず、図2を参照して、本発明の特殊効果装置1の構成を説明する。
CPU8は、この特殊効果装置1の全ての回路を制御するためのプロセッサである。CPU8は、オペレータがコントロールパネル5を操作することによつて得られた各パラメータを、インターフエイス回路(I/F)5a及びデータバスを介して受け取り、このパラメータに基づいて各回路を制御する。このコントロールパネル5からは、パースペクティブ値Pz、シャドウ座標系のXS軸、YS軸及びZS軸の夫々の回転角(θX、θY、θZ)、シャドウ座標系の原点(xS0,yS0,zS0)、平行光源であるか点光源であるかを示す光源の種類、点光源の位置(xL,yL,zL)、平行光源の位置(r,α,β)、3次元変換に関するパラメータr11〜r33、lX、lY、lZ及びsが入力される。尚、各パラメータについては後述する。また、CPU8は、コントロールパネル5から入力されるこれらのパラメータを受け取り、これらのパラメータをリアルタイムに読み出しアドレスの演算に反映させる。具体的には、CPU8は、コントロールパネル5から供給されるパラメータの変化をフレーム周期で監視し、且つ、供給されたパラメータに基づいて読み出しアドレスを演算するためのパラメータ(b11〜b33、b11’〜b33’、b11”〜b33”)をフレーム周期で演算している。よって、オペレータの操作に応じてフレーム周期でこれらのパラメータをリアルタイムに可変することができ、そして、その可変されたパラメータに応じて、リアルタイムにソースビデオ信号に対して特殊効果を施すことができる。
尚、本発明の特殊効果装置は、コントロールパネル5から光源の種類を入力することによって、点光源と平行光源の中から所望の光源を選択することができるようになっている。以下の説明において、点光源によってオブジェクトのシャドウを生成するモードを点光源モードと呼び、平行光源によってオブジェクトのシャドウを生成するモードを平行光源モードと呼ぶことにする。
また、CPU8は、プログラムメモリとして設けられたROM(Read Only Memory)6に記憶されたプログラムに基づいて、各回路の制御を行うと共に、読み出しアドレスの演算を行う。また、同様に、ワークメモリとして設けられたRAM(Random Access Memory)7に記憶されたデータに基づいて、各回路の制御を行うと共に、読み出しアドレスの演算を行う。
オブジェクト信号生成部10は、外部からソースビデオ信号V0を受け取り、このソースビデオ信号V0を3次元変換処理して、2次元のオブジェクトビデオ信号V2を生成する。また、オブジェクト信号生成部10は、ソースビデオ信号V0をキーイングするためのソースキー信号K0を受け取り、ソースビデオ信号と同じようにソースキー信号K0を3次元変換処理して、オブジェクトキー信号K2を生成する。具体的には、このオブジェクト信号生成部10は、ソースビデオ信号V0を一時的に記憶するためのフレームメモリ12と、このソースビデオ信号をキーイングするためのソースキー信号K0を一時的に記憶するためのフレームメモリ13と、フレームメモリ12及びフレームメモリ13に対して、3次元変換操作に対応して演算された読み出しアドレス(XM,YM)を供給するための読み出しアドレス発生回路14とを有している。
フレームメモリ12は、供給されたソースビデオ信号V0を一時的に記憶するためにメモリである。このフレームメモリ12には、図示しない書き込みアドレス発生回路からのシーケンシャルな書き込みアドレスが供給されるので、このフレームメモリ12には、供給されたソースビデオ信号V0が変形せずにそのまま記憶される。また、このフレームメモリ12には、読み出しアドレス発生回路14から3次元変換操作に対応して演算された読み出しアドレス(XM,YM)が供給されるので、フレームメモリ12からは、フレーム毎に2次元変換処理されたオブジェクトビデオ信号V2が出力される。出力されたオブジェクトビデオ信号V2は、ミキサ30に送出される。
フレームメモリ13は、ソースビデオ信号V0をキーイングするためのソースキー信号K0を一時的に記憶するためのメモリである。このフレームメモリ13は、フレームメモリ12に供給されたシーケンシャルな書き込みアドレスと同じ書き込みアドレスが供給されるので、ソースビデオ信号V0と同様に、このフレームメモリ13には、供給されたソースキー信号K0が変形さずにそのまま記憶される。また、フレームメモリ13には、フレームメモリ12に供給された読み出しアドレスを同じアドレス(XM,YM)が供給されるので、フレームメモリ13からは、3次元変換されたオブジェクトビデオ信号V2と同じように3次元変換されたオブジェクトキー信号K2が出力される。出力されたオブジェクトキー信号K2は、ミキサ30に送出される。
読出しアドレス発生回路14は、スクリーンアドレス発生回路9からシーケンシャルに供給されるモニタスクリーン3上でのアドレス(XS、YS)と、CPU8によって演算された画像変換行列のパラメータb11〜b33とに基づいて、フレームメモリ12及びフレームメモリ13に対して供給する読出しアドレス(XM,YM)を生成する。この読み出しアドレス発生回路14内での具体的な演算は後述する。
シャドウ信号生成部20は、シャドウビデオ信号とシャドウキー信号を生成するための回路である。まず、点光源モードが選択されている場合は、このシャドウ信号生成部20は、外部から供給されたソースビデオ信号V0を受け取り、影に色にマット処理されたソースビデオ信号を3次元変換処理して、シャドウビデオ信号V4を生成する。また、シャドウ信号生成部20は、ソースビデオ信号をキーイングするためのソースキー信号K0を受け取り、シャドウビデオ信号V4と同じように3次元変換処理して、シャドウキー信号K4を生成する。平行光源モードが選択されている場合は、このシャドウ信号生成部20は、外部から供給されたソースビデオ信号V0を受け取り、影の色にマット処理されたソースビデオ信号を3次元変換処理して、シャドウビデオ信号V6を生成する。また、シャドウ信号生成部20は、ソースビデオ信号をキーイングするためのソースキー信号K0を受け取り、シャドウビデオ信号V6と同じように3次元変換処理して、シャドウキー信号K6を生成する。具体的には、このシャドウ信号生成部20は、オブジェクト信号生成部10と同じような回路構成からなり、ソースビデオ信号V0をマット処理するカラーマット発生回路21と、マット処理されたソースビデオ信号を一時的に記憶するためのフレームメモリ22と、ソースキー信号K0を一時的に記憶するためのフレームメモリ23と、フレームメモリ22及びフレームメモリ23に対して、演算された読み出しアドレスを供給するための読み出しアドレス発生回路24とを有している。
カラーマット発生回路21は、ソースビデオ信号V0をマット処理することによって、ソースビデオ信号V0の色を影の色らしくするための回路である。最も簡単な例では、ソースビデオ信号V0の彩度及び輝度のレベルを下げることによって、ソースビデオ信号の色が影の色(黒色)に近くなる。
フレームメモリ22は、マット処理されたソースビデオ信号を一時的に記憶するためにメモリである。このフレームメモリ22には、図示しない書き込みアドレス発生回路からのシーケンシャルな書き込みアドレスが供給されるので、このフレームメモリ22には、マット処理されたソースビデオ信号が画像変形されずにそのまま記憶される。点光源モード時には、このフレームメモリ22には、読み出しアドレス発生回路24から3次元変換操作及び点光源に基づいて演算された読み出しアドレス(XM’,YM’)が供給されるので、このフレームメモリ22からは、3次元変換されたシャドウビデオ信号V4が出力される。平行光源モード時には、このフレームメモリ22には、読み出しアドレス発生回路24から3次元変換操作及び平行光源に基づいて演算された読み出しアドレス(XM”,YM”)が供給されるので、このフレームメモリ22からは、3次元変換されたシャドウビデオ信号V6が出力される。
フレームメモリ23は、ソースビデオ信号V0をキーイングするためのソースキー信号K0を一時的に記憶するためのメモリである。このフレームメモリ23には、フレームメモリ22に供給されたシーケンシャルな書き込みアドレスと同じアドレスが供給されるので、このフレームメモリ23には、供給されたソースキー信号K0が画像変換されずにそのまま記憶される。点光源モード時には、フレームメモリ23には、フレームメモリ22に供給された読み出しアドレスと同じアドレス(XM’,YM’)が供給されるので、このフレームメモリ23からは、3次元変換されたシャドウビデオ信号V4と同じように3次元変換されたシャドウキー信号K4が出力される。平行光源モード時には、フレームメモリ23には、フレームメモリ22に供給された読み出しアドレスと同じアドレス(XM”,YM”)が供給されるので、このフレームメモリ23からは、3次元変換されたシャドウビデオ信号V6と同じように3次元変換されたシャドウキー信号K6が出力される。
読み出しアドレス発生回路24は、フレームメモリ22及びフレームメモリ23に対して供給する読み出しアドレスを生成するための回路である。点光源モード時には、スクリーンアドレス発生回路9からシーケンシャルに供給されるモニタスクリーン3上でのアドレス(XS、YS)と、CPU8によって演算された画像変換行列のパラメータb11’〜b33’とに基づいて、読み出しアドレス(XM’,YM’)を生成する。平行光源モード時には、スクリーンアドレス発生回路9からシーケンシャルに供給されるモニタスクリーン3上でのアドレス(XS、YS)と、CPU8によって演算された画像変換行列のパラメータb11”〜b33”とに基づいて、読み出しアドレス(XM”,YM”)を生成する。尚、この読み出しアドレス発生回路24における具体的な演算は後述する。
スクリーンアドレス発生回路9は、モニタスクリーン3のスクリーン面全体を、ラスタスキャンの順に対応する順にアドレッシングするための回路である。具体的には、内部において発生された水平同期信号及び垂直同期信号に基づいて、スクリーンアドレス(XS、YS)が生成される。
第1のミキサ30は、オブジェクト信号生成部10とシャドウ信号生成部20から供給された信号を混合するための回路である。点光源モード時には、第1のミキサ30は、オブジェクト信号生成部10から出力されたオブジェクトビデオ信号V2及びオブジェクトキー信号K2を受け取るとともに、シャドウ信号生成部20から出力されたシャドウビデオ信号V4及びシャドウキー信号K4を受け取って、オブジェクトビデオ信号V2とシャドウビデオ信号V4とを混合した混合ビデオ信号VMIX’と、オブジェクトキー信号K2とシャドウキー信号K4とを混合した混合キー信号KMIX’とを生成する。具体的には、混合ビデオ信号VMIX’及び混合キー信号KMIX’は、次式
MIX’=K22+(1−K2)K44
MIX’=1−(1−K2)(1−K4) …… (a)
と表すことができる。また、平行光源モード時には、オブジェクト信号生成部10から出力されたオブジェクトビデオ信号V2及びオブジェクトキー信号K2を受け取るとともに、シャドウ信号生成部20から出力されたシャドウビデオ信号V6及びシャドウキー信号K6を受け取って、オブジェクトビデオ信号V2とシャドウビデオ信号V6とを混合した混合ビデオ信号VMIX”と、オブジェクトキー信号K2とシャドウキー信号K6とを混合した混合キー信号KMIX”とを生成する。具体的には、混合ビデオ信号VMIX”及び混合キー信号KMIX”は、次式
MIX”=K22+(1−K2)K66
MIX”=1−(1−K2)(1−K6) …… (b)
と表すことができる。
第2のミキサ40は、第1のミキサ30から出力された混合ビデオ信号と外部から供給されたバックグラウンドビデオ信号VBKを混合するための回路である。点光源モード時には、第1のミキサ30から出力された混合ビデオ信号VMIX’及び混合キー信号KMIX’を受け取ると共に、外部から供給されたバックグラウンドビデオ信号VBKを受け取り、混合キー信号KMIX’に基づいて、混合ビデオ信号VMIX’とバックグラウンドビデオ信号VBKとを混合し、アウトプットビデオ信号VOUT’を生成する。具体的には、このアウトプットビデオ信号VOUT’は、次式、
OUT’=KMIX’VMIX’+(1−KMIX’)VBK …… (c)
と表すことができる。点光源モード時には、第1のミキサ30から出力された混合ビデオ信号VMIX”及び混合キー信号KMIX”を受け取ると共に、外部から供給されたバックグラウンドビデオ信号VBKを受け取り、混合キー信号KMIX”に基づいて、混合ビデオ信号VMIX”とバックグラウンドビデオ信号VBKとを混合し、アウトプットビデオ信号VOUT”を生成する。具体的には、このアウトプットビデオ信号VOUT”は、次式、
OUT”=KMIX”VMIX”+(1−KMIX”)VBK …… (d)
と表すことができる。生成されたアウトプットビデオ信号VOUT’又はVOUT”は、外部に出力されると共に、モニタスクリーン3に表示される。
(2)ワールド座標系の定義
まず、図3を参照しながら、本発明の説明で使用されるワールド座標系について説明する。このワールド座標系とは、X、Y及びZ軸からなる3次元の直交座標系のことである。すなわち図3に示すように、X軸及びこれに直交するY軸で定義されるXY平面上にスクリーン面3が存在するものとして、X軸をスクリーン面3の水平(左右)方向と定義し、Y軸をスクリーン面3の垂直(上下)方向と定義する。
また、スクリーン面3の奥行方向を、XY平面に直交するZ軸の正方向と定義し、スクリーン面3の手前側、すなわち、スクリーン面を見る視点PZが存在する側をZ軸の負方向と定義する。
さらに、スクリーン面3の中心が当該X軸、Y軸、Z軸でなるワールド座標系の原点と一致するものと定義する。
X軸にはスクリーン領域の内部(原点)から左右外部方向に向かつて連続した仮想的な座標値が設定されており、スクリーン領域内のX軸には、視点PZからスクリーン面3を見て左側から右側に亘つて「−4」から「+4」の間の仮想的な座標値が設定されている。
またY軸にはスクリーン領域の内部(原点)から上下外部方向に向かつて連続した仮想的な座標値が設定されており、スクリーン領域内のY軸には、視点PZからスクリーン面3を見て下側から上側に亘つて「−3」から「+3」の間の仮想的な座標値が設定されている。
さらに、オペレータの視点位置PZは、Z軸上において、その座標値が「−16」となる位置に仮想的に設定されている。
(3)オブジェクトビデオ信号を生成するための変換処理の説明
まず、図4A及び図4Bを参照しながら、ソースビデオ信号V0からオブジェクトビデオ信号V2を生成する変換処理を説明する。
まず、2次元のデータであるソースビデオ信号V0は、画像変換されずにそのままの状態でフレームメモリ12に記憶される。従つて、図4A及び図4Bに示すように、ソースビデオ信号V0は、ワールド座標系のXY平面上に存在することにより、当該XY平面に存在するスクリーン面3上にソースビデオ信号V0の画像が表示される。
因みに図4Aは、ワールド座標系の3次元座標で表される空間において、Z軸上の視点PZから、XY平面を見た状態を示ており、言い換えると、スクリーン面3に表示される映像を表している。また、図4Bは、ワールド座標系の3次元座標で表される空間において、Y軸の正側の視点位置からXZ平面を見た状態を示している。よって、XY平面に存在するソースビデオ信号V0は、スクリーン面3と重なつている。
かかるソースビデオ信号V0に対して、オペレータがコントロールパネルの操作子を操作することによつてワールド座標空間での3次元画像変換処理が施される。すなわち、各フレームごとに設定されるパラメータからなる3次元変換行列T0を、オペレータの操作によつてソースビデオ信号V0の各画素に施すことにより、ソースビデオ信号V0を3次元的な空間位置に変換する。図4Bにおいては、この3次元画像変換処理されたビデオ信号を、3次元オブジェクトビデオ信号V1として表すことにする。図4A及び図4Bの場合の3次元変換は、ソースビデオ信号V0をX軸を回転中心として約45°回転し、さらにZ軸の正方向に平行移動した場合の一例である。
3次元変換に用いられる3次元変換行列T0は、次式、
Figure 0003840663
というように表される。この3次元変換行列T0に使用される変換パラメータr11〜r33は、ソースビデオ信号V0を、X軸回り、Y軸回り及びZ軸回りに回転させるための要素、ソースビデオ信号をX軸方向、Y軸方向及びZ軸方向にスケールを夫々拡大/縮小させるための要素、及び、ソースビデオ信号を、X軸方向、Y軸方向及びZ軸方向に夫々スキューさせるための要素等を含むパラメータであって、パラメータlX、lY、lzは、X軸、Y軸及びZ軸方向にソースビデオ信号を夫々平行移動させるための要素を含んだパラメータであって、パラメータsは、ソースビデオ信号全体を、3次元の夫々の軸方向に、一様に拡大/縮小させるための要素を含んだパラメータである。
尚、この変換行列T0は、回転変換等の座標系と平行移動変換及び拡大縮小変換の座標系とを同じ1つの座標系内で表現しているので、4行4列の行列となり、一般的には、これを同次座標系(Homogeneous Coordinate)と称している。
かくして、XY平面に存在するソースビデオ信号V0が、3次元変換行列T0によって3次元オブジェクトビデオ信号V1で示される3次元的な位置に変換されると、次の透視変換処理に移る。
この透視変換処理とは、図4A及び図4Bに示すように、3次元オブジェクトビデオ信号V1を、透視変換行列P0によって、XY平面に透視させる変換処理のことである。言い換えると、Z軸上の仮想視点PZから3次元オブジェクトビデオ信号V1を見たとき、XY平面に透視されるビデオ信号のイメージを求める変換である。図4Bでは、このようにXY平面に透視されたビデオ信号を、2次元のオブジェクトビデオ信号V2と表している。図4Bの場合、XY平面上のスクリーン面3に透視されたオブジェクトビデオ信号V2は、仮想視点PZから見てスクリーン面3の奥行き側にあたかも3次元オブジェクトビデオ信号V1が存在するかのようなビデオイメージである。
この透視変換行列P0は、次式、
Figure 0003840663
によつて表される。この透視変換行列P0のパラメータPzは、3次元変換ビデオ信号V2をXY平面上に透視する際に、遠近法を適用するためのパースペクテイブ値である。すなわち図4Bの場合、3次元空間における3次元オブジェクトビデオ信号V1は、XY平面に対して約45°傾いた状態であり、これを仮想視点PZから見ると、当該仮想視点PZからの距離が遠い部分は小さく見え、近い部分は大きく見える。従つてパースペクティブを示すパラメータPzを用いることにより、XY平面に透視される2次元のオブジェクトビデオ信号V2は、3次元空間にある3次元オブジェクトビデオ信号V1を仮想視点PZからの距離に応じて変換したものとなる。
3次元オブジェクトビデオ信号V1の透視変換によるスクリーン面3上への変換位置は、仮想視点PZとスクリーン面3との距離、及び、仮想視点PZと3次元オブジェクトビデオ信号V1との距離に応じて変化するものであり、仮想視点PZの位置に応じてパースペクテイブ値Pzをオペレータが設定することにより、仮想視点PZの位置に応じた透視変換を行うことができる。通常、視点PZの位置がz軸の座標値「−16」であることから、パースペクテイブ値Pzは「1/16」が基準値となるように設定されている。
以上のように、ソースビデオ信号V0から2次元のオブジェクトビデオ信号V2を生成するための変換処理は、3次元変換行列T0によってソースビデオ信号V0から3次元オブジェクトビデオ信号V1を得るための空間的画像変換ステツプと、当該空間的画像変換ステツプによつて得られた3次元オブジェクトビデオ信号V1を透視変換行列P0によつて2次元のオブジェクトビデオ信号V2に変換する透視変換ステツプとから構成される。従つて、ソースビデオ信号V0から2次元のオブジェクトビデオ信号V2を得るための変換行列Tobjは、3次元変換行列T0と透視変換行列P0との乗算式として、次式、
Figure 0003840663
によつて表される。
ここで、本発明の特殊効果装置を用いた画像処理装置は、外部から供給された2次元のソースビデオ信号V0を、一旦、フレームメモリ12に書込み、このフレームメモリ12に対して演算された2次元の読出しアドレス(XS,YS)を供給することにより、当該フレームメモリ12から読み出されるビデオ信号に対してオペレータが所望とする空間画像変換(3次元画像変換)を施すことができる。従つてフレームメモリ12に記憶されるソースビデオ信号V0、及び、フレームメモリ12から読み出されるオブジェクトビデオ信号V2は、共に、2次元のデータである。つまり、この2次元の読出しアドレス(XS,YS)の演算においては、3次元空間上のZ軸方向のデータは、実質的に使用されない。
従つて、(3)式のZ軸方向の成分をを演算するための3行目及び3列目のパラメータは、フレームメモリ12に対する読出しアドレスを演算する際には必要とされない。
従つて、実際の2次元の読出しアドレスの演算に必要なパラメータを有した3次元変換行列をT33とすると、当該行列T33は、(3)式から3行目及び3列目のパラメータを除いた次式、
Figure 0003840663
によって表すことができる。
ここで、フレームメモリ12上の位置ベクトルと、モニタスクリーン3上の位置ベクトルとの関係について説明する。
図5Aにおいて、フレームメモリ12上の2次元のアドレスを(XM、YM)及び位置ベクトルを〔XMM〕とし、モニタスクリーン3上のアドレスを(XS、YS)及び位置ベクトルを〔XSS〕とする。このフレームメモリ12上の2次元の位置ベクトル〔XMM〕を、同次座標系で表現すると、ベクトル〔xmm0〕と表すことができる。またモニタスクリーン55上の位置ベクトル〔XSS〕を同次座標系で表現すると、ベクトル〔xss 1〕と表すことができる。
なお、この同次座標系のパラメータ「H0」は、ベクトルの大きさの拡大及び縮小率を表すパラメータである。
かくしてフレームメモリ12上の位置ベクトル〔xmm0〕に対して、3次元変換行列T33を作用させることによつて、フレームメモリ12上の位置ベクトル〔xmm0〕がモニタスクリーン3上の位置ベクトル〔xss 1〕に変換される。従つて、フレームメモリ12上の位置ベクトル〔xmm0〕とモニタスクリーン3上の位置ベクトル〔xss 1〕との関係式は、次式、
Figure 0003840663
によつて表すことができる。
なお、フレームメモリ12上の位置ベクトル〔xmm0〕において使用されている同次座標系のパラメータ「H0」及び、モニタスクリーン3上の位置ベクトル〔xss 1〕において使用されている同次座標系のパラメータ「1」との関係は、3次元変換行列T33によつて、フレームメモリ12上の2次元の位置ベクトル〔xmm〕が、モニタスクリーン3上の2次元の位置ベクトル〔xss〕に変換され、フレームメモリ12上の2次元の位置ベクトル〔xmm〕の拡大縮小率が「H0」が、モニタスクリーン3上の同次座標系の位置ベクトル〔xss〕の拡大縮小率「1」となるように変換されることを表している。
このように、(5)式は、フレームメモリ12上の点に対応するモニタスクリーン2上の点を行列T33によつて求める関係式である。ここで、特殊効果装置を用いた画像処理装置では、ソースビデオ信号を変換前の状態でフレームメモリ12に記憶し、変換行列T33によつて得られたモニタスクリーン3上の点に対応するフレームメモリ12の点を読出しアドレスによつて指定することにより、ソースビデオ信号に対して空間的な画像変換を施すようになされている。つまり、フレームメモリ12に書き込む際に、画像変換が行われるのではなくて、フレームメモリ12から読み出される際に、画像変換が行われる。
このような画像処理装置においては、フレームメモリ12上の点に対応するモニタスクリーン3上の点を求めるような(5)式による演算を行うのではなく、モニタスクリーン3上の点に対応するフレームメモリ12上の点を求める必要がある。従つて(5)式を変換して、次式、
Figure 0003840663
によつて表される関係式を用いることにより、モニタスクリーン3上の点に対応するフレームメモリ12上の点を求めることができる。よって、この式(6)に従って、モニタスクリーン3上の位置ベクトル〔xss 1〕が指定されると、変換行列T33 -1によつてフレームメモリFM上の位置ベクトル〔xmm0〕が演算される。因みに、この変換行列T33 -1は、変換行列T33の逆行列である。
次に、フレームメモリFM上の2次元の位置ベクトル〔XMM〕を求めるために、変換行列T33及び逆行列T33 -1を以下のようにする。すなわち、変換行列T33の各要素を、
Figure 0003840663
とおき、逆行列T33 -1のパラメータを、次式、
Figure 0003840663
のようにおくことにする。
(8)式を(6)式に代入して、次式、
Figure 0003840663
となる。よつて、次式、
Figure 0003840663
の関係式が得られる。
ここで、フレームメモリ12上の同次座標系の位置ベクトル〔xmm0〕を、フレームメモリ12上の2次元の位置ベクトル〔XMM〕に変換する場合について説明する。
2次元の位置ベクトル〔XMM〕を同次座標系で表すときに使用するパラメータ「H0」は、同次座標系の位置ベクトル〔xmm〕の拡大縮小率を表すパラメータであることから、同次座標系の位置ベクトルを2次元の位置ベクトルに変換するためには、同次座標系の位置ベクトルの方向を示すパラメータ「xm」及び「ym」を、同次座標系の位置ベクトルの拡大縮小率を表すパラメータ「H0」で正規化すれば良い。従つて、モニタスクリーン3上の2次元の位置ベクトルの各パラメータ「XS」及び「YS〕は、次式、
Figure 0003840663
と表すことができる。モニタスクリーン3上の同次座標系のベクトル〔xss 1〕を、2次元の位置ベクトル〔XSS〕に変換する場合についても同様にして、同次座標系の位置ベクトルの方向を示すパラメータ「xs」及び「ys」を、同次座標系の位置ベクトルの拡大縮小率を表すパラメータ「1」で正規化すれば良い。従って、モニタスクリーン3上の2次元の位置ベクトルの各パラメータ「XS」及び「YS」は、次式、
Figure 0003840663
と表すことができる。
よつて、フレームメモリ12に対して供給される2次元の読み出しアドレス(XM、YM)は(10)式から、次式、
Figure 0003840663
として求めることができる。
次にT33 -1の各パラメータb11〜b33を求める。
Figure 0003840663
になる。ただし、
Figure 0003840663
である。ここで、a11〜a33の値は(7)式の関係から、
Figure 0003840663
であるから、これを(15)式〜(24)式に代入することにより、
Figure 0003840663
Figure 0003840663
と表わすことができる。
かくして、(28)式〜(37)式の値を(13)式及び(14)式に代入することにより、フレームメモリ12に供給される読出しアドレス(XM、YM)は、
Figure 0003840663
として与えられる。ただし、H0は次式、
Figure 0003840663
である。よつてフレームメモリ12に供給される読み出しアドレス(XM、YM)を、オペレータの所望の空間的画像変換装置によつて決定される3次元変換行列T0の各パラメータ(r11〜r33、lx、ly、lz及びs)、及び、予め設定されるパラメータであるパースペクテイブ値Pzを用いて表すことができる。
従つて(6)式〜(40)式に対して、モニタスクリーン3のラスタスキヤン順に対応するようにアドレッシングするスクリーンアドレス(XS、yS)を供給すると、その供給されたスクリーンアドレスに対応したフレームメモリ12上における読み出しアドレス(XM、YM)を、順に演算することができる。
(4)シャドウ座標系の説明
次に、図6を参照しながらシャドウ座標系について説明する。シャドウ座標系とは、ワールド座標系と同様に、XS、YS及びZS軸からなる3次元の直交座標系によって定義される座標系である。図6に示すように、オブジェクトビデオ信号Vobjに対して付与されるシャドウをシャドウビデオ信号Vshadowとすると、シャドウビデオ信号Vshadowが投影される面をシャドウ座標系のXY面とし、これをシャドウ面と称する。オブジェクトビデオ信号Vobjのシャドウを付与するための光源の存在する方向をシャドウ座標系のZ軸の負方向とする。以下に説明するように、本発明の特殊効果装置は、この光源として、点光源を使用してシャドウを生成する点光源モードと、平行光源を使用してシャドウを生成する平行光源モードとを有し、オペレータが自由に設定することがでる。また、このワールド座標系のX、Y及びZ軸に対する、シャドウ座標系のXS、YS及びZS軸の夫々の角度は、オペレータが任意に角度を設定することができる。
(5)点光源モード時のシャドウビデオ信号を生成するための変換処理の説明
まず、図7A及び図7Bを参照しながら、点光源モードのときにおいて、ソースビデオ信号を変換してシャドウビデオ信号V4を得るための変換処理について説明する。尚、図7A及び図7Bは、図4A及び図4Bと同じように、図7Aは、ワールド座標系のZ軸上に設定された視点PZからワールド座標系のXY平面を見たときの図であって、図7Bは、ワールド座標系のX軸の正方向の位置からワールド座標系のYZ平面を見たときの図である。
まず、先に図4A及び図4Bを用いて説明したように、3次元変換行列T0によって、3次元の空間的位置に変換された3次元オブジェクトビデオ信号V1は、点光源による透視変換行列PSPOTによってシャドウ座標のXSS平面へ透視変換される。これは、点光源60を視点としたときに、点光源60から、3次元オブジェクトビデオ信号V1を見た時に、シャドウ座標系のXSS平面に透視されるビデオ信号を求めることを意味する。図7Bにおいては、シャドウ座標系のXSS平面に透視されたビデオ信号を、3次元シャドウビデオ信号V3として表すことにする。この点光源による透視変換行列PSPOTの詳しい説明については、後述する。
次に、3次元シャドウビデオ信号V3を、先に説明した透視変換行列P0によって、ワールド座標系のXY平面に透視されるように透視変換する。これは、Z軸上の仮想視点PZから、3次元シャドウビデオ信号V3を見た時に、ワールド座標系のXY平面に透視されるビデオ信号を求めることを意味する。図7Bにおいては、ワールド座標系のXY平面に透視されたビデオ信号を、2次元のシャドウビデオ信号V4として表すことにする。
図7Bに示される以上の処理をまとめる。点光源モードのときにおいて、2次元のソースビデオ信号V0から2次元のシャドウビデオ信号V4を求めるための変換処理は、オブジェクトビデオ信号V0を3次元変換行列T0によって3次元変換して3次元オブジェクトビデオ信号V1を得るための3次元変換ステップと、この3次元オブジェクトビデオ信号V1を、点光源による透視変換行列PSPOTによってシャドウ座標系のXSS平面に透視して3次元シャドウビデオ信号V3を得るための透視変換ステップと、この3次元シャドウビデオ信号V3を、透視変換行列P0によってワールド座標系のXY平面に透視して、2次元のシャドウビデオ信号V4を得るためのステップとから構成される。よって、2次元のソースビデオ信号V0から2次元のシャドウビデオ信号V4を求めるための変換行列Tshadow’は、次式、
Figure 0003840663
と表すことができる。
次に、図8及び図9を参照して、点光源を使用したときの点光源による透視変換行列PSOPTについて説明する。図8は、シャドウ座標系のXS軸方向からYSS平面を見た時の図であって、点光源60と3次元オブジェクトビデオV1と3次元シャドウビデオV3との位置関係を示している。尚、この点光源による透視変換行列PSOPTは、点光源を使用した点光源モードの時に、3次元オブジェクトビデオV1から3次元シャドウビデオV3を求めるための変換行列である。
図9Aは、点光源60に対する変換処理のフローを示し、図9Bはオブジェクトビデオ信号に対する変換処理のフローを示している。
まず、図9Aを参照して点光源60に対する変換処理のフローを説明する。
ステップSP1では、変換行列F-1によって、ワールド座標系で示される点光源60の位置をシャドウ座標系に変換する。この理由は、後のステップSP5で説明する透視変換行列PS0’は、ワールド座標系での透視変換行列ではなくて、シャドウ座標系での透視変換行列であるからである。よって、透視変換行列PS0’によって、3次元オブジェクトビデオ信号V1をシャドウ座標系のXSS平面に透視させる場合には、ワールド座標系で表される点光源60の位置をシャドウ座標系に変換する必要がある。
ここで、この変換行列F-1に関して具体的に説明する。まず、ワールド座標系のX軸に対するシャドウ座標系のXS軸の回転角をθX、ワールド座標系のY軸に対するシャドウ座標系のYS軸の回転角度をθY、ワールド座標系のZ軸に対するシャドウ座標系のZS軸の回転角度をθZ、シャドウ座標系の原点を(xS0,yS0,zS0)とする。ここで、ワールド座標系からシャドウ座標系への変換行列F-1に対して、逆行列の関係にあるシャドウ座標系からワールド座標系への変換行列Fは、回転行列と移動行列の積で簡単に表現できるので、まず、シャドウ座標系からワールド座標系への変換行列Fを求めることにする。このシャドウ座標系からワールド座標系への変換行列Fは、次式、
Figure 0003840663
と表すことができる。但し、行列RX(θX)、行列RY(θY)及び行列RZ(θZ)は、回転のための行列であって、
Figure 0003840663
と表すことができる。また行列L(xS0,yS0,zS0)は、平行移動のための行列であって、次式
Figure 0003840663
と表すことができる。
よって、シャドウ座標系からワールド座標系への変換行列Fと、ワールド座標系からシャドウ座標系への変換行列F-1とは逆行列の関係にあるので、変換行列F-1は、
Figure 0003840663
と表すことができる。但し、行列RX(−θX)、行列RY(−θY)及び行列RZ(−θZ)は、回転のための行列であって、
Figure 0003840663
と表すことができる。また、行列L(−XS0,−YS0,−ZS0)は、平行移動のための行列であって、
Figure 0003840663
と表すことができる。
ステップSP2では、図8に示すように、平行移動行列TXsYs -1によって、点光源60の位置を、ZS軸上の仮想点光源61の位置に移動する。この理由は、3次元オブジェクトビデオV1に対する3次元シャドウビデオV3を求めるためには、点光源60の位置から、3次元オブジェクトビデオV1を見たときに、3次元オブジェクトビデオV1をシャドウ座標系のXSS平面に透視させることによって3次元シャドウビデオV3を得ることができる。但しこの透視変換処理を行うためには、視点とされる点光源がZS軸上に位置する必要がある。よって、平行移動行列TXsYS -1によって、点光源60の位置を、ZS軸上の仮想点光源61の位置に平行移動する。
ここで、予めオペレータによって設定された点光源60の座標を(xL,yL,ZL)とすると、この平行移動行列TXsYS -1は、
Figure 0003840663
と表すことができる。
ステップSP1及びステップSP2によって、点光源に対する変換処理は終了する。
次に、図9Bを参照して3次元オブジェクトビデオ信号V1から3次元シャドウビデオ信号を生成するための透視変換行列PSPOTについて説明する。
ステップSP3では、ステップSP1と同様に、変換行列F-1によって、ワールド座標系で示される3次元オブジェクトビデオ信号V1をシャドウ座標系に変換する。この理由は、後述するステップSP5において使用される透視変換行列PS0’は、ワールド座標系での透視変換行列ではなくて、シャドウ座標系での透視変換行列であるためである。よって、透視変換行列PS0’によって、3次元オブジェクトビデオV1をシャドウ座標系のXSS平面に透視させる場合には、ワールド座標系で表される3次元オブジェクトビデオV1をシャドウ座標系に変換する必要がある。
ステップSP4では、ステップSP2と同様に、図8に示すように、平行移動行列TXsYs -1によって、3次元オブジェクトビデオ信号V1を、シャドウ座標系のXSS平面に平行に移動する。図8では、平行移動されたビデオ信号を仮想3次元オブジェクトビデオ信号V1’と表すことにする。このように平行移動する理由は、ステップSP2で、平行移動行列TXsYS -1によって、点光源60の位置を、ZS軸上の仮想光源61に位置するように平行移動したので、この点光源60に対する3次元オブジェクトビデオ信号V1の相対的な位置関係と、仮想点光源61に対する仮想オブジェクトビデオ信号V1’の相対的な位置関係とが変化しないように、平行移動行列TXsYS -1によって、3次元オブジェクトビデオ信号V1も平行移動する必要があるからある。
次に、ステップSP5では、透視変換行列PSO’によって、仮想3次元オブジェクトビデオ信号V1’を、シャドウ座標系のXSS平面に透視させる。図8では、シャドウ座標系のXSS平面に透視されたビデオ信号を、仮想3次元シャドウビデオ信号V3’と表すことにする。この仮想3次元シャドウビデオ信号V3’は、仮想点光源61を視点として、仮想点光源61から仮想3次元オブジェクトビデオ信号V1’を見たときに、シャドウ座標系のXSS平面に透視されるビデオ信号である。
具体的には、この透視変換行列PSO’は、式(2)で示される透視変換行列P0と視点PZとの関係から、透視する際の視点が仮想点光源61の位置、即ち、(0,0,zL)の位置あると考えれば良いので、式(2)において、「PZ」を「−1/zL」に置き換えることによって透視変換行列PSO’が得られる。よって、透視変換行列PSO’は、
Figure 0003840663
と表すことができる。
次に、ステップSP6では、平行移動行列TXsYsによって、仮想3次元シャドウビデオ信号V3’を、シャドウ座標系のXSS平面に平行に移動する。図8では、平行移動されたビデオ信号を3次元シャドウビデオ信号V3と表すことにする。図8からもわかるように、3次元シャドウビデオ信号V3は、点光源60を視点とし、点光源60の位置から3次元オブジェクトビデオ信号V1を見たときに、シャドウ座標系のXSS平面に透視されるビデオ信号である。このように移動する理由は、ステップSP4で、平行移動行列TXsYs -1によって、3次元オブジェクトビデオ信号V1を平行移動したので、その平行移動行列TXsYs -1による平行移動処理を元に戻すためである。
ここで、平行移動行列TXsYS -1と平行移動行列TXsYSは、逆行列の関係にあるので、平行移動行列TXsYSは、
Figure 0003840663
と表すことができる。
次に、ステップSP7において、式(42)によって示される変換行列Fによって、シャドウ座標系で表される3次元シャドウビデオ信号V3を、ワールド座標系に変換する。これによって、ワールド座標系の座標値で示される3次元シャドウビデオ信号V3を得ることができる。
図9Bのフローに示される処理をまとめる。ワールド座標系の3次元オブジェクトビデオ信号V1からワールド座標系の3次元シャドウビデオ信号を求めるための処理は、3次元オブジェクトビデオ信号V1をワールド座標系からシャドウ座標系に変換するステップ(SP3)と、シャドウ座標系において、3次元オブジェクトビデオ信号をシャドウ座標系のXSS面に投影してシャドウ座標系の3次元シャドウビデオ信号を生成するステップ(SP4,SP5及びSP6)と、シャドウ座標系の3次元シャドウビデオ信号を、シャドウ座標系からワールド座標系に変換するステップ(SP7)とから構成される。
従って、ワールド座標系の3次元オブジェクトビデオ信号V1からワールド座標系の3次元シャドウビデオ信号を求めるための点光源による透視変換行列PSOPTは、変換行列F-1と、平行移動行列TXsYs -1と、透視変換行列PS0’と、平行移動行列TXsYs -1と、変換行列F-1の乗算式で表すことができるので、次式
Figure 0003840663
と表すことができる。
よって、この変換行列PSOPTを式(41)に代入すると、点光源モードのときに、2次元のソースビデオ信号から2次元のシャドウビデオ信号V4を求めるための変換行列Tshadow’は、
Figure 0003840663
と表すことができる。
ここで、この変換行列Tshadow’に基づいて、シャドウビデオ信号V4をフレームメモリ22から読み出すための読み出しアドレスを演算する方法は、式(3)に示される行列Tobjに基づいて、オブジェクトビデオ信号V2をフレームメモリ12から読み出すための読み出しアドレス(XM,YM)を求める演算方法と全く同様である。つまり、式(3)から式(14)に示される演算と全く同様の演算方法である。
具体的には、この変換行列Tshadow’は、4行4列の行列であるので、式(4)と同様に、Z軸方向の成分(3行目及び3列目)を除いた行列をT33shadow’とし、この行列T33shadow’の逆行列の(T33shadow’)-1の各パラメータを、次式、
Figure 0003840663
とおく。また、シャドウ信号発生部20の読み出しアドレス発生回路24から供給される読み出しアドレスを(XM’,YM’)とする。式(3)から式(14)に至るまでの演算方法を参照すると、この読み出しアドレス(XM’,YM’)は、次式、
Figure 0003840663
と表すことができる。
よつて、フレームメモリ22に供給される読み出しアドレス(XM’、YM’)を、オペレータの所望の空間的画像変換処理によって決定される3次元変換行列T0の各パラメータ(r11〜r33、lx、ly、lz及びs)、及び、予め設定されるパラメータであるパースペクテイブ値Pz、点光源の位置(xL,yL,zL)、シャドウ座標系の各軸の回転角(θX,θY,θZ)、シャドウ座標系の原点の位置(xS0,yS0,zS0)を用いて表すことができる。
従つて(6)式〜(40)式に対して、モニタスクリーン3のラスタスキヤン順に対応するようにアドレッシングするためのスクリーンアドレス(XS、YS)を供給すると、その供給されたスクリーンアドレスに対応したフレームメモリ22上における読み出しアドレス(XM’,YM’)を、順に演算することができる。これによって、2次元のオブジェクトビデオ信号V2に対応した2次元のシャドウビデオ信号V4を生成することができる。
(6)平行光源モード時において、シャドウビデオ信号を生成するための変換処理の説明。
まず、図10A及び図10Bを参照しながら、平行光源を使用した平行光源モードの時に、3次元オブジェクトビデオ信号V1から3次元シャドウビデオ信号V5を求めるための変換処理について説明する。尚、図10A及び図10Bは、図7A及び図7Bと同じように、図10Aは、ワールド座標系のZ軸上に設定された視点PZからワールド座標系のXY平面を見たときの図であって、図10Bは、ワールド座標系のX軸の正方向の位置からワールド座標系のYZ平面を見たときの図である。
まず、3次元変換行列T0によって、3次元の空間的位置に変換された3次元オブジェクトビデオ信号V1は、平行光源による透視変換行列PPARAによって、シャドウ座標のXSS平面へ投影される。図10Bにおいては、シャドウ座標系のXSS平面に透視されたビデオ信号を、3次元シャドウビデオ信号V5として表すことにする。この平行光源による透視変換行列PPARAは、3次元オブジェクトビデオ信号V1を透視変換して、3次元シャドウビデオ信号V5を求めるための変換行列である。
次に、3次元シャドウビデオ信号V5は、先に説明した透視変換行列P0によって、ワールド座標系のXY平面に投影される。これは、Z軸上の仮想視点PZから、3次元シャドウビデオ信号V5を見た時に、ワールド座標系のXY平面に透視されるビデオ信号を求めることを意味する。図10Bにおいては、ワールド座標系のXY平面に透視されたビデオ信号を、2次元のシャドウビデオ信号V6として表すことにする。
図11Bのフローに示される以上の処理をまとめる。平行光源モードにおいて、2次元のソースビデオ信号V0から2次元のシャドウビデオ信号V6を求めるための変換処理は、ソースビデオ信号V0を3次元変換行列T0によって3次元変換して3次元オブジェクトビデオ信号V1を得るための3次元変換ステップと、この3次元オブジェクトビデオ信号V1を、平行光源による透視変換行列PPARAによってシャドウ座標系のXSS平面に透視して3次元シャドウビデオ信号V5を得るための透視変換ステップと、この3次元シャドウビデオ信号V5を、透視変換行列P0によってワールド座標系のXY平面に透視して、2次元のシャドウビデオ信号V6を得るためのステップとから構成される。よって、2次元のソースビデオ信号V0から2次元のシャドウビデオ信号V6を求めるための変換行列Tshadow”は、次式、
Figure 0003840663
と表すことができる。
次に、図11から図14を参照して、平行光源を使用した時の平行光源による透視変換行列PPARAについて説明する。
図11Aは、平行光源70に対する変換処理のフローを示し、図11Bは、3次元オブジェクトビデオ信号V1に対する変換処理のフローを示している。
まず、図11Aを参照しながら、平行光源70に対する変換処理のフローを説明する。
ステップSP11では、ワールド座標系における球面座標によって定義されている平行光源70の座標を、ワールド座標系の直交座標に変換する。平行光源の位置は、直交座標系で表すよりも、球面座標系で表すほうが一般的である。球面座標系とは、平行光源の位置を「半径(r)」、「緯度(α)」及び「経度(β)」で表す座標系である。図12Aは、ワールド座標系において、直交座標と球面座標の関係を示した図である。図12Aに示すように、直交座標系と球面座標系の関係は、緯度(α)の基準をY軸の負方向とし、経度の基準をXY平面としている。つまり、球面座標の赤道面が直交座標のXY平面に一致し、緯度0(rad)、経度(rad)の方向がY軸のマイナス方向に一致する。よって、球面座標で定義された平行光源70の位置を(r,α,β)、直交座標に変換された平行光源の位置を(xL,yL,zL)とすると、この光源位置(xL,yL,zL)は、
Figure 0003840663
と表すことができる。よって、球面座標で定義された光源の位置を直交座標に変換するためには、この式(61)に、オペレータによって設定された球面座標系の光源位置(r,α,β)を代入することによって、直交座標に変換された光源位置(xL,yL,zL)を求めることができる。
ステップSP12では、変換行列F-1によって、平行光源の座標をワールド座標系からシャドウ座標系に変換する。変換行列F-1については、ステップSP1で説明したので、説明は省略する。シャドウ座標系に変換された光源の位置を(xL’,yL’,zL’)とすると、同次座標系であらわしたワールド座標系での光源のベクトル〔xLLL 1〕と、同次座標系であらわしたシャドウ座標系での光源のベクトル〔xL’ yL’ zL’ 1〕と、変換行列F-1との関係は、次式、
Figure 0003840663
と表すことができる。
ステップSP13では、ステップSP12で求めされたシャドウ座標系における直交座標での光源の位置(xL’,yL’,zL’)を、シャドウ座標系における球面座標で表すように変換する。図12Bは、シャドウ座標系での直交座標と球面座標との関係を示すための図である。図12Bに示すように、シャドウ座標系における直交座標系と球面座標系の関係は、緯度(αS)の基準をYS軸の負方向とし、経度(βS)の基準をXSS平面としている。つまり、球面座標の赤道面が直交座標のXSS平面に一致し、緯度0(rad)、経度0(rad)の方向がYS軸のマイナス方向に一致する。
よって、シャドウ座標系における直交座標で表された光源の位置(xL’,yL’,zL’)と、球面座標で表された光源の位置(r’,α’,β’)との関係は、
Figure 0003840663
によって表される。よって、ステップSP12で求めされた光源の位置(xL’,yL’,zL’)を、この式(63)に代入することによって、平行光源70の位置を、シャドウ座標系における球面座標で表すことができる。
次に、ステップSP14では、図13に示すように、回転行列RZ(−α’)によって、ステップSP13で求めされた平行光源の位置(r’,α’,β’)を、シャドウ座標系のZS軸の回りに−α’(rad)回転する。つまり、回転処理後の平行光源の位置は(r’,0,β’)と表すことができる。図13では、回転行列RZ(−α’)によって回転された光源を仮想平行光源71として表す。このように平行光源70の位置を回転することによって、図11に示すように、平行光源71の光束は、YSS平面に平行になる。このように、平行光源71の光束をYSS平面に平行になるように回転変換する理由は、後述するステップSP17において、オブジェクトビデオ信号V1を、透視変換行列PS0”によってシャドウ座標系のXSS平面に透視させる際に、入射する平行光源の光束がYSS平面に平行であると、3次元オブジェクトビデオ信号をXSS平面に透視させたとしても、XS軸方向の座標値が変化しないので、オブジェクトビデオ信号をXSS平面に透視させるための透視変換行列PS0”が非常に簡単に表せるからである。
具体的には、回転行列RZ(−α’)はZS軸回りの回転行列であるので、回転行列RZ(−α’)は、
Figure 0003840663
と表すことができる。
ステップSP11、ステップSP12、ステップSP13及びステップSP14によって、平行光源70に対する変換処理は終了する。
次に、図11Bを参照して、平行光源を使用した平行光源モードのときに、3次元オブジェクトビデオ信号V1から3次元シャドウビデオ信号V5を生成するための透視変換行列PPARAについて説明する。
ステップSP15では、ステップSP11と同様に、変換行列F-1によって、ワールド座標系で示される3次元オブジェクトビデオ信号V1をシャドウ座標系に変換する。この理由は、ステップSP11で説明した平行光源に対する処理と同様に、後述する透視変換行列PS0”は、ワールド座標系における透視変換行列ではなくて、シャドウ座標系における透視変換行列であるためである。よって、3次元オブジェクトビデオV1をシャドウ座標系のXSS平面に透視させる場合には、ワールド座標系で表される3次元オブジェクトビデオV1の各画素位置をシャドウ座標系に変換する必要がある。
ステップSP16では、ステップSP15でシャドウ座標系に変換されたオブジェクトビデオ信号V1を、回転行列RZ(−α’)によって、Z軸の回りに−α’(rad)回転する。この理由は、図13に示すように、ステップSP14において、回転行列RZ(−α’)によって平行光源70の位置(r’,α’,β’)を、Z軸の回りに−α’(rad)回転したので、その平行光源70の回転処理と対応するように、オブジェクトビデオ信号V1を、回転する必要があるからである。尚、図13に示すように、回転行列RZ(−α’)によってZS軸の回りに−α’(rad)回転された3次元オブジェクトビデオ信号を、仮想3次元オブジェクトビデオ信号V1”と表すことにする。よって、シャドウ座標系の原点に対する、3次元オブジェクトビデオ信号V1と平行光源70の相対的な位置関係と、シャドウ座標系の原点に対する、仮想3次元オブジェクトビデオ信号V1”と仮想平行光源71の相対的な位置関係は、全く同じである。
次に、ステップSP17において、透視変換行列PS0”によって、仮想3次元オブジェクトビデオ信号V1”を、シャドウ座標系のXSS平面に透視する。図14A及び図14Bを参照しながら、この透視変換行列を説明する。まず、図13、図14A及び図14Bに示すように、仮想オブジェクトビデオ信号V1”を、透視変換行列PS0”によってXSS平面に透視したビデオ信号を、仮想3次元シャドウビデオ信号V5”と表すことにする。図12Aは、この仮想3次元オブジェクトビデオ信号V1”と、仮想3次元シャドウビデオ信号V5”との位置関係を3次元的に表している図面であって、図12Bは、XS軸の正方向からYSS平面を見たときの仮想3次元オブジェクトビデオ信号V1”と、仮想3次元シャドウビデオ信号V5”との位置関係を表している図面である。ここで、仮想オブジェクトビデオ信号V1”上のある画素点を(x0,y0,z0)とし、この画素(x0,y0,z0)を透視変換行列PS0”によってXSS平面に透視した仮想シャドウビデオ信号V5上の画素点を(xS,yS,zS)とすると、図14Bに示される幾何学的な関係から、
Figure 0003840663
という関係が成り立つことが分かる。また、仮想オブジェクトビデオ信号V1”上の点(x0,y0,z0)と、仮想シャドウビデオ信号V5上の点(xS,yS,zS)及び透視変換行列PS0”との関係式は、次式
Figure 0003840663
によって表すことができる。よって、式(65)と式(66)とから、
Figure 0003840663
と表すことができる。
次に、ステップSP18において、回転行列RZ(α’)よって、仮想シャドウビデオ信号V5”をZS軸の回りに回転移動する。図13においては、回転移動されたビデオ信号を3次元シャドウビデオ信号V5として表している。図13からもわかるように、3次元シャドウビデオ信号V5は、3次元オブジェクトビデオ信号V1を、平行光源70によってシャドウ座標系のXSS平面に透視したビデオ信号である。このように移動する理由は、ステップSP16で、回転行列RZ(−α’)によって、3次元オブジェクトビデオ信号V1を回転移動したので、その回転行列RZ(−α’)による回転移動処理を元に戻すためである。
つまり、回転行列RZ(−α’)と回転行列RZ(α’)とは、逆行列の関係にあるので、回転行列RZ(α’)は、
Figure 0003840663
と表すことができる。
つぎに、ステップSP19では、式(42)によって示される変換行列Fによって、シャドウ座標系で表される3次元シャドウビデオ信号V5を、ワールド座標系に変換する。これによって、ワールド座標系の座標値で示される3次元シャドウビデオ信号V5を得ることができる。
図11Bのフローに示される処理をまとめると、ワールド座標系の3次元オブジェクトビデオ信号V1からワールド座標系の3次元シャドウビデオ信号V5を求めるための処理は、3次元オブジェクトビデオ信号V1をワールド座標系からシャドウ座標系に変換するステップ(SP15)と、シャドウ座標系において、3次元オブジェクトビデオ信号をシャドウ座標系のXSS面に投影してシャドウ座標系の3次元シャドウビデオ信号を生成するステップ(SP16,SP17及びSP18)と、シャドウ座標系の3次元シャドウビデオ信号を、シャドウ座標系からワールド座標系に変換して、ワールド座標系の3次元シャドウビデオ信号V5を得るためのステップ(SP19)とから構成される。
従って、ワールド座標系の3次元オブジェクトビデオ信号V1からワールド座標系の3次元シャドウビデオ信号V5を求めるための透視変換行列PPARAは、変換行列F-1と、回転行列RZ(−α’)と、透視変換行列PS0”と、回転行列RZ(α’)と、変換行列F-1の乗算式で表すことができるので、次式
Figure 0003840663
と表すことができる。
よって、この変換行列PPARAを式(60)に代入すると、平行光源モードのときに、2次元のソースビデオ信号から2次元のシャドウビデオ信号V4を求めるための変換行列Tshadow”は、
Figure 0003840663
と表すことができる。
ここで、この変換行列Tshadow”に基づいて、2次元のシャドウビデオ信号V6をフレームメモリ22から読み出すための読み出しアドレスを演算する演算方法は、式(3)に示される行列Tobjに基づいて、2次元のオブジェクトビデオ信号V2をフレームメモリ12から読み出すための読み出しアドレス(XM,YM)を求める演算方法と全く同様である。つまり、式(3)から式(14)に示される演算と全く同様の演算方法である。
具体的には、この行列Tshadow”は、4行4列の行列であるので、式(4)と同様に、Z軸方向の成分(3行目及び3列目)を除いた行列をT33shadow”とし、この変換行列T33shadow”の逆行列(T33shadow”)-1の各パラメータを、次式
Figure 0003840663
とおく。また、シャドウ信号発生部20の読み出しアドレス発生回路24から供給される読み出しアドレスを(XM”,YM”)とする。式(3)から式(14)に至るまでの演算方法を参照すると、この読み出しアドレス(XM”,YM”)は、次式、
Figure 0003840663
と表すことができる。
よつて、フレームメモリ22に供給される読み出しアドレス(XM”、YM”)を、オペレータの所望の空間的画像変換処理によつて決定される3次元変換行列T0の各パラメータ(r11〜r33、lx、ly、lz及びs)、及び、予め設定されるパラメータであるパースペクテイブ値Pz、点光源の位置(xL,yL,zL)、シャドウ座標系の各軸の回転角(θX,θY,θZ)、シャドウ座標系の原点の位置(xS0,yS0,zS0)を用いて表すことができる。
従つて(6)式〜(40)式に対して、モニタスクリーン3のラスタスキヤン順に対応するようにアドレッシングするためのスクリーンアドレス(XS、YS)を供給すると、その供給されたスクリーンアドレスに対応したフレームメモリ22上における読み出しアドレス(XM”,YM”)を、順に演算することができる。これによって、2次元のオブジェクトビデオ信号V2に対応した2次元のシャドウビデオ信号V6を生成することができる。
(7)シャドウ座標系の設定に関する説明
先に説明したように、オブジェクトビデオ信号に対するシャドウが投影されるシャドウ面を規定するためのシャドウ座標系を設定するためには、ワールド座標系のX軸、Y軸及びZ軸に対するシャドウ座標系のXS軸、YS軸及びZS軸の夫々の回転角(θX、θY、θZ)、ワールド座標系の原点に対するシャドウ座標系の原点位置(xS0,yS0,zS0)の設定が必要である。本発明の特殊効果装置においては、前述したように、オペレータが任意にシャドウ座標系のXS軸、YS軸及びZS軸の各回転角及びシャドウ座標系の原点を設定することで、ようになっている。式(42)及び式(47)に対して、各軸の回転角(θX、θY、θZ)及び原点の座標(xS0,yS0,zS0)が代入される。しかし、このようにシャドウ座標系の原点としてオペレータが適当な位置を設定すると、図15Aに示すように、3次元変換されたオブジェクトビデオ信号V1と3次元シャドウビデオ信号V5とが、空間的に離れてしまうことがある。このようなことが起こる理由は、3次元オブジェクトビデオ信号V1が、シャドウ面上に存在していない、つまり、言い換えると、シャドウ面上に3次元オブジェクトビデオ信号V1が存在するように、シャドウ面を設定することができていないということである。もちろん、オペレータが、図15Aに示されるようなシャドウ面を望んでいるのであれば問題は無い。しかし、光源からの光によって、地面上に存在するある物体に対してシャドウが付けられるような効果を得るためには、この地面をシャドウが投影されるシャドウ面として設定する必要がある。つまり、空間的に、3次元オブジェクトビデオ信号V1がシャドウ面上に存在するように、シャドウ座標系の原点を設定する必要がある。そのために、本発明の特殊効果装置は、シャドウ座標系の原点を自動的に設定するための原点設定モードを有している。
この原点設定モードとは、まず、オペレータがソースビデオ信号V0上のある点を指定する。この指定された点を、3次元変換行列T0によって3次元空間上に変換し、その3次元空間上に変換されたオブジェクトビデオ信号Vobj上の対応する点を、シャドウ座標系の原点とする。これによって、3次元オブジェクトビデオ信号Vobj上の点にシャドウ座標系の原点が設定されるので、結果的に、3次元オブジェクトビデオ信号Vobjがシャドウ面上に存在することになる。
具体的には、図15Bに示されるように、ソースビデオ信号V0の右上の点をa、左上に点をb、左下の点をc、及び、右下の点をdとし、これに対応する3次元オブジェクトビデオ信号Vobj上の点を、a’、b’、c’及びd’とする。また、そのソースビデオ信号V0の4点をa、b、c及びdの夫々の座標を、(xa,ya,0)、(xb,yb,0)、(xc,yc,0)及び(xd,yd,0)とし、3次元オブジェクトビデオ信号Vobj上の点a’、b’、c’及びd’の夫々の座標を、(xa’,ya’,za’)、(xb’,yb’,zb’)、(xc’,yc’,zc’)及び(xd’,yd’,Zd’)とする。
次に、オレペレータによって、ソースビデオ信号V0上の点dが指定された場合を例にあげ説明する。オペレータによって指定されたソースビデオ信号V0上の点d(xd,yd,0)を、3次元変換行列T0によって変換したオブジェクトビデオ信号Vobj上の対応するは、d’(xd’,yd’,zd’)である。ここで、点d(xd,yd,0)と点d’(xd’,yd’,zd’)とを、夫々、同次座標系のベクトルであらわすと、ベクトル〔xdd 0 1〕、ベクトル〔xd’yd’zd’1〕となるので、これらのベクトルと、3次元変換行列T0との関係は、次式、
Figure 0003840663
と表すことができる。
よって、この式(73)により、
Figure 0003840663
という関係式が成り立つ。
よって、式(42)及び式(47)に示される移動行列Lのパラメータであるシャドウ座標系の原点(xS0,yS0,zS0)に、式(74)によって得られた(xd’,yd’,zd’)を代入することによって、3次元オブジェクトビデオ信号V1上の点にシャドウ座標系の原点が設定される。つまり、3次元空間上で、3次元オブジェクトビデオ信号V1がシャドウ面上に存在するように、シャドウ座標系が設定されたことになる。これによって、本発明の特殊効果装置は、太陽からの光によって、地上に存在する物体の影が地面上に投影されるような自然な効果を得ることができる。
(8)特殊効果装置の動作及び効果の説明
次に、この特殊効果装置の動作及び本発明の効果を説明する。
まず、オペレータは、コントロールパネル5に設けられた3次元ポインティングデバイスやキー等を操作して、本発明の特殊効果装置で使用される読み出しアドレスの演算に必要とされる各パラメータを入力する。ここで、この読み出しアドレスの演算に必要なパラメータとは、パースペクティブ値Pz、シャドウ座標系のXS軸、YS軸及びZS軸の夫々の回転角(θX、θY、θZ)、シャドウ座標系の原点(xS0,yS0,zS0)、平行光源であるか点光源であるかを示す光源の種類、その光源の位置(xL,yL,zL)又は(r,α,β)等である。また、シャドウ座標系の原点を自動設定するモードが指定されている場合には、ソースビデオ信号の4隅の点(a〜d)のうちのどれが指定されているかを示すデータが、コントロールパネル5から入力される。
まず、光源の種類として、点光源が指定された場合を例にあげ説明する。
CPU8は、コントロールパネル5から入力されるこれらのパラメータを受け取り、リアルタイムに読み出しアドレスの演算に反映させる。具体的には、CPU8は、コントロールパネル5から供給されるパラメータの変化をフレーム周期で監視し、且つ、供給されたパラメータに基づいて読み出しアドレスを演算するためのパラメータ(b11〜b33,b11’〜b33’)をフレーム周期で演算している。よって、オペレータの操作に応じてフレーム周期でこれらのパラメータをリアルタイムに可変することができ、そして、その可変されたパラメータに応じて、リアルタイムに読み出しアドレスが演算される。また、CPU8は、これらのパラメータを、設定値としてフレーム毎にRAM7に記憶することもできる。尚、この段階では、オペレータは、ソースビデオ信号V0に対して3次元画像変換の指示を行っていないので、モニタスクリーン3には、ソースビデオ信号V0が表示されている。
次に、オペレータは、コントロールパネル5に設けられた3次元ポインティングデバイス等を操作することによって、ソースビデオ信号V0に対して3次元の画像変換操作を指令する。オペレータによって3次元の画像変換が指令されると、CPU8は、オペレータが指定した3次元変換行列T0の各パラメータである、r11〜r33、lX、lY、lZ及びsをコントロールパネル5から受け取り、これらのパラメータをリアルタイムに読み出しアドレスの演算に反映させる。具体的には、CPU8は、コントロールパネル5から供給されるこれらのパラメータの変化をフレーム周期で監視し、且つ、供給されたパラメータに基づいて読み出しアドレスを演算するためのパラメータ(b11〜b33,b11’〜b33’)をフレーム周期で演算している。次に、CPU8は、受け取ったパラメータr11〜r33、lX、lY、lZ及びsに基づいて、式(8)で表される3次元変換行列T33 -1の各パラメータb11〜b33を演算する。具体的には、式(28)〜式(37)に、パラメータr11〜r33、lX、lY、lZ及びsを代入することによって、パラメータb11〜b33を求めることができる。また、CPU8は、受け取った3次元変換行列T0のパラメータr11〜r33、lX、lY、lZ、s、及び、シャドウ座標に関するパラメータθX、θY、θZ、xS0、yS0、zS0、及び、光源に関するパラメータxL、yL、zLを受け取り、これらのパラメータに基づいて、式(57)に表される3次元変換行列(T33shadow’)-1の各パラメータb11’〜b33’を演算する。CPU8は、演算したパラメータb11〜b33を、オブジェクト信号生成部10の読み出しアドレス発生回路14に供給し、演算したパラメータb11’〜b33’を、シャドウ信号生成部20の読み出しアドレス発生回路24に供給する。
オブジェクト信号生成部10の読み出しアドレス発生回路14は、CPU8からパラメータb11〜b33を受け取るとともに、スクリーンアドレス発生回路9からスクリーンアドレス(XS、YS)とを受け取り、式(13)及び(14)に基づいて、オブジェクト信号用の読み出しアドレス(XM,YM)をフレーム周期で生成する。生成された読み出しアドレス(XM,YM)は、ビデオ信号用のフレームメモリ12及びキー信号用のフレームメモリ13に夫々供給され、その結果として、フレームメモリ12からはオブジェクトビデオ信号V2が出力され、フレームメモリ13からはオブジェクトキー信号K2が出力される。
一方、シャドウ信号生成部20の読み出しアドレス発生回路24は、CPU8からパラメータb11’〜b33’を受け取るとともに、スクリーンアドレス発生回路9からスクリーンアドレス(XS、YS)とを受け取り、式(58)及び(59)に基づいて、シャドウ信号用の読み出しアドレス(XM’、YM’)をフレーム周期で生成する。生成された読み出しアドレス(XM’、YM’)は、ビデオ信号用のフレームメモリ22及びキー信号用のフレームメモリ23に夫々供給され、その結果として、図7Bに示すように、フレームメモリ22からはシャドウビデオ信号V4が出力され、フレームメモリ23からはシャドウキー信号K4が出力される。
第1のミキサ30は、オブジェクト信号生成部10からオブジェクトビデオ信号V2及びオブジェクトキー信号K2を受け取るとともに、シャドウ信号生成部20からシャドウビデオ信号V4及びシャドウキー信号K4を受け取り、式(a)に基づいて、混合ビデオ信号VMIX’と混合キー信号KMIX’とを生成する。
第2のミキサ40は、外部から供給されたバックグランドビデオ信号VBKと、第1のミキサ30から出力された混合ビデオ信号VMIX’及び混合キー信号KMIX’を受け取り、式(c)に基づいて、アウトプットビデオ信号VOUT’を生成する。
次に、光源として、平行光源が指定された場合について説明する。
CPU8は、まず、コントロールパネル5から、シャドウ座標の各軸に関するパラメータ(θX、θY、θZ)、シャドウ座標の原点に関するパラメータ(xS0、yS0、zS0)及び、平行光源に関するパラメータ(r、α、β)を受け取る。また。コントロールパネル5に設けられた3次元ポインティングデバイスの操作状態に基づいて、CPU8は、コントロールパネル5から、3次元変換行列T0のパラメータr11〜r33、lX、lY、lZ、sを受け取る。CPU8は、コントロールパネル5から供給されるこれらのパラメータの変化をフレーム周期でリアルタイムで監視し、且つ、供給されたパラメータに基づいて読み出しアドレスを演算するためのパラメータ(b11〜b33,b11”〜b33”)をフレーム周期で演算している。よって、オペレータの操作に応じてフレーム周期でこれらのパラメータをリアルタイムに可変することができ、そして、その可変されたパラメータに応じて、リアルタイムに読み出しアドレスが演算される。
次に、CPU8は、受け取ったパラメータr11〜r33、lX、lY、lZ、及びsに基づいて、式(8)で表される3次元変換行列T33 -1の各パラメータb11〜b33を演算する。具体的には、式(28)〜式(37)に、パラメータr11〜r33、lX、lY、lZ、及びsを代入することによって、パラメータb11〜b33を求めることができる。また、CPU8は、受け取った3次元変換行列T0のパラメータr11〜r33、lX、lY、lZ、s、及び、シャドウ座標に関するパラメータθX、θY、θZ、xS0、yS0、zS0及び、光源に関するパラメータr、α、βを受け取り、これらのパラータに基づいて、式(71)に表される3次元変換行列(T33shadow”)-1の各パラメータb11”〜b33”を演算する。CPU8は、演算したパラメータb11〜b33を、オブジェクト信号生成部10の読み出しアドレス発生回路14に供給し、演算したパラメータb11”〜b33”を、シャドウ信号生成部20の読み出しアドレス発生回路24に供給する。
オブジェクト信号生成部10の読み出しアドレス発生回路14は、CPU8からパラメータb11〜b33を受け取るとともに、スクリーンアドレス発生回路9からスクリーンアドレス(XS、YS)とを受け取り、式(13)及び(14)に基づいて、オブジェクト信号用の読み出しアドレス(XM,YM)をフレーム周期で生成する。生成された読み出しアドレス(XM,YM)は、ビデオ信号用のフレームメモリ12及びキー信号用のフレームメモリ13に夫々供給され、その結果として、フレームメモリ12からはオブジェクトビデオ信号V2が出力され、フレームメモリ13からはオブジェクトキー信号K2が出力される。
一方、シャドウ信号生成部20の読み出しアドレス発生回路24は、CPU8からパラメータb11”〜b33”を受け取るとともに、スクリーンアドレス発生回路9からスクリーンアドレス(XS、YS)とを受け取り、式(72)及び(72)に基づいて、シャドウ信号用の読み出しアドレス(XM”、YM”)をフレーム周期で生成する。生成された読み出しアドレス(XM”、YM”)は、ビデオ信号用のフレームメモリ22及びキー信号用のフレームメモリ23に夫々供給され、その結果として、図10Bに示すように、フレームメモリ22からはシャドウビデオ信号V6が出力され、フレームメモリ23からはシャドウキー信号K6が出力される。
第1のミキサ30は、オブジェクト信号生成部10からオブジェクトビデオ信号V2及びオブジェクトキー信号K2を受け取るとともに、シャドウ信号生成部20からシャドウビデオ信号V6及びシャドウキー信号K6を受け取り、式(b)に基づいて、混合ビデオ信号VMIX”と混合キー信号KMIX”とを生成する。
第2のミキサ40は、外部から供給されたバックグランドビデオ信号VBKと、第1のミキサ30から出力された混合ビデオ信号VMIX”及び混合キー信号KMIX”を受け取り、式(d)に基づいて、アウトプットビデオ信号VOUT”を生成する。
以上の特殊効果装置によれば、オペレータの経験に頼ること無く、オブジェクトビデオ信号に対して適切なシャドウを容易に付けることができる。また、オブジェクトビデオ信号の空間系的な移動に連動して、自動的にシャドウビデオ信号を生成することがきる。
具体的には、本発明の特殊効果装置は、ソースビデオ信号に対して3次元画像変換を施すことによって仮想的な3次元オブジェクトビデオ信号を生成し、この仮想的な3次元オブジェクトビデオ信号をスクリーン面に投影することによって、2次元オブジェクトビデオ信号を生成している。また、この3次元ビデオ信号を予め設定されたシャドウ面に投影することによって仮想的な3次元シャドウ信号を生成し、上記仮想的な3次元シャドウ信号を上記スクリーン面に投影することによって、2次元のシャドウ信号を生成している。よって、生成された2次元のオブジェクト信号に対応した2次元のシャドウ信号を自動的に生成することができ、オペレータの操作性を向上させることができる。さらに、3次元画像変換行列とシャドウ面への投影変換行列とスクリーン面への投影変換行列との演算によって、2次元シャドウ信号を生成しているので、オペレータの操作経験に頼ることなく、図16Aに示されるように、オブジェクトビデオ信号Vobjに対して自然なシャドウビデオ信号Vshadowを生成することができるので、違和感のない立体的な映像を生成することができる。
さらに、図16Bに示されるように、オペレータがコントロールパネルの3次元ポインティングデバイスを操作することによって、オブジェクトビデオ信号Vobjを3次元空間上でオブジェクトビデオ信号Vobj’の位置に移動させた場合には、CPUがコントロールパネルからのパラメータをフレーム周期で監視して、そのフレーム毎に供給されるパラメータに応じてシャドウビデオ信号Vshadowを生成するための読み出しアドレスを演算しているので、そのオブジェクトビデオ信号Vobjの3次元空間での移動に伴って、シャドウビデオ信号Vshadowがシャドウ面上に存在するシャドウビデオ信号Vshadow’の位置に移動される。つまり、オブジェクトビデオ信号Vobjの動きに連動したシャドウビデオ信号Vshadowを容易に且つリアルタイムに生成することができる。
よって、図16A図に示されるような状態から、図16Bに示される状態になるようにオブジェクトビデオ信号Vobjが移動すると、シャドウビデオ信号Vshadowもその移動に伴ってシャドウ面上を移動するので、シャドウ面を地上とした時に、あたかも、オブジェクトが地上から空に向かって上昇しているような効果を得ることができる。
さらに本発明の特殊効果装置は、シャドウビデオ信号Vshadowを生成するための光源の種類として点光源又は平行光源を設定すうことができ、設定された光源に応じてシャドウビデオ信号Vshadowを演算する夫々のモードを有しているので、光源に応じた自然なシャドウを生成することができる。図16A及び図16Bに示される例では、オブジェクトビデオ信号Vobjを空間的に移動させる例を示したが、オブジェクトビデオ信号Vobjを3次元空間上で固定し、光源の位置を空間的に移動させるようにしてもよい。
また、本発明の特殊効果装置は、シャドウ面を設定する原点設定モードを有しているので、3次元変換された3次元オブジェクトが空間的にシャドウ面上に存在するようにシャドウ面を設定することができる。よって、シャドウ面を地上と考えると、これによって、地上面に存在するオブジェクトを表現することができる。

Claims (4)

  1. 第1のビデオ信号を格納する第1のメモリと、
    上記第1のビデオ信号を所定の影の色にマット処理するカラーマット発生回路と、
    上記カラーマット発生回路から出力される第2のビデオ信号を格納する第2のメモリと、
    上記第1のビデオ信号をキーイングするための第1のキー信号を格納する第3のメモリと、
    上記第2のビデオ信号をキーイングするための第2のキー信号を格納する第4のメモリと、
    3次元変換行列パラメータを発生するCPUと、
    上記3次元変換行列パラメータに応じて第1の読み出しアドレスを発生し、当該第1の読み出しアドレスに応じて上記第1のメモリより上記第1のビデオ信号を読み出すと共に、上記第3のメモリより上記第1のキー信号を読み出す第1のアドレス発生回路と、
    上記3次元変換行列パラメータに応じて第2の読み出しアドレスを発生し、当該第2の読み出しアドレスに応じて上記第2のメモリより上記第2のビデオ信号を読み出すと共に、上記第4のメモリより上記第2のキー信号を読み出す第2のアドレス発生回路と、
    上記第3のメモリより読み出された上記第1のキー信号、及び上記第4のメモリより読み出された上記第2のキー信号に応じて上記第1のメモリより読み出された第1のビデオ信号と、上記第2のメモリより読み出された上記第2のビデオ信号との1つを選択して合成ビデオ信号を出力する選択手段とを備え、
    上記第1のメモリより読み出された上記第1のビデオ信号は、上記第1のメモリ格納前の上記第1のビデオ信号を所望の空間にマッピングした後、所定のスクリーン面上に透視変換されたビデオ信号となり、
    上記第2のメモリより読み出された上記第2のビデオ信号は、メモリ格納前の上記第2のビデオ信号を所望の空間にマッピングし、次に所望のシャドウ面に透視変換した後、所定のスクリーン面上に透視変換されたビデオ信号となるように、
    上記CPUは上記3次元変換行列パラメータを発生する
    ことを特徴とする画像処理装置。
  2. 上記CPUは、
    上記第1のビデオ信号を所望の空間にマッピングする3次元変換行列Toと、上記マッピングされた第1のビデオ信号を所定のスクリーンに透視変換する透視変換行列Poとを掛け合わせた変換行列To・Poを算出した後、当該変換行列の逆行列を算出する
    と共に、
    上記第2のビデオ信号を所望の空間にマッピングする3次元変換行列Toと、上記マッピングされた第2のビデオ信号を所定のシャドウ面に透視変換する透視変換行列Psと、上記シャドウ面に透視変換された第2のビデオ信号を所定のスクリーンに透視変換する透視変換行列Poとを掛け合わせた変換行列To・Ps・Poとを算出した後、当該変換行列の逆行列を算出する
    ことにより上記3次元変換行列パラメータの一部を求める
    ことを特徴とする請求の範囲第1項に記載の画像処理装置。
  3. 第1のビデオ信号を第1のメモリに格納し、上記第1のビデオ信号を所定の影の色にマット処理して第2のビデオ信号として第2のメモリに格納し、上記第1のビデオ信号をキーイングするための第1のキー信号を第3のメモリに格納し、上記第2のビデオ信号をキーイングするための第2のキー信号を第4のメモリに格納するステップと、
    上記第1のメモリより読み出す上記第1のビデオ信号は、第1のメモリ格納前の上記第1のビデオ信号を所望の空間にマッピングした後、所定のスクリーン面上に透視変換されたビデオ信号となり、上記第2のメモリより読み出す上記第3のビデオ信号は、上記第2のメモリ格納前の上記第2のビデオ信号を所望の空間にマッピングし、次に所望のシャドウ面に透視変換した後、所定のスクリーン面上に透視変換されたビデオ信号となるように所望の3次元変換行列パラメータを発生するステップと、
    上記3次元変換行列パラメータに応じて読み出し第1のアドレスを発生し、当該第1のアドレスに応じて上記第1のメモリより上記第1のビデオ信号を読み出すと共に、上記第3のメモリより上記第1のキー信号を読み出し、上記3次元変換行列パラメータに応じて第2の読み出しアドレスを発生し、当該第2のアドレスに応じて上記第2のメモリより上記第2のビデオ信号を読み出すと共に、上記第4のメモリより上記第2のキー信号を読み出すステップと、
    上記第3のメモリより読み出された第1のキー信号、及び第4のメモリより読み出された第2のキー信号に応じて上記第1のメモリより読み出された第1のビデオ信号と、上記第2のメモリより読み出された第2のビデオ信号と
    の1つを選択して合成ビデオ信号を出力するステップと
    からなることを特徴とする画像処理方法。
  4. 上記3次元変換行列パラメータを発生するステップにおいて、
    上記第1のビデオ信号を所望の空間にマッピングする3次元変換行列Toと、上記マッピングされた上記第1のビデオ信号を所定のスクリーンに透視変換する透視変換行列Poとを掛け合わせた変換行列To・Poを算出し、当該変換行列の逆行列を算出することにより上記パラメータの一部を求め、
    上記第2のビデオ信号を所定の空間にマッピングする3次元変換行列Toと、上記マッピングされた上記第2のビデオ信号を所定のシャドウ面に透視変換する透視変換行列Psと、上記シャドウ面に透視変換された第2のビデオ信号を所定のスクリーンに透視変換する透視変換行列Poとを掛け合わせた変換行列To・Ps・Poを算出し、当該変換行列の逆行列を算出することにより所望の3次元変換行列パラメータの一部を求める
    ことを特徴とする請求の範囲第3項に記載の画像処理方法。
JP51874397A 1995-11-14 1996-11-14 画像処理装置及び方法 Expired - Fee Related JP3840663B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP32123095 1995-11-14
PCT/JP1996/003346 WO1997018667A1 (fr) 1995-11-14 1996-11-14 Dispositif pour effets speciaux, procede de traitement d'images et procede de generation d'ombres

Publications (1)

Publication Number Publication Date
JP3840663B2 true JP3840663B2 (ja) 2006-11-01

Family

ID=18130272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP51874397A Expired - Fee Related JP3840663B2 (ja) 1995-11-14 1996-11-14 画像処理装置及び方法

Country Status (4)

Country Link
US (1) US6014472A (ja)
JP (1) JP3840663B2 (ja)
KR (1) KR19980701470A (ja)
WO (1) WO1997018667A1 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3635359B2 (ja) * 1995-11-09 2005-04-06 株式会社ルネサステクノロジ 透視投影計算装置および透視投影計算方法
US5880736A (en) * 1997-02-28 1999-03-09 Silicon Graphics, Inc. Method system and computer program product for shading
NO304715B1 (no) * 1997-05-06 1999-02-01 Dimensions As FremgangsmÕte ved bildebehandling
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6222549B1 (en) * 1997-12-31 2001-04-24 Apple Computer, Inc. Methods and apparatuses for transmitting data representing multiple views of an object
JP3515689B2 (ja) * 1998-05-22 2004-04-05 富士通株式会社 階層化ポリゴンデータを用いた3次元ポリゴン表示装置
US6600485B1 (en) * 1998-07-03 2003-07-29 Sega Enterprises, Ltd. Polygon data generation method and image display apparatus using same
US6480205B1 (en) * 1998-07-22 2002-11-12 Nvidia Corporation Method and apparatus for occlusion culling in graphics systems
US7375727B1 (en) 1998-07-22 2008-05-20 Nvidia Corporation System, method and computer program product for geometrically transforming geometric objects
US6636215B1 (en) 1998-07-22 2003-10-21 Nvidia Corporation Hardware-assisted z-pyramid creation for host-based occlusion culling
US6229550B1 (en) * 1998-09-04 2001-05-08 Sportvision, Inc. Blending a graphic
JP2000090233A (ja) * 1998-09-08 2000-03-31 Olympus Optical Co Ltd 画像処理装置
US6538651B1 (en) * 1999-03-19 2003-03-25 John Hayman Parametric geometric element definition and generation system and method
US7075556B1 (en) * 1999-10-21 2006-07-11 Sportvision, Inc. Telestrator system
US7209140B1 (en) 1999-12-06 2007-04-24 Nvidia Corporation System, method and article of manufacture for a programmable vertex processing model with instruction set
FR2802653B1 (fr) * 1999-12-21 2003-01-24 Poseidon Procede et systeme pour detecter un objet devant un fond
US6909438B1 (en) 2000-02-04 2005-06-21 Sportvision, Inc. Video compositor
US6552725B1 (en) * 2000-04-11 2003-04-22 Corel Corporation Heuristic method for adaptive subdivision of coons patches for rendering
US6532009B1 (en) * 2000-05-18 2003-03-11 International Business Machines Corporation Programmable hardwired geometry pipeline
JP4443012B2 (ja) 2000-07-27 2010-03-31 株式会社バンダイナムコゲームス 画像生成装置、方法および記録媒体
US7439975B2 (en) * 2001-09-27 2008-10-21 International Business Machines Corporation Method and system for producing dynamically determined drop shadows in a three-dimensional graphical user interface
US7050625B2 (en) * 2002-10-21 2006-05-23 Hewlett-Packard Development Company, L.P. Method and digital camera for indicating when image data has been captured for a three-dimensional target object
KR100932977B1 (ko) * 2005-07-05 2009-12-21 삼성모바일디스플레이주식회사 입체 영상 표시 장치
KR100913173B1 (ko) * 2005-07-05 2009-08-19 삼성모바일디스플레이주식회사 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
EP1750460A1 (en) * 2005-08-05 2007-02-07 Samsung SDI Co., Ltd. 3D graphics processor and autostereoscopic display device using the same
US9563980B2 (en) * 2005-11-18 2017-02-07 Autodesk, Inc. Grip manipulatable shadows in 3D models
US7573475B2 (en) * 2006-06-01 2009-08-11 Industrial Light & Magic 2D to 3D image conversion
US7573489B2 (en) * 2006-06-01 2009-08-11 Industrial Light & Magic Infilling for 2D to 3D image conversion
GB0613352D0 (en) * 2006-07-05 2006-08-16 Ashbey James A Improvements in stereoscopic imaging systems
US7952581B2 (en) * 2007-03-26 2011-05-31 Microsoft Corporation Realistic transformation of 3D lighting models
JP2009169257A (ja) * 2008-01-18 2009-07-30 Kawasaki Microelectronics Inc メモリ制御回路および画像処理装置
WO2010120227A1 (en) * 2009-04-17 2010-10-21 Trapcode Ab Method for adding shadows to objects in computer graphics
US8643678B1 (en) * 2010-12-22 2014-02-04 Google Inc. Shadow generation
US10631712B2 (en) * 2011-02-10 2020-04-28 Karl Storz Imaging, Inc. Surgeon's aid for medical display
US10674968B2 (en) * 2011-02-10 2020-06-09 Karl Storz Imaging, Inc. Adjustable overlay patterns for medical display
US9215383B2 (en) 2011-08-05 2015-12-15 Sportsvision, Inc. System for enhancing video from a mobile camera
KR102054680B1 (ko) * 2013-01-23 2020-01-22 삼성전자주식회사 영상 처리 장치, 초음파 영상 장치 및 영상 처리 방법
US20210134049A1 (en) * 2017-08-08 2021-05-06 Sony Corporation Image processing apparatus and method
CN114777681A (zh) * 2017-10-06 2022-07-22 先进扫描仪公司 生成一个或多个亮度边缘以形成物体的三维模型
US20230063215A1 (en) * 2020-01-23 2023-03-02 Sony Group Corporation Information processing apparatus, information processing method, and program

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4041527A (en) * 1976-03-15 1977-08-09 The Grass Valley Group, Inc. Video effects generator
US4511337A (en) * 1982-06-25 1985-04-16 The Singer Company Simplified hardware component inter-connection system for generating a visual representation of an illuminated area in a flight simulator
US4586038A (en) * 1983-12-12 1986-04-29 General Electric Company True-perspective texture/shading processor
US4819192A (en) * 1985-02-26 1989-04-04 Sony Corporation Method of displaying image
GB2181929B (en) * 1985-10-21 1989-09-20 Sony Corp Methods of and apparatus for video signal processing
JP2737940B2 (ja) * 1988-08-16 1998-04-08 ソニー株式会社 立体表現画像の陰影付加装置
JPH0259982A (ja) * 1988-08-26 1990-02-28 Nippon Telegr & Teleph Corp <Ntt> 立体形状データ生成装置
JPH04225482A (ja) * 1990-12-27 1992-08-14 Fujitsu Ltd グラフィック表示装置
US5415549A (en) * 1991-03-21 1995-05-16 Atari Games Corporation Method for coloring a polygon on a video display
JP2973573B2 (ja) * 1991-04-12 1999-11-08 ソニー株式会社 画像変換装置
GB2267007B (en) * 1992-04-24 1995-09-13 Sony Broadcast & Communication Video special effect apparatus and method
US5327177A (en) * 1992-05-26 1994-07-05 The Grass Valley Group, Inc. Method of and apparatus for processing a shaped video signal to add a simulated shadow
US5598516A (en) * 1993-06-21 1997-01-28 Namco Ltd. Image synthesizing system and video game apparatus using the same
JP2739808B2 (ja) * 1993-07-16 1998-04-15 日本電気株式会社 画像効果装置
JPH0765199A (ja) * 1993-08-30 1995-03-10 Nippon Telegr & Teleph Corp <Ntt> 画像付影方法

Also Published As

Publication number Publication date
US6014472A (en) 2000-01-11
KR19980701470A (ko) 1998-05-15
WO1997018667A1 (fr) 1997-05-22

Similar Documents

Publication Publication Date Title
JP3840663B2 (ja) 画像処理装置及び方法
US4734690A (en) Method and apparatus for spherical panning
US6867787B1 (en) Character generator and character generating method
US6268846B1 (en) 3D graphics based on images and morphing
US6243099B1 (en) Method for interactive viewing full-surround image data and apparatus therefor
JPH0757117A (ja) テクスチャマップへの索引を生成する方法及びコンピュータ制御表示システム
JP2003528360A (ja) 一般的三次元グラフィックスパイプラインを使用する低廉なデジタル・イメージ/ビデオの編集のための方法及び装置
US8077176B2 (en) Method for interactively viewing full-surround image data and apparatus therefor
CA2104517A1 (en) Cylindrical to planar image mapping using scanline coherence
JP3514947B2 (ja) 3次元画像処理装置及び3次元画像処理方法
JPH05290146A (ja) 三次元空間中の物体を回転させるグラフィック表示方法及び装置
US6400373B1 (en) Image processing apparatus and method
JPH09330423A (ja) 三次元形状データ変換装置
EP0168981B1 (en) Method and apparatus for spherical panning
EP3573018A1 (en) Image generation device, and image display control device
KR100489572B1 (ko) 화상 처리 방법
JP4099830B2 (ja) 特殊効果装置、画像処理方法及び対象画像生成方法
CN112862981B (zh) 用于呈现虚拟表示的方法和装置、计算机设备和存储介质
JP2973413B2 (ja) コンピュータグラフィックスの照度計算方法及び表示装置
JP3441804B2 (ja) 画像処理装置及び方法
WO1998046011A1 (fr) Dispositif a effet special et procede de generation d&#39;effet special
JPH0816822A (ja) 3次元動画像生成方法
JPH0251789A (ja) 立体表現画像の陰影付加装置
JP3071495B2 (ja) 物体モデル編集装置
JPH07200875A (ja) 3次元モデルの表示位置変更方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060731

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100818

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees