WO2000007364A1 - Synthetiseur d'images mobiles - Google Patents

Synthetiseur d'images mobiles Download PDF

Info

Publication number
WO2000007364A1
WO2000007364A1 PCT/JP1999/004086 JP9904086W WO0007364A1 WO 2000007364 A1 WO2000007364 A1 WO 2000007364A1 JP 9904086 W JP9904086 W JP 9904086W WO 0007364 A1 WO0007364 A1 WO 0007364A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
image
still image
graphic
moving
Prior art date
Application number
PCT/JP1999/004086
Other languages
English (en)
French (fr)
Other versions
WO2000007364A8 (fr
Inventor
Satoru Inagaki
Kenjirou Tsuda
Yoshihisa Nishigori
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to KR1020007003429A priority Critical patent/KR20010015674A/ko
Priority to EP99933166A priority patent/EP1030515A4/en
Priority to US09/508,227 priority patent/US6657637B1/en
Priority to CA002304605A priority patent/CA2304605A1/en
Publication of WO2000007364A1 publication Critical patent/WO2000007364A1/ja
Publication of WO2000007364A8 publication Critical patent/WO2000007364A8/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs

Definitions

  • the priority order determination means calculates the area of the projection screen surface using the plurality of pieces of calculated screen surface information, and gives priority to a screen surface having a larger calculated area so as to have a higher priority. You may comprise so that a ranking may be determined. According to this configuration, the priority is set higher for a screen surface having a larger area, so that there is an effect that a video effect can be further enhanced.
  • a video still image is read from the first graphic storage unit, and the video still image is read from the second video storage unit by the video image generation unit during a time period when the video still image is surrounded by the first video storage unit.
  • the video still image is read from the first video storage unit during the time period in which the video still image is enclosed in the second video storage unit, and the pixels forming each still image from the read graphic still image and the video still image May be configured to be selected.
  • the graphic still image generation processing, the video still image decoding processing, and the synthesis of the generated graphic still image and video still image are performed in parallel by a separate process. Images and video moving images can be combined at their respective display rates, and graphic still image generation processing, video still image decoding processing, and generated graphic still images and video can be performed. There is an effect that synthesis with a still image can be performed more quickly.
  • the video image decoding means includes an image quality correction unit for lowering the luminance of the obtained video still image.
  • the luminance of the video still image is not reduced. It may be configured so that the luminance of the video still image is lower for lower-ranked video moving images.
  • FIG. 10 visually shows how a moving image synthesizing device 10 synthesizes a graphic still image and a video still image.
  • the display unit 109 specifically includes a monitor 15 and the like.
  • the perspective transformation unit 105 is the same as the perspective transformation unit 105 of the moving image synthesizing device 10, and includes a program stored in the semiconductor memory 14, a processor 13, and the like.
  • the priority control unit 1 1 1 calculates the 3D coordinates of each point forming each object. Based on, the objects with overlapping moving image display surfaces are detected, and among the overlapping moving image display surfaces, the object having the foreground moving image display surface is detected. Further, the order of the object having another overlapping moving image display surface is sequentially reduced while keeping the detected order of the frontmost moving image display surface as it is.
  • the tuner 110 receives information corresponding to the menu button 24 from the input unit 101, and upon receiving this information, the tuner 110 broadcasts through three channels from among the broadcast waves received by the antenna 23.
  • the video moving image composed of the MPEG streams is selected, and the selected three video moving images are output to the image decoding units 106a, 106b, and 106c, respectively.
  • the image decoding unit 106a includes a program stored in the semiconductor memory 14, a processor 13, and the like, like the image decoding unit 106 of the moving image synthesizing device 10.
  • the mask control unit 112 includes a program stored in the semiconductor memory 14, a processor 13, and the like.
  • the coordinate light source calculation unit 103 calculates, from the object table 201 of the data storage unit 102, the shape coordinates 211, the position coordinates 211, and the moving image display surface coordinates 214 for each object.
  • Read step S101
  • receive information indicating the forward, backward, left, right, upward, and downward directions from the input unit 101 and information indicating the end of the operation step S101).
  • the processing is ended (step S103).
  • the coordinate light source calculation unit 103 calculates the viewpoint coordinates E according to the received information.
  • the image decoding unit 106 reads the MPEG stream 221 stored in the data storage unit 102 (step S121), and reads the read MPEG stream 221 to 1 from the MPEG stream 221.
  • the video still images for the frames are decoded and repeatedly generated (step S122), and the image transformation unit 107 receives the video still images from the image decoding unit 106, and is calculated in step SI11.
  • the two-dimensional coordinates of each point forming the moving image display surface are received from the perspective transformation unit 105, and the received video still image is transformed into a shape indicated by the received two-dimensional coordinates using an affine transformation.
  • a deformed video still image is generated (step S123), and the generated deformed video still image is output to the still image area A115a or still image area B115b (step S124). Then, the process returns to step S102 again to repeat the processing.
  • the perspective transformation unit 105 sets the value of “1” for all bits of the control data corresponding to the first moving image display surface, and sets the value of “1” for the bits corresponding to the second moving image display surface. , Set a value of 2 for all bits corresponding to the third video display surface. For all other bits, set the value to “3”, and for the other bits, set the value to “0”. For the overlapping part of multiple moving image display surfaces, the value of the moving image display surface above is adopted.
  • Image decoding unit 106a, 106b, 106c The image decoding unit 106a outputs the generated video still image to the image correction unit 118a instead of outputting it to the image transformation unit 107a.
  • the other points are the same as those of the image decoding unit 106a of the digital broadcast receiving device 20.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Circuits (AREA)

Description

明 細 書 動画像合成装置 技術分野
本発明は、 グラフィック動画像とビデオ動画像とを合成する動画像合成装置に 関する。 背景技術
従来、 コンピュータ上で 3次元グラフィックで表示される仮想空間において、 グラフィック動画像とビデオ動画像とを合成して表示する場合、 3次元空間上の オブジェク トの位置と形状を示す座標値を用いてグラフィック生成演算を行って グラフィック静止画像を生成し、 ビデオ動画像から 1フレーム分のビデオ静止画 像を取り出し、 生成したグラフィック静止画像に、 テクスチャマッピングという 手法を用いて、 取り出したビデオ静止画像を貼り付け、 ビデオ静止画像の貼り付 けられたグラフィック静止画像を表示する。 上記のグラフィック静止画像の生成 と、 ビデオ静止画像の取出しと、 グラフィック静止画像へのビデオ静止画像の貼 り付けと、 表示とを高速に繰り返すことにより、 ビデオ静止画像の貼り付けられ たグラフィック静止画像が順次表示されるので、 あたかも動きのある画像のよう に見える。
しかしながら、 合成する前のグラフィック動画像とビデオ動画像とにおいて、 表示レートは必ずしも同じではない。 ビデオ動画像においては、 一定時間当たり に表示するフレームの数 (以下、 表示レートと呼ぶ。) を一定とすることができ、 例えば、 1秒間に 3 0フレームの表示レートが標準的である。 一方、 グラフイツ ク動画像においては、 オブジェク トの位置と形状を示す座標値からグラフィック 静止画像を生成する演算時間は、 表示するオブジェク ト数に依存するので、 常に 表示レ一トを一定とすることは難しい。
このため、 グラフィック動画像の表示レ一卜に合わせて動画像を合成しようと する場合、 例えば、 ビデオ動画像及びグラフィック動画像の表示レートが、 それ ぞれ 1秒間に 3 0フレーム及び 1 0フレームであると仮定すると、 ビデオ動画像 の 1秒間に表示する 3 0フレームのうち、 グラフィック静止画像の表示時刻に合 致する 1 0フレームのみを表示せざるを得ない。 このため、 残りの 2 0フレ一ム が表示されず、 ビデオ動画像が滑らかに動いて見えないという問題点がある。 一方、 ビデオ動画像の表示レートに合わせて動画像を合成しょうとする場合、 隣り合う 2つのビデオ静止画像の表示間隔時間内に、 グラフィック静止画像の生 成のための演算処理が完了せず、 グラフィック静止画像が生成できない場合があ るという問題点がある。 発明の開示
そこで本発明はかかる問題点に鑑みてなされたものであり、 グラフィック動画 像とビデオ動画像とをそれぞれの表示レートで合成することができる動画像合成 装置、 動画像合成方法及び動画像合成プログラムを記録している記録媒体を提供 することを目的とする。
上記目的を達成するために本発明は、 オブジェク トを 3次元空間内で移動する 視点から見て得られるグラフィック動画像と、 複数のビデオ静止画像から構成さ れるビデオ動画像とを合成する動画像合成装置であって、 3次元空間におけるォ ブジェク 卜の形状及び位置を示すオブジェク ト情報を記憶している情報記憶手段 と、 外部から連続する複数のビデオ静止画像により構成されるビデオ動画像を取 得するビデオ動画像取得手段と、 画像記憶手段と、 3次元空間内で移動する 1の 視点の位置を示す情報を繰り返し受け付ける受付手段と、 前記オブジェク ト情報 を用いて、 前記視点から見てオブジェク トを投影面に投影して得られるグラフィ ック静止画像を生成し、 生成したグラフィック静止画像を前記画像記憶手段に書 き込むグラフィック画像生成手段と、 前記グラフィック静止画像が生成され前記 画像記憶手段に書き込まれる時間帯において、 前記取得したビデオ動画像から繰 り返しビデオ静止画像を取り出し、 取り出したビデオ静止画像を前記画像記憶手 段に書き込むビデオ画像生成手段とを備えることを特徴とする。
この構成によると、 グラフィック静止画像の生成処理と、 ビデオ静止画像の復 号処理とを別プロセスにより、 並行して行い、 生成されたグラフィック静止画像 とビデオ静止画像とを記憶手段上で合成するので、 グラフィック動画像とビデオ 動画像とをそれぞれの表示レ一トで合成することができるという効果がある。 ここで、 前記グラフィック画像生成手段は、 前記オブジェク ト情報を用いて、 前記視点から見てオブジェク トを投影面に投影し、 さらにレンダリング処理を施 してグラフィック静止画像を生成するように構成してもよレ、。
この構成によると、 グラフィック画像にレンダリング処理が施されるので、 写 実的なグラフィック画像が生成できるという効果がある。
ここで、 前記オブジェク トは、 ビデオ動画像が合成されるスクリーン面を有し、 前記動画像合成装置は、 オブジェク トのスクリ一ン面において、 グラフィック動 画像とビデオ動画像とを合成し、 前記オブジェク ト情報は、 オブジェク トのスク リーン面の形状を示す情報を含み、 前記グラフィック画像生成手段は、 さらに、 スク リーン面の形状を示す情報を含むオブジェク ト情報を用いて、 前記視点から 見てスクリーン面を前記投影面に投影して得られる投影スクリーン面の形状及び 位置を示すスク リーン面情報を算出し、 前記ビデオ画像生成手段は、 前記画像記 憶手段に記憶されているグラフィック静止画像上の前記算出されたスクリーン面 情報により示される位置に、 取得したビデオ静止画像を書き込むように構成して もよい。
この構成によると、 オブジェク トのスクリーン面において、 ビデオ動画像が合 成できるという効果がある。
ここで、 前記ビデオ画像生成手段は、 前記スク リーン面情報により示される形 状に合わせて、 前記ビデオ静止画像を変形して、 変形ビデオ静止画像を生成する 画像変形手段を含み、 前記ビデオ画像生成手段は、 生成された変形ビデオ静止画 像を前記画像記憶手段に書き込むように構成してもよい。
この構成によると、 オブジェク 卜のスクリーン面の形状に合わせてビデオ静止 画像を変形させるので、 より写実的にビデオ動画像が合成できるという効果があ る。
ここで、 前記ォブジェク トは複数のスク リーン面を有し、 前記ビデオ動画像取 得手段は、 外部から複数のビデオ動画像を取得し、 前記動画像合成装置は、 複数 のスクリーン面のそれぞれにおいて、 グラフィック動画像と各ビデオ動画像とを 合成し、 前記オブジェク ト情報は、 複数のスク リーン面の形状を示す情報を含み、 前記グラフィック画像生成手段は、 複数のスクリーン面の形状を示す情報毎に、 スクリーン面情報を算出し、 前記ビデオ画像生成手段は、 複数のビデオ動画像か らそれぞれビデオ静止画像を取得し、 前記複数のスクリ一ン面情報により示され る位置に、 それぞれ取得した複数のビデオ静止画像を書き込むように構成しても よい。
この構成によると、 オブジェク トのスクリーン面が複数の場合であっても、 そ れぞれのスクリーン面において、 ビデオ動画像が合成できるという効果がある。 ここで、 前記ビデオ画像生成手段は、 算出された複数のスクリーン面情報に基 づいて、 スク リーン面毎に優先順位を決定する優先順位決定手段と、 複数のビデ ォ動画像毎に、 決定された優先順位に基づいて、 ビデオ動画像からビデオ静止画 像を取得するビデオ画像復号手段と、 算出された複数のスク リーン面情報と、 ス クリーン面毎に決定された優先順位とに基づいて、 投影スクリーン面毎に投影ス クリーン面をマスクする位置を算出するマスク位置算出手段と、 前記算出された マスクする位置において、 前記変形ビデオ静止画像にマスク処理を施すマスク処 理手段とを含み、 前記ビデオ画像生成手段は、 マスク処理の施された変形ビデオ 静止画像を前記画像記憶手段に書き込むように構成してもよい。 この構成によると、 オブジェク トのスク リ一ン面に応じて優先順位を決定し、 優先順位に基づいてビデオ動画像からビデオ静止画像を取得し、 各スクリーン面 をマスクするので、 より写実的にビデオ動画像が合成できるという効果がある。 ここで、 前記優先順位決定手段は、 算出された複数のスクリーン面情報を用い て、 前記視点に近いスク リーン面ほど、 優先順位が高くなるように優先順位を決 定するように構成してもよレ、。
この構成によると、 視点に近いスク リーン面ほど優先順位を高くするので、 よ り写実的にビデオ動画像が合成できるという効果がある。
ここで、 前記優先順位決定手段は、 算出された複数のスクリーン面情報を用い て、 投影スクリーン面の面積を算出し、 算出された面積が大きいスクリーン面ほ ど、 優先順位が高くなるように優先順位を決定するように構成してもよい。 この構成によると、 面積の広いスクリーン面ほど優先順位を高くするので、 よ り映像効果を高めることができるという効果がある。
ここで、 前記ビデオ画像復号手段は、 優先順位が最も高いビデオ動画像につい ては、 ビデオ動画像から全てのビデオ静止画像を取得し、 優先順位の低いビデオ 動画像ほど、 ビデオ動画像から間引くビデオ静止画像が多くなるようにビデオ静 止画像を取得するように構成してもよい。
この構成によると、 優先順位が低いほど、 間引く静止画像を多くするので、 ビ デォ画像の画質を優先順位に合わせて復号できるという効果がある。
ここで、 前記ビデオ画像復号手段は、 取得するビデオ静止画像の輝度を低下さ せる画質補正部を含み、 優先順位が最も高いビデオ動画像については、 ビデオ静 止画像の輝度を低下させず、 優先順位の低いビデオ動画像ほど、 ビデオ静止画像 の輝度がより低くなるように補正するように構成してもよい。
この構成によると、 優先順位が低いほど、 輝度を低く補正するので、 表示レー トが低くなっている可能性の高い優先順位の低い動画表示面についてはフリッカ を目立たなくすることができるという効果がある。 また、 本発明は、 オブジェク トを 3次元空間内で移動する視点から見て得られ るグラフィック動画像と、 複数のビデオ静止画像から構成されるビデオ動画像と を、 オブジェク トのスクリーン面において、 合成する動画像合成装置であって、 3次元空間におけるオブジェク トの形状及び位置とォブジェク トのスク リーン面 の形状とを示すオブジェク ト情報を記憶している情報記憶手段と、 外部から連続 する複数のビデオ静止画像により構成されるビデオ動画像を取得するビデオ動画 像取得手段と、 グラフィック静止画像記憶手段と、 ビデオ静止画像記憶手段と、 画像記憶手段と、 3次元空間内で移動する 1の視点の位置を示す情報を繰り返し 受け付ける受付手段と、 前記オブジェク ト情報を用いて、 前記視点から見てォブ ジェク トを投影面に投影して得られるグラフィック静止画像を生成し、 生成した グラフィック静止画像を前記グラフィック静止画像記憶手段に書き込み、 スク リ —ン面の形状を示す情報を含むォブジェク ト情報を用いて、 前記視点から見てス クリーン面を前記投影面に投影して得られる投影スクリーン面の形状及び位置を 示すスクリーン面情報を算出するグラフィック画像生成手段と、 前記グラフィッ ク静止画像が生成され前記グラフィック静止画像記憶手段に書き込まれる時間帯 において、 前記取得したビデオ動画像から繰り返しビデオ静止画像を取り出し、 取り出したビデオ静止画像を前記ビデオ静止画像記憶手段に書き込むビデオ画像 生成手段と、 前記算出されたスクリーン面情報を用いて、 前記グラフィック静止 画像記憶手段に記憶されているグラフィック静止画像又は前記ビデオ静止画像記 憶手段に記憶されているビデオ静止画像から各静止画像を構成する画素を選択し、 選択した画素を前記画像記憶手段に書き込む選択手段とを備えることを特徴とす る。
この構成によると、 グラフィック静止画像の生成処理と、 ビデオ静止画像の復 号処理とを別プロセスにより、 並行して行うので、 グラフィック動画像とビデオ 動画像とをそれぞれの表示レートで合成することができるとともに、 画像の合成 が信号の選択により行えるので、 装置の構成が単純になるという効果がある。 ここで、 前記グラフィック静止画像記憶手段は、 第 1グラフィック記憶部と第 2グラフィック記憶部とを含み、 前記ビデオ静止画像記憶手段は、 第 1ビデオ記 憶部と第 2ビデオ記憶部とを含み、 前記グラフイツク画像生成手段は、 取得した グラフィック静止画像を第 1グラフィック記憶部又は第 2グラフィック記憶部に 交互に書き込み、 前記ビデオ画像生成手段は、 取得したビデオ静止画像を第 1ビ デォ記憶部又は第 2ビデオ記憶部に交互に書き込み、 前記選択手段は、 前記ダラ フィック画像生成手段により、 第 1グラフィック記憶部にグラフィック静止画像 が書き込まれている時間帯において第 2グラフィック記憶部からグラフィック静 止画像を読み出し、 第 2グラフィック記憶部にグラフィック静止画像が書き込ま れている時間帯において第 1グラフィック記憶部からグラフィック静止画像を読 み出し、 前記ビデオ画像生成手段により、 第 1ビデオ記憶部にビデオ静止画像が 囲まれている時間帯において第 2ビデオ記憶部からビデオ静止画像を読み出し、 第 2ビデオ記憶部にビデオ静止画像が囲まれている時間帯において第 1ビデオ記 憶部からビデオ静止画像を読み出し、 読み出したグラフィック静止画像とビデオ 静止画像とから各静止画像を構成する画素を選択するように構成してもよい。 この構成によると、 グラフィック静止画像の生成処理と、 ビデオ静止画像の復 号処理と、 生成されたグラフィック静止画像とビデオ静止画像との合成とを別プ ロセスにより、 並行して行うので、 グラフィック動画像とビデオ動画像とをそれ ぞれの表示レ一トで合成することができるとともに、 グラフィック静止画像の生 成処理と、 ビデオ静止画像の復号処理と、 生成されたグラフィック静止画像とビ デォ静止画像との合成とをより早く行うことができるという効果がある。
ここで、 前記グラフィック画像生成手段は、 前記オブジェク ト情報を用いて、 前記視点から見てオブジェク トを投影面に投影し、 さらにレンダリング処理を施 してグラフィック静止画像を生成するように構成してもよレ、。
この構成によると、 グラフィック画像にレンダリング処理が施されるので、 写 実的なグラフィック画像が生成できるという効果がある。 ここで、 前記ビデオ画像生成手段は、 前記スクリーン面情報により示される形 状に合わせて、 前記ビデオ静止画像を変形して、 変形ビデオ静止画像を生成する 画像変形手段を含み、 前記ビデオ画像生成手段は、 生成された変形ビデオ静止画 像を前記画像記憶手段に書き込むように構成してもよい。
この構成によると、 オブジェク トのスクリーン面の形状に合わせてビデオ静止 画像を変形させるので、 より写実的にビデオ動画像が合成できるという効果 あ る。
ここで、 前記オブジェク トは複数のスク リーン面を有し、 前記ビデオ動画像取 得手段は、 外部から複数のビデオ動画像を取得し、 前記動画像合成装置は、 複数 のスクリーン面のそれぞれにおいて、 グラフィック動画像と各ビデオ動画像とを 合成し、 前記オブジェク ト情報は、 複数のスク リーン面の形状を示す情報を含み、 前記グラフィック画像生成手段は、 複数のスクリーン面の形状を示す情報毎に、 スクリーン面情報を算出し、 前記ビデオ画像生成手段は、 複数のビデオ動画像か らそれぞれビデオ静止画像を取得し、 前記複数のスクリーン面情報により示され る位置に、 それぞれ取得した複数のビデオ静止画像を書き込むように構成しても よい。
この構成によると、 オブジェク トのスクリーン面が複数の場合であっても、 そ れぞれのスクリーン面において、 ビデオ動画像が合成できるという効果がある。 ここで、 前記ビデオ画像生成手段は、 算出された複数のスクリーン面情報に基 づいて、 スクリーン面毎に優先順位を決定する優先順位決定手段と、 複数のビデ ォ動画像毎に、 決定された優先順位に基づいて、 ビデオ動画像からビデオ静止画 像を取得するビデオ画像復号手段と、 算出された複数のスクリーン面情報と、 ス クリーン面毎に決定された優先順位とに基づいて、 投影スクリーン面毎に投影ス クリーン面をマスクする位置を算出するマスク位置算出手段と、 前記算出された マスクする位置において、 前記変形ビデオ静止画像にマスク処理を施すマスク処 理手段とを含み、 前記ビデオ画像生成手段は、 マスク処理の施された変形ビデオ 静止画像を前記ビデオ静止画像記憶手段に書き込むように構成してもよい。
この構成によると、 オブジェク トのスク リーン面に応じて優先順位を決定し、 優先順位に基づいてビデオ動画像からビデオ静止画像を取得し、 各スクリーン面 をマスクするので、 より写実的にビデオ動画像が合成できるという効果がある。 ここで、 前記優先順位決定手段は、 算出された複数のスク リーン面情報を用い て、 前記視点に近いスクリーン面ほど、 優先順位が高くなるように優先順位を決 定するように構成してもよい。
この構成によると、 視点に近いスクリーン面ほど優先順位を高くするので、 よ り写実的にビデオ動画像が合成できるという効果がある。
ここで、 前記優先順位決定手段は、 算出された複数のスク リーン面情報を用い て、 投影スク リーン面の面積を算出し、 算出された面積が大きいスクリーン面ほ ど、 優先順位が高くなるように優先順位を決定するように構成してもよレ、。 この構成によると、 面積の広いスクリーン面ほど優先順位を高くするので、 よ り映像効果を高めることができるという効果がある。
ここで、 前記ビデオ画像復号手段は、 優先順位が最も高いビデオ動画像につい ては、 ビデオ動画像から全てのビデオ静止画像を取得し、 優先順位の低いビデオ 動画像ほど、 ビデオ動画像から間引くビデオ静止画像が多くなるようにビデオ静 止画像を取得するように構成してもよい。
この構成によると、 優先順位が低いほど、 間引く静止画像を多くするので、 ビ デォ画像の画質を優先順位に合わせることができるという効果がある。
ここで、 前記ビデオ画像復号手段は、 取得するビデオ静止画像の輝度を低下さ せる画質補正部を含み、 優先順位が最も高いビデオ動画像については、 ビデオ静 止画像の輝度を低下させず、 優先順位の低いビデオ動画像ほど、 ビデオ静止画像 の輝度がより低くなるように補正するように構成してもよレ、。
この構成によると、 優先順位が低いほど、 輝度を低く補正するので、 表示レー トが低くなっている可能性の高い優先順位の低い動画表示面についてはフリツ力 を目立たなくすることができるという効果がある。
また、 本発明は、 オブジェク トを 3次元空間内で移動する視点から見て得られ るグラフィック動画像と、 複数のビデオ静止画像から構成されるビデオ動画像と を合成し、 3次元空間におけるオブジェク 卜の形状及び位置を示すオブジェク ト 情報を記憶している情報記憶手段と、 画像記憶手段とを備える動画像合成装置で 用いられる動画像合成方法であって、 外部から連続する複数のビデオ静止画像に より構成されるビデオ動画像を取得するビデオ動画像取得ステップと、 3次元空 間内で移動する 1の視点の位置を示す情報を繰り返し受け付ける受付ステップと、 前記オブジェク ト情報を用いて、 前記視点から見てオブジェク トを投影面に投影 して得られるグラフィック静止画像を生成し、 生成したグラフィック静止画像を 前記画像記憶手段に書き込むグラフィック画像生成ステップと、 前記グラフィッ ク静止画像が生成され前記画像記憶手段に書き込まれる時間帯において、 前記取 得したビデオ動画像から繰り返しビデオ静止画像を取り出し、 取り出したビデオ 静止画像を前記画像記憶手段に書き込むビデオ画像生成ステップとを含むことを 特徴とする。
この方法を用いると、 上記動画像合成装置と同様の効果を奏することは明らか である。
また、 本発明は、 オブジェク トを 3次元空間内で移動する視点から見て得られ るグラフィック動画像と、 複数のビデオ静止画像から構成されるビデオ動画像と を、 オブジェク トのスク リーン面において合成し、 3次元空間におけるオブジェ ク トの形状及び位置とオブジェク トのスクリーン面の形状とを示すオブジェク ト 情報を記憶している情報記憶手段と、 グラフィック静止画像記憶手段と、 ビデオ 静止画像記憶手段と、 画像記憶手段とを備える動画像合成装置で用いられ動画像 合成方法であって、 外部から連続する複数のビデオ静止画像により構成されるビ デォ動画像を取得するビデオ動画像取得ステップと、 3次元空間内で移動する 1 の視点の位置を示す情報を繰り返し受け付ける受付ステツプと、 前記オブジェク ト情報を用いて、 前記視点から見てオブジェク トを投影面に投影して得られるグ ラフィック静止画像を生成し、 生成したグラフィック静止画像を前記グラフィ ッ ク静止画像記憶手段に書き込み、 スクリーン面の形状を示す情報を含むオブジェ ク ト情報を用いて、 前記視点から見てスク リーン面を前記投影面に投影して得ら れる投影スクリーン面の形状及び位置を示すスクリーン面情報を算出するグラフ ィック画像生成ステップと、 前記グラフィック静止画像が生成され前記グラフィ ック静止画像記憶手段に書き込まれる時間帯において、 前記取得したビデオ動画 像から繰り返しビデオ静止画像を取り出し、 取り出したビデオ静止画像を前記ビ デォ静止画像記憶手段に書き込むビデオ画像生成ステップと、 前記算出されたス クリーン面情報を用いて、 前記グラフィック静止画像記憶手段に記憶されている グラフィック静止画像又は前記ビデオ静止画像記憶手段に記憶されているビデオ 静止画像から各静止画像を構成する画素を選択し、 選択した画素を前記画像記憶 手段に書き込む選択ステップとを含むことを特徴とする。
この方法を用いると、 上記動画像合成装置と同様の効果を奏することは明らか である。
また、 本発明は、 オブジェク トを 3次元空間内で移動する視点から見て得られ るグラフィック動画像と、 複数のビデオ静止画像から構成されるビデオ動画像と を合成し、 3次元空間におけるオブジェク 卜の形状及び位置を示すオブジェク ト 情報を記憶している情報記憶手段と、 画像記憶手段とを備えるコンピュータで用 いられる動画像合成プログラムを記録している記録媒体であって、 前記動画像合 成プログラムは、 外部から連続する複数のビデオ静止画像により構成されるビデ ォ動画像を取得するビデオ動画像取得ステップと、 3次元空間内で移動する 1の 視点の位置を示す情報を繰り返し受け付ける受付ステップと、 前記オブジェク ト 情報を用いて、 前記視点から見てオブジェク トを投影面に投影して得られるダラ フィック静止画像を生成し、 生成したグラフィック静止画像を前記画像記憶手段 に書き込むグラフィック画像生成ステップと、 前記グラフィック静止画像が生成 され前記画像記憶手段に書き込まれる時間帯において、 前記取得したビデオ動画 像から操り返しビデオ静止画像を取り出し、 取り出したビデオ静止画像を前記画 像記憶手段に書き込むビデオ画像生成ステップとを含むことを特徴とする。
このプログラムをコンピュータにより実行することにより、 上記動画像合成装 置と同様の効果を奏することは明らかである。
また、 本発明は、 オブジェク トを 3次元空間内で移動する視点から見て得られ るグラフィック動画像と、 複数のビデオ静止画像から構成されるビデオ動画像と を、 オブジェク トのスクリーン面において合成し、 3次元空間におけるオブジェ ク 卜の形状及び位置とオブジェク 卜のスクリーン面の形状とを示すオブジェク ト 情報を記憶している情報記憶手段と、 グラフィック静止画像記憶手段と、 ビデオ 静止画像記憶手段と、 画像記憶手段とを備えるコンピュータで用いられ動画像合 成プログラムを記録している記録媒体であって、 前記動画像合成プログラムは、 外部から連続する複数のビデオ静止画像により構成されるビデオ動画像を取得す るビデオ動画像取得ステップと、 3次元空間内で移動する 1の視点の位置を示す 情報を繰り返し受け付ける受付ステップと、 前記オブジェク ト情報を用いて、 前 記視点から見てオブジェク トを投影面に投影して得られるグラフィック静止画像 を生成し、 生成したグラフィック静止画像を前記グラフィック静止画像記憶手段 に書き込み、 スクリーン面の形状を示す情報を含むオブジェク ト情報を用いて、 前記視点から見てスクリーン面を前記投影面に投影して得られる投影スクリーン 面の形状及び位置を示すスクリーン面情報を算出するグラフィック画像生成ステ ップと、 前記グラフィック静止画像が生成され前記グラフィック静止画像記憶手 段に書き込まれる時間帯において、 前記取得したビデオ動画像から繰り返しビデ ォ静止画像を取り出し、 取り出したビデオ静止画像を前記ビデオ静止画像記憶手 段に書き込むビデオ画像生成ステップと、 前記算出されたスクリーン面情報を用 いて、 前記グラフィック静止画像記憶手段に記憶されているグラフィック静止画 像又は前記ビデオ静止画像記憶手段に記憶されているビデオ静止画像から各静止 画像を構成する画素を選択し、 選択した画素を前記画像記億手段に書き込む選択 ステップとを含むことを特徴とする。
このプログラムをコンピュータにより実行することにより、 上記動画像合成装 置と同様の効果を奏することは明らかである。 図面の簡単な説明
図 1は、 本発明の 1の実施の形態としての動画像合成装置 1 0の外観を示す。 図 2は、 動画像合成装置 1 0の構成を示すプロック図である。
図 3は、 データ記憶部 1 0 2が記憶しているオブジェク トテーブルの一例を示 す。
図 4は、 データ記憶部 1 0 2が記憶している M P E Gストリームのデータ構造 を示す。
図 5は、 表示部 1 0 9により表示される画面の一例を示す。
図 6は、 動画像合成装置 1 0の各処理プロセスにおけるデータを視覚的に示す。 図 7は、 動画像合成装置 1 0の動作を示すフローチャートである。
図 8は、 動画像合成装置 1 0の動作タイミングを示すタイムチヤ一トである。 図 9は、 従来技術によるグラフィック静止画像とビデオ静止画像との合成の様 子を視覚的に示したものである。
図 1 0は、 動画像合成装置 1 0によるグラフィック静止画像とビデオ静止画像 との合成の様子を視覚的に示したものである。
図 1 1は、 本発明の別の 1の実施の形態としてのデジタル放送受信装置 2 0の 外観を示す。
図 1 2は、 デジタル放送受信装置 2 0の構成を示すブロック図である。
図 1 3は、 表示部 1 0 9により表示される画面の一例を示す。
図 1 4は、 デジタル放送受信装置 2 0の各処理プロセスにおけるデータを視覚 的に示す。 図 1 5は、 デジタル放送受信装置 2 0の動作を示すフローチヤ一トである。 図 1 6は、 デジタル放送受信装置 2 0の優先順位の算出の動作を示すフローチ ャ一トである。
図 1 7は、 デジタル放送受信装置 2 0の動作タイミングを示すタイムチヤ一ト である。
図 1 8は、 本発明の別の 1の実施の形態としての動画像合成装置 3 0の構成を 示すプロック図である。
図 1 9は、 動画像合成装置 3 0の制御データ記憶部に記憶されている制御デ一 タの一例を示す。
図 2 0は、 動画像合成装置 3 0の各処理プロセスにおけるデータを視覚的に示 す。
図 2 1は、 動画像合成装置 3 0のグラフィック静止画像とビデオ静止画像と制 御データとの対応関係を示す。
図 2 2は、 動画像合成装置 3 0の動作を示すフローチャートである。
図 2 3は、 動画像合成装置 3 0の画像の合成の動作を示すフローチャートであ る。
図 2 4は、 動画像合成装置 3 0の動作のタイミングを示すタイムチヤ一トであ る。
図 2 5は、 本発明の別の 1の実施の形態としてのデジタル放送受信装置 4 0の 構成を示すブロック図である。
図 2 6は、 デジタル放送受信装置 4 0の各処理プロセスにおけるデータを視覚 的に示す。
図 2 7は、 デジタル放送受信装置 4 0の動作のタイミングを示すタイムチヤ一 トである。
図 2 8は、 本発明の別の 1の実施の形態としてのデジタル放送受信装置 5 0の 構成を示すプロック図である。 図 29は、 デジタル放送受信装置 1 0の別の動作のタイミングを示すタイムチ ヤートである。
図 30は、 デジタル放送受信装置 1 0のさらに別の動作のタイミングを示すタ ィムチヤ一トである。 発明を実施するための最良の形態
本発明の実施の形態について図面を用いて詳細に説明する。
1 実施の形態 1
本発明に係る 1の実施の形態としての動画像合成装置 10について説明する。 1. 1 動画像合成装置 1 0の構成
動画像合成装置 1 0は、 図 1に示すように、 本体部 1 1、 CD— ROMが装着 される CD— ROM駆動部 1 2、 プログラムを動作させるプロセッサ 1 3、 プロ グラムやデータを記憶する半導体メモリ 14、 モニタ 1 5、 キ一ボード 1 6、 ス ピ一力 1 7、 マウス 1 8から構成され、 CD— ROMに記録されている 3次元ォ ブジェク トに関するオブジェク ト情報とビデオ画像とを読み出して、 グラフイツ ク画像を生成し、 生成したグラフィック画像にビデオ画像を貼り付け、 モニタ 1 5に表示する。
動画像合成装置 1 0の機能ブロック図を、 図 2に示す。 この図に示すように、 動画像合成装置 1 0は、 入力部 10 1、 データ記憶部 1 02、 座標光源計算部 1 03、 レンダリング処理部 104、 透視変換部 105、 画像復号部 1 06、 画像 変形部 1 07、 フレームバッファ 108、 表示部 109から構成される。
(1) 入力部 1 01
入力部 1 0 1は、 具体的には、 キーボード 1 6、 マウス 1 8などから構成され る。
入力部 1 0 1は、 図 5に示すような移動方向指定メニュー 303上に形成され ているボタン 32 1〜 327の入力を受け付ける。 ボタン 32 1〜327は、 そ れぞれ、 前方向、 後方向、 左方向、 右方向、 上方向、 下方向の指定を受け付ける ボタン及び操作の終了を受け付けるボタンである。 これらのボタン 321〜32 7の入力を受け付けると、 それぞれ、 前方向、 後方向、 左方向、 右方向、 上方向、 下方向を示す情報及び操作の終了を示す情報を座標光源計算部 103へ出力する。 入力部 1 0 1は、 ボタン 32 1〜326の入力の受け付けを、 1秒間に 10回 の割合で行う。
(2) データ記憶部 102
データ記憶部 1 02は、 具体的には、 CD— ROMと CD— ROMの装着され る CD— ROM駆動部 1 2とから構成され、 CD— ROMにはデータが記録され ており、 CD— ROM駆動部 1 2は、 要求に応じて CD— ROMに記録されてい るデータを読み出す。
データ記憶部 1 02は、 図 3及び図 4に示すように、 オブジェク トテーブル 2 01と MPEGス トリ一ム 221とを記憶している。
オブジェク トテ一プル 20 1は、 3次元座標空間 A上に配置されるォブジェク トに関する情報を有しており、 図 3に示すように、 オブジェク ト名 2 1 1、 形状 座標 2 1 2、 位置座標 21 3及び動画表示面座標 2 14からなる組から構成され る。 各組は、 1のオブジェク トに対応している。
オブジェク ト名 2 1 1は、 オブジェク トを識別する識別名である。
形状座標 2 1 2は、 1つの 3次元座標空間 B上における複数個の 3次元座標値 からなる。 これらの複数個の 3次元座標値は、 オブジェク トを形成する各点の 3 次元座標値を示す。 オブジェク トの一端は、 3次元座標空間 Bの原点に置かれて いる。
位置座標 2 1 3は、 3次元座標空間 A上における 1個の 3次元座標値からなる。 この 3次元座標値は、 3次元座標空間 A上において前記のオブジェク トの一端が 置かれている位置を示す。
動画表示面座標 2 14は、 3次元座標空間 B上における複数個の 3次元座標値 からなり、 これらの複数個の 3次元座標値は、 形状座標 2 1 2の一部分である。 これらの複数個の 3次元座標値は、 1つの限られた平面を示すように選択されて おり、 動画表示面座標 2 14の複数個の 3次元座標値により示される平面に、 ビ デォ動画像が貼り付けられて表示される。 この限られた平面を、 動画表示面又は スクリーン面と呼ぶ。
MPEGス トリーム 22 1は、 MPEG (Mo v i n g P i c t u r e E x p e r t s G r o u p) による規定に基づき、 ビデオ動画像が圧縮符号化さ れて形成された符号列であり、 図 4に示すように、 SH (S e q u e n c e H 6 & (1 6 ]:) と00? (0 1: 0 11 o f P i c t u r e s) との複数個の組 から構成されている。 GOPは、 複数個のピクチャ (P i c t u r e) を含む。 各ピクチャは、 1フレームの静止画像に相当する。 各ピクチャは、 複数個のスラ イスを含み、 各スライスは、 複数個のマクロブロック (MB) を含み、 各マクロ ブロックは、 4個の輝度ブロック Yと、 2個の色差ブロック C b、 C rとからな る。 各プロックは、 8個 X 8個合計で 64個の要素からなる。 より詳細について は、 公知であるので説明は省略する。
連続するピクチャが順次復号されることにより、 動きがあるように見える。 ( 3 ) 座標光源計算部 103
座標光源計算部 1 03は、 具体的には、 半導体メモリ 14に記憶されているプ ログラム、 プロセッサ 1 3などから構成される。
座標光源計算部 1 03は、 3次元座標空間 Aにおける視点座標 E (Ex, Ey, E z ) を記憶しており、 また、 入力部 1 0 1から前方向、 後方向、 左方向、 右方向、 上方向、 下方向を示す情報及び操作の終了を示す情報を受け取る。
座標光源計算部 1 03が前方向、 後方向、 左方向、 右方向、 上方向、 下方向を 示す情報を受け取ると、 受け取った情報に応じて、 視点座標 Eについて、 それぞ れ次に示す演算を行う。
Ey=Ey + 1 E y= E y— 1
E x= E x + 1
E x= E x— 1
Ez=Ez + 1
Ez=Ez— 1
また、 座標光源計算部 1 03は、 データ記憶部 102のォブジェク トテ一プル 20 1から、 オブジェク ト毎に、 形状座標 2 1 2と位置座標 2 1 3と動画表示面 座標 2 1 4とを読み出し、 形状座標 2 1 2に示される各座標値に位置座標 2 1 3 に示される座標値を加算し、 3次元座標空間 Aにおけるオブジェク トを形成する 各点の 3次元座標を算出する。
次に、 座標光源計算部 1 03は、 3次元座標空間 Aにおいて、 オブジェク トと 視点座標 E (Ex, Ey, Ez ) との間に仮想的に存在する平面 H上に、 視点座標 E (Ex, Ey, Ez ) から見て各オブジェク トの各点を投影して形成される各点の 2 次元座標と、 各点の平面 Hからの奥行きを示す奥行き値とを算出する。 次に、 座 標光源計算部 1 03は、 前記 2次元座標と奥行き値とを用いて、 モニタ 1 5の表 示ウィンドウ内に表示する部分を抽出するクリッビング処理を施し、 クリッピン グ処理の施された各ォブジェク 卜の各点の平面 H上の 2次元座標と平面 Hからの 奥行きを示す奥行き値とをレンダリング処理部 1 04へ出力する。 なお、 平面 H 上の各点の 2次元座標、 各点の平面 Hからの奥行きを示す奥行き値の算出の方法 及びクリッピング処理については、 公知であるので、 説明を省略する。
また、 同様にして、 座標光源計算部 103は、 動画表示面座標 2 14に示され る各座標値に位置座標 2 1 3に示される座標値を加算し、 3次元座標空間 Aにお ける動画表示面を形成する各点の 3次元座標を算出し、 算出した 3次元座標を透 視変換部 1 05へ出力する。
(4) レンダリング処理部 1 04
レンダリング処理部 1 04は、 具体的には、 半導体メモリ 1 4に記憶されてい るプログラム、 プロセッサ 1 3などから構成される。
レンダリング処理部 1 0 4は、 座標光源計算部 1 0 3から、 各オブジェク トの 各点の平面 H上の 2次元座標と平面 Hからの奥行きを示す奥行き値とを受け取り、 受け取った 2次元座標と奥行き値とを用いて、 視点座標からオブジェク トを見た ときに実際には他のオブジェク 卜に隠れて見えない線や面を消去する隠線 '隠面 消去処理、 各オブジェク トをより写実的に見せるため各面の陰影の表示、 各面の 色の表示、 各面へのテクスチャの貼り付けなどのレンダリング処理を行い、 ビッ トマップデータであるグラフィック静止画像を形成し、 形成したグラフィック静 止画像をフレームバッファ 1 0 8へ出力する。 ここで、 グラフィック静止画像は、 横に 6 4 0ピクセル、 縦に 4 8 0ピクセル、 合計 3 0 7 2 0 0ピクセルからなる 輝度信号画像 Yと、 横に 3 2 0ピクセル、 縦に 2 4 0ピクセル、 合計 7 6 8 0 0 ピクセルからなる色差信号画像 C bと、 横に 3 2 0ピクセル、 縦に 2 4 0ピクセ ノレ、 合計 7 6 8 0 0ピクセル'からなる色差信号画像 C rとからなる。 各ピクセル は 8ビットからなる。
なお、 隠線 ·隠面消去処理、 陰影の表示、 色の表示、 テクスチャの貼り付けな どのレンダリング処理については、 公知であるので説明を省略する。
( 5 ) 透視変換部 1 0 5
透視変換部 1 0 5は、 具体的には、 半導体メモリ 1 4に記憶されているプログ ラム、 プロセッサ 1 3などから構成される。
透視変換部 1 0 5は、 座標光源計算部 1 0 3から 3次元座標空間 Aにおける動 画表示面を形成する各点の 3次元座標を受け取り、 受け取った 3次元座標から、 座標光源計算部 1 0 3と同様にして、 動画表示面を形成する各点の平面 H上の 2 次元座標を算出し、 算出した動画表示面を形成する各点の 2次元座標を画像変形 部 1 0 7へ出力する。
( 6 ) 画像復号部 1 0 6
画像復号部 1 0 6は、 具体的には、 半導体メモリ 1 4に記憶されているプログ ラム、 プロセッサ 1 3などから構成される。
画像復号部 1 06は、 データ記憶部 1 02に記憶されている MP EGス トリ一 ム 22 1を読み出し、 読み出した MP EGス トリーム 22 1から 1フレーム分の ビデオ静止画像を伸張復号して繰り返し生成し、 生成したビデオ静止画像を画像 変形部 1 07へ出力する。 なお、 MP EGス トリームからビデオ静止画像を生成 する方法については、 公知であるので、 説明を省略する。
画像復号部 1 06は、 1秒間に 30フレームの割合でビデオ静止画像を伸張復 号する。
( 7 ) 画像変形部 1 07
画像変形部 1 07は、 具体的には、 半導体メモリ 14に記憶されているプログ ラム、 プロセッサ 1 3などから構成される。
画像変形部 1 07は、 画像復号部 1 06からビデオ静止画像を受け取り、 また、 透視変換部 1 05から動画表示面を形成する各点の 2次元座標を受け取る。 次に、 前記受け取ったビデオ静止画像を、 ァフィン変換を用いて、 受け取った 2次元座 標により示される形状に変形して変形ビデオ静止画像を生成し、 生成した変形ビ デォ静止画像をフレームバッファ 1 08内の前記受け取った 2次元座標により示 される領域に上書きにより出力する。 ここで、 生成された変形ビデオ静止画像は、 複数のピクセルから構成される。 各ピクセルは 8ビットからなる。
(8) フレームバッファ 1 08
フレームバッファ 108は、 具体的には、 半導体メモリ 14などから構成され、 静止画像を記憶する。
(9) 表示部 109
表示部 109は、 具体的には、 モニタ 1 5などから構成される。
表示部 1 09は、 図 5に示すように、 画面 30 1を表示する。 画面 30 1内に は、 表示ウィンドウ 302と移動方向指定メニュー 303とが含まれている。 移動方向指定メ-ュ一 303の上には、 ボタン 32 :!〜 327が表示されてい る。 ボタン 3 2 1〜3 2 7は、 それぞれ、 前方向、 後方向、 左方向、 右方向、 上 方向、 下方向の指定を受け付けるボタン及び操作の終了を受け付けるボタンであ る。
表示部 1 0 9は、 フレームバッファ 1 0 8に記憶されている静止画像を、 表示 ウィンドウ 3 0 2内に表示する。
1 . 2 動画像合成装置 1 0の動作
( 1 ) 動画像合成装置 1 0の動作
動画像合成装置 1 0の動作について、 図 6及び図 7を用いて説明する。 図 6は、 動画像合成装置 1 0の各処理プロセスにおけるデータを視覚的に示し、 図 7は、 動画像合成装置 1 0の動作をフローチャートにより示す。
座標光源計算部 1 0 3は、 データ記憶部 1 0 2のオブジェク トテーブル 2 0 1 から、 オブジェク ト毎に、 形状座標 2 1 2と位置座標 2 1 3と動画表示面座標 2 1 4と (オブジェク トに係る情報 4 0 1 ) を読み出し (ステップ S 1 0 1 )、 入 力部 1 0 1から前方向、 後方向、 左方向、 右方向、 上方向、 下方向を示す情報及 び操作の終了を示す情報を受け取り (ステップ S 1 0 2 )、 操作の終了を示す情 報を受け取った場合は処理を終了する (ステップ S 1 0 3 )。 その他の情報の場 合 (ステップ S 1 0 3 )、 座標光源計算部 1 0 3は受け取った情報に応じて視点 座標 Eを演算し、 3次元座標空間 Aにおけるォブジェク トを形成する各点の 3次 元座標を算出し、 平面 H上に形成される各点の 2次元座標と、 各点の平面 Hから の奥行きを示す奥行き値と (情報 4 0 2 ) を算出し、 ク リ ッピング処理を施し (ステップ S 1 0 4 )、 レンダリング処理部 1 0 4は、 2次元座標と奥行き値と を用いて、 隠線 ·隠面消去処理、 各面の陰影の表示、 各面の色の表示、 各面への テクスチャの貼り付けなどのレンダリング処理を行い、 ビッ トマップデータであ るグラフィック静止画像 (画像 4 0 3 ) を形成し (ステップ S 1 0 5 )、 形成し たグラフィック静止画像をフレームバッファ 1 0 8へ出力する (ステップ S 1 0 6 )。 次に、 再度ステップ S 1 0 2へ戻って処理を繰り返す。 また、 ステップ S 104の後、 座標光源計算部 1 03は、 3次元座標空間 Aに おける動画表示面を形成する各点の 3次元座標を算出し、 透視変換部 1 05は、 動画表示面を形成する各点の平面 H上の 2次元座標 (情報 405) を算出する (ステップ S 1 1 1)。
一方、 画像復号部 1 06は、 データ記億部 1 02に記憶されている MP EGス トリ一ム 22 1を読み出し (ステップ S 1 2 1)、 読み出した MP EGストリ一 ム 22 1から 1フレーム分のビデオ静止画像を復号して生成し (ステップ S 1 2 2 )、 画像変形部 1 0 7は、 画像復号部 1 0 6からビデオ静止画像 (画像 40 6) を受け取り、 ステップ S 1 1 1において算出された動画表示面を形成する各 点の 2次元座標を透視変換部 1 05から受け取り、 前記受け取ったビデオ静止画 像を、 ァフィン変換を用いて、 受け取った 2次元座標により示される形状に変形 して変形ビデオ静止画像 (画像 407) を生成し (ステップ S 1 23)、 生成し た変形ビデオ静止画像をフレームバッファ 1 08内の前記受け取った 2次元座標 により示される領域に上書きにより出力する (ステップ S 1 24)。 これにより、 グラフィック静止画像に変形ビデオ静止画像が貼り付けられる (画像 404)。 次に、 再度ステップ S 1 2 1へ戻って処理を繰り返す。
(2) 動画像合成装置 10の各構成要素の処理タイミング
図 8は、 各時刻における動画像合成装置 1 0の各構成要素の処理タイミングを 示すタイムチャートである。 横軸に時刻を取り、 縦軸に動画像合成装置 1 0の各 構成要素の処理を示す。
グラフィック静止画像とビデオ静止画像とを新たに生成し、 生成したビデオ静 止画像をグラフィック静止画像に貼り付ける場合には、 画像復号処理 C 1 0 1 と 座標光源計算 C 1 02と座標光源計算 C 1 05とが同時に開始される。 ここで、 座標光源計算 C 1 02は、 座標光源計算部 1 03による 3次元座標空間 Aにおけ る動画表示面を形成する各点の 3次元座標の算出であり、 また、 座標光源計算 C 105は、 座標光源計算部 1 03によるオブジェク トの平面 H上に形成される各 点の 2次元座標と、 各点の平面 Hからの奥行きを示す奥行き値との算出である。 座標光源計算 C 1 0 2が終了すると、 透視変換 C 1 0 3が行われ、 透視変換 C 1 0 3が終了すると、 さらに画像変形 C 1 0 4が行われる。 また、 座標光源計算 C 1 0 5が終了すると、 レンダリング C 1 0 6が行われる。 レンダリング C 1 0 6 と画像変形 C 1 0 4とが終了すると、 表示 C 1 0 7が行われる。
ビデオ静止画像を新たに生成し、 生成したビデオ静止画像を前に生成したダラ フィック静止画像に貼り付ける場合には、 画像復号処理 C 1 1 1と座標光源計算 C 1 1 2とが同時に始まる。 ここで、 座標光源計算 C 1 1 2は、 座標光源計算部 1 0 3による 3次元座標空間 Aにおける動画表示面を形成する各点の 3次元座標 の算出である。 座標光源計算 C 1 1 2が終了すると、 透視変換 C 1 1 3が行われ、 透視変換 C 1 1 3が終了すると、 さらに画像変形 C 1 1 4が行われる。 画像変形 C 1 1 4とが終了すると、 表示 C 1 1 7が行われる。
なお、 図 8においては、 座檫光源計算 C 1 0 5及びレンダリング C 1 0 6が、 短時間に終了する場合、 具体的にはビデオ静止画像の復号サイクル時間 (1のビ デォ静止画像の復号開始から、 次のビデオ静止画像の復号開始までの時間を言う。 本実施の形態では、 3 0分の 1秒。) 内に終了する場合について説明している。
(グラフィック静止画像の生成処理時間が長い場合)
次に、 オブジェク トテ一ブル 2 0 1に記憶されているォブジェク トが多く、 グ ラフィック静止画像の生成処理 (座標光源計算及びレンダリング) 力 ビデオ静 止画像の復号サイクル時間内に終了しない場合について説明する。 なお、 この場 合、 入力部 1 0 1は、 例えば 1秒間に 1 0 0回等、 十分高速な入力の受け付けを 行うとしてもよレ、。
図 2 9は、 各時刻における動画像合成装置 1 0の各構成要素の処理タイミング を示すタイムチャートである。 図 8と同様に、 横軸に時刻を取り、 縦軸に動画像 合成装置 1 0の各構成要素の処理を示す。
この図において、 画像復号 C 6 0 1と座標光源計算 C 6 0 8と座標光源計算 C 6 2 3とが同時に開始される。 ここで、 座標光源計算 C 6 0 8は、 ビデオ静止画 像を貼り付ける領域に係る点のみを演算対象とし、 これに対し、 座標光源計算 C 6 2 3は、 全てのオブジェク トを演算対象とする。 従って、 オブジェク トの数が 多い場合には、 C 6 2 3の処理時間は、 C 6 0 8に比べて長くなる。 また、 座標 光源計算 C 6 0 8、 C 6 0 9及び C 6 1 0は、 それぞれ、 座標光源計算 C 6 2 3、 C 6 2 4及び C 6 2 5が行われる場合にのみ、 行われるものとする。 従って、 画 像変形 C 6 1 8及び C 6 1 9は、 それぞれ、 透視変換 C 6 1 3の結果を用いて行 われ、 画像変形 C 6 2 1は、 透視変換 C 6 1 4の結果を用いて行われる。
次に、 画像変形 C 6 1 6及びレンダリング C 6 2 6が終了した時点で、 表示 C 6 2 9が行われる。 画像変形 C 6 1 6の結果、 変形静止画像 A 1が得られ、 レン ダリング C 6 2 6の結果、 グラフィック静止画像 B 1が得られるとすると、 表示 6 2 9では、 変形静止画像 A 1とグラフィック静止画像 B 1とが合成された静止 画像が表示される。 '
次に、 画像復号 C 6 0 2は、 画像復号 C 6 0 1の開始から一定時間経過後 (例 えば、 3 0分の 1秒後) に開始される。 画像復号 C 6 0 1の開始と同時に、 座標 光源計算 C 6 0 9が行われ、 続いて透視変換 C 6 1 3が行われ、 次に画像変形 C 6 1 7が行われる。 画像変形 C 6 1 7の結果、 変形静止画像 A 2が得られるとす る。 次の表示 C 6 3 0は、 C 6 2 9の開始から一定時間経過後 (例えば、 3 0分 の 1秒後) に行われる。 表示 C 6 3 0が開始される時刻には、 次の座標光源計算 C 6 2 4の処理中であるので、 表示されるグラフィック静止画像は、 表示 C 6 2 9で使用されたグラフィック静止画像 B 1が用いられる。 すなわち、 表示 6 3 0 では、 グラフィック静止画像 B 1 と変形静止画像 A 2とが合成されて表示される。 次に、 画像復号 C 6 0 3が、 画像復号 C 6 0 2の開始から一定時間経過後に開 始される。 画像復号 C 6 0 3が終了すると、 透視変換 C 6 1 3の結果に基づき、 画像変形 C 6 1 8が行われ、 変形静止画像 A 3が得られる。 次に、 表示 C 6 3 1 が行われる時にも、 レンダリング C 6 2 7が終了していないので、 レンダリング C 6 2 6の結果であるグラフィック静止画像 B 1が用いられ、 表示 6 3 1では、 グラフィック静止画像 B 1と変形静止画像 A 3とが合成されて表示される。
また、 表示 6 3 2では、 レンダリング C 6 2 7の結果であるグラフィック静止 画像 B 2と画像変形 C 6 1 9の結果である変形静止画像 A 4とが合成されて表示 される。 以下、 同様にして表示がされる。
以上説明したように、 グラフィックデータの処理時間にかかわらず、 ビデオ動 画像を一定の表示レートで表示することができる。
なお、 座標光源計算 C 6 0 8〜C 6 1 0は、 それぞれ座標光源計算 C 6 2 3〜 C 6 2 5が開始されたときに実行されるとしているが、 図 8に示すように、 画像 復号のタイミングに合わせて毎回実行されるとしてもよい。 また、 レンダリング が開始されるときに実行される等、 他のタイミングで実行されるとしてもよレ、。
(座標光源計算とレンダレングとのパイプライン処理)
また、 座標光源計算とレン'ダレングとは、 パイプライン処理されるとしてもよ レ、。 この場合の各時刻における動画像合成装置 1 0の各構成要素の処理タイミン グを示すタイムチヤ一トを図 3 0に示す。 この図において、 図 8と同様に、 横軸 に時刻を取り、 縦軸に動画像合成装置 1 0の各構成要素の処理を示す。
この図に示すように、 画像復号 C 7 0 1 と、 座標光源計算 C 7 0 8と、 座標光 源計算 C 7 2 5とが同時に開始される。 座標光源計算 C 7 2 5が終了すると、 次 の視点座標による座標光源計算 C 7 2 6と、 座標光源計算 C 7 2 5の結果を用い たレンダリング C 7 2 9とが同時に開始され、 レンダリング C 7 2 9が終了する と、 表示 C 7 3 3が行われる。 次に、 座標光源計算 C 7 2 6が終了すると、 次の 視点座標による座標光源計算 C 7 2 7と、 座標光源計算 C 7 2 6の結果を用いた レンダリング C 7 3 0とが同時に開始される。 以下、 同様である。
以上説明したように、 座標光源計算とレンダリングとは、 パイプライン処理さ れるので、 グラフィック静止画像の生成処理にかかる時間が短縮できる。
1 . 3 まとめ 以上説明したように、 グラフィック静止画像の生成処理と、 ビデオ静止画像の 復号 '変形処理とを別プロセスにより、 並行して行い、 生成されたグラフィック 静止画像とビデオ静止画像とをフレームバッファ上で合成するので、 グラフィッ ク動画像とビデオ動画像とをそれぞれの表示レートで合成することができる。 具体的には、 グラフィック静止画像は、 1秒間に 1 0回生成され、 ビデオ静止 画像は 1秒間に 3 0回生成され、 それぞれ生成された時点において、 フレームバ ッファ上で合成される。
図 9は、 従来技術によるグラフィック静止画像とビデオ静止画像との合成の様 子を視覚的に示したものである。 この図において、 グラフィック画像としての立 方体が画像 5 0 1〜 5 0 3、 5 0 8〜5 1 0の順序で回転し、 立方体のスクリー ン面にビデオ動画像が貼り付けられている。 この図に示すように、 グラフィック 動画像の表示レ一トを一定としているので、 画像 5 0 3から画像 5 0 8へ変化す るとき、 ビデオ動画像を構成する数フレーム分のビデオ静止画像が省略され、 こ のため、 ビデオ動画像が滑らかに動かない。
図 1 0に、 動画像合成装置 1 0によるグラフィック静止画像とビデオ静止画像 との合成の様子を視覚的に示したものである。 この図では、 図 9の画像 5 0 3と 画像 5 0 8との間に生成される画像 5 0 4〜 5 0 7を示している。 この図に示す ように、 画像 5 0 3から画像 5 0 8へ変化するとき、 ビデオ動画像を構成する数 フレーム分のビデオ静止画像が省略されず、 グラフィック静止画像に貼り付けら れるので、 ビデオ動画像は滑らかに動いて見える。
なお、 透視変換部 1 0 5により行われる透視変換は、 レンダリング処理部 1 0 4においても行われている。 従って、 透視変換部 1 0 5を設ける代わりに、 レン ダリング処理部 1 0 4により行われた透視変換による計算結果を画像変形部 1 0 7へ出力するとしてもよレ、。 また、 画像変形部 1 0 7では、 透視変換部 1 0 5か ら回転情報を得ることにより、 奥行きの補正、 いわゆるパースペクティブ捕正を 行うとしてもよレ、。 また、 座標光源計算部 1 03、 レンダリング処理部 1 04、 透視変換部 1 05、 画像復号部 1 06及び画像変形部 1 07は、 上記の実施の形態においては、 半導 体メモリ 1 4に記憶されているプログラム、 プロセッサ 1 3などから構成される としているが、 それぞれ、 専用ハードウェアにより構成されるとしてもよレ、。 また、 上記の実施の形態において、 ビデオ動画像は、 MP EGにより規定され ている MP EGス トリームであるとしているが、 他のデータ構造であるとしても よい。
2 実施の形態 2
本発明に係る別の 1の実施の形態としてのデジタル放送受信装置 20について 説明する。
2. 1 デジタル放送受信装置 20の構成
デジタル放送受信装置 20は、 図 1 1に示すように、 本体部 26、 モニタ 2 1、 リモコン 22、 アンテナ 23などから構成され、 本体部 26は、 チャネル毎に M P EGストリームにより構成されるビデオ動画像が載せられて放送される放送波 を受信するチューナ 1 1 0、 CD— ROMが装着される CD— ROM駆動部、 プ ログラムを動作させるプロセッサ、 プロダラムゃデ一タを記憶する半導体メモリ などから構成され、 CD— ROMに記録されている 3次元オブジェク トに関する オブジェク ト情報を読み出し、 放送される複数のビデオ動画像を受信し、 複数の オブジェク トからなるグラフィック画像を生成し、 各ォブジェク トはそれぞれ動 画表示面を有し、 生成したグラフィック画像の各動画表示面に各ビデオ画像を貼 り付け、 モニタ 2 1に表示する。
デジタル放送受信装置 20の機能ブロック図を、 図 1 2に示す。 この図に示す ように、 デジタル放送受信装置 20は、 入力部 1 0 1、 データ記憶部 1 02、 座 標光源計算部 1 03、 レンダリング処理部 1 04、 透視変換部 1 05、 画像復号 部 1 06 a、 1 06 b、 1 06 c、 画像変形部 1 07 a、 107 b、 1 07 c、 フレームバッファ 1 08、 表示部 1 09、 チューナ 1 1 0、 優先順位制御部 1 1 1、 マスク制御部 1 1 2、 マスク処理部 1 1 3 a、 1 1 3 b、 1 1 3 c、 アンテ ナ 23から構成される。
(1) 入力部 1 01
入力部 1 0 1は、 具体的には、 リモコン 22などから構成される。
リモコン 22の上面には、 図 1 1に示すように、 数字ボタン、 移動方向指定ボ タン 25、 メニューボタン 24などが備えられており、 利用者によりこれらのボ タンが操作されると、 操作されたボタンに対応する情報をチューナ 1 1 0及び座 標光源計算部 103へ出力する。
数字ボタンは、 ビデオ動画像を受信するチャネルを指定するために操作され、 メニューボタン 24は、 図 1 3に示すような番組メニューをモニタ 2 1に表示す るために操作され、 移動方向指定ボタン 25は、 この図に示す番組メニューの中 で仮想的な視点を移動させるために操作され、 前方向、 後方向、 左方向、 右方向、 上方向、 下方向への移動を示す。
(2) データ記憶部 102
データ記憶部 1 02は、 動画像合成装置 1 0のデータ記憶部 102と同様であ り、 オブジェク トテ一ブル 20 1を記憶している。
オブジェク トテーブル 20 1は、 動画像合成装置 1 0のデータ記憶部 1 02に 記憶されているオブジェク トテ一ブル 20 1 と同じである。
( 3 ) 座標光源計算部 103
座標光源計算部 1 03は、 動画像合成装置 1 0の座標光源計算部 1 03と同様 に、 半導体メモリ 1 4に記憶されているプログラム、 プロセッサなどから構成さ れる。
座標光源計算部 1 03は、 3次元座標空間 Aにおける視点座標 E (Ex, Ey, E z ) を記億しており、 また、 入力部 1 0 1から前方向、 後方向、 左方向、 右方向、 上方向、 下方向を示す情報及び操作の終了を示す情報を受け取る。
座標光源計算部 1 03が前方向、 後方向、 左方向、 右方向、 上方向、 下方向を 示す情報を受け取ると、 受け取った情報に応じて、 視点座標 Eについて、 それぞ れ次に示す演算を行う。
Ly= y+ 1
Ey=Ey— 1
Ex=E + 1
E =Ex— 1
Ez=Ez + 1
Ez=Ez— 1
また、 座標光源計算部 1 03は、 データ記億部 1 02のオブジェク トテ一ブル 20 1から、 オブジェク ト毎に、 形状座標 2 1 2と位置座標 2 1 3と動画表示面 座標 2 14とを読み出し、 形状座標 2 1 2に示される各座標値に位置座標 2 1 3 に示される座標値を加算し、 3次元座標空間 Aにおけるオブジェク トを形成する 各点の 3次元座標を算出する'。
次に、 座標光源計算部 1 03は、 3次元座標空間 Aにおいて、 オブジェク トと 視点座標 E (Ex, Ey, Ez ) との間に仮想的に存在する平面 H上に、 視点座標 E (Ex, Ey, Ez ) から見て各オブジェク トの各点を投影して形成される各点の 2 次元座標と、 各点の平面 Hからの奥行きを示す奥行き値とを算出する。 次に、 座 標光源計算部 1 03は、 前記 2次元座標と奥行き値とを用いて、 モニタ 1 5の表 示ウィンドウ内に表示する部分を抽出するクリッビング処理を施し、 クリッピン グ処理の施された各オブジェク トの各点の平面 H上の 2次元座標と平面 Hからの 奥行きを示す奥行き値とをレンダリング処理部 1 04へ出力する。 なお、 平面 H 上の各点の 2次元座標、 各点の平面 Hからの奥行きを示す奥行き値の算出の方法 及びクリッビング処理については、 公知であるので、 説明を省略する。
また、 同様にして、 座標光源計算部 1 03は、 形状座標 2 1 2に示される各座 標値に位置座標 2 1 3に示される座標値を加算し、 3次元座標空間 Aにおける各 オブジェク トを形成する各点の 3次元座標を算出し、 算出した 3次元座標を透視 変換部 1 0 5と優先順位制御部 1 1 1とへ出力する。
( 4 ) レンダリング処理部: 1 0 4
レンダリング処理部 1 0 4は、 動画像合成装置 1 0のレンダリング処理部 1 0 4と同様であるので、 説明を省略する。
( 5 ) 透視変換部 1 0 5
透視変換部 1 0 5は、 動画像合成装置 1 0の透視変換部 1 0 5と同様であり、 半導体メモリ 1 4に記憶されているプログラム、 プロセッサ 1 3などから構成さ れる。
透視変換部 1 0 5は、 座標光源計算部 1 0 3から 3次元座標空間 Aにおける各 オブジェク トを形成する各点の 3次元座標を受け取り、 受け取った 3次元座標か ら、 座標光源計算部 1 0 3と同様にして、 各ォブジェク トの動画表示面を形成す る各点の平面 H上の 2次元座標を算出し、 算出した各オブジェク トの動画表示面 を形成する各点の 2次元座標を、 各オブジェク トに対応する画像変形部 1 0 7 a、 1 0 7 b , 1 0 7 cへ出力し、 算出した各ォブジェク トの動画表示面を形成する 各点の平面 H上の 2次元座標を優先順位制御部 1 1 1へ出力する。
( 6 ) 優先順位制御部 1 1 1
優先順位制御部 1 1 1は、 座標光源計算部 1 0 3から 3次元座標空間 Aにおけ る各ォブジェク トを形成する各点の 3次元座標を受け取り、 透視変換部 1 0 5か ら各ォブジェク トの動画表示面を形成する各点の平面 H上の 2次元座標を受け取 る。
優先順位制御部 1 1 1は、 1のォブジェク トの動画表示面を形成する各点の Z 座標値のうち最も大きいものをォブジェク トの代表値とし、 各オブジェク トにつ いて同様にして代表値を決定する。 次に、 小さい代表値を有するオブジェク トか ら順に順位付けを行う。 こう して、 オブジェク トの動画表示面毎に順位付けが行 われる。
次に、 優先順位制御部 1 1 1は、 各ォブジェク トを形成する各点の 3次元座標 を基にして、 動画表示面が重なり合つているオブジェク トを検出し、 重なり合つ た動画表示面のうち、 一番手前の動画表示面を有するオブジェク トを検出する。 さらに、 前記検出された一番手前の動画表示面の順位をそのままにして、 重なり あった他の動画表示面を有するオブジェク トの順位を順次下げる。
このようにしてオブジェク トの順位が決定される。 このように決定された順位 によると、 3次元座標空間において、 平面 Hに近いほど順位は高くなる。 この順 位に基づいて、 各画像復号部の優先順位を決定し、 決定した優先順位を各ォブジ ェタ トの画像表示面が対応する画像復号部 1 06 a、 1 06 b, 106 cへ出力 する。
( 7 ) アンテナ 23、 チューナ 1 1 0
アンテナ 23は、 放送波を受信し、 受信した放送波をチューナ 1 1 0へ出力す る。
チューナ 1 1 0は、 入力部 10 1からメニューボタン 24に対応する情報を受 け取り、 この情報を受け取ると、 アンテナ 23により受信された放送波の中から 3個のチャネルを通じて放送される 3個の MP EGストリームより構成されるビ デォ動画像を選択し、 選択した 3個のビデオ動画像をそれぞれ、 画像復号部 1 0 6 a、 1 06 b及び 1 06 cへ出力する。
( 8 ) 画像復号部 1 06 a、 106 b、 106 c
画像復号部 1 06 aは、 動画像合成装置 1 0の画像復号部 1 06と同様に、 半 導体メモリ 14に記憶されているプログラム、 プロセッサ 1 3などから構成され る。
画像復号部 1 06 aは、 優先順位制御部 1 1 1から優先順位を受け取る。 また、 画像復号部 1 06 aは、 チューナ 1 1 0から 1個の MP EGストリ一ム より構成されるビデオ動画像を受け取り、 前記受け取った優先順に基づいて、 受 け取った MP EGストリームから 1フレーム分のビデオ静止画像を伸張復号して 繰り返し生成し、 生成したビデオ静止画像を画像変形部 1 07 aへ出力する。 最も高い優先順位を受け取った場合、 画像復号部 1 06 aは、 MP EGストリ ームから全ての静止画像を伸張復号する。
中程度の優先順位を受け取った場合、 画像復号部 106 aは、 MP EGストリ —ムから静止画像を 1つおきに伸張復号する。
低い優先順位を受け取った場合、 画像復号部 1 06 aは、 MP EGス ト リーム から 4つに 1つの静止画像を伸張復号する。 言い換えると、 4つに 3つの静止画 像を間引く。
このように、 優先順位が低くなるほど、 MP EGス ト リームから多くの静止画 像を間引いて伸張復号しない静止画像が多くなるようにする。
画像復号部 1 06 b、 106 cは、 画像復号部 1 06 aと同様である。
( 9 ) 画像変形部 107 a、 1 07 b、 1 07 c
画像変形部 107 aは、 動画像合成装置 1 0の画像変形部 1 07と同様に、 半 導体メモリ 14に記憶されているプログラム、 プロセッサ 1 3などから構成され る。
画像変形部 1 07 aは、 画像復号部 106 aからビデオ静止画像を受け取り、 また、 透視変換部 1 05から動画表示面を形成する各点の 2次元座標を受け取る c 次に、 前記受け取ったビデオ静止画像を、 ァフィン変換を用いて、 受け取った 2 次元座標により示される形状に変形して変形ビデオ静止画像を生成し、 生成した 変形ビデオ静止画像をマスク処理部 1 1 3 aへ出力する。
画像変形部 1 07 b、 1 07 cは、 画像変形部 107 aと同様である。
(10) マスク制御部 1 1 2
マスク制御部 1 1 2は、 具体的には、 半導体メモリ 14に記憶されているプロ グラム、 プロセッサ 1 3などから構成される。
マスク制御部 1 1 2は、 座標光源計算部 1 03から 3次元座標空間 Aにおける 各オブジェク トを形成する各点の 3次元座標を受け取り、 透視変換部 105から 各ォブジ ク トの動画表示面を形成する各点の平面 H上の 2次元座標を受け取り. 受け取った各ォブジェク トを形成する各点の 3次元座標と各点の平面 H上の 2次 元座標とを用いて、 オブジェク トの重なりを検出し、 動画表示面毎に他のォブジ エタ トにより隠れて見えないマスク領域を算出し、 算出したマスク領域を各ォブ ジェク トの画像表示面が対応するマスク処理部 1 1 3 a、 1 1 3 b及び 1 1 3 c へ出力する。
( 1 1 ) マスク処理部 1 1 3 a、 1 1 3 b, 1 1 3 c
マスク処理部 1 1 3 aは、 具体的には、 半導体メモリ 1 4に記憶されているプ ログラム、 プロセッサ 1 3などから構成される。
マスク処理部 1 1 3 aは、 透視変換部 1 0 5から各オブジェク トの動画表示面 を形成する各点の平面 H上の 2次元座標を受け取る。
また、 マスク処理部 1 1 3 aは、 画像変形部 1 0 7 aから変形ビデオ静止画像 を受け取り、 マスク制御部 1 1 2からマスク領域を受け取り、 変形ビデオ静止画 像のうち、 マスク領域で示される領域に含まれる全ての画素値を 0とする。 次に、 マスク制御部 1 1 2は、 マスク領域で示される領域に含まれる全ての画素値を 0 とした変形ビデオ静止画像をフレームバッファ 1 0 8内の前記受け取った 2次元 座標により示される領域に上書きにより出力する。
マスク処理部 1 1 3 b、 1 1 3 cは、 マスク処理部 1 1 3 aと同様である。
( 1 2) フレームバッファ 1 08
フレームバッファ 1 08は、 動画像合成装置 1 0のフレームバッファ 1 0 8と 同様である。
(1 3) 表示部 1 0 9
表示部 1 0 9は、 図 1 3に示すように、 画面 3 2 1を表示する。 画面 3 2 1內 には、 オブジェク ト 3 3 2、 3 3 3、 3 34が表示されており、 各オブジェク ト は、 画像表示面 3 2 2、 3 2 3、 3 24を有し、 各画像表示面には、 それぞれビ デォ動画像が表示されている。
2. 2 デジタル放送受信装置 2 0の動作 (1) デジタル放送受信装置 20の動作
デジタル放送受信装置 20の動作について、 図 1 4〜図 1 6を用いて説明する。 図 14は、 デジタル放送受信装置 20の各処理プロセスにおけるデータを視覚的 に示し、 図 1 5は、 デジタル放送受信装置 20の動作をフローチャートにより示 し、 図 1 6は、 デジタル放送受信装置 20の優先順位制御部 1 1 1の動作をフロ —チヤ一トにより示す。
図 1 5のフ口一チヤ一トに示すステップについて、 図 7のフローチヤ一トに示 すステップと同じ符号を有するものは、 図 7のフ口一チヤ一トに示すステップと 同じである。 図 7のフローチャートとの相違点を中心として説明する。
データ記憶部 1 02に記憶されているオブジェク トに係る情報 4 1 1を基にし て、 3次元座標空間 Aにおけるオブジェク トを形成する各点の 3次元座標 4 1 2 が算出され、 3次元座標 4 1 2に基づいて、 動画表示面を形成する座標 4 14が 算出される。 また、 3次元座檫 4 1 2に基づいて、 グラフィック静止画像 41 3 が形成される。
ステップ S 1 1 1において、 動画表示面を形成する座標 4 1 4の算出が終了す ると、 優先順位制御部 1 1 1は、 各画像復号部毎に優先順位を決定し、 決定した 優先順位を対応する画像復号部へ出力する (ステップ S 20 1 )。 次に、 画像復 号部 1 06 aは、 MP EGス トリームを受け取り (ステップ S 1 2 1 a)、 受け 取った MP EGス トリームを伸張復号してビデオ静止画像 4 1 5を生成し (ステ ップ S 1 22 a)、 優先順位に応じてビデオ静止画像を再生するか否かを決定し、 再生しないなら (ステップ S 202 a)、 ステップ S 20 1へ戻り、 再生するな ら (ステップ S 202 a)、 画像変形部 1 0 7 aは、 ビデオ静止画像を変形して 変形ビデオ静止画像 4 1 6を生成し (ステップ S 1 23 a)、 マスク処理部 1 1 3 aは、 マスク処理を施された変形ビデオ静止画像 4 1 7を生成し (ステップ S 203 a), フレームバッファ 1 08へ書き込み (ステップ S 1 24 a)、 ステツ プ S 20 1へ戻る。 ステップ S 1 2 1 b〜S 1 22 b、 S 202 b、 S 1 23 b、 S 203 b、 S 1 24 bについても同様であり、 ビデオ画像 4 1 8を生成し、 変形ビデオ静止画 像 4 1 9を生成し、 マスク処理を施された変形ビデオ静止画像 420を生成しフ レームバッファ 1 08へ書き込む。 また、 ステップ S 1 2 1 c〜S 1 22 c、 S 202 c、 S 1 23 c、 S 203 c、 S 1 24 cについても同様であり、 ビデオ 画像 42 1を生成し、 変形ビデオ静止画像 422を生成し、 マスク処理を施さ.れ た変形ビデオ静止画像 423を生成しフレームバッファ 1 08へ書き込む。 このよう して、 フレームバッファに 3つのオブジェク トを示すグラフィック静 止画像と、 それぞれの動画像表示面に 3つのビデオ静止画像が貼り付けられた静 止画像 425が形成される。
次に、 ステップ S 201における優先順位制御部 1 1 1により優先順位決定の 動作について説明する。
優先順位制御部 1 1 1は、 オブジェク トの動画表示面を形成する各点の Z座標 値のうち最も大きいものをオブジェク トの代表値とし、 各オブジェク トについて 同様にして代表値を決定し、 小さい代表値を有するオブジェク トから順に順位付 けを行う (ステップ S 2 1 1)。 次に、 優先順位制御部 1 1 1は、 各ォブジェク トを形成する各点の 3次元座標を基にして、 動画表示面が重なり合つているォブ ジェク トを検出し (ステップ S 2 1 2)、 重なり合った動画表示面のうち、 一番 手前の動画表示面を有するオブジェク トを検出し (ステップ S 2 1 3)、 前記検 出された一番手前の動画表示面の順位をそのままにして、 重なりあった他の動画 表示面を有するオブジェク トの順位を順次下げる (ステップ S 2 14)。
(2) デジタル放送受信装置 20の各構成要素の処理タイミング
図 1 7は、 各時刻におけるデジタル放送受信装置 20の各構成要素の処理タイ ミングを示すタイムチャートである。 横軸に時刻を取り、 縦軸にデジタル放送受 信装置 20の各構成要素の処理を示す。
ダラフィック静止画像とビデオ静止画像とを新たに生成し、 生成したビデオ静 止画像をグラフィック静止画像に貼り付ける場合には、 座標光源計算 C 204と、 座標光源計算 C 2 1 1とが同時に開始される。 ここで、 座標光源計算 C 204は、 座標光源計算部 103による 3次元座標空間 Aにおける動画表示面を形成する各 点の 3次元座標の算出であり、 また、 座標光源計算 C 2 1 1は、 座標光源計算部 1 03によるオブジェク トの平面 H上に形成される各点の 2次元座標と、 各点の 平面 Hからの奥行きを示す奥行き値との算出である。 次に、 座標光源計算 C 20 4が終了すると、 透視変換 C 205が行われ、 透視変換 C 205が終了すると、 優先順位制御 C 206とマスク制御 C 207とが同時に開始される。 次に、 優先 順位制御 C 206が終了すると、 画像復号部 1 06 a、 106 b、 1 06 cによ る画像復号 C 201、 C 202、 C 203が開始され、 それぞれ画像復号 C 20 1、 C 202、 C 203が終了すると、 画像変形 'マスク処理 C 208、 C 20 9、 C 2 1 0が開始される。 一方、 座標光源計算 C 2 1 1が終了すると、 レンダ リング C 2 1 2が行われる。 レンダリング C 2 1 2、 画像変形 ·マスク処理 C 2 08、 C 209、 C 21 0が終了すると、 表示。 2 1 3が行われる。
ビデオ静止画像を新たに生成し、 生成したビデオ静止画像を前に生成したダラ フィック静止画像に貼り付ける場合には、 座標光源計算 C 224が開始される。 ここで、 座標光源計算 C 224は、 座標光源計算部 1 03による 3次元座標空間 Aにおける動画表示面を形成する各点の 3次元座標の算出である。 次に、 座標光 源計算 C 224が終了すると、 透視変換 C 225が行われ、 透視変換 C 225が 終了すると、 優先順位制御 C 226とマスク制御 C 227とが同時に開始される。 次に、 優先順位制御 C 226が終了すると、 画像復号部 1 06 a、 106 b, 1 06 cによる画像復号 C 22 1、 C 222、 C 223が開始され、 それぞれ画像 復号 C 22 1、 C 222、 C 223が終了すると、 画像変形 ·マスク処理 C 22 8、 C 229、 C 230が開始される。 画像変形 'マスク処理 C 228、 C 22 9、 C 230が終了すると、 表示 C 23 1が行われる。
2. 3 まとめ 以上説明したように、 グラフィック静止画像の生成処理と、 複数のビデオ静止 画像の復号 '変形処理とを別プロセスにより、 並行して行い、 生成されたグラフ イツク静止画像と複数のビデオ静止画像とをフレームバッファ上で合成するので、 グラフィック動画像と複数のビデオ動画像とをそれぞれの表示レートで合成する ことができる。 また、 最も手前にある動画像表示面の優先順位を高くし、 対応す る画像復号部により復号されるビデオ静止画像の一定時間当たりのフレーム数が 多くなるようにするので、 優先順位に合わせて画質を良くすることができる。 なお、 優先順位制御部 1 1 1は、 z座標値を基準にして最も手前にある動画像 表示面の優先順位を高くするとしているが、 動画像表示面の面積を基準とし、 動 画像表示面の面積を算出し、 その面積が大きいほど高い優先順位を有するように また、 座標光源計算部 1 0 3、 レンダリング処理部 1 04、 透視変換部 1 0 5、 画像復号部 1 0 6 a、 1 0 6 b、 1 06 c、 画像変形部 1 0 7 a、 1 0 7 b、 1 0 7 c、 優先順位制御部 1 1 1、 マスク制御部 1 1 2、 マスク処理部 1 1 3 a、 1 1 3 b, 1 1 3 cは、 上記の実施の形態においては、 半導体メモリに記憶され ているプログラム、 プロセッサなどから構成されるとしているが、 それぞれ、 専 用ハ一ドウエアにより構成されるとしてもよレ、。
また、 画像復号部 1 0 6 a、 1 0 6 b、 1 0 6 cのうち、 より優先順位の高い 処理を行う画像復号部は、 専用ハードウェアにより構成し、 より優先順位の低い 処理を行う画像復号部は、 半導体メモリに記憶されているプログラム、 プロセッ サなどから構成されるとしてもよい。 これにより、 優先順位の高いビデオ動画像 の復号処理をより早く行うようにすることができる。
3 実施の形態 3
本発明に係る別の 1の実施の形態としての動画像合成装置 3 0について説明す る。
3. 1 動画像合成装置 3 0の構成 動画像合成装置 30は、 動画像合成装置 1 0と同様に、 本体部 1 1、 C D— R OMが装着される CD— ROM駆動部 1 2、 プログラムを動作させるプロセッサ 1 3、 プログラムやデータを記憶する半導体メモリ 14、 モニタ 1 5、 キ一ボ一 ド 1 6、 スピ一力 1 7、 マウス 1 8から構成され、 CD— ROMに記録されてい る 3次元オブジェク トに関するオブジェク ト情報とビデオ画像とを読み出して、 グラフィック画像を生成し、 生成したグラフィック画像にビデオ画像を貼り付け、 モニタ 1 5に表示する。
動画像合成装置 30の機能ブロック図を、 図 1 8に示す。 この図に示すように、 動画像合成装置 30は、 入力部 1 01、 データ記憶部 1 02、 座標光源計算部 1 03、 レンダリング処理部 1 04、 透視変換部 1 05、 画像復号部 1 06、 画像 変形部 1 07、 フレームバッファ 1 08、 表示部 109、 制御データ記憶部 1 1 4、 静止画像記憶部 1 1 5、 グラフィック画像記憶部 1 1 6、 選択部 1 1 7から 構成される。
動画像合成装置 30の構成要素のうち、 動画像合成装置 10の構成要素と同じ 符号を有するものは、 動画像合成装置 1 0の構成要素と同様である。 以下におい て、 動画像合成装置 1 0の構成要素との相違点を中心として説明する。
( 1 ) グラフィック画像記憶部 1 1 6
グラフィック画像記憶部 1 1 6は、 グラフィック画像領域 A 1 1 6 a及びダラ フィック画像領域 B 1 1 6 bを有し、 グラフィック画像領域 A 1 1 6 a及びダラ フィック画像領域 B 1 1 6 bは、 それぞれグラフィック静止画像を記憶する。
(2) レンダリング処理部 1 04
レンダリング処理部 1 04は、 形成したグラフィック静止画像を、 フレームバ ッファ 1 08へ出力する代わりに、 グラフィック画像領域 A 1 1 6 a及びグラフ ィック画像領域 B 1 1 6 bのいずれか一方へ交互に出力する。
(3) 制御データ記憶部 1 14
制御データ記憶部 1 14は、 制御データ領域 A 1 14 a及び制御データ領域 B 1 14 bを有し、 制御データ領域 A 1 14 a及び制御データ領域 B 1 1 4 bは、 それぞれ制御データを記憶する。
(4) 透視変換部 1 05
透視変換部 1 05は、 さらに、 以下に説明するようにして、 制御データを生成 し、 生成した制御データを制御データ領域 A 1 1 4 a及び制御データ領域 B 1 1 4 bのいずれか一方へ交互に出力する。
制御データの一例として、 図 1 9に制御データ 60 1を示す。 制御データ 60 1は、 横に 640ビット、 縦に 480ビット、 合計 307200ビットからなる データ配列である。 各ビットは 「0」 又は 「1」 の値を有する。 制御データ 60 1の各ビットは、 レンダリング処理部 1 04により生成されるグラフィック静止 画像の各ピクセルに対応している。
透視変換部 1 05は、 制御データ 601のうち、 動画表示面に対応するビッ ト については、 すべて 「 1」 の値を設定し、 その他のビッ トについては、 「0」 の 値を設定する。
(5) 静止画像記憶部 1 1 5
静止画像記憶部 1 1 5は、 静止画像領域 A 1 1 5 a及び静止画像領域 B 1 1 5 bを有し、 静止画像領域 A 1 1 5 a及び静止画像領域 B 1 1 5 bは、 それぞれビ デォ静止画像を記憶する。
( 6 ) 画像変形部 1 07
画像変形部 107は、 生成した変形ビデオ静止画像をフレームバッファ 1 08 内の前記受け取った 2次元座標により示される領域に上書きにより出力する代わ りに、 静止画像領域 A 1 1 5 a及び静止画像領域 B 1 1 5 bのいずれか一方に交 互に出力する。
(7) 選択部 1 1 7
選択部 1 1 7は、 グラフィック画像領域 A 1 1 6 a及びグラフィック画像領域 B 1 1 6 bのいずれか一方からグラフィック静止画像を交互に読み出し、 静止画 像領域 A l 1 5 a及び静止画像領域 B 1 1 5 bのいずれか一方からビデオ静止画 像を交互に読み出し、 制御データ領域 A 1 1 4 a及び制御データ領域 B 1 1 4 b のいずれか一方から制御データを交互に読み出す。
選択部 1 1 7は、 読み出した制御データのビット毎に、 当該ビッ 卜が 「0」 で あるならば、 読み出したグラフィック静止画像を構成するピクセルのうち、 当該 ビットに対応する位置にあるピクセルを読み出し、 読み出したピクセルをフレー ムバッファ 1 0 8の対応する位置に書き込み、 当該ビッ トが 「1」 であるならば、 読み出したビデオ静止画像を構成するピクセルのうち、 当該ビットに対応する位 置にあるピクセルを読み出し、 読み出したピクセルをフレームバッファ 1 0 8の 対応する位置に書き込む。
3 . 2 動画像合成装置 3 0の動作
動画像合成装置 3 0の動作について、 図 2 0〜図 2 4を用いて説明する。
( 1 ) 動画像合成装置 3 0の各処理プロセスにおけるデータの形状
図 2 0は、 動画像合成装置 3 0の各処理プロセスにおけるデータを視覚的に示 している。
この図に示すように、 座標光源計算部 1 0 3はォブジヱク トに係る情報 4 5 1 を用いて、 3次元座標空間 Aにおけるオブジェク トを形成する各点の 3次元座標 4 5 2を算出し、 レンダリング処理部 1 0 4は、 レンダリング処理を行い、 ビッ トマップデータであるグラフィック静止画像を形成し、 形成したグラフィック静 止画像をグラフィック画像領域 B 1 1 6 bへ出力し、 透視変換部 1 0 5は、 動画 表示面を形成する各点の平面 H上の 2次元座標 4 5 3を算出し、 制御データを生 成し、 制御データを制御データ領域 B 1 1 4 bへ出力し、 画像変形部 1 0 7は、 ビデオ静止画像 4 5 4を変形ビデオ静止画像を生成し、 生成した変形ビデオ静止 画像を静止画像領域 B 1 1 5 bへ出力する。
—方、 選択部 1 1 7は、 グラフィック画像領域 A 1 1 6 aからグラフィック静 止画像を読み出し、 静止画像領域 A 1 1 5 aからビデオ静止画像を読み出し、 制 御データ領域 A 1 14 aから制御データを読み出し、 読み出した制御データを用 いて、 グラフィック静止画像とビデオ静止画像とを合成して、 フレームバッファ 1 08へ書き込む。
また、 別の時刻においては、 レンダリング処理部 1 04は、 形成したグラフィ ック静止画像をグラフィック画像領域 A 1 1 6 aへ出力し、 透視変換部 1 05は、 制御データを制御データ領域 A 1 14 aへ出力し、 画像変形部 107は、 変形ビ デォ静止画像を静止画像領域 A 1 1 5 aへ出力する。 一方、 選択部 1 1 7は、 グ ラフィック画像領域 B 1 1 6 bからグラフィック静止画像を読み出し、 静止画像 領域 B 1 1 5 bからビデオ静止画像を読み出し、 制御データ領域 B 1 14 から 制御データを読み出し、 読み出した制御データを用いて、 グラフィック静止画像 とビデオ静止画像とを合成して、 フレームバッファ 1 08へ書き込む。
このように、 各データのグラフィック画像領域 A 1 1 6 a、 制御データ領域 A 1 14 a, 静止画像領域 A 1 1 5 aへの出力及びグラフィック画像領域 B 1 1 6 b、 静止画像領域 B 1 1 5 b, 制御データ領域 B 1 14 bからの各データの読み 出しと、 各データのグラフィック画像領域 B 1 1 6 b, 制御データ領域 B 1 14 b、 静止画像領域 B 1 1 5 bへの出力及びグラフィック画像領域 A 1 1 6 a , 静 止画像領域 A 1 1 5 a, 制御データ領域 A 1 1 4 aからの各データの読み出しと を交互に繰り返す。
(2) グラフィック静止画像とビデオ静止画像と制御データとの対応関係 図 2 1は、 動画像合成装置 30のグラフィック静止画像とビデオ静止画像と制 御データとの対応関係を示している。
この図において、 グラフィック静止画像 47 1の動画像表示面でない部分 47 1 aに対応する制御データ 473のビット 473 aは、 「0」 であり、 動画像表 示面でない部分 47 1 aがフレームバッファ 1 08に書き込まれる。
また、 ビデオ静止画像 472の部分 472 aに対応する制御データ 473のビ ッ ト 473 bは、 「1」 であり、 ビデオ静止画像 472の部分 472 aがフレー ムバッファ 1 0 8に書き込まれる。
( 3 ) 動画像合成装置 3 0の動作
図 2 2は、 動画像合成装置 3 0の動作を示すフロ一チヤ一トである。
座標光源計算部 1 0 3は、 データ記憶部 1 0 2のォブジェク トテーブル 2 0 1 から、 オブジェク ト毎に、 形状座標 2 1 2と位置座標 2 1 3と動画表示面座標 2 1 4とを読み出し (ステップ S 1 0 1 )、 入力部 1 0 1から前方向、 後方向、 左 方向、 右方向、 上方向、 下方向を示す情報及び操作の終了を示す情報を受け取り (ステップ S 1 0 2 )、 操作の終了を示す情報を受け取った場合は処理を終了す る (ステップ S 1 0 3 )。 その他の情報の場合 (ステップ S 1 0 3 )、 グラフィッ ク計算を行うタイミングであるなら (ステップ S 3 0 1 )、 座標光源計算部 1 0 3は受け取った情報に応じて視点座標 Eを演算し、 3次元座標空間 Aにおけるォ ブジェク トを形成する各点の 3次元座標を算出し、 平面 H上に形成される各点の 2次元座標と、 各点の平面 Hからの奥行きを示す奥行き値とを算出し、 クリッピ ング処理を施し (ステップ S 1 0 4 )、 レンダリング処理部 1 0 4は、 2次元座 標と奥行き値とを用いて、 隠線 ·隠面消去処理、 各面の陰影の表示、 各面の色の 表示、 各面へのテクスチャの貼り付けなどのレンダリング処理を行い、 ビットマ ップデータであるグラフィック静止画像を形成し (ステップ S 1 0 5 )、 形成し たグラフィック静止画像をグラフィック画像領域 A 1 1 6 a又はグラフィック画 像領域 B 1 1 6 bへ出力する (ステップ S 1 0 6 )。 次に、 再度ステップ S 1 0 2へ戻って処理を繰り返す。
また、 ステップ S 1 0 4の後、 座標光源計算部 1 0 3は、 3次元座標空間 Aに おける動画表示面を形成する各点の 3次元座標を算出し、 透視変換部 1 0 5は、 動画表示面を形成する各点の平面 H上の 2次元座標を算出し (ステップ S I 1 1 )、 ステップ S 1 2 3へ制御を移す。 また、 透視変換部 1 0 5は、 制御データ を生成し (ステップ S 3 0 4 )、 ステップ S 1 0 2へ戻って処理を繰り返す。 グラフィック計算を行うタイミングでないなら (ステップ S 3 0 1 )、 再度ス テツプ S 1 02へ戻って処理を繰り返す。
—方、 画像復号部 1 06は、 データ記憶部 1 02に記憶されている MP EGス ト リーム 22 1を読み出し (ステップ S 1 2 1)、 読み出した MP EGス ト リ一 ム 22 1から 1フレーム分のビデオ静止画像を復号して繰り返し生成し (ステツ プ S 1 2 2)、 画像変形部 1 07は、 画像復号部 1 06からビデオ静止画像を受 け取り、 ステップ S I 1 1において算出された動画表示面を形成する各点の 2次 元座標を透視変換部 105から受け取り、 前記受け取ったビデオ静止画像を、 ァ フィン変換を用いて、 受け取った 2次元座標により示される形状に変形して変形 ビデオ静止画像を生成し (ステップ S 1 23)、 生成した変形ビデオ静止画像を 静止画像領域 A 1 1 5 a又は静止画像領域 B 1 1 5 bへ出力し (ステップ S 1 2 4)、 次に、 再度ステップ S 1 02へ戻って処理を繰り返す。
また、 選択部 1 1 7は、 グラフィック画像領域 A 1 1 6 a又はグラフィック画 像領域 B 1 1 6 bからグラフィック静止画像を読み出し、 静止画像領域 A 1 1 5 a又は静止画像領域 B 1 1 5 bからビデオ静止画像を読み出し、 制御データ領域 A 1 14 a又は制御データ領域 B 1 14 bから制御データを読み出し、 読み出し た制御データを用いて、 グラフィック静止画像とビデオ静止画像とを合成し、 合 成した静止画像をフレームバッファ 1 08へ書き込み (ステップ S 305)、 表 示部 1 09は、 フレームバッファ 1 08から静止画像を読み出して表示し (ステ ップ S 306)、 再度ステップ S 1 02へ戻って処理を繰り返す。
図 23は、 動画像合成装置 30の画像の合成の動作を示すフローチャートであ る。
選択部 1 1 7は、 フレームバッファ 1 08に書き込まれる静止画像の全ピクセ ルについて、 次に示すように、 ステップ S 3 1 2〜S 3 14を繰り返す。
選択部 1 1 7は、 制御データのビット C (x、 y) 力 S 「1」 である場合 (ステ ップ S 3 1 2)、 フレームバッファ 1 08の静止画像のピクセル F (x、 y ) を ビデオ静止画像のピクセル V (x、 y ) とし (ステップ S 3 1 3)、 制御データ のビッ ト C ( x、 y ) 力 S 「0」 である場合 (ステップ S 3 1 2 )、 フレームバッ ファ 1 0 8の静止画像のピクセル F ( x、 y ) をグラフィック静止画像のピクセ ノレ G ( x、 y ) とする (ステップ S 3 1 4 )。 ここで、 (x、 y ) は、 静止画像の 位置を示す座標である。
( 4 ) 動画像合成装置 3 0の各構成要素の処理タイミング
図 2 4は、 各時刻における動画像合成装置 3 0の各構成要素の処理タイミング を示すタイムチャートである。 横軸に時刻を取り、 縦軸に動画像合成装置 3 0の 各構成要素の処理を示す。
グラフィック静止画像とビデオ静止画像とを新たに生成し、 生成したビデオ静 止画像をグラフィック静止画像に貼り付ける場合には、 画像復号処理 C 3 0 1 と 座標光源計算 C 3 0 2と座標光源計算 C 3 0 5と合成 C 3 0 7とが同時に開始さ れる。 ここで、 座標光源計算 C 3 0 2は、 座標光源計算部 1 0 3による 3次元座 標空間 Aにおける動画表示面を形成する各点の 3次元座標の算出であり、 また、 座標光源計算 C 3 0 5は、 座標光源計算部 1 0 3によるオブジェク 卜の平面 H上 に形成される各点の 2次元座標と、 各点の平面 Hからの奥行きを示す奥行き値と の算出である。 座標光源計算 C 3 0 2が終了すると、 透視変換 C 3 0 3が行われ、 透視変換 C 3 0 3が終了すると、 さらに画像変形 C 3 0 4が行われる。 また、 座 標光源計算 C 3 0 5が終了すると、 レンダリング C 3 0 6が行われる。 さらに、 合成 C 3 0 7が終了すると、 表示 C 3 0 8が行われる。
ビデオ静止画像を新たに生成し、 生成したビデオ静止画像を前に生成したダラ フィック静止画像に貼り付ける場合には、 画像復号処理 C 3 1 1と座標光源計算 C 3 1 2と合成 C 3 1 7とが同時に始まる。 ここで、 座標光源計算 C 3 1 2は、 座標光源計算部 1 0 3による 3次元座標空間 Aにおける動画表示面を形成する各 点の 3次元座標の算出である。 座標光源計算 C 3 1 2が終了すると、 透視変換 C 3 1 3が行われ、 透視変換 C 3 1 3が終了すると、 さらに画像変形 C 3 1 4が行 われる。 合成 C 3 1 7とが終了すると、 表示 C 3 1 8が行われる。 3. 3 まとめ
以上説明したように、 グラフィック静止画像の生成処理と、 ビデオ静止画像の 復号 ·変形処理と、 生成されたグラフィック静止画像とビデオ静止画像との合成 とを別プロセスにより、 並行して行うので、 グラフィック動画像とビデオ動画像 とをそれぞれの表示レートで合成することができるとともに、 グラフィック静止 画像の生成処理と、 ビデオ静止画像の復号 ·変形処理と、 生成されたグラフイツ ク静止画像とビデオ静止画像との合成とをより早く行うことができる。
4 実施の形態 4
本発明に係る別の 1の実施の形態としてのデジタル放送受信装置 40について 説明する。
4. 1 デジタル放送受信装置 40の構成
デジタル放送受信装置 40は、 デジタル放送受信装置 20と同様に、 本体部 2 6、 モニタ 2 1、 リモコン 22、 アンテナ 23などから構成され、 CD— ROM に記録されている 3次元オブジェク トに関するオブジェク ト情報を読み出し、 放 送される複数のビデオ動画像を受信し、 複数のオブジェク トからなるグラフイツ ク画像を生成し、 各オブジェク トはそれぞれ動画表示面を有し、 生成したグラフ イツク画像の各動画表示面に各ビデオ画像を貼り付け、 モニタ 2 1に表示する。 なお、 本実施の形態においては、 第 1、 第 2及び第 3のビデオ動画像を受信し、 第 1、 第 2及び第 3のオブジェク トがそれぞれ第 1、 第 2及び第 3の動画表示面 を有しているものとする。
デジタル放送受信装置 40の機能ブロック図を、 図 25に示す。 この図に示す ように、 デジタル放送受信装置 40は、 入力部 1 0 1、 データ記憶部 1 02、 座 標光源計算部 1 03、 レンダリング処理部 1 04、 透視変換部 1 05、 画像復号 部 106 a、 106 b、 106 c、 画像変形部 1 07 a、 1 07 b、 1 07 c、 フレームバッファ 108、 表示部 109、 チューナ 1 1 0、 優先順位制御部 1 1 1、 制御データ記憶部 1 14、 静止画像記憶部 1 1 5、 グラフィック画像記憶部 1 1 6、 選択部 1 1 7、 アンテナ 2 3から構成される。
デジタル放送受信装置 4 0の構成要素のうち、 デジタル放送受信装置 2 0の構 成要素と同じ符号を有するものは、 デジタル放送受信装置 2 0の構成要素と同様 である。 また、 制御データ記憶部 1 1 4、 静止画像記憶部 1 1 5、 グラフィック 画像記憶部 1 1 6及び選択部 1 1 7は、 それぞれ動画像合成装置 3 0の制御デ一 タ記憶部 1 1 4、 静止画像記億部 1 1 5、 グラフィック画像記憶部 1 1 6及び選 択部 1 1 7と同じである。
このように、 デジタル放送受信装置 4 0は、 デジタル放送受信装置 2 0と動画 像合成装置 3 0とを組み合わせたものである。
以下において、 デジタル放送受信装置 2 0の構成要素との相違点を中心として 説明する。
( 1 ) レンダリング処理部 1 0 4
レンダリング処理部 1 0 4ほ、 形成したグラフィック静止画像を、 フレームバ ッファ 1 0 8へ出力する代わりに、 グラフィック画像領域 A 1 1 6 a及びグラフ ィック画像領域 B 1 1 6 bのいずれか一方へ交互に出力する。
( 2 ) 透視変換部 1 0 5
透視変換部 1 0 5は、 さらに、 動画像合成装置 3 0の透視変換部 1 0 5と同様 に、 制御データを生成し、 生成した制御データを制御データ領域 A 1 1 4 a及び 制御データ領域 B 1 1 4 bのいずれか一方へ交互に出力する。
ここで、 制御データは、 一例として、 横に 6 4 0個、 縦に 4 8 0個、 合計 3 0 7 2 0 0個からなるデータ配列である。 各データは、 2ビッ トからなり、 「0」、 「 1」、 「2」 又は 「3」 の値を有する。 各データは、 レンダリング処理部 1 0 4 により生成されるグラフィック静止画像の各ピクセルに対応している。
透視変換部 1 0 5は、 制御データのうち、 第 1の動画表示面に対応するビッ ト については、 すべて 「 1」 の値を設定し、 第 2の動画表示面に対応するビッ トに ついては、 すべて 「2」 の値を設定し、 第 3の動画表示面に対応するビッ トにつ いては、 すべて 「3」 の値を設定し、 その他のビッ トについては、 「0」 の値を 設定する。 なお、 複数の動画表示面の重なる部分については、 上の動画表示面の 値を採用する。
( 3 ) 画像変形部 1 0 7 a、 1 0 7 b、 1 0 7 c
画像変形部 1 0 7 aは、 生成した変形ビデオ静止画像をマスク処理部 1 1 3 a へ出力する代わりに、 静止画像領域 A 1 1 5 a及び静止画像領域 B 1 1 5 bのい ずれか一方に交互に出力する。
画像変形部 1 0 7 b及び 1 0 7 cについても、 画像変形部 1 0 7 aと同様であ る。
(4) 選択部 1 1 7
選択部 1 1 7は、 読み出した制御データのデータ毎に、 当該ビッ トが 「0」 で あるならば、 読み出したグラフィック静止画像を構成するピクセルのうち、 当該 ビットに対応する位置にあるピクセルを読み出し、 読み出したピクセルをフレ一 ムバッファ 1 0 8の対応する位置に書き込み、 当該ビットが 「 1」 であるならば、 読み出した第 1のビデオ静止画像を構成するピクセルのうち、 当該ビットに対応 する位置にあるピクセルを読み出し、 読み出したピクセルをフレームバッファ 1 08の対応する位置に書き込み、 当該ビッ トが 「2」 であるならば、 読み出した 第 2のビデオ静止画像を構成するピクセルのうち、 当該ビットに対応する位置に あるピクセルを読み出し、 読み出したピクセルをフレームバッファ 1 0 8の対応 する位置に書き込み、 当該ビットが 「3」 であるならば、 読み出した第 2のビデ ォ静止画像を構成するピクセルのうち、 当該ビットに対応する位置にあるピクセ ルを読み出し、 読み出したピクセルをフレームバッファ 1 0 8の対応する位置に 書き込む。
4. 2 デジタル放送受信装置 40の動作
( 1) デジタル放送受信装置 40の各処理プロセスにおけるデータ
デジタル放送受信装置 40の動作について、 図 2 6を用いて説明する。 この図 は、 デジタル放送受信装置 40の各処理プロセスにおけるデータを視覚的に示し ている。
この図に示すように、 座標光源計算部 1 03はォブジェク 卜に係る情報 70 1 を用いて、 3次元座標空間 Aにおけるオブジェク トを形成する各点の 3次元座標 704を算出し、 レンダリング処理部 104は、 レンダリング処理を行い、 ビッ トマップデータであるグラフィック静止画像 702を形成し、 形成したグラフィ ック静止画像 702をグラフィック画像領域 B 1 1 6 bへ出力し、 透視変換部 1 05は、 動画表示面を形成する各点の平面 H上の 2次元座標を算出し、 制御デー タ 705を生成し、 制御データ 705を制御データ領域 B 1 1 4 bへ出力し、 画 像変形部 1 07 a、 1 07 b、 1 07 cは、 それぞれビデオ静止画像 707、 7 1 1、 7 1 5から変形ビデオ静止画像 708、 7 1 2、 7 1 6を生成し、 生成し た変形ビデオ静止画像 708、 7 1 2、 7 1 6を静止画像領域 B 1 1 5 bへ出力 する。 '
一方、 選択部 1 1 7は、 グラフィック画像領域 A 1 1 6 aからグラフィック静 止画像 703を読み出し、 静止画像領域 A 1 1 5 aからビデオ静止画像 7 1 0、 7 14、 7 1 8を読み出し、 制御データ領域 A 1 14 aから制御データ 706を 読み出し、 読み出した制御データ 706を用いて、 グラフィック静止画像 703 とビデオ静止画像 7 10、 7 14、 7 1 8とを合成して静止画像 7 1 9を生成し、 フレームバッファ 108へ書き込む。
(2) デジタル放送受信装置 40の各構成要素の処理タイミング
図 27は、 各時刻におけるデジタル放送受信装置 40の各構成要素の処理タイ ミングを示すタイムチャートである。 横軸に時刻を取り、 縦軸にデジタル放送受 信装置 40の各構成要素の処理を示す。
グラフィック静止画像とビデオ静止画像とを新たに生成し、 生成したビデオ静 止画像をグラフィック静止画像に貼り付ける場合には、 座標光源計算 C404と、 座標光源計算 C 41 0と合成 C 41 2とが同時に開始される。 ここで、 座標光源 計算 C 404は、 座標光源計算部 1 03による 3次元座標空間 Aにおける動画表 示面を形成する各点の 3次元座標の算出であり、 また、 座標光源計算 C4 1 0は、 座標光源計算部 1 03によるオブジェク トの平面 H上に形成される各点の 2次元 座標と、 各点の平面 Hからの奥行きを示す奥行き値との算出である。 次に、 座標 光源計算 C 404が終了すると、 透視変換 C 405が行われ、 透視変換 C 405 が終了すると、 優先順位制御 C 406が開始される。 次に、 優先順位制御 C 40 6が終了すると、 画像復号部 106 a、 1 06 b, 1 06 cによる画像復号 C 4 01、 C402、 C 403が開始され、 それぞれ画像復号 C 40 1、 C 402、 C403が終了すると、 画像変形 C 407、 C 408、 C 409が開始される。 —方、 座標光源計算 C 41 0が終了すると、 レンダリング C 4 1 1が行われる。 合成 C 4 1 2が終了すると、 表示 C 41 3が行われる。
ビデオ静止画像を新たに生成し、 生成したビデオ静止画像を前に生成したダラ フィック静止画像に貼り付ける場合には、 座標光源計算 C 424と合成 C432 とが同時に開始される。 ここで、 座標光源計算 C 424は、 座標光源計算部 1 0 3による 3次元座標空間 Aにおける動画表示面を形成する各点の 3次元座標の算 出である。 次に、 座標光源計算 C 424が終了すると、 透視変換 C 425が行わ れ、 透視変換 C 425が終了すると、 優先順位制御 C 426が開始される。 次に、 優先順位制御 C 426が終了すると、 画像復号部 1 06 a、 1 06 b、 1 06 c による画像復号 C421、 C 422、 C 423が開始され、 それぞれ画像復号 C 421、 C422、 C 423が終了すると、 画像変形 C 427、 C 428、 C 4 29が開始される。 合成 C 432が終了すると、 表示 C 433が行われる。
4. 3 まとめ
以上説明したように、 グラフィック静止画像の生成処理と、 複数のビデオ静止 画像の復号 ·変形処理と、 生成されたグラフィック静止画像と複数のビデオ静止 画像との合成とを別プロセスにより、 並行して行うので、 グラフィック動画像と 複数のビデオ動画像とをそれぞれの表示レ一トで合成することができるとともに, グラフィック静止画像の生成処理と、 ビデオ静止画像の復号 '変形処理と、 生成 されたグラフィック静止画像とビデオ静止画像との合成とをより早く行うことが できる。 また、 最も手前にある動画像表示面の優先順位を高く し、 対応する画像 復号部により復号されるビデオ静止画像の一定時間当たりのフレーム数が多くな るようにするので、 優先順位に合わせて画質を良くすることができる。
5 実施の形態 5
本発明に係る別の 1の実施の形態としてのデジタル放送受信装置 5 0について 説明する。
5. 1 デジタル放送受信装置 5 0の構成
デジタル放送受信装置 5 0は、 デジタル放送受信装置 20と同様に、 本体部 2 6、 モニタ 2 1、 リモコン 2 2、 アンテナ 2 3などから構成され、 CD— ROM に記録されている 3次元オブジェク トに関するオブジェク ト情報を読み出し、 放 送される複数のビデオ動画像を受信し、 複数のオブジェク 卜からなるグラフイツ ク画像を生成し、 各オブジェク トはそれぞれ動画表示面を有し、 生成したグラフ イツク画像の各動画表示面に各ビデオ画像を貼り付け、 モニタ 2 1に表示する。 デジタル放送受信装置 5 0の機能プロック図を、 図 2 8に示す。 この図に示す ように、 デジタル放送受信装置 5 0は、 入力部 1 0 1、 データ記憶部 1 0 2、 座 標光源計算部 1 0 3、 レンダリング処理部 1 04、 透視変換部 1 0 5、 画像復号 部 1 0 6 a、 1 0 6 b、 1 0 6 c、 画像変形部 1 0 7 a、 1 0 7 b、 1 0 7 c、 フレームバッファ 1 0 8、 表示部 1 0 9、 チューナ 1 1 0、 優先順位制御部 1 1 1、 マスク制御部 1 1 2、 マスク処理部 1 1 3 a、 1 1 3 b、 1 1 3 c、 画像補 正部 1 1 8 a、 1 1 8 b、 1 1 8 c、 アンテナ 2 3から構成される。
デジタル放送受信装置 5 0の構成要素のうち、 デジタル放送受信装置 2 0の構 成要素と同じ符号を有するものは、 デジタル放送受信装置 2 0の構成要素と同様 である。 以下において、 相違点を中心に説明する。
( 1 ) 画像復号部 1 0 6 a、 1 0 6 b、 1 0 6 c 画像復号部 1 0 6 aは、 生成したビデオ静止画像を画像変形部 1 0 7 aへ出力 する代わりに、 画像補正部 1 1 8 aへ出力する。 その他の点については、 デジタ ル放送受信装置 2 0の画像復号部 1 0 6 aと同様である。
画像復号部 1 0 6 b及び 1 0 6 cについても、 画像復号部 1 0 6 aと同様であ る。
( 2 ) 優先順位制御部 1 1 1
優先順位制御部 1 1 1は、 さらに、 決定した優先順位を各オブジェク 卜の画像 表示面が対応する画像補正部 1 1 8 a、 1 1 8 b、 1 1 8 cへ出力する。
( 3 ) 画像補正部 1 1 8 a、 1 1 8 b、 1 1 8 c
画像補正部 1 1 8 aは、 ビデオ静止画像を画像復号部 1 0 6 aから受け取り、 決定した優先順位を優先順位制御部 1 1 1から受け取る。
画像補正部 1 1 8 aは、 受け取った優先順位が最も高い場合には、 受け取った ビデオ静止画像をそのまま、 画像変形部 1 0 7 aへ出力する。
画像補正部 1 1 8 aは、 受け取った優先順位が中程度又はより低い場合には、 優先順位が低ければ低いほど、 ビデオ静止画像の輝度をより低くする補正を行う。 ビデオ静止画像の輝度を低くする補正は、 具体的には、 ビデオ静止画像の各ピク セルの値を適切な値により割ることにより行う。 ここで、 この適切な値の例とし て、 優先順位が中程度の場合には 4とし、 優先順位がより低い場合には 8とする。 また、 各ピクセルを構成するビット列をより下位側にシフトするようにしてもよ レ、。 例えば、 優先順位が中程度の場合には下位側に 1 ビット分シフトするように し、 優先順位がより低い場合には下位側に 2ビット分シフトするようにしてもよ レ、。
5. 2 まとめ
以上説明したように、 グラフィック静止画像の生成処理と、 複数のビデオ静止 画像の復号 ·変形処理とを別プロセスにより、 並行して行い、 生成されたグラフ ィック静止画像と複数のビデオ静止画像とをフレームバッファ上で合成するので, グラフィック動画像と複数のビデオ動画像とをそれぞれの表示レートで合成する ことができる。 また、 最も手前にある動画像表示面の優先順位を高く し、 対応す る画像復号部により復号されるビデオ静止画像の一定時間当たりのフレーム数が 多くなるようにするので、 優先順位に合わせて画質を良くすることができる。 さ らに、 優先順位の低い動画表示面については、 輝度を低く補正するので、 表示レ 一卜が低くなっている可能性の高い優先順位の低い動画表示面についてはフリッ 力を目立たなくすることができる。
6 その他の変形例
( 1 ) 上記の実施の形態において説明したグラフィック動画像とビデオ動画像と の合成は、 テレビゲーム機、 DVDZビデオ CDZCDプレーヤ一などの映像再 生装置、 又は情報処理端末装置において適用してもよい。
(2) 上記の実施の形態において、 オブジェク トが有するスクリーン面に動画像 を貼り付けるとしているが、 グラフィック動画像とビデオ動画像とをテレビ画面 上において、 並べて表示するとしてもよい。
(3) 上記の実施の形態において、 ビデオ動画像の表示レートは、 1秒間に 30 フレームであり、 グラフィック動画像の表示レートは、 1秒間に 1 0フレームで あるとしているが、 もちろん他の表示レートであってもよい。 例えば、 ビデオ動 画像の表示レートは、 1秒間に 1 0フレームであり、 グラフィック動画像の表示 レートは、 1秒間に 30フレームであるとしてもよい。
(4) 上記の実施の形態において、 オブジェク トは 1つのスク リーン面を有する としているが、 オブジェク トは複数のスクリーン面を有するとしてもよレ、。 (5) 別の実施の形態の一つは、 上記により示される動画像合成方法であるとし てもよい。 また、 前記動画像合成方法をコンピュータに実行させる動画像合成プ ログラムであるとしてもよいし、 また前記動画像合成プログラムを記録している コンピュータ読み取り可能な記録媒体としてもよい。 この記録媒体は、 例えば、 フロッピィディスク、 CD— ROM、 DVD-ROM, DVD-RAM, 半導体 メモリである。 さらに、 前記動画像合成プログラムを通信回線を介して伝送する としてもよいし、 前記通信回線を介して伝送されるデジタル信号であるとしても よい。
( 6 ) 上記に示す複数の実施の形態及びその変形例をそれぞれ組み合わせてもよ い。 産業上の利用の可能性
多くのチャネルを介して放送されるデジタル放送波を受信するデジタル放送受 信装置において、 番組を選択するためのユーザィンタフェースとして利用するこ とができる。 また、 テレビゲーム機、 D V D Zビデオ C D / C Dプレーヤ一など の映像再生装置、 パーソナルコンピュータ又は情報処理端末装置において、 より 映像効果のある表現手段として利用することができる。

Claims

請 求 の 範 囲
1 . オブジェク トを 3次元空間内で移動する視点から見て得られるグラフィック 動画像と、 複数のビデオ静止画像から構成されるビデオ動画像とを合成する動画 像合成装置であって、
3次元空間におけるオブジェク 卜の形状及び位置を示すオブジェク ト情報を記 億している情報記憶手段と、
外部から連続する複数のビデオ静止画像により構成されるビデオ動画像を取得 するビデオ動画像取得手段と、
画像記憶手段と、
3次元空間内で移動する 1の視点の位置を示す情報を繰り返し受け付ける受付 手段と、
前記オブジェク ト情報を用いて、 前記視点から見てオブジェク トを投影面に投 影して得られるグラフィック静止画像を生成し、 生成したグラフィック静止画像 を前記画像記憶手段に書き込むグラフィック画像生成手段と、
前記グラフィック静止画像が生成され前記画像記憶手段に書き込まれる時間帯 において、 前記取得したビデオ動画像から繰り返しビデオ静止画像を取り出し、 取り出したビデオ静止画像を前記画像記憶手段に書き込むビデオ画像生成手段と を備えることを特徴とする動画像合成装置。
2 . 前記グラフィック画像生成手段は、 前記オブジェク ト情報を用いて、 前記視 点から見てオブジェク トを投影面に投影し、 さらにレンダリ ング処理を施してグ ラフィック静止画像を生成する
ことを特徴とする請求の範囲 1に記載の動画像合成装置。
3 . 前記オブジェク トは、 ビデオ動画像が合成されるスク リーン面を有し、 前記動画像合成装置は、 オブジェク トのスク リーン面において、 グラフィック 動画像とビデオ動画像とを合成し、 前記オブジェク ト情報は、 オブジェク トのスクリーン面の形状を示す情報を含 み、
前記グラフィック画像生成手段は、 さらに、 スク リーン面の形状を示す情報を 含むオブジェク ト情報を用いて、 前記視点から見てスク リーン面を前記投影面に 投影して得られる投影スクリ一ン面の形状及び位置を示すスクリーン面情報を算 出し、
前記ビデオ画像生成手段は、 前記画像記憶手段に記憶されているグラフィック 静止画像上の前記算出されたスクリーン面情報により示される位置に、 取得した ビデオ静止画像を書き込む
ことを特徴とする請求の範囲 2に記載の動画像合成装置。
4 . 前記ビデオ画像生成手段は、
前記スクリ一ン面情報により示される形状に合わせて、 前記ビデオ静止画像を 変形して、 変形ビデオ静止画 ½を生成する画像変形手段を含み、
前記ビデオ画像生成手段は、 生成された変形ビデオ静止画像を前記画像記憶手 段に書き込む
ことを特徴とする請求の範囲 3に記載の動画像合成装置。
5 . 前記オブジェク トは複数のスク リーン面を有し、
前記ビデオ動画像取得手段は、 外部から複数のビデオ動画像を取得し、 前記動画像合成装置は、 複数のスク リーン面のそれぞれにおいて、 グラフイツ ク動画像と各ビデオ動画像とを合成し、
前記ォブジ ク ト情報は、 複数のスク リーン面の形状を示す情報を含み、 前記グラフィック画像生成手段は、 複数のスクリーン面の形状を示す情報毎に、 スクリーン面情報を算出し、
前記ビデオ画像生成手段は、 複数のビデオ動画像からそれぞれビデオ静止画像 を取得し、 前記複数のスク リーン面情報により示される位置に、 それぞれ取得し た複数のビデオ静止画像を書き込む ことを特徴とする請求の範囲 4に記載の動画像合成装置。
6 . 前記ビデオ画像生成手段は、
算出された複数のスクリーン面情報に基づいて、 スクリーン面毎に優先順位を 決定する優先順位決定手段と、
複数のビデオ動画像毎に、 決定された優先順位に基づいて、 ビデオ動画像から ビデオ静止画像を取得するビデオ画像復号手段と、
算出された複数のスクリ一ン面情報と、 スク リーン面毎に決定された優先順位 とに基づいて、 投影スクリーン面毎に投影スクリーン面をマスクする位置を算出 するマスク位置算出手段と、
前記算出されたマスクする位置において、 前記変形ビデオ静止画像にマスク処 理を施すマスク処理手段とを含み、
前記ビデオ画像生成手段は、 マスク処理の施された変形ビデオ静止画像を前記 画像記憶手段に書き込む '
ことを特徴とする請求の範囲 5に記載の動画像合成装置。
7 . 前記優先順位決定手段は、 算出された複数のスク リーン面情報を用いて、 前 記視点に近いスクリーン面ほど、 優先順位が高くなるように優先順位を決定する ことを特徴とする請求の範囲 6に記載の動画像合成装置。
8 . 前記優先順位決定手段は、 算出された複数のスク リーン面情報を用いて、 投 影スク リーン面の面積を算出し、 算出された面積が大きいスク リーン面ほど、 優 先順位が高くなるように優先順位を決定する
ことを特徴とする請求の範囲 6に記載の動画像合成装置。
9 . 前記ビデオ画像復号手段は、 優先順位が最も高いビデオ動画像については、 ビデオ動画像から全てのビデオ静止画像を取得し、 優先順位の低いビデオ動画像 ほど、 ビデオ動画像から間引くビデオ静止画像が多くなるようにビデオ静止画像 を取得する
ことを特徴とする請求の範囲 6に記載の動画像合成装置。
10. 前記ビデオ画像復号手段は、 取得するビデオ静止画像の輝度を低下させる画 質補正部を含み、
優先順位が最も高いビデオ動画像については、 ビデオ静止画像の輝度を低下さ せず、 優先順位の低いビデオ動画像ほど、 ビデオ静止画像の輝度がより低くなる ように補正する
ことを特徴とする請求の範囲 6に記載の動画像合成装置。
11. ォブジェク トを 3次元空間内で移動する視点から見て得られるグラフイツ ク動画像と、 複数のビデオ静止画像から構成されるビデオ動画像とを、 オブジェ ク トのスクリーン面において、 合成する動画像合成装置であって、
3次元空間におけるオブジェク 卜の形状及び位置とオブジェク トのスク リーン 面の形状とを示すオブジェク ト情報を記憶している情報記憶手段と、
外部から連続する複数のビデオ静止画像により構成されるビデオ動画像を取得 するビデオ動画像取得手段と、'
グラフィック静止画像記憶手段と、
ビデオ静止画像記憶手段と、
画像記憶手段と、
3次元空間内で移動する 1の視点の位置を示す情報を繰り返し受け付ける受付 手段と、
前記オブジェク ト情報を用いて、 前記視点から見てオブジェク トを投影面に投 影して得られるグラフィック静止画像を生成し、 生成したグラフィック静止画像 を前記グラフィック静止画像記憶手段に書き込み、 スクリーン面の形状を示す情 報を含むオブジェク ト情報を用いて、 前記視点から見てスク リーン面を前記投影 面に投影して得られる投影スクリーン面の形状及び位置を示すスクリ一ン面情報 を算出するグラフィック画像生成手段と、
前記グラフィック静止画像が生成され前記グラフィック静止画像記憶手段に書 き込まれる時間帯において、 前記取得したビデオ動画像から繰り返しビデオ静止 画像を取り出し、 取り出したビデオ静止画像を前記ビデオ静止画像記憶手段に書 き込むビデオ画像生成手段と、
前記算出されたスク リーン面情報を用いて、 前記グラフィック静止画像記憶手 段に記憶されているグラフィック静止画像又は前記ビデオ静止画像記憶手段に記 憶されているビデオ静止画像から各静止画像を構成する画素を選択し、 選択した 画素を前記画像記憶手段に書き込む選択手段と
を備えることを特徴とする動画像合成装置。
12. 前記グラフィック静止画像記憶手段は、 第 1グラフィック記憶部と第 2ダラ フィック記憶部とを含み、
前記ビデオ静止画像記憶手段は、 第 1ビデオ記憶部と第 2ビデオ記憶部とを含 み、
前記グラフィック画像生成手段は、 取得したグラフィック静止画像を第 1ダラ フィック記憶部又は第 2グラフィック記憶部に交互に書き込み、
前記ビデオ画像生成手段は、 取得したビデオ静止画像を第 1 ビデオ記憶部又は 第 2ビデオ記憶部に交互に書き込み、
前記選択手段は、 前記グラフィック画像生成手段により、 第 1グラフィック記 憶部にグラフィック静止画像が書き込まれている時間帯において第 2グラフィッ ク記憶部からグラフィック静止画像を読み出し、 第 2グラフィック記憶部にダラ ブイック静止画像が書き込まれている時間帯において第 1グラフィック記憶部か らグラフィック静止画像を読み出し、 前記ビデオ画像生成手段により、 第 1ビデ ォ記憶部にビデオ静止画像が囲まれている時間帯において第 2ビデオ記憶部から ビデオ静止画像を読み出し、 第 2ビデオ記憶部にビデオ静止画像が囲まれている 時間帯において第 1ビデオ記憶部からビデオ静止画像を読み出し、 読み出したグ ラフィック静止画像とビデオ静止画像とから各静止画像を構成する画素を選択す る
ことを特徴とする請求の範囲 11に記載の動画像合成装置。
13. 前記グラフィック画像生成手段は、 前記オブジェク ト情報を用いて、 前記視 点から見てオブジェク トを投影面に投影し、 さらにレンダリング処理を施してグ ラフィック静止画像を生成する
ことを特徴とする請求の範囲 12に記載の動画像合成装置。
14. 前記ビデオ画像生成手段は、
前記スクリーン面情報により示される形状に合わせて、 前記ビデオ静止画像を 変形して、 変形ビデオ静止画像を生成する画像変形手段を含み、
前記ビデオ画像生成手段は、 生成された変形ビデオ静止画像を前記画像記憶手 段に書き込む
ことを特徴とする請求の範囲 13に記載の動画像合成装置。
15. 前記オブジェク トは複数のスクリーン面を有し、
前記ビデオ動画像取得手段は、 外部から複数のビデオ動画像を取得し、 前記動画像合成装置は、 複数のスクリーン面のそれぞれにおいて、 グラフイツ ク動画像と各ビデオ動画像とを合成し、
前記オブジェク ト情報は、 複数のスクリーン面の形状を示す情報を含み、 前記グラフィック画像生成手段は、 複数のスクリーン面の形状を示す情報毎に、 スクリーン面情報を算出し、
前記ビデオ画像生成手段は、 複数のビデオ動画像からそれぞれビデオ静止画像 を取得し、 前記複数のスク リーン面情報により示される位置に、 それぞれ取得し た複数のビデオ静止画像を書き込む
ことを特徴とする請求の範囲 14に記載の動画像合成装置。
16. 前記ビデオ画像生成手段は、
算出された複数のスクリーン面情報に基づいて、 スクリーン面毎に優先順位を 決定する優先順位決定手段と、
複数のビデオ動画像毎に、 決定された優先順位に基づいて、 ビデオ動画像から ビデオ静止画像を取得するビデオ画像復号手段と、 算出された複数のスクリーン面情報と、 スクリーン面毎に決定された優先順位 とに基づいて、 投影スク リーン面毎に投影スク リーン面をマスクする位置を算出 するマスク位置算出手段と、
前記算出されたマスクする位置において、 前記変形ビデオ静止画像にマスク処 理を施すマスク処理手段とを含み、
前記ビデオ画像生成手段は、 マスク処理の施された変形ビデオ静止画像を前記 ビデオ静止画像記憶手段に書き込む
ことを特徴とする請求の範囲 15に記載の動画像合成装置。
17. 前記優先順位決定手段は、 算出された複数のスク リーン面情報を用いて、 前 記視点に近いスクリーン面ほど、 優先順位が高くなるように優先順位を決定する ことを特徴とする請求の範囲 16に記載の動画像合成装置。
18. 前記優先順位決定手段は、 算出された複数のスク リーン面情報を用いて、 投 影スク リーン面の面積を算出し、 算出された面積が大きいスク リーン面ほど、 優 先順位が高くなるように優先順位を決定する
ことを特徴とする請求の範囲 16に記載の動画像合成装置。
19. 前記ビデオ画像復号手段は、 優先順位が最も高いビデオ動面像については、 ビデオ動画像から全てのビデオ静止画像を取得し、 優先順位の低いビデオ動画像 ほど、 ビデオ動画像から間引くビデオ静止画像が多くなるようにビデオ静止画像 を取得する
ことを特徴とする請求の範囲 16に記載の動画像合成装置。
20. 前記ビデオ画像復号手段は、 取得するビデオ静止画像の輝度を低下させる画 質補正部を含み、
優先順位が最も高いビデオ動画像については、 ビデオ静止画像の輝度を低下さ せず、 優先順位の低いビデオ動画像ほど、 ビデオ静止画像の輝度がより低くなる ように捕正する
ことを特徴とする請求の範囲 16に記載の動画像合成装置。
21. オブジェク トを 3次元空間内で移動する視点から見て得られるグラフィック 動画像と、 複数のビデオ静止画像から構成されるビデオ動画像とを合成し、 3次 元空間におけるオブジェク トの形状及び位置を示すオブジェク ト情報を記憶して いる情報記憶手段と、 画像記憶手段とを備える動画像合成装置で用いられる動画 像合成方法であって、
外部から連続する複数のビデオ静止画像により構成されるビデオ動画像を取得 するビデオ動画像取得ステップと、
3次元空間内で移動する 1の視点の位置を示す情報を繰り返し受け付ける受付 ステップと、
前記オブジェク ト情報を用いて、 前記視点から見てオブジェク トを投影面に投 影して得られるグラフィック静止画像を生成し、 生成したグラフィック静止画像 を前記画像記憶手段に書き込むグラフィック画像生成ステップと、
前記グラフィック静止画像が生成され前記画像記憶手段に書き込まれる時間帯 において、 前記取得したビデオ動画像から繰り返しビデオ静止画像を取り出し、 取り出したビデオ静止画像を前記画像記憶手段に書き込むビデオ画像生成ステツ プと
を含むことを特徴とする動画像合成方法。
22. オブジェク トを 3次元空間内で移動する視点から見て得られるグラフイツ ク動画像と、 複数のビデオ静止画像から構成されるビデオ動画像とを、 オブジェ ク トのスク リーン面において合成し、 3次元空間におけるオブジェク トの形状及 び位置とオブジェク トのスク リーン面の形状とを示すオブジェク ト情報を記憶し ている情報記憶手段と、 グラフィック静止画像記憶手段と、 ビデオ静止画像記憶 手段と、 画像記憶手段とを備える動画像合成装置で用レ、られ動画像合成方法であ つて、
外部から連続する複数のビデオ静止画像により構成されるビデオ動画像を取得 するビデオ動画像取得ステップと、 3次元空間内で移動する 1の視点の位置を示す情報を繰り返し受け付ける受付 ステップと、
前記オブジェク ト情報を用いて、 前記視点から見てオブジェク トを投影面に投 影して得られるグラフィック静止画像を生成し、 生成したグラフィック静止画像 を前記グラフィック静止画像記憶手段に書き込み、 スク リーン面の形状を示す情 報を含むオブジェク ト情報を用いて、 前記視点から見てスク リーン面を前記投影 面に投影して得られる投影スクリ一ン面の形状及び位置を示すスクリーン面情報 を算出するグラフィック画像生成ステップと、
前記グラフィック静止画像が生成され前記グラフィック静止画像記憶手段に書 き込まれる時間帯において、 前記取得したビデオ動画像から繰り返しビデオ静止 画像を取り出し、 取り出したビデオ静止画像を前記ビデオ静止画像記憶手段に書 き込むビデオ画像生成ステップと、
前記算出されたスク リーン面情報を用いて、 前記グラフィック静止画像記憶手 段に記憶されているダラフィック静止画像又は前記ビデオ静止画像記憶手段に記 憶されているビデオ静止画像から各静止画像を構成する画素を選択し、 選択した 画素を前記画像記憶手段に書き込む選択ステップと
を含むことを特徴とする動画像合成方法。
23. オブジェク トを 3次元空間内で移動する視点から見て得られるグラフィック 動画像と、 複数のビデオ静止画像から構成されるビデオ動画像とを合成し、 3次 元空間におけるオブジェク トの形状及び位置を示すオブジェク ト情報を記憶して レ、る情報記憶手段と、 画像記憶手段とを備えるコンピュータで用いられる動画像 合成プログラムを記録している記録媒体であって、
前記動画像合成プログラムは、
外部から連続する複数のビデオ静止画像により構成されるビデオ動画像を取得 するビデオ動画像取得ステップと、
3次元空間内で移動する 1の視点の位置を示す情報を繰り返し受け付ける受付 ステップと、
前記オブジェク ト情報を用いて、 前記視点から見てオブジェク トを投影面に投 影して得られるグラフィック静止画像を生成し、 生成したグラフィック静止画像 を前記画像記憶手段に書き込むグラフィック画像生成ステップと、
前記グラフィック静止画像が生成され前記画像記憶手段に書き込まれる時間帯 において、 前記取得したビデオ動画像から繰り返しビデオ静止画像を取り出し、 取り出したビデオ静止画像を前記画像記憶手段に書き込むビデオ画像生成ステツ プと
を含むことを特徴とする記録媒体。
24. オブジェク トを 3次元空間内で移動する視点から見て得られるグラフイツ ク動画像と、 複数のビデオ静止画像から構成されるビデオ動画像とを、 オブジェ ク トのスク リーン面において合成し、 3次元空間におけるオブジェク トの形状及 び位置とオブジェク 卜のスクリーン面の形状とを示すオブジェク ト情報を記憶し ている情報記憶手段と、 グラフィック静止画像記憶手段と、 ビデオ静止画像記憶 手段と、 画像記憶手段とを備えるコンピュータで用いられ動画像合成プログラム を記録している記録媒体であって、
前記動画像合成プログラムは、
外部から連続する複数のビデオ静止画像により構成されるビデオ動画像を取得 するビデオ動画像取得ステップと、
3次元空間内で移動する 1の視点の位置を示す情報を繰り返し受け付ける受付 ステップと、
前記ォブジェク ト情報を用いて、 前記視点から見てォブジェク トを投影面に投 影して得られるグラフィック静止画像を生成し、 生成したグラフィック静止画像 を前記グラフィック静止画像記憶手段に書き込み、 スク リ一ン面の形状を示す情 報を含むオブジェク ト情報を用いて、 前記視点から見てスク リーン面を前記投影 面に投影して得られる投影スクリーン面の形状及び位置を示すスクリーン面情報 を算出するグラフィック画像生成ステップと、
前記グラフィック静止画像が生成され前記グラフィック静止画像記憶手段に書 き込まれる時間帯において、 前記取得したビデオ動画像から繰り返しビデオ静止 画像を取り出し、 取り出したビデオ静止画像を前記ビデオ静止画像記憶手段に書 き込むビデオ画像生成ステップと、
前記算出されたスクリーン面情報を用いて、 前記グラフィック静止画像記憶手 段に記憶されているグラフィック静止画像又は前記ビデオ静止画像記憶手段に記 億されているビデオ静止画像から各静止画像を構成する画素を選択し、 選択した 画素を前記画像記憶手段に書き込む選択ステップと
を含むことを特徴とする記録媒体。
PCT/JP1999/004086 1998-07-30 1999-07-29 Synthetiseur d'images mobiles WO2000007364A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020007003429A KR20010015674A (ko) 1998-07-30 1999-07-29 동화상 합성장치
EP99933166A EP1030515A4 (en) 1998-07-30 1999-07-29 MOBILE IMAGE SYNTHESIZER
US09/508,227 US6657637B1 (en) 1998-07-30 1999-07-29 Moving image combining apparatus combining computer graphic image and at least one video sequence composed of a plurality of video frames
CA002304605A CA2304605A1 (en) 1998-07-30 1999-07-29 A moving image combining apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP21573798 1998-07-30
JP10/215737 1998-07-30

Publications (2)

Publication Number Publication Date
WO2000007364A1 true WO2000007364A1 (fr) 2000-02-10
WO2000007364A8 WO2000007364A8 (fr) 2000-04-27

Family

ID=16677370

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1999/004086 WO2000007364A1 (fr) 1998-07-30 1999-07-29 Synthetiseur d'images mobiles

Country Status (6)

Country Link
US (1) US6657637B1 (ja)
EP (1) EP1030515A4 (ja)
KR (1) KR20010015674A (ja)
CN (1) CN1258909C (ja)
CA (1) CA2304605A1 (ja)
WO (1) WO2000007364A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338408A (ja) * 2005-06-02 2006-12-14 Sony Corp 画像処理装置、その方法、そのプログラムおよび記録媒体
WO2009150998A1 (en) * 2008-06-12 2009-12-17 Canon Kabushiki Kaisha Image processing apparatus and control method thereof

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9712724D0 (en) * 1997-06-18 1997-08-20 Holmes Steven Method and apparatus for interaction with broadcast television content
US20040207638A1 (en) * 1998-04-14 2004-10-21 Antonio Fernando Melo E Silva Cool wave
GB0007974D0 (en) * 2000-04-01 2000-05-17 Discreet Logic Inc Processing image data
US6924846B2 (en) * 2000-05-22 2005-08-02 Sony Computer Entertainment Inc. Information processing apparatus, graphic processing unit, graphic processing method, storage medium, and computer program
JP2001333348A (ja) * 2000-05-24 2001-11-30 Minolta Co Ltd 送信装置、受信装置、放送システムおよび放送方法
WO2002035846A2 (en) * 2000-10-24 2002-05-02 Koninklijke Philips Electronics N.V. Method and device for video scene composition
JP3602061B2 (ja) * 2001-02-02 2004-12-15 九州日本電気ソフトウェア株式会社 3次元グラフィックス表示装置及びその方法
SG103289A1 (en) * 2001-05-25 2004-04-29 Meng Soon Cheo System for indexing textual and non-textual files
JP4260634B2 (ja) * 2002-02-15 2009-04-30 富士通株式会社 画像変換方法及び装置、画像認識装置、ロボット制御装置並びに画像投影装置
US7301547B2 (en) * 2002-03-22 2007-11-27 Intel Corporation Augmented reality system
JP2003324644A (ja) * 2002-05-07 2003-11-14 Canon Inc 映像信号処理装置、画像表示制御方法、記憶媒体、及びプログラム
JP4464599B2 (ja) * 2002-05-13 2010-05-19 株式会社マイクロネット 3次元コンピュータ画像放送用テロップ装置およびその方法
JP2004062103A (ja) * 2002-07-31 2004-02-26 Sony Corp 画像処理装置および方法、情報処理装置および方法、記録媒体、並びにプログラム
KR100490726B1 (ko) * 2002-10-17 2005-05-24 한국전자통신연구원 비디오 기반의 사격 게임 장치 및 그 방법
WO2004047009A2 (en) * 2002-11-15 2004-06-03 Esc Entertainment, A California Corporation Method for digitally rendering skin or like materials
US20040146211A1 (en) * 2003-01-29 2004-07-29 Knapp Verna E. Encoder and method for encoding
US7525557B2 (en) * 2003-02-14 2009-04-28 Mitsubishi Denki Kabushiki Kaisha Moving image composition device, moving image composition method, and information terminal with moving image composition function
JP4227561B2 (ja) * 2004-06-03 2009-02-18 キヤノン株式会社 画像処理方法、画像処理装置
JP4438059B2 (ja) * 2004-08-24 2010-03-24 キヤノン株式会社 画像再生装置及びその制御方法
JP4708752B2 (ja) * 2004-09-28 2011-06-22 キヤノン株式会社 情報処理方法および装置
US8514933B2 (en) * 2005-03-01 2013-08-20 Qualcomm Incorporated Adaptive frame skipping techniques for rate controlled video encoding
US7868904B2 (en) * 2005-04-01 2011-01-11 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP4574473B2 (ja) * 2005-07-11 2010-11-04 キヤノン株式会社 情報処理装置および方法
JP4727329B2 (ja) * 2005-07-15 2011-07-20 パナソニック株式会社 画像合成装置及び画像合成方法
US20070059669A1 (en) * 2005-08-23 2007-03-15 Lockheed Martin Corporation Systems and methods for processing video images
JP4706965B2 (ja) * 2005-08-31 2011-06-22 株式会社セガ 画像生成プログラム、画像生成装置
JP4764305B2 (ja) * 2006-10-02 2011-08-31 株式会社東芝 立体画像生成装置、方法およびプログラム
JP5100215B2 (ja) * 2007-06-20 2012-12-19 キヤノン株式会社 画像表示装置、画像表示装置の制御方法、及びコンピュータ読み取り可能なプログラム
US8339418B1 (en) * 2007-06-25 2012-12-25 Pacific Arts Corporation Embedding a real time video into a virtual environment
US8094090B2 (en) * 2007-10-19 2012-01-10 Southwest Research Institute Real-time self-visualization system
JP2010033367A (ja) * 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法
US8665374B2 (en) * 2008-08-22 2014-03-04 Disney Enterprises, Inc. Interactive video insertions, and applications thereof
JP2010122879A (ja) * 2008-11-19 2010-06-03 Sony Ericsson Mobile Communications Ab 端末装置、表示制御方法および表示制御プログラム
JP2010130510A (ja) * 2008-11-28 2010-06-10 Brother Ind Ltd 印刷装置及びプログラム
JP4692614B2 (ja) * 2008-11-28 2011-06-01 ブラザー工業株式会社 印刷装置及びプログラム
JP4692615B2 (ja) * 2008-11-28 2011-06-01 ブラザー工業株式会社 印刷装置及びプログラム
JP5343739B2 (ja) * 2009-07-02 2013-11-13 ブラザー工業株式会社 出力装置及びプログラム
JP5761953B2 (ja) * 2009-12-08 2015-08-12 キヤノン株式会社 情報処理装置およびその制御方法
TWI469087B (zh) * 2011-04-26 2015-01-11 Univ Nat Cheng Kung 深度圖產生方法
CN102752519B (zh) * 2011-05-17 2017-04-12 新奥特(北京)视频技术有限公司 一种二维和三维环境下图形图像混合处理的方法
KR20130064514A (ko) * 2011-12-08 2013-06-18 삼성전자주식회사 전자기기의 3차원 사용자 인터페이스 제공 방법 및 장치
US8902344B2 (en) * 2011-12-28 2014-12-02 Canon Kabushiki Kaisha Display control apparatus, image capture apparatus, display control method, and image capture apparatus control method
CN103258341B (zh) * 2012-02-15 2015-04-01 腾讯科技(深圳)有限公司 一种三维投影挂点渲染方法及装置
US9767614B2 (en) * 2015-03-24 2017-09-19 Nokia Technologies Oy Augmented reality
US10909761B1 (en) 2016-07-07 2021-02-02 Google Llc 2D video with option for projected viewing in modeled 3D space
CN109697045B (zh) * 2018-12-28 2022-06-03 天弘基金管理有限公司 图片显示方法及装置
CN114660097B (zh) * 2022-03-23 2023-06-02 成都智元汇信息技术股份有限公司 一种基于双源双视角的同步校正方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03163595A (ja) * 1989-11-22 1991-07-15 Yamaha Corp マルチウィンドウ制御装置
JPH05233199A (ja) * 1991-12-18 1993-09-10 Internatl Business Mach Corp <Ibm> 3次元マルチウィンドウ表示装置及び表示方法
JPH07306953A (ja) * 1994-05-16 1995-11-21 Canon Inc 動画処理装置および動画処理装置の画面処理方法
US5519449A (en) * 1991-09-17 1996-05-21 Hitachi, Ltd. Image composing and displaying method and apparatus for displaying a composite image of video signals and computer graphics
EP0841811A2 (en) * 1996-11-12 1998-05-13 Sony Corporation Video signal processing device and method
WO1999008178A1 (fr) * 1997-08-12 1999-02-18 Matsushita Electric Industrial Co., Ltd. Dispositif d'affichage a fenetres

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1284211C (en) * 1985-04-29 1991-05-14 Terrence Henry Pocock Cable television system selectively distributing pre-recorder video and audio messages
US5014128A (en) * 1989-04-24 1991-05-07 Atronics International Inc. Video interface circuit for displaying capturing and mixing a live video image with computer graphics on a video monitor
US5027212A (en) * 1989-12-06 1991-06-25 Videologic Limited Computer based video/graphics display system
US5594467A (en) * 1989-12-06 1997-01-14 Video Logic Ltd. Computer based display system allowing mixing and windowing of graphics and video
FR2661061B1 (fr) * 1990-04-11 1992-08-07 Multi Media Tech Procede et dispositif de modification de zone d'images.
JPH07325934A (ja) * 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5889499A (en) * 1993-07-29 1999-03-30 S3 Incorporated System and method for the mixing of graphics and video signals
JP3163595B2 (ja) 1994-03-25 2001-05-08 日本電信電話株式会社 通信方法及びその装置
US5608864A (en) * 1994-04-29 1997-03-04 Cirrus Logic, Inc. Variable pixel depth and format for video windows
JPH07311857A (ja) * 1994-05-16 1995-11-28 Fujitsu Ltd 画像合成表示装置およびシミュレーションシステム
US6037983A (en) * 1996-11-08 2000-03-14 Hughes Electronics Corporation High quality reduced latency transmission of video objects
IL121178A (en) * 1997-06-27 2003-11-23 Nds Ltd Interactive game system
US6323861B1 (en) * 1997-08-04 2001-11-27 Lucent Technologies Inc. Display techniques for three dimensional virtual reality
US6144390A (en) * 1997-08-04 2000-11-07 Lucent Technologies Inc. Display composition technique

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03163595A (ja) * 1989-11-22 1991-07-15 Yamaha Corp マルチウィンドウ制御装置
US5519449A (en) * 1991-09-17 1996-05-21 Hitachi, Ltd. Image composing and displaying method and apparatus for displaying a composite image of video signals and computer graphics
JPH05233199A (ja) * 1991-12-18 1993-09-10 Internatl Business Mach Corp <Ibm> 3次元マルチウィンドウ表示装置及び表示方法
JPH07306953A (ja) * 1994-05-16 1995-11-21 Canon Inc 動画処理装置および動画処理装置の画面処理方法
EP0841811A2 (en) * 1996-11-12 1998-05-13 Sony Corporation Video signal processing device and method
WO1999008178A1 (fr) * 1997-08-12 1999-02-18 Matsushita Electric Industrial Co., Ltd. Dispositif d'affichage a fenetres

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1030515A4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338408A (ja) * 2005-06-02 2006-12-14 Sony Corp 画像処理装置、その方法、そのプログラムおよび記録媒体
JP4687252B2 (ja) * 2005-06-02 2011-05-25 ソニー株式会社 画像処理装置、その方法、そのプログラムおよび記録媒体
US8031191B2 (en) 2005-06-02 2011-10-04 Sony Corporation Apparatus and method for generating rendering data of images
WO2009150998A1 (en) * 2008-06-12 2009-12-17 Canon Kabushiki Kaisha Image processing apparatus and control method thereof
JP2009301293A (ja) * 2008-06-12 2009-12-24 Canon Inc 画像処理装置及びその制御方法
US9019304B2 (en) 2008-06-12 2015-04-28 Canon Kabushiki Kaisha Image processing apparatus and control method thereof

Also Published As

Publication number Publication date
EP1030515A1 (en) 2000-08-23
CN1287743A (zh) 2001-03-14
CA2304605A1 (en) 2000-02-10
US6657637B1 (en) 2003-12-02
EP1030515A4 (en) 2002-03-20
CN1258909C (zh) 2006-06-07
KR20010015674A (ko) 2001-02-26
WO2000007364A8 (fr) 2000-04-27

Similar Documents

Publication Publication Date Title
WO2000007364A1 (fr) Synthetiseur d&#39;images mobiles
US6561907B2 (en) Simultaneous or reciprocal image synthesis for a video game at different viewpoints
US9272220B2 (en) System and method for improving the graphics performance of hosted applications
US8558846B2 (en) Information processing device and method, and program
US9682318B2 (en) System and method for improving the graphics performance of hosted applications
US8961316B2 (en) System and method for improving the graphics performance of hosted applications
US8845434B2 (en) System and method for improving the graphics performance of hosted applications
JP4917346B2 (ja) ゲーム画像処理プログラムおよびゲーム画像処理装置
US6364770B1 (en) Image creating apparatus, displayed scene switching method for the image creating apparatus, computer-readable recording medium containing displayed scene switching program for the image creating apparatus, and video game machine
JP2009110536A (ja) 画像フレーム処理方法、装置、レンダリングプロセッサおよび動画像表示方法
US20110012912A1 (en) Image processing device and image processing method
US20010036860A1 (en) Character display method, information recording medium and entertainment apparatus
US20120115601A1 (en) System amd method for improving the graphics performance of hosted applications
CN113301425A (zh) 视频播放方法、视频播放装置及电子设备
JP2001285749A (ja) 画像合成装置、記録媒体及びプログラム
US6697082B1 (en) Program product storing image display program, image display program, image display method, and game system
JP3643796B2 (ja) プログラム、情報記憶媒体、及びゲーム装置
JP2007522732A (ja) スクリーンに表示される画像のアスペクト比の変更
JP7476160B2 (ja) 情報処理装置、情報処理システム、及びプログラム
CN115665461B (zh) 一种视频录制方法及虚拟现实设备
JP7204843B2 (ja) 送信装置および送信方法、プログラム
JP2020095465A (ja) 画像処理装置、画像処理方法、及び、プログラム
JP3693884B2 (ja) ボウリング場管理システム
JP4881045B2 (ja) 動画生成装置、動画生成方法、及びプログラム
JP5919926B2 (ja) 画像生成方法、画像生成装置及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 99801722.1

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB

WWE Wipo information: entry into national phase

Ref document number: 09508227

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1999933166

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2304605

Country of ref document: CA

Ref document number: 2304605

Country of ref document: CA

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 1020007003429

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
AK Designated states

Kind code of ref document: C1

Designated state(s): CA CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: C1

Designated state(s): DE FR GB

WR Later publication of a revised version of an international search report
WWP Wipo information: published in national office

Ref document number: 1999933166

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020007003429

Country of ref document: KR

WWW Wipo information: withdrawn in national office

Ref document number: 1020007003429

Country of ref document: KR