JP2011023902A - 画像処理装置および画像処理方法 - Google Patents
画像処理装置および画像処理方法 Download PDFInfo
- Publication number
- JP2011023902A JP2011023902A JP2009166176A JP2009166176A JP2011023902A JP 2011023902 A JP2011023902 A JP 2011023902A JP 2009166176 A JP2009166176 A JP 2009166176A JP 2009166176 A JP2009166176 A JP 2009166176A JP 2011023902 A JP2011023902 A JP 2011023902A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- texture
- texture mapping
- mapping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
- Studio Devices (AREA)
Abstract
【課題】テクスチャマッピングされる画像に応じた文字列をこの画像に対応した位置に見易く挿入する。
【解決手段】画像マッピング手段150により、CG画像のテクスチャマッピング対象の表面に、補助出力部160で取り出された画像データT1による画像を、テクスチャマッピングする。このCG画像データVoutを、予備入力バス174に取り出して、ミキサ177に供給する。画像生成手段140は、テクスチャマッピング対象の位置情報を求めて、位置送信手段180を通じてキープロセッサ(画像加工部)176に送る。キープロセッサ176は、位置情報に基づいて、CG画像にスーパーインポーズ(重畳)する文字列等の前景画像の移動調整を行う。ミキサ177は、CG画像の画像データVout、およびキーフィル信号、キーソース信号を使用して、CG画像に、文字列等の前景画像を、テクスチャマッピング対象に対応した位置に重畳する。
【選択図】図1
【解決手段】画像マッピング手段150により、CG画像のテクスチャマッピング対象の表面に、補助出力部160で取り出された画像データT1による画像を、テクスチャマッピングする。このCG画像データVoutを、予備入力バス174に取り出して、ミキサ177に供給する。画像生成手段140は、テクスチャマッピング対象の位置情報を求めて、位置送信手段180を通じてキープロセッサ(画像加工部)176に送る。キープロセッサ176は、位置情報に基づいて、CG画像にスーパーインポーズ(重畳)する文字列等の前景画像の移動調整を行う。ミキサ177は、CG画像の画像データVout、およびキーフィル信号、キーソース信号を使用して、CG画像に、文字列等の前景画像を、テクスチャマッピング対象に対応した位置に重畳する。
【選択図】図1
Description
この発明は、画像処理装置および画像処理方法に関し、特に、コンピュータグラフィクス画像に画像データによる画像をテクスチャマッピングして画像合成を行う画像処理装置等に関する。
3次元グラフィクスシステムにおいては、3次元座標を3角形などのポリゴン(多角形)に分解し、そのポリゴンを描画することで、画像全体の描画が行われる。したがって、この場合、3次元画像は、ポリゴンの組み合わせで定義されていると言える。ところで、身の回りにある物体表面は、複雑な模様の繰り返しパターンを有することが多く、模様やパターンが複雑で細かくなるほど、各模様やパターンを3角形などでモデリングすることは困難となる。そこで、これを解決する手段として、テクスチャマッピング (Texture Mapping)が用いられる。
テクスチャマッピングは、スキャナ等で取り込んだイメージデータを、物体表面に貼り付けることにより、少ない頂点数で、リアリティの高い画像を実現するもので、オブジェクト(Object)座標系からテクスチャ(Texture )座標系への写像を定義し、さらに、ウインドウ(Window)座標系からテクスチャ座標系への写像を求めて、ウインドウ座標系における各ピクセル(Pixel, Picture Cell Element )に対応するテクスチャの要素であるテクセル(Texel:Texture Cell Element )を求める。
テクスチャに利用される画像データは、テクスチャメモリと呼ばれるメモリ領域に格納される。したがって、動画像データを用いてテクスチャメモリを随時更新する処理を行うと、動画像によるテクスチャマッピング処理が可能となる。
例えば、特許文献1には、立体視画像内でテロップを付与したい立体視オブジェクトを認識し、この立体視オブジェクトに対応した視差をテロップに付与することで、全体の立体視を阻害しないようにしたテロップ発生装置が記載されている。また、例えば、特許文献2には、3次元オブジェクトに時間的に同期させた文字編集・表示が可能となる3次元映像編集表示装置が記載されている。
従来のテロップ/スーパーインポーズでは、対象とする画像の中に文字列の画像を挿入していた。CGオブジェクトの表面へテクスチャマッピングされる画像に対してスーパーインポーズによる文字列の挿入を行うと、テクスチャマッピング面の状況、例えばテクスチャマッピング面に回転、縮小、歪みなどがあるとき、文字列が判読しがたくなる。例えば、図28(a)はテクスチャマッピング面が回転している場合を示し、また、図28(b)はテクスチャマッピング面が縮小されている場合を示している。これらの場合、「コーヒーカップ」の文字列が判読しがたくなっている。
CG作成時に、文字列をCGオブジェクトとして作成し、仮想三次元空間の画像として表示させると、判読しやすい文字にすることができる。しかし、テクスチャマッピングする画像を運用時に切り替える場合、それぞれの画像に対応する文字列を切り替えに応じて表示することは、困難であった。また、生放送などの運用時、文字列の挿入は、エフェクト・スイッチャのキーヤー機能と呼ばれる部分を操作して行われるものであり、確実に操作できることが望まれる。
この発明の目的は、作成したCGを生放送の運用等で使う場合に、テクスチャマッピングされる画像に応じた文字列をこの画像に対応した位置に見易く挿入可能とすることにある。
この発明の概念は、
コンピュータグラフィクス記述データに基づいてコンピュータグラフィクス画像を生成する画像生成手段と、
上記画像生成手段が描画するコンピュータグラフィクスのオブジェクトまたは該オブジェクトの部分をテクスチャマッピング対象とし、該テクスチャマッピング対象の表面にテクスチャマッピング画像をテクスチャマッピングする画像マッピング手段と、
上記コンピュータグラフィクス画像における上記テクスチャマッピング対象の位置情報に基づき、上記画像マッピング手段でテクスチャマッピングされたコンピュータグラフィクス画像の上記テクスチャマッピング対象に対応した位置に、スーパーインポーズ画像をスーパーインポーズするスーパーインポーズ手段と
を備える画像処理装置にある。
コンピュータグラフィクス記述データに基づいてコンピュータグラフィクス画像を生成する画像生成手段と、
上記画像生成手段が描画するコンピュータグラフィクスのオブジェクトまたは該オブジェクトの部分をテクスチャマッピング対象とし、該テクスチャマッピング対象の表面にテクスチャマッピング画像をテクスチャマッピングする画像マッピング手段と、
上記コンピュータグラフィクス画像における上記テクスチャマッピング対象の位置情報に基づき、上記画像マッピング手段でテクスチャマッピングされたコンピュータグラフィクス画像の上記テクスチャマッピング対象に対応した位置に、スーパーインポーズ画像をスーパーインポーズするスーパーインポーズ手段と
を備える画像処理装置にある。
この発明において、画像生成手段により、コンピュータグラフィクス記述データに基づいて、コンピュータグラフィクス画像が生成される。この場合、3次元座標が3角形等のポリゴン(多角形)に分解され、そのポリゴンが描画されることで、画像全体の描画が行われる。また、画像マッピング手段により、画像生成手段で描画されるコンピュータグラフィクスのオブジェクトまたはこのオブジェクトの部分がテクスチャマッピング対象とされ、このテクスチャマッピング対象の表面に、テクスチャマッピング画像がテクスチャマッピングされる。
例えば、テクスチャマッピング画像データ選択手段により、複数の入力画像データから1つの画像データが選択される。画像マッピング手段では、テクスチャマッピング対象の表面に、このテクスチャマッピング画像データ選択手段で選択された画像データによるテクスチャマッピング画像がテクスチャマッピングされる。この場合、操作者は、テクスチャマッピング画像選択手段で選択される画像データを変化させることで、テクスチャマッピングされる画像の変更が可能となる。
また、スーパーインポーズ手段により、画像マッピング手段でテクスチャマッピングされたコンピュータグラフィクス画像に、スーパーインポーズ画像がスーパーインポーズされる。この場合、コンピュータグラフィクス画像における上記テクスチャマッピング対象の位置情報に基づき、テクスチャマッピング対象に対応した位置に、スーパーインポーズ画像がスーパーインポーズされる。
例えば、スーパーインポーズ画像データ選択手段により、複数の入力画像データから1つの画像データが選択される。スーパーインポーズ手段は、このスーパーインポーズ画像データ選択手段で選択された画像データによるスーパーインポーズ画像がスーパーインポーズされる。この場合、操作者は、スーパーインポーズ画像選択手段で選択される画像データを変化させることで、スーパーインポーズされる画像(文字列などの画像)の変更が可能となる。また、例えば、スーパーインポーズ画像生成手段により、スーパーインポーズ画像がコンピュータグラフィクスオブジェクトとして生成される。
このように、テクスチャマッピング対象の表面に、テクスチャマッピング画像がテクスチャマッピングされる。また、テクスチャマッピング画像がテクスチャマッピングされたコンピュータグラフィクス画像に、テクスチャマッピング対象の位置情報に基づき、テクスチャマッピング対象に対応した位置に、スーパーインポーズ画像がスーパーインポーズされる。したがって、テクスチャマッピングされる画像に応じた文字列を、この画像に対応した位置に見易く挿入できる。
また、この発明において、例えば、テクスチャマッピング画像の一つまたは複数の系統と、スーパーインポーズ画像の1つまたは複数の系統との対応関係を設定する情報設定手段をさらに備え、スーパーインポーズ手段は、情報設定手段で設定された対応関係に基づいて、テクスチャマッピング対象の表面にテクスチャマッピングされるテクスチャマッピング画像に対応したスーパーインポーズ画像を、このテクスチャマッピング対象に対応した位置にスーパーインポーズする、ようにしてもよい。この場合、テクスチャマッピング画像あるいはスーパーインポーズ画像が複数系統あるときでも、テクスチャマッピングされる画像に応じた文字列を、その画像に対応した位置に容易に見易く挿入できる。
また、この発明において、例えば、コンピュータグラフィクス記述データ中の所定の属性の値の選択によりテクスチャマッピング対象を指定する表面指定手段をさらに備え、表面指定手段は、テクスチャマッピング画像の系統毎に、テクスチャマッピング対象を指定する、ようにしてもよい。属性は、例えば、マテリアル定義、マテリアル定義が持つ表面情報等である。
また、この発明において、例えば、テクスチャマッピングされたコンピュータグラフィクス画像を使用する第1のモードおよび該コンピュータグラフィクス画像とは異なる他の画像を使用する第2のモードを切り替えるモード切り替え手段をさらに備え、スーパーインポーズ手段は、第1のモードに切り替えられているとき、コンピュータグラフィクス画像におけるテクスチャマッピング対象の位置情報に基づき、画像マッピング手段でテクスチャマッピングされたコンピュータグラフィクス画像のテクスチャマッピング対象に対応した画像位置に、スーパーインポーズ画像をスーパーインポーズし、第2のモードに切り替えられているとき、他の画像の所定位置に、スーパーインポーズ画像をスーパーインポーズする、ようにしてもよい。
この発明によれば、テクスチャマッピング対象の表面にテクスチャマッピング画像がマッピングされて得られたコンピュータグラフィクス画像に、テクスチャマッピング対象の位置情報に基づき、そのテクスチャマッピング対象に対応した位置にスーパーインポーズ画像がスーパーインポーズされるものであり、テクスチャマッピングされる画像に応じた文字列をこの画像に対応した位置に見易く挿入できる。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.第4の実施の形態
5.変形例
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.第4の実施の形態
5.変形例
<1.第1の実施の形態>
[画像処理装置の構成]
この発明の第1の実施の形態を説明する。図1は、第1の実施の形態としての画像処理装置100の構成例を示している。この画像処理装置100は、CG(Computer Graphics:コンピュータグラフィクス)制作手段110と、表面指定手段120と、ネットワーク130と、画像生成手段140と、画像マッピング手段150を有している。また、この画像処理装置100は、補助出力部160と、画像合成切り替え部170と、位置送信手段180と、合成切り替え制御部190と、合成切り替え操作入力部195を有している。CG制作手段110、表面指定手段120、画像生成手段140および位置送信手段180は、それぞれネットワーク130に接続されている。
[画像処理装置の構成]
この発明の第1の実施の形態を説明する。図1は、第1の実施の形態としての画像処理装置100の構成例を示している。この画像処理装置100は、CG(Computer Graphics:コンピュータグラフィクス)制作手段110と、表面指定手段120と、ネットワーク130と、画像生成手段140と、画像マッピング手段150を有している。また、この画像処理装置100は、補助出力部160と、画像合成切り替え部170と、位置送信手段180と、合成切り替え制御部190と、合成切り替え操作入力部195を有している。CG制作手段110、表面指定手段120、画像生成手段140および位置送信手段180は、それぞれネットワーク130に接続されている。
CG制作手段110は、CG制作ソフトウェアを持つパーソナルコンピュータ(PC:Personal Computer)により構成されている。このCG制作手段110は、所定のフォーマットのCG記述データを出力する。CG記述データのフォーマットとして、例えばCollada(登録商標)がある。Colladaは、XML(Extensible Markup Language)の上で3DのCGデータの交換を実現するための記述定義である。CG記述データには、例えば、以下のような情報が記述される。
(a)マテリアルの定義
このマテリアルの定義は、CGオブジェクトの表面の質(見え方)である。このマテリアルの定義には、色、反射の仕方、発光、凹凸などの情報が含まれる。また、このマテリアルの定義には、テクスチャマッピングの情報が含まれる場合がある。テクスチャマッピングとは、上述したように、画像をCGオブジェクトに貼り付ける手法であり、処理系の負荷を比較的軽くしつつ、複雑な模様などを表現できる。図2は、マテリアルが持つ表面情報の例を示している。なお、色の代わりにテクスチャマッピングを指定する場合もある。
このマテリアルの定義は、CGオブジェクトの表面の質(見え方)である。このマテリアルの定義には、色、反射の仕方、発光、凹凸などの情報が含まれる。また、このマテリアルの定義には、テクスチャマッピングの情報が含まれる場合がある。テクスチャマッピングとは、上述したように、画像をCGオブジェクトに貼り付ける手法であり、処理系の負荷を比較的軽くしつつ、複雑な模様などを表現できる。図2は、マテリアルが持つ表面情報の例を示している。なお、色の代わりにテクスチャマッピングを指定する場合もある。
(b)幾何学情報 Geometry の定義
この幾何学情報 Geometry の定義には、ポリゴンメッシュについての、位置座標、頂点の座標などの情報が含まれる。
(c)カメラの定義
このカメラの定義には、カメラのパラメータが含まれる。
この幾何学情報 Geometry の定義には、ポリゴンメッシュについての、位置座標、頂点の座標などの情報が含まれる。
(c)カメラの定義
このカメラの定義には、カメラのパラメータが含まれる。
(d)アニメーションの定義
このアニメーションの定義には、アニメーションの各キーフレームにおける、様々な値の情報が含まれる。また、このアニメーションの定義には、アニメーションの各キーフレームにおける時刻の情報が含まれる。様々な情報とは、例えば、対応するオブジェクト(ノード)のキーフレーム点の時刻、位置や頂点の座標値、サイズ、接線ベクトル、補間方法、各種情報のアニメーション中の変化等の情報である。
(e)シーン中のノード(オブジェクト)の位置、方向、大きさ、対応する幾何学情報定義、対応するマテリアル定義
このアニメーションの定義には、アニメーションの各キーフレームにおける、様々な値の情報が含まれる。また、このアニメーションの定義には、アニメーションの各キーフレームにおける時刻の情報が含まれる。様々な情報とは、例えば、対応するオブジェクト(ノード)のキーフレーム点の時刻、位置や頂点の座標値、サイズ、接線ベクトル、補間方法、各種情報のアニメーション中の変化等の情報である。
(e)シーン中のノード(オブジェクト)の位置、方向、大きさ、対応する幾何学情報定義、対応するマテリアル定義
これらの情報は、ばらばらではなく、例えば、以下のように対応付けられている。
・ノード・・・幾何学情報
・ノード・・・マテリアル(複数)
・幾何学情報・・・ポリゴン集合(複数)
・ポリゴン集合・・・マテリアル(ノードに対応するうちの一つ)
・アニメーション・・・ノード
・ノード・・・幾何学情報
・ノード・・・マテリアル(複数)
・幾何学情報・・・ポリゴン集合(複数)
・ポリゴン集合・・・マテリアル(ノードに対応するうちの一つ)
・アニメーション・・・ノード
一つの画面を構成する記述はシーンと呼ばれる。各定義はライブラリと呼ばれ、シーンの中から参照される。例えば、直方体のオブジェクトが2つ存在する場合、それぞれが一つのノードとして記述され、各ノードにマテリアル定義のいずれかが連想される。この結果、各直方体のオブジェクトにはマテリアル定義が連想され、各マテリアル定義に従った色や反射特性で描画される。
あるいは、直方体のオブジェクトは複数のポリゴン集合で記述され、ポリゴン集合にマテリアル定義が連想されている場合は、ポリゴン集合毎に、異なるマテリアル定義で描画される。例えば、直方体の面は6つであるが、このうちの3つの面で一つのポリゴン集合、1つの面で1つのポリゴン集合、2つの面で一つのポリゴン集合、というように、直方体のオブジェクトが3つのポリゴン集合で記述される場合もある。各ポリゴン集合に異なるマテリアル定義を連想できるため、面毎に異なる色で描画させることも可能である。後述する画像マッピング手段においては、オブジェクトまたはオブジェクトの部分(面あるいはポリゴンメッシュの分割単位等)が、テクスチャマッピングの対象とされる。
以下は、CG記述データとしてのColladaファイルのサンプル(一部の抜粋例)を示している。例えば、このサンプルでは、“01MatDefault”という名前(値)のマテリアルが定義されている。そして、このマテリアルの実際の内容は、“01MatDefault-fx”のエフェクトを参照すべきことが記述されている。また。このサンプルでは、<library_visual_scenes>において、“#Box01-lib”の幾何学情報定義に対して“01MatDefault”のマテリアル定義を結びつけて、描画することが記述されている。
[Colladaファイルのサンプル]
<library_materials>
<material id="01MatDefault" name="01MatDefault"> マテリアル定義
<instance_effect url="#01MatDefault-fx"/> エフェクトを参照
</material>
</library_materials>
<library_effects>
<effect id="01MatDefault-fx"name="01MatDefault"> これがマテリアルの内容
<profile_COMMON>
<technique sid="standard">
<phong>
<emission>
<color sid="emission">0.000000 0.000000 0.0000001.000000</color>
</emission>
<ambient> ここで色が付いている
<color sid="ambient">0.588235 0.952941 0.9215691.000000</color>
</ambient>
<diffuse>
<color sid="diffuse">0.588235 0.952941 0.9215691.000000</color>
</diffuse>
<specular>
<color sid="specular">0.000000 0.000000 0.0000001.000000</color>
</specular>
<shininess>
<float sid="shininess">2.000000</float>
</shininess>
<reflective>
<color sid="reflective">0.000000 0.000000 0.0000001.000000</color>
</reflective>
<reflectivity>
<float sid="reflectivity">1.000000</float>
</reflectivity>
<transparent>
<color sid="transparent">1.000000 1.000000 1.0000001.000000</color>
</transparent>
<transparency>
<float sid="transparency">0.000000</float>
</transparency>
</phong>
</technique>
</profile_COMMON>
</effect>
</library_effects>
<library_geometries>
<geometry id="Box01-lib" name="Box01Mesh">
<mesh>
<source id="Box01-lib-Position">
<float_array id="Box01-lib-Position-array"count="24"> 位置情報の配列
-4.673016-8.585480 0.000000
4.673016-8.585480 0.000000
-4.6730168.585480 0.000000
4.6730168.585480 0.000000
-4.673016-8.585480 10.185543
4.673016-8.585480 10.185543
-4.6730168.585480 10.185543
4.6730168.585480 10.185543
</float_array>
<technique_common>
<accessor source="#Box01-lib-Position-array" count="8"stride="3">
<param name="X" type="float"/> 位置情報の配列の並びの説明
<param name="Y" type="float"/>
<param name="Z" type="float"/>
</accessor>
</technique_common>
</source>
<source id="Box01-lib-UV0">
<float_array id="Box01-lib-UV0-array" count="24"> UV座標の配列
0.0000000.000000 単純な立方体なので、0 と 1 しかない。
1.0000000.000000
0.0000001.000000
1.0000001.000000
0.0000000.000000
1.0000000.000000
0.0000001.000000
1.0000001.000000
0.0000000.000000
1.0000000.000000
0.0000001.000000
1.0000001.000000
</float_array>
<technique_common>
<accessor source="#Box01-lib-UV0-array" count="12"stride="2">
UV座標の説明
<param name="S" type="float"/>
<param name="T" type="float"/>
</accessor>
</technique_common>
</source>
<vertices id="Box01-lib-Vertex">
<input semantic="POSITION"source="#Box02-lib-Position"/>
</vertices>
<polygons material="01MatDefault" count="12">
<input semantic="VERTEX" offset="0"source="#Box01-lib-Vertex"/>
<input semantic="NORMAL" offset="1"source="#Box01-lib-Normal0"/>
<input semantic="TEXCOORD" offset="2" set="0"source="#Box01-lib-UV0"/>
<p>0 0 9 2 1 11 3 2 10</p> 頂点情報
<p>3 3 10 1 4 8 0 5 9</p>
<p>4 6 8 5 7 9 7 8 11</p>
<p>7 9 11 6 10 10 4 11 8</p>
<p>0 12 4 1 13 5 5 14 7</p>
<p>5 15 7 4 16 6 0 17 4</p>
<p>1 18 0 3 19 1 7 20 3</p>
<p>7 21 3 5 22 2 1 23 0</p>
<p>3 24 4 2 25 5 6 26 7</p>
<p>6 27 7 7 28 6 3 29 4</p>
<p>2 30 0 0 31 1 4 32 3</p>
<p>4 33 3 6 34 2 2 35 0</p>
</polygons>
</mesh>
</geometry>
</library_geometries>
<library_animations>
<animation id="Box01-anim" name="Box01">
<animation>
<source id="Box01-translate-animation-inputX">
<float_array id="Box01-translate-animation-inputX-array"count="4">
0.0000001.000000 1.033333 1.333333 アニメーションでの X 座標値の変化の時刻
</float_array>
<technique_common>
<accessor source="#Box01-translate-animation-inputX-array"count="4">
<param name="TIME" type="float"/>
</accessor>
</technique_common>
</source>
<source id="Box01-translate-animation-outputX">
<float_array id="Box01-translate-animation-outputX-array"count="4">
-43.404125-43.404125 -23.897228 13.150181 アニメーションの X 座標値そのもの
</float_array>
<technique_common>
<accessor source="#Box01-translate-animation-outputX-array"count="4">
<param name="X" type="float"/>
</accessor>
</technique_common>
</source>
<source id="Box01-translate-animation-intanX">
<float_array id="Box01-translate-animation-intanX-array"count="4">
0.0000000.000000 1.884578 -0.000000
</float_array>
<technique_common>
<accessor source="#Box01-translate-animation-intanX-array"count="4">
<param name="X" type="float"/>
</accessor>
</technique_common>
</source>
<source id="Box01-translate-animation-outtanX">
<float_array id="Box01-translate-animation-outtanX-array"count="4">
0.0000000.000000 16.961202 0.000000
</float_array>
<technique_common>
<accessor source="#Box01-translate-animation-outtanX-array" count="4">
<param name="X" type="float"/>
</accessor>
</technique_common>
</source>
<source id="Box01-translate-animation-interpolationX">
<Name_array id="Box01-translate-animation-interpolationX-array"count="4">
BEZIER BEZIER BEZIER BEZIER
</Name_array>
<technique_common>
<accessor source="#Box01-translate-animation-interpolationX-array"count="4">
<param type="name"/>
</accessor>
</technique_common>
</source>
<sampler id="Box01-translate-animationX">
<input semantic="INPUT"source="#Box01-translate-animation-inputX"/>
<input semantic="OUTPUT"source="#Box01-translate-animation-outputX"/>
<input semantic="IN_TANGENT"source="#Box01-translate-animation-intanX"/>
<input semantic="OUT_TANGENT"source="#Box01-translate-animation-outtanX"/>
<input semantic="INTERPOLATION"source="#Box01-translate-animation-interpolationX"/>
</sampler>
<channel source="#Box01-translate-animationX"target="Box01/translate.X"/>以上が何のアニメーション情報であるかをここで決定(target)している
</animation>
<library_visual_scenes>
<visual_scene id="RootNode" name="RootNode">
<node id="Box01" name="Box01">
<translate sid="translate">-43.404125 0.6970370.000000</translate>
<rotate sid="rotateZ">0 0 1 0.000000</rotate>
<rotate sid="rotateY">0 1 0 0.000000</rotate>
<rotate sid="rotateX">1 0 0 0.000000</rotate>
<scale sid="scale">1.000000 1.000000 1.000000</scale>
<instance_geometry url="#Box01-lib"> 幾何学情報定義の参照
<bind_material>
<technique_common>
<instance_material symbol="01MatDefault"target="#01MatDefault"/> マテリアル参照
</technique_common>
</bind_material>
</instance_geometry>
</node>
</visual_scene>
</library_visual_scenes>
<library_materials>
<material id="01MatDefault" name="01MatDefault"> マテリアル定義
<instance_effect url="#01MatDefault-fx"/> エフェクトを参照
</material>
</library_materials>
<library_effects>
<effect id="01MatDefault-fx"name="01MatDefault"> これがマテリアルの内容
<profile_COMMON>
<technique sid="standard">
<phong>
<emission>
<color sid="emission">0.000000 0.000000 0.0000001.000000</color>
</emission>
<ambient> ここで色が付いている
<color sid="ambient">0.588235 0.952941 0.9215691.000000</color>
</ambient>
<diffuse>
<color sid="diffuse">0.588235 0.952941 0.9215691.000000</color>
</diffuse>
<specular>
<color sid="specular">0.000000 0.000000 0.0000001.000000</color>
</specular>
<shininess>
<float sid="shininess">2.000000</float>
</shininess>
<reflective>
<color sid="reflective">0.000000 0.000000 0.0000001.000000</color>
</reflective>
<reflectivity>
<float sid="reflectivity">1.000000</float>
</reflectivity>
<transparent>
<color sid="transparent">1.000000 1.000000 1.0000001.000000</color>
</transparent>
<transparency>
<float sid="transparency">0.000000</float>
</transparency>
</phong>
</technique>
</profile_COMMON>
</effect>
</library_effects>
<library_geometries>
<geometry id="Box01-lib" name="Box01Mesh">
<mesh>
<source id="Box01-lib-Position">
<float_array id="Box01-lib-Position-array"count="24"> 位置情報の配列
-4.673016-8.585480 0.000000
4.673016-8.585480 0.000000
-4.6730168.585480 0.000000
4.6730168.585480 0.000000
-4.673016-8.585480 10.185543
4.673016-8.585480 10.185543
-4.6730168.585480 10.185543
4.6730168.585480 10.185543
</float_array>
<technique_common>
<accessor source="#Box01-lib-Position-array" count="8"stride="3">
<param name="X" type="float"/> 位置情報の配列の並びの説明
<param name="Y" type="float"/>
<param name="Z" type="float"/>
</accessor>
</technique_common>
</source>
<source id="Box01-lib-UV0">
<float_array id="Box01-lib-UV0-array" count="24"> UV座標の配列
0.0000000.000000 単純な立方体なので、0 と 1 しかない。
1.0000000.000000
0.0000001.000000
1.0000001.000000
0.0000000.000000
1.0000000.000000
0.0000001.000000
1.0000001.000000
0.0000000.000000
1.0000000.000000
0.0000001.000000
1.0000001.000000
</float_array>
<technique_common>
<accessor source="#Box01-lib-UV0-array" count="12"stride="2">
UV座標の説明
<param name="S" type="float"/>
<param name="T" type="float"/>
</accessor>
</technique_common>
</source>
<vertices id="Box01-lib-Vertex">
<input semantic="POSITION"source="#Box02-lib-Position"/>
</vertices>
<polygons material="01MatDefault" count="12">
<input semantic="VERTEX" offset="0"source="#Box01-lib-Vertex"/>
<input semantic="NORMAL" offset="1"source="#Box01-lib-Normal0"/>
<input semantic="TEXCOORD" offset="2" set="0"source="#Box01-lib-UV0"/>
<p>0 0 9 2 1 11 3 2 10</p> 頂点情報
<p>3 3 10 1 4 8 0 5 9</p>
<p>4 6 8 5 7 9 7 8 11</p>
<p>7 9 11 6 10 10 4 11 8</p>
<p>0 12 4 1 13 5 5 14 7</p>
<p>5 15 7 4 16 6 0 17 4</p>
<p>1 18 0 3 19 1 7 20 3</p>
<p>7 21 3 5 22 2 1 23 0</p>
<p>3 24 4 2 25 5 6 26 7</p>
<p>6 27 7 7 28 6 3 29 4</p>
<p>2 30 0 0 31 1 4 32 3</p>
<p>4 33 3 6 34 2 2 35 0</p>
</polygons>
</mesh>
</geometry>
</library_geometries>
<library_animations>
<animation id="Box01-anim" name="Box01">
<animation>
<source id="Box01-translate-animation-inputX">
<float_array id="Box01-translate-animation-inputX-array"count="4">
0.0000001.000000 1.033333 1.333333 アニメーションでの X 座標値の変化の時刻
</float_array>
<technique_common>
<accessor source="#Box01-translate-animation-inputX-array"count="4">
<param name="TIME" type="float"/>
</accessor>
</technique_common>
</source>
<source id="Box01-translate-animation-outputX">
<float_array id="Box01-translate-animation-outputX-array"count="4">
-43.404125-43.404125 -23.897228 13.150181 アニメーションの X 座標値そのもの
</float_array>
<technique_common>
<accessor source="#Box01-translate-animation-outputX-array"count="4">
<param name="X" type="float"/>
</accessor>
</technique_common>
</source>
<source id="Box01-translate-animation-intanX">
<float_array id="Box01-translate-animation-intanX-array"count="4">
0.0000000.000000 1.884578 -0.000000
</float_array>
<technique_common>
<accessor source="#Box01-translate-animation-intanX-array"count="4">
<param name="X" type="float"/>
</accessor>
</technique_common>
</source>
<source id="Box01-translate-animation-outtanX">
<float_array id="Box01-translate-animation-outtanX-array"count="4">
0.0000000.000000 16.961202 0.000000
</float_array>
<technique_common>
<accessor source="#Box01-translate-animation-outtanX-array" count="4">
<param name="X" type="float"/>
</accessor>
</technique_common>
</source>
<source id="Box01-translate-animation-interpolationX">
<Name_array id="Box01-translate-animation-interpolationX-array"count="4">
BEZIER BEZIER BEZIER BEZIER
</Name_array>
<technique_common>
<accessor source="#Box01-translate-animation-interpolationX-array"count="4">
<param type="name"/>
</accessor>
</technique_common>
</source>
<sampler id="Box01-translate-animationX">
<input semantic="INPUT"source="#Box01-translate-animation-inputX"/>
<input semantic="OUTPUT"source="#Box01-translate-animation-outputX"/>
<input semantic="IN_TANGENT"source="#Box01-translate-animation-intanX"/>
<input semantic="OUT_TANGENT"source="#Box01-translate-animation-outtanX"/>
<input semantic="INTERPOLATION"source="#Box01-translate-animation-interpolationX"/>
</sampler>
<channel source="#Box01-translate-animationX"target="Box01/translate.X"/>以上が何のアニメーション情報であるかをここで決定(target)している
</animation>
<library_visual_scenes>
<visual_scene id="RootNode" name="RootNode">
<node id="Box01" name="Box01">
<translate sid="translate">-43.404125 0.6970370.000000</translate>
<rotate sid="rotateZ">0 0 1 0.000000</rotate>
<rotate sid="rotateY">0 1 0 0.000000</rotate>
<rotate sid="rotateX">1 0 0 0.000000</rotate>
<scale sid="scale">1.000000 1.000000 1.000000</scale>
<instance_geometry url="#Box01-lib"> 幾何学情報定義の参照
<bind_material>
<technique_common>
<instance_material symbol="01MatDefault"target="#01MatDefault"/> マテリアル参照
</technique_common>
</bind_material>
</instance_geometry>
</node>
</visual_scene>
</library_visual_scenes>
図1に戻って、画像合成切り替え部170は、入力選択部171と、キープロセッサ(画像加工部)176と、ミキサ177を有している。入力選択部171は、入力された複数の画像データを選択して複数の出力チャネルに接続する。すなわち、入力選択部171は、外部からの複数の画像データが入力される9本の入力ラインを、キーソースバス172a、キーフィルバス172b、背景Aバス172c、背景Bバス172dおよび予備入力バス174に選択的に接続する。入力選択部171のキーソースバス172a、キーフィルバス172bの部分は、スーパーインポーズ画像データ選択手段を構成している。
なお、予備入力バス174は、他のバスと同じ機能を有するが、合成切り替え操作入力部195から直接入力選択を指定することができない。この予備入力バス174は、操作者に直接存在を見せない、内部用途のバスである。この実施の形態において、CG画像に文字列等のスーパーインポーズ画像をスーパーインポーズするCG出力モードでは、予備入力バス174には、入力ライン「9」が接続される。
9本の入力ラインは図で一方向に配列されている。「1」〜「8」の入力ラインのそれぞれにはVTR、ビデオカメラ等から画像データが入力される。「9」の入力ラインには、画像生成手段140から出力されるCG画像データが入力される。キーソースバス172a、キーフィルバス172b、背景Aバス172c、背景Bバス172dおよび予備入力バス174は、入力ラインと交差して他方向に配列されている。
クロスポイントスイッチ群173aは、9本の入力ラインとキーソースバス172aとが交差する各クロスポイントでそれぞれの接続を行う。クロスポイントスイッチ群173bは、9本の入力ラインとキーフィルバス172bとが交差する各クロスポイントでそれぞれの接続を行う。キーソースバス172aに取り出されたキーソース信号はキープロセッサ176に送られる。また、キーフィルバス172bに取り出されたキーソース信号はキープロセッサ176に送られる。キーフィル信号は、背景画像に前景として重ねる信号であり、キーソース信号は、キーフィル信号を重ねる領域、背景画像を切り抜く形状、背景画像に対するキーフィル信号の濃度などを指定する信号である。
クロスポイントスイッチ群173cは、9本の入力ラインと背景Aバス172cとが交差する各クロスポイントでそれぞれの接続を行う。クロスポイントスイッチ群173dは、9本の入力ラインと背景Bバス172dとが交差する各クロスポイントでそれぞれの接続を行う。そして、クロスポイントスイッチ群175は、9本の入力ラインと予備入力バス174とが交差する各クロスポイントでそれぞれの接続を行う。背景Aバス172cに取り出された背景Aデータおよび背景Bバス172dに取り出された背景Bデータは、ミキサ177に送られる。また、予備入力バス174に取り出されたCG画像データは、ミキサ177に送られる。
キープロセッサ176は、キーソース信号およびキーフィル信号を、キーイングを行うための各種のパラメータであるキー調整値に基づき、キーイングに適するように調整、加工する。ここで、キー調整値は、例えば、背景画像に対するキーフィル信号の濃度を調整する値、キーソース信号として判別すべき画像の信号レベルの閾値を調整する値、背景画像の境界線に関する調整値などである。キープロセッサ176によって調整、加工されたキーフィル信号およびキーソース信号は、ミキサ177に送られる。
ミキサ177は、キープロセッサ176からのキーフィル信号およびキーソース信号を用いて、キーイングによって背景画像、あるいはCG画像に、前景画像をスーパーインポーズする。このミキサ177で得られた画像データは、出力ライン178を通じて外部に出力される。ミキサ177および上述のキープロセッサ176は、スーパーインポーズ手段を構成している。
補助出力部160は、補助出力の選択を行う。補助出力部160は、外部からの複数の画像データが入力される9本の入力ラインを、補助出力選択バス161に選択的に接続する。クロスポイントスイッチ群162は、9本の入力ラインと補助出力選択バス161とが交差する各クロスポイントでそれぞれの接続を行う。この補助出力選択バス161に取り出された画像データは、テクスチャマッピング画像データT1として、画像マッピング手段150に送られる。この補助出力部160は、テクスチャマッピング画像データ選択手段を構成している。
合成切り替え制御部190は、合成切り換え操作入力部195からの制御信号に基づいて、ミキサ177、入力選択部171および補助出力部160の処理動作を制御する。操作入力部195からの制御信号には、例えば、ミキサ177における処理パターンを指定するパターン指定情報、各クロスポイントスイッチ群における入力画像の選択切り換え動作について指示する選択指示情報などがある。
また、合成切り替え制御部190は、CGモード切り替え手段191を備えている。このCGモード切り替え手段191は、合成切り換え操作入力部195からの制御信号に基づいて、CG出力モードおよび全画面出力モードを切り替える。ここで、CG出力モードは、画像マッピング手段150でテクスチャマッピング画像がテクスチャマッピングされたCG画像を使用するモードである。また、全画面出力モードは、CG画像とは異なる他の画像を使用するモードである。
合成切り替え操作入力部195は、ミキサ177における処理パターン、進行比率キーイング合成動作、並びに入力選択部171および補助出力部160における入力画像の選択動作等を指示するためのスイッチ類を具備する。合成切り替え操作入力部195は、操作者の操作入力に応じて、ミキサ177、入力選択部171および補助出力部160の処理動作を制御するための制御信号を生成して合成切り換え制御部190に送出する。
例えば、テンキーやボタンスイッチ等により、ミキサ177における処理パターンの番号の指定が行われる。また、例えば、テンキーやボタンスイッチ等により、入力選択部171、補助出力部160において各バスに接続させる入力ラインの番号の指定が行われる。また、例えば、フェーダスイッチの移動によりミキサ177における進行比率の指定が行われる。また、例えば、スイッチ類の操作により、ミキサ177における処理パターンの内容を設定することが行われる。
この合成切り替え操作入力部195は、ボタンスイッチ等からなるオン操作手段196を備えている。このオン操作手段196は、上述のCG出力モードにおいて、背景画像であるCG画像に、ミキサ177によって、前景画像であるスーパーインポーズ画像をスーパーインポーズ(重畳)することを、操作者がオンまたはオフにするために使用される。
図3は、合成切り換え操作入力部195を構成するコントロールパネルの外観の一例を示している。
コントロールパネルには、大別して、ボタン配置部21と、進行状態操作部24とが設けられている。ボタン配置部21には、キーソースバス、キーフィルバスに取り出す画像信号を選択するキー選択部21aと、背景Aバスに取り出す画像信号を選択する背景A選択部21bと、背景Bバスに取り出す画像信号を選択する背景B選択部21cとが設けられている。また、ボタン配置部21には、補助出力選択バス161に取り出す画像信号を選択する補助出力選択部21dが設けられている。
コントロールパネルには、大別して、ボタン配置部21と、進行状態操作部24とが設けられている。ボタン配置部21には、キーソースバス、キーフィルバスに取り出す画像信号を選択するキー選択部21aと、背景Aバスに取り出す画像信号を選択する背景A選択部21bと、背景Bバスに取り出す画像信号を選択する背景B選択部21cとが設けられている。また、ボタン配置部21には、補助出力選択バス161に取り出す画像信号を選択する補助出力選択部21dが設けられている。
各選択部は、9本の入力ラインのそれぞれと各バスとの接続を選択する択一式のボタンスイッチにより構成されており、選択されたボタンスイッチは点灯する。例えば、図3の例では、キー選択部21aで入力ライン「8」が選択され、背景A選択部21bで入力ライン「3」が選択され、背景B選択部21cで入力ライン「5」が選択され、補助出力選択部21dで入力ライン「5」が選択されている。また、各ボタンスイッチの上方に設けられた文字表示部21eには、各入力ラインへの入力画像を識別するための名称が表示される。
なお、キー選択部21aでは、1つのボタンスイッチの押下によりキーソースバス、キーフィルバスの両方の接続が切り換えられる。このときに各バスに対して入力ラインの同じラインが選択されるか、あるいは異なるラインが選択されるかは、予め設定されるものとする。例えば、ボタンスイッチ「1」が選択されるとき、キーソースバスに対しては入力ライン「1」が接続され、キーフィルバスに対しては隣の入力ライン「2」が接続される、というような設定が行われる。
進行状態操作部24には、フェーダレバー24aが設けられている。このフェーダレバー24aをスライド範囲の一端から他端までスライドさせることにより、ミキサ177での処理の進行状態を変化させることが可能となる。また、進行状態操作部24の上部には、フェーダレバー24aの操作によって遷移させる対象をキー信号とするか、あるいは背景画像信号とするかについてボタンスイッチにより選択する遷移対象選択部24bが設けられている。また、進行状態操作部24の上部には、遷移の方向をボタンスイッチにより設定する方向設定部24cがさらに設けられている。
画像生成手段140は、CG制作手段110で制作されたCG記述データに基づいて、三次元空間画像であるCG画像を生成する。この画像生成手段140は、時間をかけたレンダリング処理ではなく、アニメーションフレームの実時間で画像を生成する。画像生成手段140は、CG記述データを読み込むと、各定義などの情報をメモリ上に保持し、それらの対応付けもデータ構造として保持する。
また、画像生成手段140は、アニメーションを実行するためのキーフレームにおける各種値もメモリ上に保持する。例えば、あるノードの幾何学情報にあるポリゴン集合を描画するには、その幾何学情報と、対応付けられているマテリアル定義を参照して、その色などの指定に従って描画する。アニメーションの場合は、現在時刻を毎フレーム進行させ、現在時刻から、前後のキーフレームにおける各値を補間して各値を決定し、描画を行う。
この画像生成手段140には、表面指定手段120から、入力画像をテクスチャマッピングする対象であるCGのオブジェクトまたはオブジェクトの部分(面あるいはポリゴンメッシュの分割単位等)の指定情報が送られてくる。画像生成手段140は、その指定情報が示す所定のポリゴン(ポリゴン集合)の表面に、入力画像をテクスチャマッピングするように、画像マッピング手段150を制御する。
画像マッピング手段150は、画像生成手段140が描画するCGのうち、表面指定手段120で指定されるテクスチャマッピング対象の表面に、入力画像をテクスチャマッピングする。この画像マッピング手段150は、実装上は、上述の画像生成手段140と一体化されている。この画像マッピング手段150は、CPU(Central Processing Unit)上のソフトウェアによる制御と、GPU(GraphicsProcessing Unit)等のハードウェアによる動作によって実現される。制御ソフトウェアは、テクスチャマッピングするポリゴン集合を指定してハードウェアに指示する。
[画像生成手段および画像マッピング手段の構成例]
図4は、画像生成手段140および画像マッピング手段150の具体的な構成例を示している。画像生成手段140および画像マッピング手段150は、画像入出力部141と、GPU142と、ローカルメモリ143と、CPU144と、メインメモリ145を有している。また、画像生成手段140および画像マッピング手段150は、周辺デバイス制御部146と、ハードディスクドライブ(HDD)147と、イーサネット回路148aと、ネットワーク端子148bを有している。また、画像生成手段140および画像マッピング手段150は、USB(Universal Serial Bus)端子149と、SDRAM(SynchronousDRAM)151を有している。なお、「イーサネット」は登録商標である。
図4は、画像生成手段140および画像マッピング手段150の具体的な構成例を示している。画像生成手段140および画像マッピング手段150は、画像入出力部141と、GPU142と、ローカルメモリ143と、CPU144と、メインメモリ145を有している。また、画像生成手段140および画像マッピング手段150は、周辺デバイス制御部146と、ハードディスクドライブ(HDD)147と、イーサネット回路148aと、ネットワーク端子148bを有している。また、画像生成手段140および画像マッピング手段150は、USB(Universal Serial Bus)端子149と、SDRAM(SynchronousDRAM)151を有している。なお、「イーサネット」は登録商標である。
画像入出力部141は、テクスチャマッピングをするための画像データを入力し、また、画像データによる画像が適宜テクスチャマッピングされたCG画像の画像データを出力する。この画像入出力部141は、最大で4系統の画像データを入力でき、また、最大で4系統の画像データを出力できる。なお、ここで取り扱われる画像データは、例えば、SMPTE292Mで規定されているHD-SDI(High Definition television-SerialDigital Interface)規格の画像データである。GPU142およびメインメモリ145は、同等に、画像入出力部141にアクセス可能とされている。
メインメモリ145は、CPU144のワークエリアとして機能すると共に、画像入出力部141から入力される画像データを一時的に記憶する。CPU144は、画像生成手段140および画像マッピング手段150の全体を制御する。このCPU144には、周辺デバイス制御部146が接続されている。この周辺デバイス制御部146は、CPU144と周辺デバイスとの間のインタフェース処理を行う。
CPU144には、周辺デバイス制御部146を介して、内蔵のハードディスクドライブ147が接続されている。また、CPU144には、周辺デバイス制御部146、イーサネット回路148aを介して、ネットワーク端子148bが接続されている。また、CPU144には、周辺デバイス制御部146を介して、USB端子149が接続されている。さらに、CPU144には、周辺デバイス制御部146を介して、SDRAM151が接続されている。
CPU144は、テクスチャ座標の制御を行う。すなわち、このCPU144は、入力画像データに対して、それによる画像をGPU142が描画するポリゴンの表面にテクスチャマッピングをするための処理を行う。GPU142は、ハードディスクドライブ147等に保持されているCG記述データに基づいてCG画像を生成し、また、必要に応じて、指定されたテクスチャマッピング対象の表面に、入力画像をテクスチャマッピングする。ローカルメモリ143は、GPU142のワークエリアとして機能すると共に、GPU142で作成されたCG画像の画像データを一時的に記憶する。
CPU144は、メインメモリ145にアクセスできる他、ローカルメモリ143にもアクセス可能とされている。同様に、GPU142は、ローカルメモリ143にアクセスできると共に、メインメモリ145にもアクセス可能とされている。GPU142により生成されてローカルメモリ143に一次的に記憶されたCG画像データは、このローカルメモリ143から順次読み出され、画像入出力部141から出力される。
図5は、上述した画像生成手段140および画像マッピング手段150の機能ブロックの構成例を示している。この画像生成手段140および画像マッピング手段150は、画像入力部152、テクスチャ画像記憶部153、CG制御部154、CG描画部155、テクスチャ座標制御部156、フレームバッファ157および画像出力部158の機能ブロックを有している。
画像入力部152および画像出力部158は、画像入出力部141により構成されている。また、テクスチャ画像記憶部153は、メインメモリ145により構成されている。また、CG制御部154およびテクスチャ座標制御部156は、CPU144により構成されている。また、CG描画部155は、GPU142により構成されている。また、フレームバッファ157は、ローカルメモリ143により構成されている。
画像入力部152とテクスチャ画像記憶部153は対で、これらを増やすことで、画像入力の系統を増やすことができる。また、フレームバッファ157と画像出力部158は対で、これらを増やすことで、画像出力の系統を増やすことができる。
図6は、テクスチャマッピングを行う際のテクスチャ画像とUVマップの一例を示している。図6(a)はテクスチャ画像を示し、図6(b)はUVマップを示している。ここで、UVマップは、あるオブジェクト(ノード)の表面を紙面と考えたときに、その紙面上での座標で表された地図を意味している。この地図を平面に拡げたときに、その平面上での点(x,y)がオブジェクトの表面の点(u,v)に対応している。そのため、テクスチャ画像をUVマップに貼り付ける処理を行うことで、オブジェクトの表面にテクスチャ画像を貼り付けるテクスチャマッピングが可能となる。なお、図6(b)はUVマップに、テクスチャ画像が貼り付けられた状態を示している。
図1に戻って、表面指定手段120は、上述したように、入力画像をテクスチャマッピングするテクスチャマッピング対象を指定する。そして、表面指定手段120は、ネットワーク130を介して、その指定情報を画像生成手段140に送る。この表面指定手段120は、例えば、GUI(Graphical User Interface)で実現される。
表面指定手段120は、CG記述データ中のオブジェクトまたはオブジェクトの部分に付与されている属性の値(名称)を選択肢として表示し、操作者に選択させることで、テクスチャマッピング対象であるオブジェクトまたはオブジェクトの部分を選択させる。表面指定手段120は、CG記述データ中のテクスチャマッピング対象に付与された属性の値を、テクスチャマッピング対象の指定情報として画像生成手段140に送る。
この実施の形態においてCG記述データ中において、テクスチャマッピング対象には、マテリアル定義が対応付けられることでマテリアル定義が持つ表面情報等の属性が付与されている。例えば、マテリアル定義をCGオブジェクトに対応付けた場合、CGオブジェクトの全ての面が同じ表面属性(色など)となる。例えば石や、スプーンの様な金属製品の場合、このような対応付けでCGを作成できる。
一方、面毎に表面属性が異なる物は多く、例えば鉛筆でも、周囲、芯、削った木目など、それぞれ異なる表面属性となる。このような物をCGで作成する場合、それぞれを異なるCGオブジェクトとして作成して組み合わせることもできる。しかし、この場合、図7に示すように、一つのCGオブジェクトであって、面(ポリゴンの部分集合)毎に異なる属性を付与して作成するのも作業がしやすい。
一般には、CGオブジェクトの作成作業では、表面を成すポリゴン集合を、幾つかに分割し、それぞれにマテリアル定義を対応付けて、テクスチャマッピングのためのUV座標値を対象ポリゴンの頂点毎に決める様な操作が行われる。これらの操作に対応する様なCG記述データが作成される。このようなCG記述データに本発明を適用することで、CGオブジェクトの表面の一部に入力画像をテクスチャマッピングできる。
位置送信手段180は、画像生成手段140からネットワーク130を介して送られてくるテクスチャマッピング対象の位置情報を、上述の画像合成切り替え部170のキープロセッサ176に送る。キープロセッサ176は、背景画像であるCG画像データに、スーパーインポーズされる文字列等のスーパーインポーズ画像が、テクスチャマッピング対象に対応した位置にスーパーインポーズされるように、キーフィル信号、キーソース信号を調整する。アニメーションの進行によりテクスチャマッピング対象が移動する場合、画像生成手段140から移動が発生したフレーム(通常毎フレームあるいは毎フィールド)ごとに、位置情報が位置送信手段180に送られ、キープロセッサ176に送られる。
[位置情報の説明]
位置情報についてさらに説明する。図8は、位置情報の意味と、この発明の動作例を示している。
図8(a)は、画面上の位置座表を説明する図である。横方向xと縦方向yは、共に、画面の大きさを−100から+100で占める値としている。相対的な座標となるので、xとyでは同じ座標の差であっても、実際の画面上の長さは異なる。図8(b)は、前景画像(スーパーインポーズするスーパーインポーズ画像)の例である。
位置情報についてさらに説明する。図8は、位置情報の意味と、この発明の動作例を示している。
図8(a)は、画面上の位置座表を説明する図である。横方向xと縦方向yは、共に、画面の大きさを−100から+100で占める値としている。相対的な座標となるので、xとyでは同じ座標の差であっても、実際の画面上の長さは異なる。図8(b)は、前景画像(スーパーインポーズするスーパーインポーズ画像)の例である。
図8(c)は、図8(b)に示す前景画像を、位置情報(50,20)によってスーパーインポーズ(重畳)した結果を示す図である。ただし、スーパーインポーズ(重畳)した画像の破線の枠は、実際には描画されない。説明の都合上破線で枠を示している。背景画にある直方体は、CG生成画の例である。
図8(d)は、図8(b)に示す前景画像を、位置情報(50,20)によってスーパーインポーズした結果を示す図である。この例では、前景画像を、50%に縮小してから移動してスーパーインポーズしている。このような縮小処理は、位置情報とは関係なく、合成切り換え操作入力部195などから別途設定され、合成切り替え制御部190によりキープロセッサ176が制御されて実行される。
画像生成手段140における位置情報の算出例について説明する。
この実施の形態において、テクスチャマッピングの対象面として、属性値が一致するCGオブジェクトの面が特定される。位置送信手段180は、キープロセッサ176に、位置情報として、この面の座標値を送信する。座標値の算出は、一例として次のように行う。
この実施の形態において、テクスチャマッピングの対象面として、属性値が一致するCGオブジェクトの面が特定される。位置送信手段180は、キープロセッサ176に、位置情報として、この面の座標値を送信する。座標値の算出は、一例として次のように行う。
対象面は、一般には、上述の図8(c),(d)に示すような単純な矩形ではなく、より複雑なポリゴンの集合で形成される仮想空間の立体であり、それを構成する各頂点が画面上にそれぞれ投影されて、ある座標に表示される。頂点の集合として、多数の座標値が存在するが、それらのx、yそれぞれの最大値と最小値により、図9に示すように、いわゆるバウンディング・ボックスが得られる。画像生成手段140は、このバウンディング・ボックスの中心(最大値と最小値の真ん中の座標値)を、位置情報として求める。
位置情報の算出方法の他の例を説明する。対象面のポリゴン集合の各頂点には、テクスチャマッピングを行う際のテクスチャ座標が付与されている。テクスチャ座標は、図10に示すように、UV座標などとも呼ばれ、x座標に相当するU、y座標に相当するVともに、0から1までの範囲の値である。(U,V)座標値が(0.5,0.5)となる位置に、テクスチャマッピングする画像の丁度中央が描画されることになる。画像生成手段140は、UVが丁度(0.5,0.5)となる頂点に相当する座標値を、位置情報として算出する。なお、UVが丁度(0.5,0.5)となる点がない場合は、頂点間を線形補間して、(0.5,0.5)に相当する座標値を求める。
上述の図10では、テクスチャ座標値が(0,1)の頂点と(1,0)の頂点とを結ぶ線分の中央が、テクスチャ座標値が(0.5,0.5)となる点である。図11の場合は、テクスチャ座標値が(0,1)の頂点と(0.8,0)の頂点とを結ぶ線分の中央が、(0.4,0.5)であり、そこからU方向に0.1(0.8までの1/4)だけ移動した位置が、テクスチャ座標値が(0.5,0.5)となる点である。なお、UV座標値が(0.5,0.5)となるポリゴン中の位置は、一箇所とは限らない。このためこの方式では、そうなる複数の位置がある場合は、その内の一つが位置情報として扱われる結果になる。
上述の各例のようにして算出される位置情報に対し、一定値を加算してスーパーインポーズに使う構成としてもよい。例えば、一定値だけ画面上で下方向あるいは上方向にずらした位置を重畳位置とすることができる。あるいは第一の例において、バウンディング・ボックスの高さ(y方向の長さ)に固定値を乗じた値(例えば半分)を位置情報のyに加算しても良い。x方向や斜め方向についても同様である。
また、位置情報の示す値が画面の範囲(−100から+100)から外れる場合、あるいは例えば−80から+80の範囲から外れる場合に、その中に納めるように補正する(100を超える場合は100とする、など)ようにしてもよい。スーパーインポーズに使うことが目的であるので、画面上に適切にスーパーインポーズされるように、これらの簡単な補正(変換)を施す場合も、画像生成手段140から位置情報を得る利点は変わらない。
[画像処理装置の動作例]
図1に示す画像処理装置100の動作例を説明する。
CG制作手段110では、CG制作ソフトウェアにより、所定のCG画像を生成するためのCG記述データが生成される。このようにCG制作手段110で生成されたCG記述データは、ネットワーク130を介して、画像生成手段140および表面指定手段120に送られる。
図1に示す画像処理装置100の動作例を説明する。
CG制作手段110では、CG制作ソフトウェアにより、所定のCG画像を生成するためのCG記述データが生成される。このようにCG制作手段110で生成されたCG記述データは、ネットワーク130を介して、画像生成手段140および表面指定手段120に送られる。
表面指定手段(GUI)120では、CG記述データ中のオブジェクトまたはオブジェクトに付与されている属性の値(名称)が選択肢とされ、操作者の操作により、入力画像をテクスチャマッピングするテクスチャマッピング対象が指定される。この指定情報(属性の値)は、表面指定手段120から画像生成手段140に送られる。
ここで、CG出力モードにあり、CG画像への前景画像のスーパーインポーズがオンに設定されている場合について説明する。
画像生成手段140では、CG制作手段110で制作されたCG記述データに基づいて、三次元空間画像であるCG画像が生成される。また、上述したように、この画像生成手段140には、テクスチャマッピング対象であるオブジェクトまたはオブジェクトの部分の指定情報が、表面指定手段120から送られてきている。この画像生成手段140により、テクスチャマッピング対象の表面に、補助出力部160から供給される入力画像(画像データT1による画像)をテクスチャマッピングするように、画像マッピング手段150が制御される。
画像マッピング手段150では、画像生成手段140の制御により、テクスチャマッピング対象の表面に、補助出力部160で得られる画像データT1による画像がテクスチャマッピングされる。そして、画像生成手段140から導出された出力端子140aには、テクスチャマッピング対象の表面に画像データT1による画像がテクスチャマッピングされたCG画像の画像データVoutが出力される。
この画像データVoutは、入力ライン「9」に入力される。上述したように、画像合成切り替え部170の入力選択部171の予備入力バス174は、クロスポイントスイッチ群175により、入力ライン「9」に接続されている。そのため、この予備入力バス174には上述のCG画像の画像データVoutが取り出され、この画像データVoutはミキサ177に背景データとして送られる。
また、画像生成手段140では、テクスチャマッピング対象の位置情報が求められ、その位置情報は、位置送信手段180から画像合成切り替え部170のキープロセッサ176に送られる。このキープロセッサ176では、位置情報に基づいて、CG画像にスーパーインポーズされる文字列等のスーパーインポーズ画像の移動調整が行われる。すなわち、スーパーインポーズ画像が、テクスチャマッピング対象に対応した位置にスーパーインポーズされるように、キーフィル信号、キーソース信号が調整される。
このようにキープロセッサ176で調整されたキーフィル信号、キーソース信号は、ミキサ177に送られる。ミキサ177では、CG画像の画像データVout、およびキーフィル信号、キーソース信号が使用されて、背景画像としてのCG画像に、文字列等のスーパーインポーズ画像がスーパーインポーズされる。この場合、スーパーインポーズ画像は、CG画像のテクスチャマッピング対象に対応した位置にスーパーインポーズされる。
なお、操作者の合成切り替え操作入力部195からの操作により、他の背景Aバス172c、背景Bバス172dに取り出された画像データも、必要に応じて、ミキサ177における合成処理に使用される。このミキサ177で得られた画像データは、最終出力として、出力ライン178を通じて外部に出力される。
次に、全画面モードにある場合について説明する。この場合、ミキサ177では、予備入力バス174から送られてくる画像データ、つまり、画像生成手段140から出力されたCG画像データは使用されない。また、キープロセッサ176では、位置送信手段180から送られてくる位置情報が使用されない。つまり、キープロセッサ176では、スーパーインポーズ画像の移動調整が行われない。あるいは、キープロセッサ176では、合成切り換え操作入力部195等から指示された別の移動指示に従って、スーパーインポーズ画像の移動調整が行われる。
ミキサ177では、背景Aデータ、背景Bデータ、およびキーフィル信号、キーソース信号が使用されて、背景画像に、文字列等のスーパーインポーズ画像がスーパーインポーズされる。このミキサ177で得られた画像データは、最終出力として、出力ライン178を通じて外部に出力される。
全画面モードの別の動作例を説明する。全画面モードにある場合、ミキサ177は、上述の動作例とは異なり、予備入力バス174から送られてくる画像データの使用が可能とされる。ただし、予備入力バス174に接続される入力ラインは、画像生成手段140からCG画像データが入力される入力ライン「9」ではなく、操作者の操作に応じて他の入力ラインとされる。この場合も、画像生成手段140から出力されたCG画像データは使用されない。
上述したように、CG出力モードおよび全画面モードのいずれのモードでも、同じ前景画像がスーパーインポーズされる。しかし、その位置をテクスチャマッピング対象に対応した位置に合わせるかどうかが、CGモード切り替え手段191の操作のみにより判断され、CG画像が使われるかどうかと自動的に連動し、操作性が向上する。
図1に示す画像処理装置100においては、テクスチャマッピング対象の表面に、テクスチャマッピング画像がテクスチャマッピングされる。また、テクスチャマッピング画像がテクスチャマッピングされたCG画像に、テクスチャマッピング対象の位置情報に基づき、そのテクスチャマッピング対象に対応した位置に、文字列などのスーパーインポーズ画像がスーパーインポーズされる。したがって、この画像処理装置100においては、テクスチャマッピングされる画像に応じた文字列等を、この画像に対応した位置に見易く挿入できる。
図12は、テクチャマッピング画像がテクスチャマッピングされたCG画像に文字列のスーパーインポーズ画像がスーパーインポーズされた例を示している。図12(a)は、テクスチャマッピング面が回転している場合を示しているが、文字列はテクチャマッピング画像に対応した位置に正立した状態で挿入される。また、図12(b)は、テクスチャマッピング面が縮小されている場合を示しているが、文字列はテクチャマッピング画像に対応した位置に縮小されることなく正立した状態で挿入される。
また、図1に示す画像処理装置100においては、補助出力部160により、9本の入力ラインに入力される画像データのいずれかが選択的に取り出された画像データが、テクスチャマッピング画像データT1として画像マッピング手段150に供給される。そのため、操作者は、合成切り替え操作入力部195による操作によって、補助出力部160で取り出される画像データを変化させることで、テクスチャマッピング画像を任意のタイミングで所望の画像に変更できる。
また、図1に示す画像処理装置100においては、画像合成切り替え部170の入力選択部171により、9本の入力ラインに入力される画像データのいずれかが選択的に取り出されてスーパーインポーズ画像データ(キーフィル信号、キーソース信号)とされる。そのため、操作者は、合成切り換え操作入力部195による操作によって、入力選択部171で取り出される画像データを変化させることで、スーパーインポーズ画像を任意のタイミングで所望の画像に変更できる。
CG出力モードと全画面モードを切り替えた際の動作に関し、上述のようにCG出力モードの場合のみ位置情報を使うことに加えて、別途設定した縮小値に従い、縮小処理を行ってもよい。すなわち、CG出力モードの場合は、スーパーインポーズする前景画像を設定値で縮小してから、位置情報に従い移動してスーパーインポーズする。
<2.第2の実施の形態>
[画像処理装置の構成]
この発明の第2の実施の形態を説明する。図13は、第2の実施の形態としての画像処理装置100Aの構成例を示している。この図13において、図1と対応する部分には同一符号を付し、適宜、その説明を省略する。
[画像処理装置の構成]
この発明の第2の実施の形態を説明する。図13は、第2の実施の形態としての画像処理装置100Aの構成例を示している。この図13において、図1と対応する部分には同一符号を付し、適宜、その説明を省略する。
この画像処理装置100Aは、CG制作手段110と、表面指定手段120Aと、ネットワーク130と、画像生成手段140Aと、画像マッピング手段150Aを有している。また、この画像処理装置100Aは、マトリクススイッチ210と、画像選択操作手段230と、スーパーインポーズ手段240を有している。CG制作手段110、表面指定手段120A、画像生成手段140Aおよび画像選択操作手段230は、それぞれネットワーク130に接続されている。
CG制作手段110は、CG制作ソフトウェアを持つパーソナルコンピュータ(PC:Personal Computer)により構成されている。このCG制作手段110は、所定のフォーマットのCG記述データを出力する。このCG制作手段110は、上述の図1に示す画像処理装置100のCG制作手段110と同様のものである。
マトリクススイッチ210は、複数の入力画像データから画像データを選択的に取り出す画像選択手段を構成している。このマトリクススイッチ210は、9本の入力ラインと、8本の出力バスライン211〜218と、クロスポイントスイッチ群221〜228を有している。出力バスライン211〜214は、画像マッピング手段150Aにテクスチャマッピング画像データT1〜T4を供給するためのバスラインである。また、出力バスライン215〜218は、スーパーインポーズ手段240にスーパーインポーズ画像データS1〜S4を供給するためのバスラインである。
9本の入力ラインは図で一方向に配列されている。「1」〜「9」の入力ラインのそれぞれにはVTR、ビデオカメラ等から画像データが入力される。8本の出力バスライン211〜218は、入力ラインと交差して他方向に配列されている。クロスポイントスイッチ群221〜224は、9本の入力ラインと出力バスライン211〜214とが交差する各クロスポイントでそれぞれの接続を行う。ユーザの画像選択操作に基づいて、このクロスポイントスイッチ群221〜224の接続が制御され、9本の入力ラインに入力された画像データのいずれかが出力バスライン211〜214に選択的に出力される。この出力バスライン211〜214は、テクスチャマッピング画像データ(マッピング入力)T1〜T4の出力ラインを構成する。
また、クロスポイントスイッチ群225〜228は、9本の入力ラインと出力バスライン215〜218とが交差する各クロスポイントでそれぞれの接続を行う。ユーザの画像選択操作に基づいて、このクロスポイントスイッチ群225〜228の接続が制御され、9本の入力ラインに入力された画像データのいずれかが出力バスライン215〜218に選択的に出力される。この出力バスライン215〜218は、スーパーインポーズ画像データS1〜S4の出力ラインを構成する。なお、クロスポイントスイッチ群221〜228の各クロスポイントスイッチのオンオフ動作は、フレームデータの連続からなる画像データを切り替えるものであることから、フレームの切れ目である垂直ブランキング区間内に行われる。
画像選択操作手段230は、上述のマトリクススイッチ210への指示の操作入力を受ける。この画像選択操作手段230は、マトリクススイッチ210Aの各クロスポイントスイッチ群のスイッチのオンオフを操作する押しボタン列を備えるコントロールパネル260を備えている。
図14は、コントロールパネル260の一例の外観を示している。このコントロールパネル260は、左右方向に延びる2本の押しボタン列271,272が上下方向に並ぶように設けられている。押しボタン列272は、マトリクススイッチ160Aの各クロスポイントスイッチ群のスイッチのオンオフを操作するために用いられる。この押しボタン列272は、入力ラインのそれぞれと対応する出力バスラインとの接続を選択する択一式の押しボタンにより構成されており、選択された押しボタンは点灯する。
コントロールパネル260には、押しボタン列272に対応して文字表示部273が設けられている。この文字表示部273は、各入力ラインへの入力画像を識別するための文字を表示する。この文字表示部273は、例えば、LCD(Liquid Crystal Display)等の表示素子により構成される。
押しボタン列271は、指定ボタン列であって、押しボタン列272を、どの出力バスラインの画像データの選択操作に使用するかを指定するために用いられる。この押しボタン列271は、択一式の押しボタンにより構成されており、選択された押しボタンは点灯する。コントロールパネル260には、押しボタン列271に対応して文字表示部274が設けられている。この文字表示部274は、押しボタン列271の各押しボタンが、どの出力バスラインの画像データの選択操作に使用されるかを示す文字を表示する。この文字表示部274は、例えば、LCD等の表示素子により構成される。
押しボタン列271の各押しボタンを、どの出力バスラインの画像データの選択操作に使用するかは、例えば、GUI(Graphical User Interface)で実現される。図15(a)は、押しボタン列(指定ボタン列)271のアサイン時に表示されるGUI表示例を示している。このGUI表示においては、押しボタン列271の8個の押しボタンが「1」〜「8」で表されている。操作者は、この「1」〜「8」に対応した「Selectボタン」を操作して、出力バスラインの選択肢を表示し、その選択肢の中から所望の出力バスラインを選択することで、それぞれの押しボタンに所望の出力バスラインを割り当てることができる。
図15(b)は、この出力バスラインのセレクト時に表示されるCUI表示例をも示している。このGUI表示には、スーパーインポーズ画像データS1〜S4の出力ラインを構成する出力バスライン215〜218が、「S1」〜「S4」で選択肢として表示されている。また、このGUI表示には、テクスチャマッピング画像データ(マッピング入力)T1〜T4の出力ラインを構成する出力バスライン211〜214に押しボタンを割り当てるために、所定の属性の値(名称)が選択肢として表示されている。属性としては、操作者の操作により、例えばマテリアル定義、マテリアル定義が持つ表面情報等から任意の属性が設定される。ここで、操作者は、テクスチャマッピング対象(オブジェクトまたはオブジェクトの部分)の指定を行うための属性を設定する。あるいは、あらかじめシステムにおいて一つの属性に設定されていてもよい。
画像選択操作手段230は、設定された属性の値(名称)をCG制作手段110で生成されたCG記述データ中から抽出し、GUI表示に選択肢として表示する。図15(b)のGUI表示例においては、属性としてマテリアル定義が設定された場合を示しており、マテリアル定義の名称が選択肢として表示されている。このGUI表示例において、「Metal-1」、「Metal-2」、「Material-Def1」、「Material-Def2」、「Material-Def3」はマテリアル定義の名称である。
図15(a)のGUI表示例では、「1」〜「4」に対して「S1」〜「S4」が選択されている。また、「5」,「6」に対して「Metal-1」、「Material-Def3」が選択されている。なお、「7」,「8」に対しては何も選択されていない。
上述したようにマトリクススイッチ210は8本の出力バスラインを有しており、それぞれの出力バスラインはバス番号「1」〜「8」で特定される。また、上述したように、マトリクススイッチ210の1番から4番までの出力バスラインは、画像マッピング手段150Aにマッピング入力(テクスチャマッピング画像データ)T1〜T4を入力する。画像選択操作手段230、あるいはその周辺のマイコンは、この結線状態を記憶した、図16に示すような、マッピング入力対応テーブルを持っている。このマッピング入力対応テーブルは、結線に対応する設定として記憶され、結線の変更がない限り変わることはない。
図15(a)の「5」,「6」の場合のように、ある押しボタンに対して所定の属性の値(名称)が選択された場合、画像選択操作手段230は、その押しボタンを、バス番号1〜4のうち、未だ割り当てられていない出力バスラインに割り当てる。この場合、この出力バスラインは、選択された所定の属性の値(名称)が付与されたオブジェクトまたはオブジェクトの部分の表面にテクスチャマッピングする画像の画像データを出力するための出力バスラインとなる。そして、画像選択操作手段230は、選択された所定の属性の値(名称)の情報と、割り当て対象の出力バスラインによるマッピング入力がマッピング入力T1〜T4のいずれであるかの情報を、ネットワーク130を介して、表面指定手段120Aに送る。
図15(a)に示すように、「5」に対して「Metal-1」が選択され、その後、「6」に対して「Material-Def3」が選択される場合を例にとってさらに説明する。
まず、「5」に対して「Metal-1」が選択されるとき、画像選択操作手段230は、「5」の押しボタンを出力バスライン211に割り当てる。出力バスライン211は、マテリアル定義「Metal-1」に対応付けられたオブジェクトまたはオブジェクトの部分がテクスチャマッピング対象とされ、その表面にテクスチャマッピングする画像の画像データを出力するための出力バスラインとなる。そして、画像選択操作手段230は、マテリアル定義「Metal-1」およびマッピング入力T1の情報を、ネットワーク130を介して、表面指定手段120Aに送る。
まず、「5」に対して「Metal-1」が選択されるとき、画像選択操作手段230は、「5」の押しボタンを出力バスライン211に割り当てる。出力バスライン211は、マテリアル定義「Metal-1」に対応付けられたオブジェクトまたはオブジェクトの部分がテクスチャマッピング対象とされ、その表面にテクスチャマッピングする画像の画像データを出力するための出力バスラインとなる。そして、画像選択操作手段230は、マテリアル定義「Metal-1」およびマッピング入力T1の情報を、ネットワーク130を介して、表面指定手段120Aに送る。
次に、「6」に対して「Material-Def3」が選択されるとき、画像選択操作手段230は、「6」の押しボタンを出力バスライン212に割り当てる。出力バスライン212は、マテリアル定義「Material-Def3」に対応付けられたオブジェクトまたはオブジェクトの部分がテクスチャマッピング対象とされ、その表面にテクスチャマッピングする画像の画像データを出力するための出力バスラインとなる。そして、画像選択操作手段230は、マテリアル定義「Material-Def3」およびマッピング入力T2の情報を、ネットワーク130を介して、表面指定手段120Aに送る。
上述では、押しボタン列271のあるボタンに対して所定の属性の値(名称)を一つだけ選択し得るように説明した。しかし、あるボタンに対して、所定の属性の値(名称)を複数個選択することを許容する構成も考えられる。この場合、選択された複数の属性値に対応付けられたオブジェクトまたはオブジェクトの部分がテクスチャマッピング対象とされ、その表面に、あるボタンが割り当てられた出力バスラインの出力画像データによる画像がテクスチャマッピングされることになる。この場合、あるボタンに対応した文字表示部274には、複数の属性の値(名称)が表示されることになる。ただし、複数の属性の値(名称)の表示が困難であれば、一つ、あるいは可能なだけ表示することになる。
表面指定手段120Aは、上述したように、画像選択操作手段230から送られてくる、選択された属性の値(名称)とマッピング入力の対応情報に基づいて、属性の値(名称)とマッピング入力の対応関係を示す画像割り当てテーブルを作成する。そして、表面指定手段120Aは、この画像割り当てテーブルを、ネットワーク130を介して、画像生成手段140A内に設定する。
表面指定手段120Aは、このように画像割り当てテーブルを設定することで、マッピング入力T1〜T4を出力する出力バスライン毎に、そのマッピング入力による画像をテクスチャマッピングするテクスチャマッピング対象を指定する。この場合、マッピング入力による画像をテクスチャマッピングするテクスチャマッピング対象(オブジェクトまたはオブジェクトの部分)は、属性の値(名称)により指定される。
図17(a)は、画像割り当てテーブルの一例を示している。この例は、上述したように、画像選択操作手段230において、図15(a)に示すように、「5」に対して「Metal-1」が選択され、「6」に対して「Material-Def3」が選択された場合の例である。また、図17(b)は、画像割り当てテーブルの他の例を示している。この例は、上述したように、画像選択操作手段230において、「5」に対して「Metal-1」、「Material-Def1」が選択され、「6」に対して「Material-Def3」が選択された場合の例である。この画像割り当てテーブルにおいて、T1〜T4は、画像識別子を構成している。
図13の画像処理装置100Aでは、マトリクススイッチ210の出力バスライン211〜214から画像マッピング手段150Aに4系統の画像データT1〜T4が送られる。また、図13の画像処理装置100Aでは、マトリクススイッチ210の出力バスライン215〜218からスーパーインポーズ手段240に4系統の画像データS1〜S4が送られる。表面指定手段120Aは、テクスチャマッピング画像とスーパーインポーズ画像の対応関係を作成し、この対応関係を示す画像対応テーブルを、ネットワーク130を介して、画像生成手段140Aに設定する。表面指定手段120Aは、例えば、操作者に、テクスチャマッピング画像データT1〜T4のそれぞれに対応させるべきスーパーインポーズ画像データをスーパーインポーズ画像データS1〜S4の中から選択させて、対応関係を生成する。
図18は、画像対応テーブルの一例を示している。図18(a)は、画像データT1に画像データS1が対応付けられている。この対応付けでは、画像データT1による画像がそれに対応したテクスチャマッピング対象の表面にテクスチャマッピングされる場合、その画像に対応した位置に画像データS1による画像がスーパーインポーズされる。
図18(b)は、画像データT1に画像データS1,S2が対応付けられている。この対応付けでは、画像データT1による画像がそれに対応したテクスチャマッピング対象の表面にテクスチャマッピングされる場合、その画像に対応した位置に画像データS1,S2による画像がスーパーインポーズされる。
図18(c)は、画像データT1に画像データS1が対応付けられ、画像データT4に画像データS2が対応付けられている。この対応付けでは、画像データT1による画像がそれに対応したテクスチャマッピング対象の表面にテクスチャマッピングされる場合、その画像に対応した位置に画像データS1による画像がスーパーインポーズされる。また、画像データT4による画像がそれに対応したテクスチャマッピング対象の表面にテクスチャマッピングされる場合、その画像に対応した位置に画像データS2による画像がスーパーインポーズされる。
図18(d)は、画像データT1〜T4のそれぞれに画像データS1が対応付けられている。この対応付けでは、画像データT1〜T4による画像がそれに対応したテクスチャマッピング対象の表面にテクスチャマッピングされる場合、その画像に対応した位置に画像データS1による画像がスーパーインポーズされる。
図18(e)は、画像データT1に画像データS1,S2が対応付けられ、画像データT3に画像データS2が対応付けられている。この対応付けでは、画像データT1による画像がそれに対応したテクスチャマッピング対象の表面にテクスチャマッピングされる場合、その画像に対応した位置に画像データS1,S2による画像がスーパーインポーズされる。また、画像データT3による画像がそれに対応したテクスチャマッピング対象の表面にテクスチャマッピングされる場合、その画像に対応した位置に画像データS2による画像がスーパーインポーズされる。
図18(f)は、画像データT3に画像データS1〜S4が対応付けられている。この対応付けでは、画像データT3による画像がそれに対応したテクスチャマッピング対象の表面にテクスチャマッピングされる場合、その画像に対応した位置に画像データS1〜S4による画像がスーパーインポーズされる。
画像生成手段140Aは、CG制作手段110で制作されたCG記述データに基づいて、三次元空間画像であるCG画像を生成する。この画像生成手段140Aは、CG記述データを読み込むと、各定義などの情報をメモリ上に保持し、それらの対応付けもデータ構造として保持する。また、画像生成手段140Aは、アニメーションを実行するためのキーフレームにおける各種値もメモリ上に保持する。
例えば、あるノードの幾何学情報にあるポリゴン集合を描画するには、その幾何学情報と、対応付けられているマテリアル定義を参照して、その色などの指定に従って描画する。アニメーションの場合は、現在時刻を毎フレーム進行させ、現在時刻から、前後のキーフレームにおける各値を補間して各値を決定し、描画を行う。
この画像生成手段140Aには、上述したように、表面指定手段120Aにより、画像割り当てテーブルが設定される(図17参照)。画像生成手段140Aは、この画像割り当てテーブルに基づいて、画像マッピング手段150Aを制御する。この場合、画像生成手段140Aは、テーブルに存在する各属性の値が付与されているテクスチャマッピング対象の表面に、その属性の値(名称)と対のマッピング入力による画像をテクスチャマッピングするように、制御する。
また、この画像生成手段140Aには、上述したように、表面指定手段120Aにより、画像対応テーブルが設定される(図18参照)。画像生成手段140Aは、この画像対応テーブルに基づいて、スーパーインポーズ手段240を制御する。この場合、画像生成手段140Aは、テーブルに存在するテクスチャマッピング画像データによる画像がマッピングされる場合、その画像データと対のスーパーインポーズ画像データによる画像をスーパーインポーズするように、制御する。
画像マッピング手段150Aは、画像生成手段140Aが描画するポリゴンのうち、表面指定手段120Aで指定されるポリゴンの表面に、テクスチャマッピングを行う。この場合、画像マッピング手段150Aは、画像割り当てテーブルに存在する各属性の値が付与されているテクスチャマッピング対象の表面に、その属性の値(名称)と対のマッピング入力による画像をテクスチャマッピングする。この画像マッピング手段150Aは、実装上は、上述の画像生成手段140Aと一体化されており、CPU上のソフトウェアによる制御と、GPU等のハードウェアによる動作によって実現される。制御ソフトウェアは、テクスチャマッピングするポリゴン集合を指定してハードウェアに指示する。
スーパーインポーズ手段240は、画像マッピング手段150AでテクスチャマッピングされたCG画像にスーパーインポーズ画像をスーパーインポーズする。この場合、スーパーインポーズ手段240は、画像対応テーブルに存在するテクスチャマッピング画像データによる画像がテクスチャマッピングされる場合、その画像データと対のスーパーインポーズ画像データによる画像をスーパーインポーズする。
なお、画像生成手段140Aは、上述の図1に示す画像処理装置100の画像生成部140と同様に、画像マッピング手段150Aにおいて、各画像データT1〜T4による画像がテクスチャマッピングされる対象の位置情報を算出する(図9〜図11参照)。スーパーインポーズ手段240は、テクスチャマッピング対象の位置情報に基づき、このテクスチャマッピング対象に対応した位置に、スーパーインポーズ画像データによる画像をスーパーインポーズする。このスーパーインポーズ手段240は、実装上は、上述の画像生成手段140Aと一体化されている。
また、スーパーインポーズ画像データ毎に、スーパーインポーズのオンとオフを操作できるように、操作入力手段を設けてもよい。対応するテクスチャマッピングを行う場合でも、手動操作によりスーパーインポーズを行うかどうかを指示できる。
[画像処理装置の動作例]
図13に示す画像処理装置100Aの動作例を説明する。CG制作手段110では、CG制作ソフトウェアにより、所定のCG画像を生成するためのCG記述データが生成される。このようにCG制作手段110で生成されたCG記述データは、ネットワーク130を介して、画像生成手段140Aおよび画像選択操作手段230Aに送られる。
図13に示す画像処理装置100Aの動作例を説明する。CG制作手段110では、CG制作ソフトウェアにより、所定のCG画像を生成するためのCG記述データが生成される。このようにCG制作手段110で生成されたCG記述データは、ネットワーク130を介して、画像生成手段140Aおよび画像選択操作手段230Aに送られる。
画像選択操作手段230では、操作者の操作により、画像データ(マッピング入力)T1〜T4の出力ラインを構成する出力バスライン211〜214に、コントロールパネル260の押しボタン列(指定ボタン列)271のボタンを割り当てることが行われる。この場合、所定の属性の値(名称)が選択されることで、出力バスライン211から順に割り当てが行われる。
この画像選択操作手段230では、操作者の操作により、テクスチャマッピング対象(オブジェクトまたはオブジェクトの部分)の指定を行うための属性が設定される。ここで、属性は、マテリアル定義、マテリアル定義が持つ表面情報等である。上述の所定の属性は、このように操作者の操作により設定された属性であり、選択される属性の値(名称)はCG制作手段110で生成されたCG記述データ中から抽出されたものである。
マトリクススイッチ210の出力バスライン211〜214のうち、コントロールパネル260の押しボタン列271のボタンが割り当てられた出力バスラインに関しては、押しボタン列272の操作により、その出力画像データ(マッピング入力)を変更できる。この場合、出力画像データとして、9本の入力ラインに入力された画像データのいずれかが選択的に出力される。
画像選択操作手段230で出力バスライン211〜214のいずれかにコントロールパネル260の押しボタン列271のボタンが割り当てられる場合、画像選択操作手段230から表面指定手段120Aに、ネットワーク130を介して、情報が送られる。この情報には、選択された所定の属性の値(名称)の情報と、割り当て対象の出力バスラインによるマッピング入力がマッピング入力T1〜T4のいずれであるかの情報が含まれる。
表面指定手段120Aでは、画像選択操作手段230から送られてくる、選択された属性の値(名称)とマッピング入力の対応情報に基づいて、属性の値(名称)とマッピング入力の対応関係を示す画像割り当てテーブルを設定することが行われる(図17参照)。この画像割り当てーブルは、ネットワーク130を介して、画像生成手段140A内に設定される。表面指定手段120Aでは、この画像割り当てテーブルの設定により、各マッピング入力による画像をテクスチャマッピングする対象(オブジェクトまたはオブジェクトの部分)が、属性の値(名称)で指定される。
また、表面指定手段120Aでは、テクスチャマッピング画像とスーパーインポーズ画像の対応関係が作成され、この対応関係を示す画像対応テーブルが、ネットワーク130を介して、画像生成手段140Aに設定される。この場合、表面指定手段120Aでは、例えば、操作者に、テクスチャマッピング画像データT1〜T4のそれぞれに対応させるべきスーパーインポーズ画像データをスーパーインポーズ画像データS1〜S4の中から選択させることで、対応関係が生成される。
画像生成手段140Aでは、CG制作手段110で制作されたCG記述データに基づいて、三次元空間画像であるCG画像が生成される。この画像生成手段140Aには、上述したように、表面指定手段120Aにより、画像割り当てテーブルが設定される。画像マッピング手段150Aでは、画像生成手段140Aの制御により、テクスチャマッピングが行われる。すなわち、画像マッピング手段150Aでは、画像割り当てテーブルに存在する各属性の値(名称)が付与されているテクスチャマッピング対象の表面に、その属性の値(名称)と対のマッピング入力による画像がテクスチャマッピングされる。
また、この画像生成手段140Aには、上述したように、表面指定手段120Aにより、画像対応テーブルが設定される。スーパーインポーズ手段240では、画像生成手段140Aの制御により、画像マッピング手段150AでテクスチャマッピングされたCG画像にスーパーインポーズ画像がスーパーインポーズされる。すなわち、スーパーインポーズ手段240では、画像対応テーブルに存在するテクスチャマッピング画像データによる画像がマッピングされる場合、その画像データと対のスーパーインポーズ画像データによる画像がスーパーインポーズされる。
なお、画像生成手段140Aでは、CG画像におけるテクスチャマッピング対象の位置情報が算出される。スーパーインポーズ手段240では、テクスチャマッピング対象の位置情報に基づき、このテクスチャマッピング対象に対応した位置に、スーパーインポーズ画像データによる画像がスーパーインポーズされる。そして、画像生成手段140Aから導出された出力端子140aには、テクスチャマッピング画像がテクスチャマッピングされ、さらに、その画像に対応した位置に対応するスーパーインポーズ画像がスーパーインポーズされたCG画像データVoutが出力される。
図19のフローチャートは、画像マッピング手段150Aの1フレーム分の処理手順を示している。
画像マッピング手段150Aは、ステップST1において、処理を開始し、その後にステップST2の処理に移る。このステップST2において、画像マッピング手段150Aは、画像生成手段140Aから、画像入力毎に選択された属性値の情報を受け取る。この情報は、上述したように、画像生成手段140Aに設定された画像割り当てテーブルに存在する。
画像マッピング手段150Aは、ステップST1において、処理を開始し、その後にステップST2の処理に移る。このステップST2において、画像マッピング手段150Aは、画像生成手段140Aから、画像入力毎に選択された属性値の情報を受け取る。この情報は、上述したように、画像生成手段140Aに設定された画像割り当てテーブルに存在する。
次に、画像マッピング手段150Aは、ステップST3において、画像入力番号iを1に設定する。そして、画像マッピング手段150Aは、ステップST4において、i番目の画像入力Tiについて、属性値が一致するCGオブジェクトまたはCGオブジェクトの部分(テクスチャマッピング対象)の表面に、テクスチャマッピングする。
そして、画像マッピング手段150Aは、ステップST5において、テクスチャマッピングした面の画面上の座標Piを、スーパーインポーズ手段240に位置情報として送る。なお、画像マッピング手段150Aは、i番目の画像入力Tiに属性値が選択されていないときは、このi番目の画像入力Tiに関しては、上述のステップST4およびステップST5の処理を行わない。
そして、画像マッピング手段150Aは、ステップST5において、テクスチャマッピングした面の画面上の座標Piを、スーパーインポーズ手段240に位置情報として送る。なお、画像マッピング手段150Aは、i番目の画像入力Tiに属性値が選択されていないときは、このi番目の画像入力Tiに関しては、上述のステップST4およびステップST5の処理を行わない。
次に、画像マッピング手段150Aは、ステップST6において、入力番号iが入力数より小さいか否かを判断する。入力番号iが入力数より小さいとき、全てのテクスチャマッピング画像入力についての処理が終了していないので、画像マッピング手段150Aは、ステップST7において、入力番号iをインクリメントし、その後に、ステップST4の処理に戻る。一方、入力番号iが入力数以上のとき、全てのテクスチャマッピング画像入力についての処理が終了しているので、画像マッピング手段150Aは、ステップST8において、処理を終了する。
図20のフローチャートは、スーパーインポーズ手段240の1フレーム分の処理手順を示している。
スーパーインポーズ手段240は、ステップST11において、処理を開始し、その後にステップST12の処理に移る。このステップST12において、スーパーインポーズ手段240は、画像マッピング手段150Aから、座標Pi(i=1,・・・,(入力数))を受け取る。
スーパーインポーズ手段240は、ステップST11において、処理を開始し、その後にステップST12の処理に移る。このステップST12において、スーパーインポーズ手段240は、画像マッピング手段150Aから、座標Pi(i=1,・・・,(入力数))を受け取る。
次に、スーパーインポーズ手段240は、ステップST13において、入力番号iを1に設定する。そして、スーパーインポーズ手段240は、ステップST14において、座標Piから、スーパーインポーズ位置(重畳位置)を決める。そして、スーパーインポーズ手段240は、ステップST15において、ステップST14で決めた重畳位置に、画像入力Tiに対応したスーパーインポーズ画像入力による画像を重畳する。
次に、スーパーインポーズ手段240は、ステップST16において、入力番号iが入力数より小さいか否かを判断する。入力番号iが入力数より小さいとき、全てのテクスチャマッピング画像入力についての処理が終了していないので、スーパーインポーズ手段240は、ステップST17において、入力番号iをインクリメントし、その後に、ステップST14の処理に戻る。一方、入力番号iが入力数以上のとき、全てのテクスチャマッピング画像入力についての処理が終了しているので、スーパーインポーズ手段240は、ステップST18において、処理を終了する。
上述の図19、図20で示した例では、座標Piの算出は画像生成手段140において描画(テクスチャマッピング)と共に行われる。しかし、これとは異なる実装方法も可能である。
図21は、座標の算出を画像マッピング手段150Aとは別の部分(別のマイクロコンピュータ)で行う場合の通信などを示すシーケンスを示している。CG制作手段110で作成されたCG記述データは、表面指定手段120Aに送られると共に、スーパーインポーズ手段240に送られる。
表面指定手段120Aでは、例えば、画像識別子とマテリアル定義との対応付けがなされ、画像割り当てテーブルが作成される。この画像割り当てテーブルは、画像生成手段140Aに送られ、CG記述データと併せて画像生成手段の動作に使用される。この例では同時に、画像割り当てテーブルはスーパーインポーズ手段240に送られる。
スーパーインポーズ手段240では、CG記述データと画像割り当てテーブルを得て、画像生成手段140Aおよびその中の画像マッピング手段150Aにおける処理と同等の処理により、マテリアル定義が対応付いているCGオブジェクトの面の座標値を得る。
スーパーインポーズ手段240では、それ以外の面の位置算出処理は、不要なので行わない。スーパーインポーズ手段240では、得た座標値により、図20の処理手順と
同様に、スーパーインポーズを実行する。すなわち、位置(座標)をどのマイクロコンピュータで算出するかは、この発明の実施にあたり、適宜変更できる事項である。
同様に、スーパーインポーズを実行する。すなわち、位置(座標)をどのマイクロコンピュータで算出するかは、この発明の実施にあたり、適宜変更できる事項である。
なお、画像生成手段140Aの描画処理等が、アニメーション動作の時刻などにより変化する場合は、同様の情報をスーパーインポーズ手段240にも送り、同じパラメータによって動作するようにする。そうしないと、例えばアニメーション動作で、別時刻に対する処理が行われ、位置がずれてしまうからである。
図13に示す画像処理装置100Aにおいては、テクスチャマッピング対象の表面に、テクスチャマッピング画像がテクスチャマッピングされる。また、テクスチャマッピング画像がテクスチャマッピングされたCG画像に、テクスチャマッピング対象の位置情報に基づき、そのテクスチャマッピング対象に対応した位置に、文字列などのスーパーインポーズ画像がスーパーインポーズされる。したがって、この画像処理装置100Aにおいては、上述の図1に示す画像処理装置100と同様に、テクスチャマッピングされる画像に応じた文字列等を、この画像に対応した位置に見易く挿入できる。
また、図13に示す画像処理装置100Aにおいては、表面指定手段120Aにより、テクスチャマッピング画像とスーパーインポーズ画像の対応関係を示す画像対応テーブルが、画像生成手段140Aに設定される。そして、スーパーインポーズ手段240では、その対応関係に基づいて、テクスチャマッピング画像に対応した位置にスーパーインポーズされる画像が決定される。したがって、テクスチャマッピング画像あるいはスーパーインポーズ画像が複数系統あるときでも、テクスチャマッピングされる画像に応じた文字列等のスーパーインポーズ画像を、そのテクスチャマッピング画像に対応した位置に容易に見易く挿入できる。
また、図13に示す画像処理装置100Aにおいては、マトリクススイッチ210により選択的に取り出された画像データが、テクスチャマッピング画像データT1〜T4として画像マッピング手段150Aに供給される。そのため、操作者は、画像選択操作手段230による操作によって、マトリクススイッチ210で取り出される画像データT1〜T4を変化させることで、テクスチャマッピング画像を任意のタイミングで所望の画像に変更できる。
また、図13に示す画像処理装置100Aにおいては、マトリクススイッチ210により、9本の入力ラインに入力される画像データのいずれかが選択的に取り出されてスーパーインポーズ画像データS1〜S4とされる。そのため、操作者は、画像選択操作手段230による操作によって、マトリクススイッチ210で取り出される画像データS1〜S4を変化させることで、スーパーインポーズ画像を任意のタイミングで所望の画像に変更できる。
<3.第3の実施の形態>
[画像処理装置の構成]
この発明の第3の実施の形態を説明する。図22は、第3の実施の形態としての画像処理装置100Bの構成例を示している。この図22において、図1と対応する部分には同一符号を付し、適宜、その説明を省略する。
[画像処理装置の構成]
この発明の第3の実施の形態を説明する。図22は、第3の実施の形態としての画像処理装置100Bの構成例を示している。この図22において、図1と対応する部分には同一符号を付し、適宜、その説明を省略する。
この画像処理装置100Bは、CG制作手段110と、表面指定手段120Bと、ネットワーク130と、画像生成手段140Bと、画像マッピング手段150Bを有している。また、この画像処理装置100Bは、補助出力部160Bと、画像合成切り替え部170Bと、位置送信手段180Bと、合成切り替え制御部190と、合成切り替え操作入力部195を有している。CG制作手段110、表面指定手段120B、画像生成手段140Bおよび位置送信手段180Bは、それぞれネットワーク130に接続されている。
画像合成切り替え部170Bは、入力選択部171Bと、キープロセッサ176a〜176bと、ミキサ177Bを有している。上述の図1の画像処理装置100の画像合成切り替え部170は、スーパーインポーズ機能部(キーヤー)を一つだけ備えている。すなわち、1つのキープロセッサ176を有し、このキープロセッサ176に、キーソースバス172a、キーフィルバス172bが接続されている。
画像合成切り替え部170Bは、スーパーインポーズ機能部(キーヤー)を4つ備えている。すなわち、4つのキープロセッサ176a,176b,176c,176dを有している。そして、キープロセッサ176aに、キーソースバス172a1、キーフィルバス172b1が接続され、キープロセッサ176bに、キーソースバス172a2、キーフィルバス172b2が接続されている。また、キープロセッサ176cに、キーソースバス172a3、キーフィルバス172b3が接続され、キープロセッサ176dに、キーソースバス172a4、キーフィルバス172b4が接続されている。なお、入力選択部171Bには、各キーソースバスおよび各キーフィルバスに対応して、クロスポイントスイッチ群173a1〜173a4,173b1〜173b4が設けられている。
ミキサ177Bは、各キープロセッサからのキーフィル信号およびキーソース信号を用いて、キーイングによって背景画像、あるいはCG画像に、前景画像をスーパーインポーズする。なお、ここで、キープロセッサ176a,176b,176c,176dに係るスーパーインポーズ画像データ(前景画像データ)を、それぞれS1,S2,S3,S4とする。このミキサ177Bで得られた画像データは、出力ライン178を通じて外部に出力される。ミキサ177Bおよび上述のキープロセッサ176a〜176dは、スーパーインポーズ手段を構成している。
画像合成切り替え部170Bのその他は、上述の図1の画像処理装置100の画像合成切り替え部170と同様に構成されている。
補助出力部160Bは、補助出力の選択を行う。補助出力部160Bは、外部からの複数の画像データが入力される9本の入力ラインを、4本の補助出力選択バス161a,161b,161c,161dに選択的に接続する。クロスポイントスイッチ群162a,162b,162c,162dは、9本の入力ラインと補助出力選択バス161a,161b,161c,161dとが交差する各クロスポイントでそれぞれの接続を行う。この補助出力選択バス161a,161b,161c,161dに取り出された画像データは、テクスチャマッピング画像データT1,T2,T3,T4として、画像マッピング手段150Bに送られる。この補助出力部160Bは、テクスチャマッピング画像データ選択手段を構成している。
表面指定手段120Bは、例えば、操作者の操作に応じて、属性の値(名称)とマッピング入力の対応関係を示す画像割り当てテーブル(図17参照)を作成し、この画像割り当てテーブルを、ネットワーク130を介して、画像生成手段140B内に設定する。表面指定手段120Bは、このように画像割り当てテーブルを設定することで、マッピング入力T1〜T4を出力する出力バスライン毎に、そのマッピング入力による画像をテクスチャマッピングするテクスチャマッピング対象を指定する。この場合、マッピング入力による画像をテクスチャマッピングするテクスチャマッピング対象(オブジェクトまたはオブジェクトの部分)は、属性の値(名称)により指定される。
また、表面指定手段120Bは、テクスチャマッピング画像とスーパーインポーズ画像の対応関係を作成し、この対応関係を示す画像対応テーブル(図18参照)を、ネットワーク130を介して、画像生成手段140Bに設定する。表面指定手段120Bは、例えば、操作者に、テクスチャマッピング画像データT1〜T4のそれぞれに対応させるべきスーパーインポーズ画像データをスーパーインポーズ画像データS1〜S4の中から選択させて、対応関係を生成する。なお、スーパーインポーズ画像データS1〜S4は、上述したように、それぞれ、キープロセッサ176a〜176dに係るスーパーインポーズ画像データである。
画像生成手段140Bは、CG制作手段110で制作されたCG記述データに基づいて、三次元空間画像であるCG画像を生成する。この画像生成手段140Bは、CG記述データを読み込むと、各定義などの情報をメモリ上に保持し、それらの対応付けもデータ構造として保持する。また、画像生成手段140Bは、アニメーションを実行するためのキーフレームにおける各種値もメモリ上に保持する。この画像生成手段140BにおけるCG画像の生成機能は、上述の図1に示す画像処理装置100の画像生成手段140、あるいは上述の図13に示す画像処理装置100Aの画像生成手段140AのCG画像の生成機能と同様である。
この画像生成手段140Bには、上述したように、表面指定手段120Bにより、画像割り当てテーブルが設定される。画像生成手段140Bは、この画像割り当てテーブルに基づいて、画像マッピング手段150Bを制御する。この場合、画像生成手段140Bは、テーブルに存在する各属性の値が付与されているテクスチャマッピング対象の表面に、その属性の値(名称)と対のマッピング入力による画像をテクスチャマッピングするように、制御する。
また、この画像生成手段140Bには、上述したように、表面指定手段120Bにより、画像対応テーブルが設定される(図18参照)。画像生成手段140Bは、この画像対応テーブルに基づいて、位置送信手段180Bを通じて、合成切り替え制御部190に、スーパーインポーズ制御信号を送る。この制御信号は、画像対応テーブルに存在するテクスチャマッピング画像データによる画像がテクスチャマッピングされる場合、その画像データと対のスーパーインポーズ画像データによる画像を、スーパーインポーズさせるための制御信号である。
また、この画像生成手段140Bは、画像マッピング手段150Bにおいて各画像データT1〜T4による画像がテクスチャマッピングされる対象(オブジェクトまたはオブジェクトの部分)の位置情報を算出する(図9〜図11参照)。これは、上述の図1に示す画像処理装置100の画像生成手段140、あるいは上述の図13に示す画像処理装置100Aの画像生成手段140Aと同様である。画像生成手段140Bは、この位置情報を、位置送信手段180Bを通じて、合成切り替え制御部190に送る。
合成切り替え制御部190は、このテクスチャマッピング対象の位置情報に基づき、キープロセッサ176a〜176dを制御し、各スーパーインポーズ画像の重畳位置を調整する。合成切り替え制御部190は、テクスチャマッピング画像が所定のテクスチャマッピング対象にマッピングされる場合、その画像に対応した位置に、画像対応テーブルで示されるその画像に対応したスーパーインポーズ画像がスーパーインポーズされるように調整する。
位置送信手段180Bは、上述したように、画像生成手段140Bから出力されるスーパーインポーズ制御信号を、合成切り替え制御部190に送る。また、この位置送信手段180Bは、上述したように、画像生成手段140Bで算出される位置情報を、合成切り替え制御部190に送る。なお、これらとは別に、合成切り替え操作入力部195にS1〜S4のそれぞれに対応してオンとオフの指示を操作入力する押しボタンなどの操作入力手段を設け、手動でスーパーインポーズのオンとオフを制御できるようにしてもよい。また、これらの手動制御を優先するか、テクスチャマッピングの有無(上述の制御信号)による制御を優先するか、装置の運用に応じて設定可能としてもよい。
この図22の画像処理装置100Bにおいて、その他は、図1に示す画像処理装置100と同様に構成されている。
この図22の画像処理装置100Bにおいて、その他は、図1に示す画像処理装置100と同様に構成されている。
[画像処理装置の動作例]
図22に示す画像処理装置100Bの動作例を説明する。ここでは、CG出力モードにあり、CG画像への前景画像のスーパーインポーズがオンに設定されている場合について説明する。
図22に示す画像処理装置100Bの動作例を説明する。ここでは、CG出力モードにあり、CG画像への前景画像のスーパーインポーズがオンに設定されている場合について説明する。
CG制作手段110では、CG制作ソフトウェアにより、所定のCG画像を生成するためのCG記述データが生成される。このようにCG制作手段110で生成されたCG記述データは、ネットワーク130を介して、画像生成手段140Bおよび表面指定手段120Bに送られる。
表面指定手段120Aでは、テクスチャマッピング対象を指定する属性の値(名称)とマッピング入力の対応関係を示す画像割り当てテーブルを設定することが行われる(図17参照)。この画像割り当てテーブルは、ネットワーク130を介して、画像生成手段140B内に設定される。また、表面指定手段120Bでは、テクスチャマッピング画像とスーパーインポーズ画像の対応関係が作成され、この対応関係を示す画像対応テーブルが、ネットワーク130を介して、画像生成手段140Bに設定される。
画像生成手段140Bでは、CG制作手段110で制作されたCG記述データに基づいて、三次元空間画像であるCG画像が生成される。この画像生成手段140Bには、上述したように、表面指定手段120Bにより、画像割り当てテーブルが設定される。画像マッピング手段150Bでは、画像生成手段140Bの制御により、テクスチャマッピングが行われる。すなわち、画像マッピング手段150Bでは、画像割り当てテーブルに存在する各属性の値(名称)が付与されているテクスチャマッピング対象の表面に、その属性の値(名称)と対のマッピング入力による画像がテクスチャマッピングされる。
画像生成手段140Bから導出された出力端子140aには、テクスチャマッピング対象の表面に画像データT1〜T4による画像がテクスチャマッピングされたCG画像の画像データVoutが出力される。この画像データVoutは、入力ライン「9」に入力される。画像合成切り替え部170Bの入力選択部171Bの予備入力バス174は、クロスポイントスイッチ群175により、入力ライン「9」に接続されている。そのため、この予備入力バス174には上述のCG画像の画像データVoutが取り出され、この画像データVoutはミキサ177Bに背景データとして送られる。
ミキサ177Bでは、各キープロセッサ176a〜176dからのキーフィル信号およびキーソース信号を用いて、キーイングによってCG画像に、スーパーインポーズ画像データS1,S2,S3,S4によるスーパーインポーズ画像がスーパーインポーズされる。このミキサ177Bで得られた画像データは、最終出力として、出力ライン178を通じて外部に出力される。
この場合、画像生成手段140Bから合成切り替え制御部190に、画像対応テーブルに基づいて、スーパーインポーズ制御信号が送られる。そのため、CG画像に画像対応テーブルに存在するテクスチャマッピング画像データによる画像がテクスチャマッピングされている場合、その画像データと対のスーパーインポーズ画像データによる画像がスーパーインポーズされる。
また、この画像生成手段140Bでは、画像マッピング手段150Bにおいて、各画像データT1〜T4による画像がテクスチャマッピングされる対象(オブジェクトまたはオブジェクトの部分)の位置情報が算出される。この位置情報は、画像生成手段140Bから位置送信手段180Bを通じて合成切り替え制御部190に送られる。そして、合成切り替え制御部190により、このテクスチャマッピング対象の位置情報に基づき、キープロセッサ176a〜176dが制御され、各スーパーインポーズ画像の重畳位置が調整される。そのため、テクスチャマッピング画像が所定のテクスチャマッピング対象にマッピングされる場合、その画像に対応した位置に、画像対応テーブルで示されるその画像に対応したスーパーインポーズ画像がスーパーインポーズされる。
図22に示す画像処理装置100Bにおいては、テクスチャマッピング対象の表面に、テクスチャマッピング画像がテクスチャマッピングされる。また、テクスチャマッピング画像がマッピングされたCG画像に、画像合成切り替え部170Bでは、テクスチャマッピング対象の位置情報に基づき、そのテクスチャマッピング対象に対応した位置に、スーパーインポーズ画像がスーパーインポーズされる。したがって、この画像処理装置100Aにおいては、上述の図1に示す画像処理装置100および図13に示す画像処理装置100Aと同様に、テクスチャマッピングされる画像に応じた文字列等を、この画像に対応した位置に見易く挿入できる。
また、図22に示す画像処理装置100Bにおいては、表面指定手段120Bにより、テクスチャマッピング画像とスーパーインポーズ画像の対応関係を示す画像対応テーブルが、画像生成手段140Bに設定される。そして、ミキサ177Bでは、その対応関係に基づいて、テクスチャマッピング画像に対応した位置にスーパーインポーズされる画像が決定される。したがって、テクスチャマッピング画像あるいはスーパーインポーズ画像が複数系統あるときでも、テクスチャマッピングされる画像に応じたスーパーインポーズ画像を、そのテクスチャマッピング画像に対応した位置に容易に見易く挿入できる。
また、図22に示す画像処理装置100Bにおいては、その他に、図1に示す画像処理装置100および図13に示す画像処理装置100Aと同様に構成を備えることから、同様の効果を得ることができる。
なお、キープロセッサ176a〜176dおよびミキサ177Bによるスーパーインポーズの機能は、テクスチャマッピングに伴う動作に限定されず、画像合成切り替え部170BがVoutすなわちCG画像を全く使わない場合には、手動操作によって背景画像に字幕などを重ねる用途に使用できる。
なお、キープロセッサ176a〜176dおよびミキサ177Bによるスーパーインポーズの機能は、テクスチャマッピングに伴う動作に限定されず、画像合成切り替え部170BがVoutすなわちCG画像を全く使わない場合には、手動操作によって背景画像に字幕などを重ねる用途に使用できる。
<4.第4の実施の形態>
[画像処理装置の構成]
この発明の第4の実施の形態を説明する。図23は、第4の実施の形態としての画像処理装置100Cの構成例を示している。この図23において、図1と対応する部分には同一符号を付し、適宜、その説明を省略する。
[画像処理装置の構成]
この発明の第4の実施の形態を説明する。図23は、第4の実施の形態としての画像処理装置100Cの構成例を示している。この図23において、図1と対応する部分には同一符号を付し、適宜、その説明を省略する。
この画像処理装置100Cは、CG制作手段110と、表面指定手段120と、ネットワーク130と、画像生成手段140Cと、画像マッピング手段150を有している。また、この画像処理装置100Cは、補助出力部160と、画像選択操作手段330と、オン操作手段310と、文字生成操作手段320を有している。CG制作手段110、表面指定手段120、画像生成手段140C、オン操作手段310および文字生成操作手段320は、それぞれネットワーク130に接続されている。
補助出力部160は、外部からの複数の画像データが入力される9本の入力ラインを、補助出力選択バス161に選択的に接続する。クロスポイントスイッチ群162は、9本の入力ラインと補助出力選択バス161とが交差する各クロスポイントでそれぞれの接続を行う。この補助出力選択バス161に取り出された画像データは、テクスチャマッピング画像データT1として、画像マッピング手段150に送られる。この補助出力部160は、テクスチャマッピング画像データ選択手段を構成している。
画像選択操作手段330は、上述の補助出力部160への指示の操作入力を受ける。この画像選択操作手段330は、図示しないが、補助出力部160のクロスポイントスイッチ群162のスイッチのオンオフを操作する押しボタン列を備えるコントロールパネルを備えている。
表面指定手段120は、入力画像をテクスチャマッピングするテクスチャマッピング対象を指定する。そして、表面指定手段120は、ネットワーク130を介して、その指定情報を画像生成手段140Cに送る。表面指定手段120は、CG記述データ中のオブジェクトまたはオブジェクトの部分に付与されている属性の値を選択肢として表示し、操作者にその中から選択させることで、テクスチャマッピング対象であるオブジェクトまたはオブジェクトの部分を選択させる。表面指定手段120は、CG記述データ中のテクスチャマッピング対象に付与された属性の値を、テクスチャマッピング対象の指定情報として画像生成手段140Cに送る。
画像生成手段140Cは、CG制作手段110で制作されたCG記述データに基づいて、三次元空間画像であるCG画像を生成する。この画像生成手段140Cは、アニメーションを実行するためのキーフレームにおける各種値もメモリ上に保持する。例えば、あるノードの幾何学情報にあるポリゴン集合を描画するには、その幾何学情報と、対応付けられているマテリアル定義を参照して、その色などの指定に従って描画する。アニメーションの場合は、現在時刻を毎フレーム進行させ、現在時刻から、前後のキーフレームにおける各値を補間して各値を決定し、描画を行う。
この画像生成手段140Cには、表面指定手段120から、上述したように、入力画像をテクスチャマッピングする対象であるCGのオブジェクトまたはオブジェクトの部分(面あるいはポリゴンメッシュの分割単位等)の指定情報が送られてくる。画像生成手段140Cは、その指定情報が示す所定のポリゴン(ポリゴン集合)の表面に、入力画像をテクスチャマッピングするように、画像マッピング手段150を制御する。
画像マッピング手段150は、画像生成手段140Cが描画するCGのうち、表面指定手段120で指定されるテクスチャマッピング対象の表面に、入力画像をテクスチャマッピングする。この画像マッピング手段150は、実装上は、上述の画像生成手段140Cと一体化されている。この画像マッピング手段150は、CPU上のソフトウェアによる制御と、GPU等のハードウェアによる動作によって実現される。制御ソフトウェアは、テクスチャマッピングするポリゴン集合を指定してハードウェアに指示する。
文字生成操作手段320は、画像生成手段140Cに、文字画像の生成内容を指示操作する。この生成内容には、文字列(文字コードの並び)、使用するフォント、サイズ、その他の属性(太字、下線など)の情報が含まれる。オン操作手段310は、文字画像のスーパーインポーズ(重畳)のオンオフを指示操作する。画像生成手段140Cは、文字画像のスーパーインポーズがオンとされるとき、文字画像描画機能により、CG画像に、文字生成操作手段320で指定された内容の文字画像を描画する。
画像生成手段140Cは、画像マッピング手段150において画像データT1による画像がテクスチャマッピングされる対象(オブジェクトまたはオブジェクトの部分)の位置情報を算出する(図9〜図11参照)。これは、上述の図1に示す画像処理装置100の画像生成部140と同様である。画像生成手段140Cは、上述したように、CG画像に、文字生成操作手段320で指定された内容の文字画像を描画する際に、算出した位置情報に基づき、テクスチャマッピング対象に対応した位置に、文字画像を描画する。
この図23に示す画像処理装置100Cのその他は、図1に示す画像処理装置100と同様に構成される。
この図23に示す画像処理装置100Cのその他は、図1に示す画像処理装置100と同様に構成される。
[画像処理装置の動作例]
図23に示す画像処理装置100Cの動作例を説明する。
CG制作手段110では、CG制作ソフトウェアにより、所定のCG画像を生成するためのCG記述データが生成される。このようにCG制作手段110で生成されたCG記述データは、ネットワーク130を介して、画像生成手段140Cおよび表面指定手段120に送られる。
図23に示す画像処理装置100Cの動作例を説明する。
CG制作手段110では、CG制作ソフトウェアにより、所定のCG画像を生成するためのCG記述データが生成される。このようにCG制作手段110で生成されたCG記述データは、ネットワーク130を介して、画像生成手段140Cおよび表面指定手段120に送られる。
表面指定手段(GUI)120では、CG記述データ中のオブジェクトまたはオブジェクトに付与されている属性の値(名称)が選択肢とされ、操作者の操作により、入力画像をテクスチャマッピングするテクスチャマッピング対象が指定される。この指定情報(属性の値)は、表面指定手段120から画像生成手段140Cに送られる。
画像生成手段140Cでは、CG制作手段110で制作されたCG記述データに基づいて、三次元空間画像であるCG画像が生成される。また、上述したように、この画像生成手段140Cには、テクスチャマッピング対象であるオブジェクトまたはオブジェクトの部分の指定情報が、表面指定手段120から送られてきている。画像マッピング手段150では、画像生成手段140Cの制御により、テクスチャマッピング対象の表面に、補助出力部160で得られる画像データT1による画像がテクスチャマッピングされる。
オン操作手段310により文字画像のスーパーインポーズがオンとされているとき、画像生成手段140Cでは、文字生成操作手段320で指示された内容の文字画像も描画される。ここで、画像生成手段140Cでは、画像マッピング手段150において画像データT1による画像がテクスチャマッピングされる対象(オブジェクトまたはオブジェクトの部分)の位置情報が算出される。画像生成手段140Cでは、上述したように文字画像を描画する際に、その位置情報に基づき、テクスチャマッピング対象に対応した位置に、文字画像が描画される。
そして、画像生成手段140Cから導出された出力端子140aには、テクスチャマッピング対象の表面に画像データT1による画像がテクスチャマッピングされ、さらに必要に応じて、文字画像も描画されたCG画像の画像データVoutが出力される。
図23に示す画像処理装置100Cにおいては、テクスチャマッピング対象の表面に、テクスチャマッピング画像がテクスチャマッピングされる。また、テクスチャマッピング画像がテクスチャマッピングされたCG画像に、テクスチャマッピング対象の位置情報に基づき、そのテクスチャマッピング対象に対応した位置に、文字画像が描画(スーパーインポーズ)される。したがって、この画像処理装置100においては、テクスチャマッピングされる画像に応じた文字画像を、この画像に対応した位置に見易く挿入できる。
また、図23に示す画像処理装置100Cにおいては、テクスチャマッピング対象の位置情報に基づき、画像生成手段140Cによりテクスチャマッピング対象に対応した位置に、文字画像が描画(スーパーインポーズ)される。したがって、画像生成手段140Cの機能によって生成可能な文字画像等を他の機器を必要とせずにスーパーインポーズできる。
また、図23に示す画像処理装置100Cにおいては、補助出力部160により、9本の入力ラインに入力される画像データのいずれかが選択的に取り出された画像データが、テクスチャマッピング画像データT1として画像マッピング手段150に供給される。そのため、操作者は、画像選択操作手段330による操作によって、補助出力部160で取り出される画像データを変化させることで、テクスチャマッピング画像を任意のタイミングで所望の画像に変更できる。
<5.変形例>
CG画像に、デジタル特殊効果装置により縮小変形された画像(動画像)を合成する(はめ込む)技術について説明する。CG画像の中に縮小画像をはめ込む方法については、上述したテクスチャマッピングによる方法がある。しかし、これは複雑な画像を作成できる利点があるが、その分、動画像の遅延が大きくなるなどの欠点がある。
CG画像に、デジタル特殊効果装置により縮小変形された画像(動画像)を合成する(はめ込む)技術について説明する。CG画像の中に縮小画像をはめ込む方法については、上述したテクスチャマッピングによる方法がある。しかし、これは複雑な画像を作成できる利点があるが、その分、動画像の遅延が大きくなるなどの欠点がある。
複数の画像を切り換えあるいは合成して使用する場合、同時に放送される音声は連続して一定の遅延で放送送出することが好ましい。途中で音声の遅延が変化すると、音楽などのいわゆる「とび」が発生して、耳障りな雑音となってしまう。そのため、音声の遅延は一定であることが好ましい。
テクスチャマッピングなどで遅延フレーム数が大きくなった画像は、複雑な処理をしない場合と比べて遅延数が大きくなり、音声と合わなくなり、会話の口の動きなどと音声が一致しなくなる。そのため、カメラから撮影した画像などについては、できるだけ遅延が少なく送出までの処理が終わることが好ましい。
したがって、テクスチャマッピングではなく、従来からのデジタル特殊効果装置により縮小変形してCG画像と合成する方が、遅延が少なく、好ましい。以下、デジタル特殊効果装置による縮小などの変形と、CG画像生成手段とを組み合わせた制御について説明する。
デジタル特殊効果装置とは、同期信号に同期して、入力画像の各画素をメモリに書き込み、読み出して出力するが、画素の読み出し順序を書き込み時とは変えて(アドレス変換し)拡大縮小その他の画像変形を施す装置である。このデジタル特殊効果装置は、DME/DVP等と略称で呼ばれる。また、このデジタル特殊効果装置は、拡大縮小その他の画像変形に加えて、その他の特殊効果(色調の変化)などの機能も有するこが多い。
図24は、このようなはめ込み合成の画を説明する図である。図24(a)は、CG画像を示し、図24(b)は、その中に画像(例えばスタジオのカメラで撮影した画像)をはめ込む枠を示している。図24(b)の画面中の四角形の幾何学情報(4つの頂点の座標値)により、図24(c)の様な画像を、デジタル特殊効果装置により、図24(d)のように縮小変形して、さらにそれをCG画像と合成することで、図24(e)の様な出力画像が得られる。
図25は、CG画像の変化(動き)とはめ込み合成について説明する図である。CGのアニメーション動作あるいは手動操作により、CG画像が図25(a)から図25(b)のような状態に変化するとする。その場合、それに対応してはめ込むデジタル特殊効果装置による画像が、図25(c)から図25(d)のように変化すれば、図25(e)、図25(f)のような合成画像が得られ、ちょうどCG画像中の面にテクスチャマッピングしたのと同様な結果が得られる。
この図25のような結果を得るための、システム中の制御通信については、二つの方式が考えられる。一つは、CG画像生成手段側をマスタとし、アニメーションの時間軸(タイムライン)に従った動作により変化するか、あるいは手動操作されるパラメータ(例えば上述の4つの頂点の座標値)を、デジタル特殊効果装置へ送る方式である(下記1.2参照)。他の一つは、デジタル特殊効果装置側(エフェクト・スイッチャ側)をマスタとし、はめ込み画像を操作して、そのパラメータをCG画像生成手段へ送り、それに合わせてCGオブジェクトを動かす方式である(下記3参照)。
「1.CGアニメーションとの連動」
上述の図1に示す画像処理装置100の構成で、キープロセッサ(画像加工部)176には、画像の移動および縮小等のためにデジタル特殊効果機能が内蔵されている。その制御に使う情報として、画像生成手段(画像マッピング手段)140から、単なる位置ではなく、画像をはめ込む画面上の幾何学情報(上述の図24(b)では4つの頂点の座標値)が送られる。キープロセッサ(画像加工部)176は、この幾何学情報を受けて動作する。
上述の図1に示す画像処理装置100の構成で、キープロセッサ(画像加工部)176には、画像の移動および縮小等のためにデジタル特殊効果機能が内蔵されている。その制御に使う情報として、画像生成手段(画像マッピング手段)140から、単なる位置ではなく、画像をはめ込む画面上の幾何学情報(上述の図24(b)では4つの頂点の座標値)が送られる。キープロセッサ(画像加工部)176は、この幾何学情報を受けて動作する。
はめ込む部分の幾何学情報(二次元図形情報)としては、このほか、円の中心と半径、楕円の長径(/長半径)と短径(/短半径)、その他xy座標上で閉図形を規定する関数や、頂点情報の順列などを使用できる。
アニメーション動作によりタイムライン上の進行でCG画像が変化していく場合、それに伴い、画像生成手段(画像マッピング手段)140からキープロセッサ(画像加工部)176へ送信する幾何学情報が変化していく。変化する都度、場合によっては毎フィールドあるいは毎フレーム、画像生成手段140からキープロセッサ176へ位置送信手段180を通じて幾何学情報を送信する。
幾何学情報(パラメータ)の送信とキープロセッサ176のデジタル特殊効果のタイミング、つまり、画像生成手段140およびキープロセッサ176における処理タイミングは、以下のように設定される。すなわち、画像生成手段140からのCG画像の該当フレームがエフェクト・スイッチャ側(画像合成切り換え部170)に入るタイミング(フレーム)で丁度キープロセッサ176が対応する動作をするように、設定される。
「2.CG側からの手動操作」
図26に示す画像処理装置100Dは、上述の図1に示す画像処理装置100に近い構成であるが、CG画像生成に対する手動操作手段を画像生成手段140側に設け、操作入力を受ける構成である。この図26では、手動操作手段としてジョイスティック350を示している。なお、この図26において、図1と対応する部分には、同一符号を付して示している。
図26に示す画像処理装置100Dは、上述の図1に示す画像処理装置100に近い構成であるが、CG画像生成に対する手動操作手段を画像生成手段140側に設け、操作入力を受ける構成である。この図26では、手動操作手段としてジョイスティック350を示している。なお、この図26において、図1と対応する部分には、同一符号を付して示している。
上述例では、幾何学情報(パラメータ)はアニメーションの進行に伴い変化したが、この画像処理装置100Dでは、手動操作(ジョイスティック操作、あるいは、トラックボール操作、フェーダ操作、マウス操作など)により変化する。例えば、図25のような仮想立体について、操作者は、xyz方向(zは画面の奥行き方向)に自由に移動させることができる。画像生成手段140は、毎フィールドあるいは毎フレーム、変化した幾何学情報を、はめ込み幾何学情報送信手段180Dを通じて、キープロセッサ(画像加工部)176に送信する。その他の動作は、上述例と同様である。
「3.エフェクト・スイッチャ側からの手動操作」
図27に画像処理装置100Eは、上述の図1に示す画像処理装置100に近い構成であるが、デジタル特殊効果に対する手動操作手段を、エフェクト・スイッチャ側(画像合成切り換え部170)に設け、操作入力を受ける構成である。
図27に画像処理装置100Eは、上述の図1に示す画像処理装置100に近い構成であるが、デジタル特殊効果に対する手動操作手段を、エフェクト・スイッチャ側(画像合成切り換え部170)に設け、操作入力を受ける構成である。
この画像処理装置100Eでは、デジタル特殊効果装置360はキープロセッサ(画像加工部)176内ではなく外部に設けられている。そして、合成切り換え操作入力部195の操作により、接続切り換え部370によって、キープロセッサ176の出力が、デジタル特殊効果装置360を経由する、あるいはしないように制御される。
上述の図26に示す画像処理装置100Dなどでは、画像をはめ込むために必要な情報の通信のみであった。しかし、この画像処理装置100Eの場合、デジタル特殊効果装置360側で操作する画像が、CG記述データ中のどのCGオブジェクトの面に対応するのか、対応付ける必要がある。
対応するCGオブジェクトの設定方法は、例えば、図1の画像処理装置100の表面指定手段120によるテクスチャマッピング対象の設定方法と同様である。すなわち、一例としては、画像をはめ込むCGオブジェクトの表面(ポリゴン集合)を、ポリゴン実体(インスタンス)の識別子により指定する。そのCGオブジェクトが制御対象となる。
別の例としては、マテリアル(表面属性)を指定し、そのマテリアルが適用されているポリゴンの面をはめ込み対象とし、それを持つCGオブジェクトを制御対象とする。さらに別の例としては、CG記述データの作成時に静止画像ファイルをテクスチャマッピングするように指定された(マテリアルが適用されている)ポリゴンの面を対象とし、それを持つCGオブジェクトを制御対象とする。このような方法により、制御対象とするCGオブジェクトが決定される。
次に、制御の流れを説明する。ジョイスティック350からの制御が合成切り換え操作入力部(マイコン内蔵)195から通信路経由でデジタル特殊効果装置360に送られ、はめ込む画像(子画面)を操作できる。同時に、デジタル特殊効果装置360を制御している情報(幾何学情報)が合成切り換え操作入力部195から画像生成手段140へ送られ、画像生成手段140では、それに応じて対応するCGオブジェクトを画面(CGの仮想三次元空間)中で移動させる。
デジタル特殊効果装置360の制御は、CGオブジェクトの仮想三次元空間中での制御と原理的には同じである。すなわち、はめ込む画像を三次元空間に置いて、その中での移動、回転などの三次元トランスフォーム(3Dトランスフォーム)をジョイスティック350あるいはトラックボールなどによって、操作者が操作する。したがって、この画像処理装置100Eにおいては、ジョイスティック350等によりデジタル特殊効果装置360の三次元トランスフォームが制御されるのと並行して、同じ制御情報によってCGオブジェクトを仮想三次元空間中で制御する。
画像生成手段140からのCG画像の該当フレームがエフェクト・スイッチャ側(画像合成切り換え部170)に入るタイミング(フレーム)で丁度デジタル特殊効果装置360が対応する動作をするようにする。そのために、デジタル特殊効果装置360の制御と、制御情報の通信と、画像生成手段140のCGオブジェクト制御の処理タイミングを設定する。この場合、制御に遅延が必要な部分には遅延を加える。例えば、制御を受けてから出力画像に反映するまでが、画像生成手段140が3フレーム、デジタル特殊効果装置360が2フレームである場合は、画像生成手段140のほうに先に制御を与え、デジタル特殊効果装置360には1フレーム遅延して制御を与えるようにする。
ミキサ177において、両方の画像が合成されるので、結果として所望のCGオブジェクトの面に、入力ラインから選ばれた画像が、遅延フレーム数が比較的少なく、はめ込まれた出力画像が得られる。
本発明の以上の各例に対して、次の様な技術の適用も可能である。
手動操作でスーパーインポーズのオンオフを行う場合、単に瞬時にオンオフする(カット)のみでなく、徐々にフェードイン・フェードアウトさせる、あるいはワイプ信号を使い、画面の片側から徐々に表示するあるいは消すなどが可能である。
各制御タイミングは、合成される画像に反映されるまでの遅延を考慮し、合成されるときに同期すべき制御が同一フレームで作用するように、遅れの少ない側に適宜制御の遅延を加える。
手動操作でスーパーインポーズのオンオフを行う場合、単に瞬時にオンオフする(カット)のみでなく、徐々にフェードイン・フェードアウトさせる、あるいはワイプ信号を使い、画面の片側から徐々に表示するあるいは消すなどが可能である。
各制御タイミングは、合成される画像に反映されるまでの遅延を考慮し、合成されるときに同期すべき制御が同一フレームで作用するように、遅れの少ない側に適宜制御の遅延を加える。
また、画像はフレームの順列であるが、画像マッピング手段150等などに入力された画像が画像生成手段140等の出力に反映される迄には例えば3フレームなどの時間を要する。したがって、入力の元になるT1などの画像を切り替えるクロスポイントスイッチ群162等が動作してから、画像が合成される迄には遅延があり、必要に応じてそれを加味した制御を行う。例えば、画像T1などの切り替えと別のスーパーインポーズのオンなどの制御を同時に画に加えたい場合は、クロスポイントスイッチ群162等の制御を先に指示し、その後例えば3フレームの遅延を加えて別のスーパーインポーズのオンなどの制御を行う。
また、本発明はアニメーションによる動作のみでなく、ジョイスティックなどによる手動操作の場合も同様に適用できる。
また、本発明はアニメーションによる動作のみでなく、ジョイスティックなどによる手動操作の場合も同様に適用できる。
この発明は、作成したCGを生放送の運用等で使う場合に、テクスチャマッピングされる画像に応じた文字列をこの画像に対応した位置に見易く挿入できるものであり、放送システムにおける特殊効果装置等に適用できる。
100,100A,100B,100C,100D,100E・・・画像処理装置、110・・・CG制作手段、120,120A,120B・・表面指定手段、130・・・ネットワーク、140,140A,140B,140C・・・画像生成手段、141・・・画像入出力部、142・・・GPU、143・・・ローカルメモリ、144・・・CPU、145・・・メインメモリ、146・・・周辺デバイス制御部、147・・・HDD、148a・・・イーサネット回路、148b・・・ネットワーク端子、149・・・USB端子、151・・・SDRAM、150,150A,150B・・・画像マッピング手段、152,152-1〜152-4・・・画像入力部、153,153-1〜153-4・・・テクスチャ画像記憶部、154・・・CG制御部、155・・・CG描画部、156・・・テクスチャ座標制御部、157・・・フレームバッファ、158・・・画像出力部、160,160B・・・補助出力部、161,161a〜161d・・・補助出力選択バス、162,162a〜162d・・・クロスポイントスイッチ群、170,170B・・・画像合成切り替え部、171,171B・・・入力選択部、172b,172b1〜172b4・・・キーフィルバス、172a,172a1〜172a4・・・キーソースバス、172c・・・背景Aバス、172d・・・背景Bバス、173a〜173d,173a1〜173a4,173b1〜173b4,175・・・クロスポイントスイッチ群、174・・・予備入力バス、176,176a〜176d・・・キープロセッサ(画像加工部)、177,177B・・・ミキサ、178・・・出力ライン、180,180B・・・位置送信手段、180D・・・はめ込み幾何学情報送信手段、190・・・合成切り替え制御部、191・・・CGモード切り替え手段、195・・・合成切り替え操作入力部、196・・・オン操作手段、210・・・マトリクススイッチ、221〜218・・・出力バスライン、221〜228・・・クロスポイントスイッチ群、230・・・画像選択操作手段、240・・・スーパーインポーズ手段、260・・・コントロールパネル、271,172・・・押しボタン列、273,274・・・文字表示部、310・・・オン操作手段、320・・・文字生成操作手段、330・・・画像選択操作手段、350・・・ジョイスティック、360・・・デジタル特殊効果装置、370・・・接続切り替え部
Claims (8)
- コンピュータグラフィクス記述データに基づいてコンピュータグラフィクス画像を生成する画像生成手段と、
上記画像生成手段が描画するコンピュータグラフィクスのオブジェクトまたは該オブジェクトの部分をテクスチャマッピング対象とし、該テクスチャマッピング対象の表面にテクスチャマッピング画像をテクスチャマッピングする画像マッピング手段と、
上記コンピュータグラフィクス画像における上記テクスチャマッピング対象の位置情報に基づき、上記画像マッピング手段でテクスチャマッピングされたコンピュータグラフィクス画像の上記テクスチャマッピング対象に対応した位置に、スーパーインポーズ画像をスーパーインポーズするスーパーインポーズ手段と
を備える画像処理装置。 - 上記テクスチャマッピング画像の一つまたは複数の系統と、上記スーパーインポーズ画像の1つまたは複数の系統との対応関係を設定する情報設定手段をさらに備え、
上記スーパーインポーズ手段は、上記情報設定手段で設定された上記対応関係に基づいて、上記テクスチャマッピング対象の表面にテクスチャマッピングされる上記テクスチャマッピング画像に対応した上記スーパーインポーズ画像を、該テクスチャマッピング対象に対応した位置にスーパーインポーズする
請求項1に記載の画像処理装置。 - 上記コンピュータグラフィクス記述データ中の所定の属性の値の選択により上記テクスチャマッピング対象を指定する表面指定手段をさらに備え、
上記表面指定手段は、上記テクスチャマッピング画像の系統毎に、上記テクスチャマッピング対象を指定する
請求項2に記載の画像処理装置。 - 上記スーパーインポーズ画像をコンピュータグラフィクスオブジェクトとして生成するスーパーインポーズ画像生成手段をさらに備える
請求項1に記載の画像処理装置。 - 複数の入力画像データから1つの画像データを選択するテクスチャマッピング画像データ選択手段をさらに備え、
上記画像マッピング手段は、上記テクスチャマッピング対象の表面に、上記テクスチャマッピング画像データ選択手段で選択された画像データによるテクスチャマッピング画像をテクスチャマッピングする
請求項1に記載の画像処理装置。 - 複数の入力画像データから1つの画像データを選択するスーパーインポーズ画像データ選択手段をさらに備え、
上記スーパーインポーズ手段は、上記スーパーインポーズ画像データ選択手段で選択された画像データによるスーパーインポーズ画像をスーパーインポーズする
請求項1に記載の画像処理装置。 - 上記テクスチャマッピングされたコンピュータグラフィクス画像を使用する第1のモードおよび該コンピュータグラフィクス画像とは異なる他の画像を使用する第2のモードを切り替えるモード切り替え手段をさらに備え、
上記スーパーインポーズ手段は、
上記第1のモードに切り替えられているとき、上記コンピュータグラフィクス画像における上記テクスチャマッピング対象の位置情報に基づき、上記画像マッピング手段でテクスチャマッピングされたコンピュータグラフィクス画像の上記テクスチャマッピング対象に対応した画像位置に、上記スーパーインポーズ画像をスーパーインポーズし、
上記第2のモードに切り替えられているとき、上記他の画像の所定位置に、上記スーパーインポーズ画像をスーパーインポーズする
請求項1に記載の画像処理装置。 - コンピュータグラフィクス記述データに基づいてコンピュータグラフィクス画像を生成する画像生成ステップと、
上記画像生成ステップで描画されるコンピュータグラフィクスのオブジェクトまたは該オブジェクトの部分をテクスチャマッピング対象とし、該テクスチャマッピング対象の表面にテクスチャマッピング画像をテクスチャマッピングする画像マッピングステップと、
上記コンピュータグラフィクス画像における上記テクスチャマッピング対象の位置情報に基づき、上記画像マッピングステップでテクスチャマッピングされたコンピュータグラフィクス画像の上記テクスチャマッピング対象に対応した位置に、スーパーインポーズ画像をスーパーインポーズするスーパーインポーズステップと
を備える画像処理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009166176A JP2011023902A (ja) | 2009-07-14 | 2009-07-14 | 画像処理装置および画像処理方法 |
CN2010102243014A CN101958002A (zh) | 2009-07-14 | 2010-07-07 | 图像处理装置以及图像处理方法 |
US12/831,637 US9001139B2 (en) | 2009-07-14 | 2010-07-07 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009166176A JP2011023902A (ja) | 2009-07-14 | 2009-07-14 | 画像処理装置および画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011023902A true JP2011023902A (ja) | 2011-02-03 |
JP2011023902A5 JP2011023902A5 (ja) | 2012-08-16 |
Family
ID=43464958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009166176A Abandoned JP2011023902A (ja) | 2009-07-14 | 2009-07-14 | 画像処理装置および画像処理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9001139B2 (ja) |
JP (1) | JP2011023902A (ja) |
CN (1) | CN101958002A (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010118739A (ja) * | 2008-11-11 | 2010-05-27 | Sony Corp | スイッチャ制御装置、スイッチャ制御方法および画像合成装置 |
JP2012221122A (ja) * | 2011-04-06 | 2012-11-12 | Sony Corp | 画像処理装置、画像処理方法およびプログラム |
JP2014106276A (ja) * | 2012-11-26 | 2014-06-09 | Sony Corp | 画像処理装置および画像処理装置の制御方法 |
CN105894564B (zh) * | 2016-03-30 | 2020-02-14 | 百度在线网络技术(北京)有限公司 | 路面纹理的生成方法和装置 |
US10719738B2 (en) * | 2017-07-12 | 2020-07-21 | Banuba Limited | Computer-implemented methods and computer systems configured for generating photorealistic-imitating synthetic representations of subjects |
CN107633541B (zh) * | 2017-09-14 | 2021-05-18 | 光锐恒宇(北京)科技有限公司 | 一种图像特效的生成方法和装置 |
CN107958480B (zh) * | 2017-11-23 | 2021-04-30 | 腾讯科技(上海)有限公司 | 图像渲染方法、装置及存储介质 |
CN108810648A (zh) * | 2018-06-29 | 2018-11-13 | 青岛海信电器股份有限公司 | 一种进行图像处理的方法及终端 |
US20220410002A1 (en) * | 2021-06-29 | 2022-12-29 | Bidstack Group PLC | Mesh processing for viewability testing |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6256041B1 (en) * | 1995-08-04 | 2001-07-03 | Sun Microsystems, Inc. | Decompression of three-dimensional geometry data representing a regularly tiled surface portion of a graphical object |
JP3625172B2 (ja) * | 2000-04-26 | 2005-03-02 | コナミ株式会社 | 画像作成装置、画像作成方法、画像作成プログラムが記録されたコンピュータ読み取り可能な記録媒体およびビデオゲーム装置 |
JP2002015339A (ja) | 2000-06-30 | 2002-01-18 | Matsushita Electric Ind Co Ltd | 3次元映像編集表示装置 |
US6573842B2 (en) * | 2000-10-06 | 2003-06-03 | Matsushita Electric Industrial Co., Ltd. | Map display device, map display method, and computer program for use in map display device |
KR20050018315A (ko) * | 2003-08-05 | 2005-02-23 | 삼성전자주식회사 | 텍스트 자막을 다운로드받기 위한 정보를 저장하는정보저장매체, 자막 재생 방법 및 장치 |
US20060244757A1 (en) * | 2004-07-26 | 2006-11-02 | The Board Of Trustees Of The University Of Illinois | Methods and systems for image modification |
JP2006325165A (ja) | 2005-05-20 | 2006-11-30 | Excellead Technology:Kk | テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法 |
JP4594892B2 (ja) * | 2006-03-29 | 2010-12-08 | 株式会社東芝 | テクスチャマッピング装置、方法およびプログラム |
US8432495B2 (en) * | 2006-09-15 | 2013-04-30 | Panasonic Corporation | Video processor and video processing method |
JP4266233B2 (ja) * | 2007-03-28 | 2009-05-20 | 株式会社東芝 | テクスチャ処理装置 |
US8212806B2 (en) * | 2008-04-08 | 2012-07-03 | Autodesk, Inc. | File format extensibility for universal rendering framework |
JP2010033367A (ja) * | 2008-07-29 | 2010-02-12 | Canon Inc | 情報処理装置及び情報処理方法 |
US8514238B2 (en) * | 2008-11-21 | 2013-08-20 | Adobe Systems Incorporated | System and method for adding vector textures to vector graphics images |
-
2009
- 2009-07-14 JP JP2009166176A patent/JP2011023902A/ja not_active Abandoned
-
2010
- 2010-07-07 CN CN2010102243014A patent/CN101958002A/zh active Pending
- 2010-07-07 US US12/831,637 patent/US9001139B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US9001139B2 (en) | 2015-04-07 |
US20110012912A1 (en) | 2011-01-20 |
CN101958002A (zh) | 2011-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011023902A (ja) | 画像処理装置および画像処理方法 | |
US11079912B2 (en) | Method and apparatus for enhancing digital video effects (DVE) | |
WO2017013936A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US8306399B1 (en) | Real-time video editing architecture | |
WO2021135320A1 (zh) | 一种视频的生成方法、装置及计算机系统 | |
WO2017013925A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20100060652A1 (en) | Graphics rendering system | |
WO2009122213A2 (en) | Storyboard generation method and system | |
KR101669897B1 (ko) | 3d 객체 모듈을 이용한 가상 스튜디오 영상 생성 방법 및 장치 | |
US8698830B2 (en) | Image processing apparatus and method for texture-mapping an image onto a computer graphics image | |
JP3472065B2 (ja) | アニメーション生成装置およびアニメーション生成方法 | |
JP2009064356A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
JP2011223218A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2011022728A (ja) | 画像処理装置および画像処理方法 | |
US20120256911A1 (en) | Image processing apparatus, image processing method, and program | |
US20120256946A1 (en) | Image processing apparatus, image processing method and program | |
CN103714558A (zh) | 图像处理装置、图像处理方法和程序 | |
US10223823B2 (en) | Image processing apparatus and method | |
JP2013042309A (ja) | タイムライン動作制御装置、タイムライン動作制御方法、プログラムおよび画像処理装置 | |
JP2014146162A (ja) | 画像合成処理方法及び遊技機 | |
JP2009093287A (ja) | 画像処理装置、画像処理方法、プログラム | |
JP5817300B2 (ja) | 奥行き製作支援装置、奥行き製作支援方法、およびプログラム | |
JP2004062457A (ja) | 商品情報提供システム | |
JP2011118825A (ja) | モノクロ動画の着色装置及びモノクロ動画の着色方法 | |
JP2004030402A (ja) | 画像編集装置及び記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120704 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120704 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20130415 |