JPWO2008015978A1 - 映像表示装置および映像表示方法 - Google Patents
映像表示装置および映像表示方法 Download PDFInfo
- Publication number
- JPWO2008015978A1 JPWO2008015978A1 JP2008527729A JP2008527729A JPWO2008015978A1 JP WO2008015978 A1 JPWO2008015978 A1 JP WO2008015978A1 JP 2008527729 A JP2008527729 A JP 2008527729A JP 2008527729 A JP2008527729 A JP 2008527729A JP WO2008015978 A1 JPWO2008015978 A1 JP WO2008015978A1
- Authority
- JP
- Japan
- Prior art keywords
- close
- video
- area
- display area
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/6661—Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Processing (AREA)
Abstract
基本映像とクローズアップ映像の両方を、より効果的に表示することができる映像表示装置。この装置は、表示の対象となる基本映像における特定のオブジェクトの表示領域を判別し、前記基本映像における特定のオブジェクトの表示領域に応じて、基本映像のクローズアップ映像の表示領域を決定するクローズアップ領域決定部(330)を有する。
Description
本発明は、コンピュータグラフィックスアニメーションなどの映像を表示する映像表示装置および映像表示方法に関する。
近年、登場キャラクタに表情の変化などの細かな動きを持たせるようにしたコンピュータグラフィックスアニメーション(以下「CGアニメーション」という)が、注目されている。このような映像の細部を把握し易くするために、特定のオブジェクトをクローズアップした映像を表示させる技術が、たとえば特許文献1および特許文献2に記載されている。
特許文献1記載の技術では、表示の対象となる基本の映像(以下「基本映像」という)と、キャラクタなど、基本映像に登場する特定のオブジェクトをクローズアップした映像(以下「クローズアップ映像」という)とを、切り替えて表示する。これにより、キャラクタの顔の表情といった細かな動きを、把握し易くすることができる。
また、特許文献2記載の技術では、基本映像の表示領域とは別にあらかじめ用意された領域に、クローズアップ映像を表示する。これにより、オブジェクトの細かな動きを、把握し易くすることができる。
特開2003−323628号公報
特開2002−150317号公報
しかしながら、上記した特許文献1記載の技術では、クローズアップ映像が表示されている間、基本映像が表示されないという問題がある。たとえば、あるキャラクタがクローズアップ表示されている間に、他のキャラクタがアクションを起こしていても、そのアクションの様子が表示することができない。また、キャラクタの顔部分といった特定部位のみをクローズアップの対象としている場合には、そのキャラクタが全身動作を行っていても、その全身動作の様子を表示することができない。すなわち、特許文献1記載の技術は、クローズアップ表示されているオブジェクトの全体動作や周囲状況などが把握できないという課題を有している。
また、上記した特許文献2記載の技術では、あらかじめ用意された限られた画面上に、基本映像の表示領域とクローズアップ映像の表示領域の両方を配置しなければならないため、基本映像の表示領域が狭くなるという問題がある。特に、携帯電話機やPDA(personal digital assistant)の液晶パネルのように、小さくて解像度の低い画面で表示が行われる場合、クローズアップ表示されているオブジェクト自身の全体動作や周囲状況などが把握しづらくなる。各種ハードウェアの処理能力の向上や、コンピュータグラフィックス技術の発達により、このような小型の機器においても、CGアニメーション映像を利用したアプリケーションソフトウェアが多く開発されている。
したがって、小さくて解像度の低い画面においても、基本映像とクローズアップ映像の両方を効果的に表示できることが望ましい。
本発明の目的は、基本映像とクローズアップ映像の両方を、より効果的に表示することができる映像表示装置および映像表示方法を提供することである。
本発明の映像表示装置は、表示の対象となる基本映像における特定のオブジェクトの表示領域を判別する表示領域判別部と、前記基本映像における特定のオブジェクトの表示領域に応じて、基本映像のクローズアップ映像の表示領域を決定するクローズアップ領域決定部とを具備する構成を採る。
本発明の映像表示方法は、表示の対象となる基本映像における特定のオブジェクトの表示領域を判別する表示領域判別ステップと、前記表示領域判別ステップで判別した前記基本映像における特定のオブジェクトの表示領域に応じて、基本映像のクローズアップ映像の表示領域を決定するクローズアップ領域決定ステップとを有するようにした。
本発明によれば、クローズアップ映像の表示領域を、基本映像における特定のオブジェクトの表示領域に応じて決定することにより、基本映像とクローズアップ映像の両方を、より効果的に表示することができる。
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
図1は、本発明の一実施の形態に係る映像表示装置としてのCGアニメーション表示システムの構成を示すシステム構成図である。
図1において、CGアニメーション表示システム100は、映像素材データベース200、CGアニメーション生成部300、および映像表示部400を有する。CGアニメーション生成部300は、カメラワーク決定部310、CG描画部320、クローズアップ領域決定部330、スムージング補間決定部340、およびクローズアップ領域制御部350を有する。CG描画部320は、基本映像生成部321およびクローズアップ映像生成部322を有する。映像表示部400は、映像表示領域410およびクローズアップ表示領域420を有する。また、CGアニメーション表示システム100は、CGアニメーションの基となるアニメーションシナリオ600を入力する。
図2は、アニメーションシナリオ600の記述例を示す説明図である。アニメーションシナリオ600は、映画やドラマの台本のようなものである。アニメーションシナリオ600には、「Scene(場面)」610が複数記述されている。各「Scene」610は、背景セットを示す属性「location」611を有している。また、各「Scene」610は、複数の「Direction(ト書き)」620を子要素として有している。各「Direction」620には、「Subject(動作主)」、「Action(動作)」、「Object(目的語)」、などの情報が記述されている。また、各「Direction」620には、動作主がキャラクタの場合には、「Expression(表情)」などの付加情報も記述されている。
さらに、アニメーションシナリオ600には、「Resource(リソース情報)」630が記述されている。「Resource(リソース情報)」630は、各「Scene」610で記述される各種名称と、CGアニメーション映像として表示するのに必要な映像素材とを対応付けたものである。具体的には、各「Resource」630は、映像素材の識別子を示す属性「uri」と、「Scene」610や「Subject」などで記述される名称を示す属性「name」とを有している。
たとえば、「Scene」610aの「Direction」620aには、キャラクタの名称である「あきら」が、動作主として記述されている。また、「Resource」630aには、「あきら」という名称に対応付けて、「http://media.db/id/character/akira」という映像素材の識別子が記述されている。
図1に示す映像素材データベース200は、CGアニメーションを生成するのに必要な映像素材を格納している。映像素材は、少なくとも、キャラクタや背景セットなどの各種オブジェクトの形状や外観を示す3D(dimension)モデルデータを含む。また、映像素材には、他にも、モーションデータ、静止画データ、動画データ、音声データ、および楽譜データなどが含まれる。モーションデータは、3Dモデルデータの動きを示すデータである。静止画データおよび動画データは、3Dモデルデータのテクスチャや背景などの描画に用いられるデータである。音声データは、効果音や合成音声などの出力に用いられるデータである。楽譜データは、BGM(back ground music)などの出力に用いられるデータである。
CGアニメーション生成部300は、映像素材データベース200から必要な映像素材を取得して、アニメーションシナリオ600の記述に沿った内容のCGアニメーションを生成する。
CGアニメーション生成部300は、生成したCGアニメーションの基本映像と、生成したCGアニメーションに登場するオブジェクトのクローズアップ映像とを、映像表示部400に表示させる。
CGアニメーション生成部300において、カメラワーク決定部310は、アニメーションシナリオ600の記述を基に、アニメーション空間におけるキャラクタや背景セットなどのオブジェクトの位置を決定する。そして、カメラワーク決定部310は、位置を決定したオブジェクトを撮影するカメラワークを決定する。具体的には、カメラワーク決定部310は、たとえば、アニメーション空間のあらかじめ定められた位置にカメラを配置して、基本のカメラワークを決定する。または、カメラワーク決定部310は、特定のオブジェクトを基準として撮影を行うように、基本のカメラワークを決定する。なお、アニメーションシナリオからCGアニメーションのカメラワークを決定する技術は既知であり、たとえば、特開2005−44181号公報に記載されているため、ここでの説明を省略する。
また、カメラワーク決定部310は、基本映像にキャラクタが登場するシーンでは、基本のカメラワークと併せて、キャラクタの顔部分をクローズアップで撮影するカメラワークも決定する。そして、カメラワーク決定部310は、決定した各オブジェクトの位置とカメラワークの内容を、座標データなどにより内部的にパラメータ化したデータを生成し、生成したデータをCG描画部320へ出力する。
CG描画部320は、カメラワーク決定部310から入力されるデータと、アニメーションシナリオ600の記述とに基づいて、映像素材データベース200から、描画に必要な映像素材を取得し、CGアニメーション映像を生成する。具体的には、CG描画部320は、まず、アニメーションシナリオ600の記述に従って映像素材を映像素材データベース200から取得する。そして、CG描画部320は、取得した各映像素材を、カメラワーク決定部310により決定された位置に配置する。
たとえば、CG描画部320は、アニメーションシナリオ600の「Direction」620aの記述内容をCGアニメーション化する際には、識別子「http://media.db/id/character/akira」に該当する映像素材を、映像素材データベース200から取得し、動作主として配置する。
CG描画部320は、取得した各映像素材を配置すると、カメラワーク決定部310で決定されたカメラワークを実現したときの映像を生成する。そして、CG描画部320は、映像表示部400に対して、生成した映像を描画させる。具体的には、CG描画部320において、基本映像生成部321は、基本のカメラワークを基に基本映像を生成し、生成した基本映像をクローズアップ領域決定部330および映像表示部400へ出力する。また、クローズアップ映像生成部322は、クローズアップのカメラワークを基にクローズアップ映像を生成し、生成したクローズアップ映像を映像表示部400へ出力する。
なお、各映像素材はコンピュータグラフィックスであるため、基本映像が映像表示部400の映像表示領域410に描画されたときに映像表示領域410のどの部分にどのような画像が表示されるかを判別することは、容易である。
クローズアップ領域決定部330は、クローズアップ表示領域420のサイズや位置を決定する。そして、クローズアップ領域決定部330は、決定したクローズアップ表示領域420のサイズや位置を示す情報を、映像表示部400およびスムージング補間決定部340へ出力する。ただし、クローズアップ領域決定部330は、CG描画部320から入力される基本映像を解析し、映像表示領域410の内部のうち、優先的に表示すべきオブジェクトの表示領域以外の領域を判別する。そして、クローズアップ領域決定部330は、優先的に表示すべきオブジェクトの表示領域以外の領域と判別した領域に、クローズアップ表示領域420を決定する。なお、たとえば、上記した特許文献1記載の技術のように、映像表示領域410とクローズアップ表示領域420とが、別々の表示領域としてあらかじめ用意されている場合には、このようなクローズアップ領域決定部330の機能が不要であることは、いうまでもない。
スムージング補間決定部340は、クローズアップ領域決定部330から入力された情報を基に、クローズアップ表示領域420の変化を解析する。そして、スムージング補間決定部340は、解析したクローズアップ表示領域420の変化を補間し、クローズアップ表示領域420の変化が、滑らかにまたは自然に行われるようにする。
クローズアップ領域制御部350は、クローズアップ映像生成部322によって生成されるクローズアップ映像を、映像表示部400で表示させるか否かを判断する。
映像表示部400は、液晶パネルなどの表示画面(図示せず)を有しており、表示画面に、CGアニメーションの基本映像を表示させるための領域である映像表示領域410を配置している。また、映像表示部400は、表示画面に、CGアニメーションのクローズアップ映像を表示させるための領域であるクローズアップ表示領域420を配置している。そして、映像表示部400は、CGアニメーション生成部300から入力される基本映像を、映像表示領域410に描画するとともに、CGアニメーション生成部300から入力されるクローズアップ映像を、クローズアップ表示領域420に描画する。ただし、クローズアップ表示領域420のサイズや位置および表示/非表示は、CGアニメーション生成部300から入力される情報によって制御される。
CGアニメーション表示システム100は、図示しないが、CPU(Central Processing Unit)と、制御プログラムを格納したROM(Read Only Memory)などの記憶媒体と、RAM(Random Access Memory)などの作業用メモリなどによって構成されている。制御プログラムをCPUが実行することで、上記した各部の機能は実現される。
なお、映像素材データベース200、映像表示領域410、およびクローズアップ表示領域420は、それぞれバスを介して直接にCGアニメーション生成部300に接続されてもよいし、ネットワークを介してCGアニメーション生成部300に接続されてもよい。
以下、クローズアップ領域決定部330の動作について、詳細に説明する。
図3は、クローズアップ領域決定部330が実行する処理の流れを示すフローチャートである。また、図4は、ある瞬間の基本映像(以下、単に「基本映像」という)を例として、クローズアップ領域決定部330が実行する各処理の内容を示す。ここでは、図3および図4を参照して、クローズアップ領域決定部330の動作の説明を行う。
図3のステップS1000において、クローズアップ領域決定部330は、基本映像から、キャラクタなどの優先的に表示すべきオブジェクトをピックアップする。そして、クローズアップ領域決定部330は、ピックアップしたオブジェクトが表示される領域に基づいて、映像表示領域410を、候補対象領域と候補対象外領域とに区分する。候補対象領域は、クローズアップ表示領域420の候補として扱う領域である。候補対象外領域は、クローズアップ表示領域420の候補のとして扱わない領域である。ここでは、クローズアップの対象となるオブジェクトが、優先的に表示すべきオブジェクトであるものとする。
図4Aに示すように、アニメーションシナリオ600に基づいて、キャラクタ「あきら」702aと、キャラクタ「なつこ」702bが配置された基本映像701が、CG描画部320の基本映像生成部321で生成されたとする。この場合、クローズアップ領域決定部330は、キャラクタ「あきら」702aおよびキャラクタ「なつこ」702bをピックアップする。
そして、クローズアップ領域決定部330は、図4Bに示すように、基本映像701が表示される映像表示領域410をN×M(いずれも自然数)の領域に分割し、個々の分割領域に対して、ピックアップしたキャラクタの表示領域が存在するか否かを判別する。そして、クローズアップ領域決定部330は、映像表示領域410のうち、キャラクタの表示領域が存在しない分割領域を、クローズアップ表示領域420の候補対象領域に決定する。また、クローズアップ領域決定部330は、キャラクタの表示領域が存在する分割領域を、クローズアップ表示領域420の候補対象外領域703(図中斜線部分)に決定する。
なお、図4では、映像表示領域410を、横方向に8つ、縦方向に6つに、矩形状に48分割しているが、分割の方向や数および形状は、これに限定されるものではない。たとえば、ドット単位で処理を行い、キャラクタの輪郭で閉じられた領域のみを対象外領域としてもよい。
次に、図3のステップS2000において、クローズアップ領域決定部330は、クローズアップすべきオブジェクト(優先的に表示すべきオブジェクト)のうち、クローズアップ候補領域の決定の処理を行っていないものが残っているか否かを判別する。クローズアップ候補領域は、後述するクローズアップ表示領域420となり得る領域である。クローズアップ領域決定部330は、クローズアップすべきオブジェクトが残っている場合には(S2000:YES)、ステップS3000の処理へ進む。また、クローズアップ領域決定部330は、クローズアップすべきオブジェクトが残っていない場合には(S2000:NO)、ステップS4000の処理へ進む。
次に、ステップS3000において、クローズアップ領域決定部330は、クローズアップすべきオブジェクトを1つ選択し、選択したオブジェクトに基づいて、クローズアップ候補領域を決定する。ここでは、まず、キャラクタ「あきら」702aに基づいて、クローズアップ候補領域を決定する場合を例として説明を行う。
クローズアップすべきオブジェクトが複数存在する場合の選択順序は、たとえば、アニメーションシナリオ600における登場順序とすればよい。または、各オブジェクトにあらかじめ重要度を設定し、重要度に応じた順序で選択したり、その都度ランダムに選択を行うようにしてもよい。
図5は、図3のステップS3000で実行される処理の流れを示すフローチャートである。
ステップS3100において、クローズアップ領域決定部330は、処理の対象としているオブジェクトの表示領域が存在する分割領域(以下「オブジェクト配置領域」という)704を判別する。そして、クローズアップ領域決定部330は、映像表示領域410の各分割領域のうち、判別したオブジェクト配置領域704から最も遠い距離に位置する分割領域を選択する。最も遠い距離に位置する分割領域の算出は、単純な直線距離を用いたり、縦横など特定の方向に重みを付けて行うようにしてもよい。
または、最も遠い距離に位置する分割領域の算出は、隣り合う分割領域の距離を「1」とし、距離の計測方向を縦と横のみとして、各分割領域のオブジェクト配置領域704からの距離を示す数値を算出することにより行ってもよい。この場合には、クローズアップ領域決定部330は、最も数値の高い分割領域を、オブジェクト配置領域704から最も遠い距離に位置する領域とすればよい。この手法を用いて、図4Bの各分割領域に対してキャラクタ「あきら」702aのオブジェクト配置領域704aからの距離を示す数値を算出し、各分割領域の中に算出結果を示すと、図4Cのようになる。
ここでは、図4Cに示すように、映像表示領域410の左上の隅に位置する分割領域705aの数値が最も高くなる。したがって、この分割領域705aが、クローズアップ候補領域の基準となる分割領域(以下「候補基準領域」という)として選択される。なお、この候補基準領域は、オブジェクト配置領域704以外の領域であれば、必ずしもオブジェクト配置領域704から最も遠い距離に位置する領域である必要はない。
次に、図5のステップS3200において、クローズアップ領域決定部330は、候補基準領域として選択した分割領域の1つを、あらかじめ定められた条件に従って拡張し、拡張後の領域を、クローズアップ候補領域として選択する。
たとえば、拡張後の領域の条件として、「分割領域の縦2つ×横2つ分であり、候補対象外領域703が含まれない」という内容が設定されているとする。この場合、キャラクタ「あきら」702aが処理対象のオブジェクトのときには、図4Dに示すように、映像表示領域410の左上の隅の4つの分割領域からなる拡大領域706aが、クローズアップ候補領域として選択される。なお、拡張後の領域の条件として、たとえば、「分割領域の縦横の個数が同一であり、候補対象外領域703が含まれない最大領域」という内容を採用してもよい。
次に、図5のステップS3300において、クローズアップ領域決定部330は、オブジェクト配置領域から最も遠い距離位置する分割領域で、まだステップS3200で処理の対象となっていない他の分割領域が存在するか否かを判別する。すなわち、クローズアップ領域決定部330は、オブジェクト配置領域から、既にステップS3200の処理の対象となった分割領域と同じ距離に位置する分割領域が存在するか否かを判別する。クローズアップ領域決定部330は、該当する分割領域が存在する場合には(S3300:YES)、ステップS3200に戻って、該当する分割領域に基づいてクローズアップ候補領域の選択を行う。また、クローズアップ領域決定部330は、該当する分割領域が存在しない場合には(S3300:NO)、一連の処理を終了する。
ここでは、図4Cに示すように、数値が最も高くなる分割領域は1つしか存在しないため(S3300:NO)、クローズアップ領域決定部330は、クローズアップ候補領域を1つ選択した後、そのまま処理を終了する。
このようにして図3のステップS3000の処理が完了すると、クローズアップ領域決定部330は、図3のステップS2000へ戻る。ここでは、クローズアップすべきオブジェクトのうち、クローズアップ候補領域決定の処理の対象となっていないものとして、キャラクタ「なつこ」702bがまだ残っている(S2000:YES)。したがって、クローズアップ領域決定部330は、再びステップS3000の処理へ進む。そして、クローズアップ領域決定部330は、図5で説明した一連の処理を、今度はキャラクタ「なつこ」702bを処理対象として実行する。
キャラクタ「あきら」702a対象とした処理と同様に、キャラクタ「なつこ」702bのオブジェクト配置領域704bからの距離を示す数値を算出した場合の算出結果を、各分割領域の中に示すと、図4Eのようになる。ここでは、図4Eに示すように、映像表示領域410の四隅に位置する4つの分割領域の数値が、最も高くなる。
したがって、映像表示領域410の右上の隅に位置する分割領域705bを含めた四隅の分割領域が、候補基準領域として選択され、映像表示領域410の右上の隅に位置する拡大領域706bを含めた四隅の拡大領域が、クローズアップ候補領域として選択される。
このようにして、クローズアップすべきオブジェクトのすべてについてクローズアップアップ候補領域決定の処理が行われると(S2000:NO)、クローズアップ領域決定部330は、ステップS4000の処理へ進む。
ステップS4000において、クローズアップ領域決定部330は、クローズアップ表示の対象となる各オブジェクトに対し、決定されたクローズアップ候補領域を、クローズアップ表示領域420としてそれぞれ割り当てる。
たとえば、図4に示す基本映像701の場合には、上記したように、映像表示領域410の四隅の拡大領域が、クローズアップ候補領域して決定される。ここで、クローズアップ表示領域420の割り当てのルールとして、たとえば、「上側のクローズアップ候補領域を優先的に割り当てるとともに、クローズアップ候補領域の候補から距離が近い順に割り当てを行う」という内容が、あらかじめ設定されているものとする。
映像表示領域410の四隅に位置する拡大領域の上側の2つについて、各キャラクタ702からの距離を比較すると、最も距離が近いのは、キャラクタ「あきら」702aから分割領域706bまでの距離である。したがって、クローズアップ領域決定部330は、図4Fに示すように、まず、分割領域706bを、キャラクタ「あきら」702aのクローズアップ表示領域420aに割り当てる。そして、次に、クローズアップ領域決定部330は、図4Fに示すように、残った分割領域706aを、キャラクタ「なつこ」702bのクローズアップ表示領域420bに割り当てる。
なお、クローズアップ表示領域420の割り当てのルールとして、「1つ前に割り当てられたクローズアップ候補領域に最も近いクローズアップ候補領域を、優先的に割り当てる」という内容が設定されていてもよい。このようなルールを適用することにより、同一キャラクタ702のクローズアップ候補領域420の移動を、できるだけ抑えることが可能となる。
このようにして、クローズアップ領域決定部330は、必要なクローズアップ表示領域420のすべてを決定すると、一連の処理を終了する。
クローズアップ領域制御部350は、クローズアップ領域決定部330によって決定されるクローズアップ表示領域420を表示すべきか否かを逐次判別する。そして、クローズアップ領域決定部330は、クローズアップ表示領域420を表示すべきか否かの判別結果に応じてクローズアップ表示領域420の表示/非表示を制御する。
たとえば、クローズアップ領域決定部330は、クローズアップ領域決定部330によって決定されるクローズアップ表示領域420が、あらかじめ決められた面積以上確保できた場合のみ、クローズアップ表示領域420を表示するように制御する。または、クローズアップ領域決定部330は、キャラクタ702のアクションに同期して、対応するクローズアップ表示領域420の表示を制御する。より具体的には、クローズアップ領域決定部330は、キャラクタ702が発話するときだけ、またはキャラクタ702の表情が変化する一定区間だけ、対応するクローズアップ表示領域420を表示するよう制御する。これにより、効果の低いクローズアップ表示を低減し、画面の煩雑さや装置負荷を軽減することが可能となる。
なお、クローズアップ領域決定部330は、たとえば、キャラクタ702の発話している区間や表情が変化する区間を、アニメーションシナリオ600の記述から判別する。具体的には、たとえば、「Expression(表情)」が記述されている「Direction(ト書き)」620に対応する区間を特定し、その区間を前後数秒間だけ拡大した区間を、キャラクタ702の表情が変化する区間と判別する。
以上の処理により各クローズアップ表示領域420が表示されると、図4Fに示すように、キャラクタ「あきら」702aのクローズアップ映像707aが、基本映像701の右上に表示され、キャラクタ「なつこ」702bのクローズアップ映像707bが、基本映像701の左上に表示される。
図4Fからも分かるように、クローズアップ領域決定部330による処理の結果として、各クローズアップ映像707は、いずれも、キャラクタ702に重ならない位置に表示される。すなわち、各キャラクタ702の全身と顔部分の両方が表示される。また、キャラクタ702の全身のアクションと、顔の表情とが、効率よく表示され、表現豊かな映像が実現される。さらに、映像表示領域410の内部にクローズアップ映像707が表示されるので、基本映像701の表示領域のサイズおよび各キャラクタ702の全身の表示サイズはそのままとなる。
なお、クローズアップ領域決定部330は、分割領域705や拡大領域706を決定した後、クローズアップ表示領域を矩形以外の形状に変化させるようにしてもよい。
図6は、クローズアップ表示領域を変形させた場合の映像の一例を示す説明図である。ここでは、矩形状のクローズアップ表示領域に対して、対応するキャラクタ702のクローズアップの中心点に最も近い頂点を当該中心点に移動させる形で、変形を加えた場合を図示している。ただし、変形されたクローズアップ表示領域708よりも手前側に、オブジェクトを表示させるようにしている。このように変形されたクローズアップ表示領域708は、どのオブジェクトのクローズアップ映像であるのかをより分かり易くすることができる。
また、クローズアップ表示領域420の決定後、または変形後に、再度カメラワーク決定部310で新たなクローズアップのカメラワークを決定するようにしてもよい。または、クローズアップのカメラワークの決定自体を、クローズアップ表示領域420の決定後に行うようにしてもよい。
さらに、図4および図6では、クローズアップ映像の撮影方向が、基本映像の撮影方向と同じ場合を図示しているが、これに限るものではない。たとえば、常にキャラクタの顔正面から撮影を行うようなクローズアップのカメラワークを決定するようにしてもよい。これにより、たとえば、基本映像では後ろ向きとなっているキャラクタでも、その表情を表示させることができる。
また、上記の説明では、図3のステップS1000の説明で記載したとおり、クローズアップの対象となるオブジェクトが、優先的に表示すべきオブジェクトであるとしたが、クローズアップの対象となるオブジェクトを、優先的に表示すべきオブジェクトの全部または一部としてもよい。この場合には、クローズアップ領域決定部330は、図3のステップS1000で、優先的に表示すべきオブジェクトを、候補対象領域と候補対象外領域との区分の決定のために用い、図4のステップS3000で、優先的に表示すべきオブジェクトの全部また一部であるクローズアップの対象となるオブジェクトを、クローズアップ候補領域の決定のために用いることになる。
クローズアップの対象となるオブジェクトと、クローズアップの対象とならないオブジェクトの区別には、各種の規則を適用できる。たとえば、図2に示す「Direction(ト書き)」620のうち「Expression(表情)」が定義されているものをクローズアップの対象にする、という規則を適用する。また、たとえば、図2に示す「Resource(リソース情報)」630にそのオブジェクトが対象であるか否かを示す属性が定義されている場合にはクローズアップの対象にする、という規則を適用する。
オブジェクトがクローズアップの対象であるか否かを示す属性としては、たとえば、オブジェクトが人であるか否かを示す属性を用いればよい。オブジェクトが人であるか否かを示す属性は、たとえば「attr」とし、「person」が設定されているか否かにより人であるか否かを示す。この場合、アニメーションシナリオ600の「Resource(リソース情報)」630として、たとえば、「Resource name=“あきら” attr=person uri=・・・」が記述される。また、アニメーションシナリオ600の「Resource(リソース情報)」630として、たとえば、「Resource name=“椅子” attr=chair uri=・・・」が記述される。これらの「Resource(リソース情報)」630からは、「あきら」というオブジェクトが人であり、「椅子」というオブジェクトが人ではないということが分かる。
これにより、クローズアップ領域決定部330は、特に表情の変化が与えられないキャラクタや人以外のオブジェクトに対して、優先的な表示を保証する一方で、クローズアップは行なわないようにすることができる。
さらに、クローズアップの対象となるオブジェクトの個数が候補対象領域に比べて多すぎる場合には、クローズアップ領域決定部330は、クローズアップの対象を削減するようにしてもよい。たとえば、クローズアップ領域決定部330は、「Expression(表情)」の定義の有無や人のオブジェクトであるか否かに応じて、各オブジェクトに優先順位を決定する。そして、クローズアップ領域決定部330は、候補対象領域との関連で、優先順位の高いオブジェクトから順にクローズアップの対象を決定する。これにより、たとえば、オブジェクトが離散的に配置されているシーンでは、候補対象領域が狭くなることから、クローズアップの対象となるオブジェクトは少なくなり、逆に、オブジェクトが密集して配置されているシーンでは、候補対象領域が広くなることから、クローズアップの対象なるオブジェクトは多くなる。すなわち、シーンの状況に応じて、異なるクローズアップ表示の効果を得ることができる。
以上、ある瞬間の基本映像について、CGアニメーション表示システム100がどのように映像を表示するかについて説明した。ところが、アニメーションシナリオに基づいて生成される基本映像では、通常、オブジェクトの表示領域は、時々刻々と変化する。したがって、クローズアップ領域決定部330は、オブジェクトの表示領域が変化するたびに、上記したクローズアップ表示領域420の決定処理を動的に行う。または、クローズアップ領域決定部330は、オブジェクトの表示領域の変化の速度に比べて十分に細かい周期(1秒間に15回など)で、上記したクローズアップ表示領域420の決定処理を動的に行う。
以下、基本映像におけるオブジェクトの表示領域の変化に応じて、クローズアップ表示領域420が変化する様子を、基本映像の変化の一例を挙げて説明する。
図7は、クローズアップ表示の対象となる基本映像の変化の様子を示す説明図である。ここで、クローズアップ領域決定部330によって、クローズアップ表示領域420の決定の処理が9回連続して行われる際の各基本映像を、時系列で図示する。以下、クローズアップ領域決定部330によるクローズアップ表示領域420の決定の処理の対象となるアニメーション時刻を、領域決定時刻というものとする。
図7A〜図7Iに示すように、基本映像701には、キャラクタ「あきら」702aとキャラクタ「なつこ」702bが登場している。そして、各キャラクタ702のアニメーション空間における移動に伴って、各キャラクタ702の表示領域は、時間経過とともに変化している。
クローズアップ領域決定部330は、基本映像において、クローズアップ表示の対象となるオブジェクトごとに、オブジェクト配置領域704を判別する。
図8は、オブジェクト配置領域704の変化の様子を示す説明図である。図8A〜図8Iは、それぞれ図7A〜図7Iに対応している。
クローズアップ領域決定部330は、映像表示領域410を分割し、ここでは、キャラクタ「あきら」702aのオブジェクト配置領域704aと、キャラクタ「なつこ」702bのオブジェクト配置領域704bが、図7A〜図7Iに示す各基本映像701について決定される。
図8に示すように、各オブジェクト配置領域704も、時間経過とともに変化する。なお、キャラクタ「あきら」702aのオブジェクト配置領域704aと、キャラクタ「なつこ」702bのオブジェクト配置領域704bとを合わせた領域が、候補対象外領域703となる。
クローズアップ領域決定部330は、映像表示領域410の内部に、候補対象外領域703に重ならないように、クローズアップ表示領域420を決定する。
図9は、クローズアップ表示領域420の変化の様子を示す説明図である。図9A〜図9Iは、それぞれ図7A〜図7AIおよび図8A〜図8Iに対応している。
クローズアップ領域決定部330は、映像表示領域410のうち、候補対象外領域703以外の領域(候補対象領域)であり、かつ、あらかじめ設定された条件を満たす領域を、クローズアップ表示領域420に決定する。ここでは、映像表示領域410が、横方向に8つ、縦方向に8つに、矩形状に64分割され、クローズアップ候補領域の条件として、「分割領域の縦横の個数が同一であり、縦3つ分×横3つ分を超えない最大領域」が設定されている場合を図示している。
図9に示すように、クローズアップ表示領域420も、時間経過とともに変化するが、常にキャラクタ702の表示領域と重ならないようになっている。
クローズアップ領域決定部330は、クローズアップ表示の対象となる各オブジェクトに対して、あらかじめ設定された条件に従って、クローズアップ表示領域420を割り当てる。CG描画部320は、この割り当てに従って、各クローズアップ表示領域420に、該当するクローズアップ707映像を表示させることによって、最終的なCGアニメーション映像(以下「最終映像」という)を表示させる。
図10は、最終映像の変化の様子を示す説明図である。図10A〜図10Iは、それぞれ図9A〜図9Iに対応している。
CG描画部320は、クローズアップ表示の対象となる各オブジェクトのクローズアップ映像707を、割り当てられたクローズアップ表示領域420に表示させる。これにより、図10に示すように、各クローズアップ映像707は、各キャラクタ702の表示を阻害せずに基本映像701に割り込む形で表示される。
なお、図9Cおよび図10Cに示すように、上記したクローズアップ候補領域を決定する際の条件と候補対象領域との関係により、クローズアップ表示領域420が一時的に小さくなる場合がある。また、図10A〜図10Iに示すように、あるオブジェクトについてのクローズアップ表示領域420の位置は、領域決定時刻によって異なる。このようなクローズアップ表示領域420のサイズや位置の切り替えを、各領域決定時刻のみで離散的に行うと、不自然で見づらい最終映像となるおそれがある。
そこで、スムージング補間決定部340は、クローズアップ表示領域420のサイズや位置が連続的または自然に変化するように、各領域決定時刻の間の区間におけるクローズアップ表示領域420のサイズや位置を補間する。
スムージング補間決定部340は、クローズアップ領域決定部330によって決定されたクローズアップ表示領域420のサイズや位置を示す情報を、領域決定時刻ごとに取得する。そして、スムージング補間決定部340は、隣り合う領域決定時刻の間で、クローズアップ表示領域420の変化があるか否かを判別する。スムージング補間決定部340は、変化がある場合には、あらかじめ設定されたルールに従って、前後の領域決定時刻の間の区間におけるクローズアップ表示領域420の変化のさせ方を決定し、クローズアップ表示領域420の変化のスムージング処理を行う。
スムージング補間決定部340は、このクローズアップ表示領域420の変化のさせ方を決定するためのルールとして、たとえば、「前後の領域決定時刻の間でクローズアップ表示領域420が重なっている場合には、クローズアップ表示領域420の輪郭を連続的に変化させる」という内容を適用する。また、スムージング補間決定部340は、たとえば、「前後の領域決定時刻の間でクローズアップ表示領域420が重なっておらず、クローズアップ表示領域420を連続的に移動させることができる候補対象領域が存在する場合には、クローズアップ表示領域420を連続的に移動させる」という内容を適用する。さらに、スムージング補間決定部340は、たとえば、「前後の領域決定時刻の間でクローズアップ表示領域420が重なっておらず、クローズアップ表示領域420を連続的に移動させることができる候補対象領域が存在しない場合には、クローズアップ表示領域420を一旦消えるまで小さくし、位置を移動してから本来のサイズまで大きくしていく」という内容を適用する。
なお、各領域決定時刻の間の区間におけるクローズアップ表示領域420のサイズや位置の決定は、スムージング補間決定部340で行ってもよい。または、スムージング補間決定部340が、決定したスムージングの変化のさせ方をクローズアップ領域決定部330に出力し、上記クローズアップ表示領域420のサイズや位置の決定を、クローズアップ領域決定部330で行うようにしてもよい。決定された各領域決定時刻の間の区間におけるクローズアップ表示領域420のサイズや位置を示す情報は、映像表示部400へと出力される。
図11は、スムージング補間決定部340がクローズアップ表示領域420のサイズおよび位置を補間する様子の一例を示す説明図である。横軸800は、アニメーション時刻を示している。また、横軸800の上側は領域決定時刻に関する説明に対応し、横軸800の下側は各領域決定時刻の間の区間に関する説明に対応している。
図11に示すように、領域決定時刻である時刻t−10と、次の領域決定時刻である時刻t−20との間で、キャラクタ702が移動する場合、候補対象外領域703も移動する。その結果、時刻t−10、t−20について、クローズアップ表示領域420−10、420−20がそれぞれ決定されたとする。また、これらクローズアップ表示領域420−10、420−20は、図11に示すように、異なるサイズではあるものの、領域が重なっているものとする。
スムージング補間決定部340は、上記したルールを適用した場合、時刻t−10、t−20の間で、クローズアップ表示領域420の輪郭を連続的に変化させる。この結果、たとえば、時刻t−10、t−20の間の時刻t−11では、図11に示すように、クローズアップ表示領域420−10、420−20の間の大きさであるクローズアップ表示領域420−11を用いて補間が行われる。このようにして、クローズアップ表示領域420のサイズは、スムーズに変化する。
図12は、スムージング補間決定部340がクローズアップ表示領域420のサイズおよび位置を補間する様子の他の一例を示す説明図であり、図11に対応している。
図12に示すように、領域決定時刻である時刻t−30と、次の領域決定時刻である時刻t−40について決定されたクローズアップ表示領域420−30、420−40が、重なっていないとする。また、クローズアップ表示領域420−30からクローズアップ表示領域420−40へと、クローズアップ表示領域420を連続的に移動させることができる候補対象領域も存在していないとする。
スムージング補間決定部340は、上記したルールを適用した場合、時刻t−30、t−40の間で、クローズアップ表示領域420を一旦消えるまで小さくし、位置を移動してから本来のサイズまで大きくしていく。
この結果、図12に示すように、時刻t−30、t−40の間の時刻t−33におけるクローズアップ表示領域420−33は、クローズアップ表示領域420−30よりも小さくなる。そして、クローズアップ表示領域420の位置は移動し、移動直後の時刻t−34におけるクローズアップ表示領域420−34は、時刻t−40のクローズアップ表示領域420−40の位置に重なる。さらに、時刻t−34、t−40の間の時刻t−36におけるクローズアップ表示領域420−36は、時刻t−34のクローズアップ表示領域420−34と、時刻t−40のクローズアップ表示領域420−40の、中間の大きさとなる。
なお、図12に示すように、時刻t−33、t−30の間には、クローズアップ表示領域420−30、420−33の間の大きさのクローズアップ表示領域420−31、420−32を用いて補間が行われる。また、時刻t−34、t−36の間には、クローズアップ表示領域420−34、420−36の間の大きさのクローズアップ表示領域420−35によって、補間が行われる。このようにして、クローズアップ表示領域420の位置は、スムーズに変化する。
以上説明したように、本実施の形態によれば、基本映像から、オブジェクト配置領域を判別するので、クローズアップ表示領域420を、基本映像701のオブジェクト配置領域に応じて決定することができる。また、特定のオブジェクトについてオブジェクト配置領域を判別し、判別したオブジェクト配置領域に重ならないようにクローズアップ表示領域420を決定するので、キャラクタなど基本映像で全体像を必ず表示させたいようなオブジェクトの表示を阻害することなく、クローズアップ映像を表示することができる。すなわち、基本映像への影響を抑えた状態で、クローズアップ映像を表示することができる。また、拡大しても画質が劣化しないコンピュータグラフィックスの利点を活かして、1つの画面上に複数のカメラワークや複数の角度から撮影したCGアニメーション映像を表示することができるため、ユーザに対し、より表現に富んだ映像を提供することができる。
また、映像表示領域410の内部にクローズアップ表示領域420を決定するので、映像表示領域410のサイズをそのままとすることができる。したがって、基本映像とクローズアップ映像の両方を、より効果的に表示することができる。具体的には、たとえば、図7に示すような、キャラクタの全身動作しか表示できなかったCG映像から、図10に示すような各キャラクタの表情がはっきりと分かり、しかもキャラクタの全身動作も表示できるようなCG映像を表示することができる。
さらに、本実施の形態によれば、アニメーションシナリオ600の記述を解析し、必要な映像素材を映像素材データベース200から取得するとともに、適切なカメラワークを決定し、基本映像およびクローズアップ映像を生成する。これにより、アニメーションシナリオ600の内容に沿ったCGアニメーションを生成し、生成したCGアニメーションで上記した効果的な映像表示を実現することができる。また、各領域決定時刻の間の区間のクローズアップ表示領域420のサイズや位置を補間する。これにより、クローズアップ表示領域420の変化がスムーズに行われ、CGアニメーション映像を見る側にとって、クローズアップ表示領域420を目で追い易くなり、より質の高い映像表示を実現することができる。
なお、以上説明した実施の形態では、基本映像に表示されているオブジェクトをクローズアップ表示の対象としたが、これに限るものではない。たとえば、クローズアップ表示の対象を、基本映像に表示されていないオブジェクトとしたり、クローズアップ映像を基本映像とは独立した映像として用意するようにしてもよい。また、表示の対象となる映像がCGアニメーション映像の場合について説明したが、実写映像に対して上記した技術を適用することは可能である。たとえば、既知の画像解析技術により、実写映像を解析して、人物などの特定のオブジェクトの表示領域を検出し、検出された領域以外の領域で、クローズアップ映像を表示するようにすればよい。
2006年8月2日出願の特願2006−211336の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本発明に係る映像表示装置および映像表示方法は、基本映像とクローズアップ映像の両方を、より効果的に表示することができる映像表示装置および映像表示方法として有用である。特に、本発明に係る映像表示装置および映像表示方法は、携帯電話機やPDA、携帯ゲーム機など、表示画面の小さい機器に好適である。
本発明は、コンピュータグラフィックスアニメーションなどの映像を表示する映像表示装置および映像表示方法に関する。
近年、登場キャラクタに表情の変化などの細かな動きを持たせるようにしたコンピュータグラフィックスアニメーション(以下「CGアニメーション」という)が、注目されている。このような映像の細部を把握し易くするために、特定のオブジェクトをクローズアップした映像を表示させる技術が、たとえば特許文献1および特許文献2に記載されている。
特許文献1記載の技術では、表示の対象となる基本の映像(以下「基本映像」という)と、キャラクタなど、基本映像に登場する特定のオブジェクトをクローズアップした映像(以下「クローズアップ映像」という)とを、切り替えて表示する。これにより、キャラクタの顔の表情といった細かな動きを、把握し易くすることができる。
また、特許文献2記載の技術では、基本映像の表示領域とは別にあらかじめ用意された領域に、クローズアップ映像を表示する。これにより、オブジェクトの細かな動きを、把握し易くすることができる。
特開2003−323628号公報
特開2002−150317号公報
しかしながら、上記した特許文献1記載の技術では、クローズアップ映像が表示されている間、基本映像が表示されないという問題がある。たとえば、あるキャラクタがクローズアップ表示されている間に、他のキャラクタがアクションを起こしていても、そのアクションの様子が表示することができない。また、キャラクタの顔部分といった特定部位のみをクローズアップの対象としている場合には、そのキャラクタが全身動作を行っていても、その全身動作の様子を表示することができない。すなわち、特許文献1記載の技術は、クローズアップ表示されているオブジェクトの全体動作や周囲状況などが把握できないという課題を有している。
また、上記した特許文献2記載の技術では、あらかじめ用意された限られた画面上に、基本映像の表示領域とクローズアップ映像の表示領域の両方を配置しなければならないため、基本映像の表示領域が狭くなるという問題がある。特に、携帯電話機やPDA(personal digital assistant)の液晶パネルのように、小さくて解像度の低い画面で表示が行われる場合、クローズアップ表示されているオブジェクト自身の全体動作や周囲状況などが把握しづらくなる。各種ハードウェアの処理能力の向上や、コンピュータグラフィックス技術の発達により、このような小型の機器においても、CGアニメーション映像を利用したアプリケーションソフトウェアが多く開発されている。
したがって、小さくて解像度の低い画面においても、基本映像とクローズアップ映像の両方を効果的に表示できることが望ましい。
本発明の目的は、基本映像とクローズアップ映像の両方を、より効果的に表示することができる映像表示装置および映像表示方法を提供することである。
本発明の映像表示装置は、表示の対象となる基本映像における特定のオブジェクトの表示領域を判別する表示領域判別部と、前記基本映像における特定のオブジェクトの表示領域に応じて、基本映像のクローズアップ映像の表示領域を決定するクローズアップ領域決定部とを具備する構成を採る。
本発明の映像表示方法は、表示の対象となる基本映像における特定のオブジェクトの表示領域を判別する表示領域判別ステップと、前記表示領域判別ステップで判別した前記基本映像における特定のオブジェクトの表示領域に応じて、基本映像のクローズアップ映像の表示領域を決定するクローズアップ領域決定ステップとを有するようにした。
本発明によれば、クローズアップ映像の表示領域を、基本映像における特定のオブジェクトの表示領域に応じて決定することにより、基本映像とクローズアップ映像の両方を、より効果的に表示することができる。
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
図1は、本発明の一実施の形態に係る映像表示装置としてのCGアニメーション表示システムの構成を示すシステム構成図である。
図1において、CGアニメーション表示システム100は、映像素材データベース200、CGアニメーション生成部300、および映像表示部400を有する。CGアニメーション生成部300は、カメラワーク決定部310、CG描画部320、クローズアップ領域決定部330、スムージング補間決定部340、およびクローズアップ領域制御部350を有する。CG描画部320は、基本映像生成部321およびクローズアップ映像生
成部322を有する。映像表示部400は、映像表示領域410およびクローズアップ表示領域420を有する。また、CGアニメーション表示システム100は、CGアニメーションの基となるアニメーションシナリオ600を入力する。
成部322を有する。映像表示部400は、映像表示領域410およびクローズアップ表示領域420を有する。また、CGアニメーション表示システム100は、CGアニメーションの基となるアニメーションシナリオ600を入力する。
図2は、アニメーションシナリオ600の記述例を示す説明図である。アニメーションシナリオ600は、映画やドラマの台本のようなものである。アニメーションシナリオ600には、「Scene(場面)」610が複数記述されている。各「Scene」610は、背景セットを示す属性「location」611を有している。また、各「Scene」610は、複数の「Direction(ト書き)」620を子要素として有している。各「Direction」620には、「Subject(動作主)」、「Action(動作)」、「Object(目的語)」、などの情報が記述されている。また、各「Direction」620には、動作主がキャラクタの場合には、「Expression(表情)」などの付加情報も記述されている。
さらに、アニメーションシナリオ600には、「Resource(リソース情報)」630が記述されている。「Resource(リソース情報)」630は、各「Scene」610で記述される各種名称と、CGアニメーション映像として表示するのに必要な映像素材とを対応付けたものである。具体的には、各「Resource」630は、映像素材の識別子を示す属性「uri」と、「Scene」610や「Subject」などで記述される名称を示す属性「name」とを有している。
たとえば、「Scene」610aの「Direction」620aには、キャラクタの名称である「あきら」が、動作主として記述されている。また、「Resource」630aには、「あきら」という名称に対応付けて、「http://media.db/id/character/akira」という映像素材の識別子が記述されている。
図1に示す映像素材データベース200は、CGアニメーションを生成するのに必要な映像素材を格納している。映像素材は、少なくとも、キャラクタや背景セットなどの各種オブジェクトの形状や外観を示す3D(dimension)モデルデータを含む。また、映像素材には、他にも、モーションデータ、静止画データ、動画データ、音声データ、および楽譜データなどが含まれる。モーションデータは、3Dモデルデータの動きを示すデータである。静止画データおよび動画データは、3Dモデルデータのテクスチャや背景などの描画に用いられるデータである。音声データは、効果音や合成音声などの出力に用いられるデータである。楽譜データは、BGM(back ground music)などの出力に用いられるデータである。
CGアニメーション生成部300は、映像素材データベース200から必要な映像素材を取得して、アニメーションシナリオ600の記述に沿った内容のCGアニメーションを生成する。
CGアニメーション生成部300は、生成したCGアニメーションの基本映像と、生成したCGアニメーションに登場するオブジェクトのクローズアップ映像とを、映像表示部400に表示させる。
CGアニメーション生成部300において、カメラワーク決定部310は、アニメーションシナリオ600の記述を基に、アニメーション空間におけるキャラクタや背景セットなどのオブジェクトの位置を決定する。そして、カメラワーク決定部310は、位置を決定したオブジェクトを撮影するカメラワークを決定する。具体的には、カメラワーク決定部310は、たとえば、アニメーション空間のあらかじめ定められた位置にカメラを配置
して、基本のカメラワークを決定する。または、カメラワーク決定部310は、特定のオブジェクトを基準として撮影を行うように、基本のカメラワークを決定する。なお、アニメーションシナリオからCGアニメーションのカメラワークを決定する技術は既知であり、たとえば、特開2005−44181号公報に記載されているため、ここでの説明を省略する。
して、基本のカメラワークを決定する。または、カメラワーク決定部310は、特定のオブジェクトを基準として撮影を行うように、基本のカメラワークを決定する。なお、アニメーションシナリオからCGアニメーションのカメラワークを決定する技術は既知であり、たとえば、特開2005−44181号公報に記載されているため、ここでの説明を省略する。
また、カメラワーク決定部310は、基本映像にキャラクタが登場するシーンでは、基本のカメラワークと併せて、キャラクタの顔部分をクローズアップで撮影するカメラワークも決定する。そして、カメラワーク決定部310は、決定した各オブジェクトの位置とカメラワークの内容を、座標データなどにより内部的にパラメータ化したデータを生成し、生成したデータをCG描画部320へ出力する。
CG描画部320は、カメラワーク決定部310から入力されるデータと、アニメーションシナリオ600の記述とに基づいて、映像素材データベース200から、描画に必要な映像素材を取得し、CGアニメーション映像を生成する。具体的には、CG描画部320は、まず、アニメーションシナリオ600の記述に従って映像素材を映像素材データベース200から取得する。そして、CG描画部320は、取得した各映像素材を、カメラワーク決定部310により決定された位置に配置する。
たとえば、CG描画部320は、アニメーションシナリオ600の「Direction」620aの記述内容をCGアニメーション化する際には、識別子「http://media.db/id/character/akira」に該当する映像素材を、映像素材データベース200から取得し、動作主として配置する。
CG描画部320は、取得した各映像素材を配置すると、カメラワーク決定部310で決定されたカメラワークを実現したときの映像を生成する。そして、CG描画部320は、映像表示部400に対して、生成した映像を描画させる。具体的には、CG描画部320において、基本映像生成部321は、基本のカメラワークを基に基本映像を生成し、生成した基本映像をクローズアップ領域決定部330および映像表示部400へ出力する。また、クローズアップ映像生成部322は、クローズアップのカメラワークを基にクローズアップ映像を生成し、生成したクローズアップ映像を映像表示部400へ出力する。
なお、各映像素材はコンピュータグラフィックスであるため、基本映像が映像表示部400の映像表示領域410に描画されたときに映像表示領域410のどの部分にどのような画像が表示されるかを判別することは、容易である。
クローズアップ領域決定部330は、クローズアップ表示領域420のサイズや位置を決定する。そして、クローズアップ領域決定部330は、決定したクローズアップ表示領域420のサイズや位置を示す情報を、映像表示部400およびスムージング補間決定部340へ出力する。ただし、クローズアップ領域決定部330は、CG描画部320から入力される基本映像を解析し、映像表示領域410の内部のうち、優先的に表示すべきオブジェクトの表示領域以外の領域を判別する。そして、クローズアップ領域決定部330は、優先的に表示すべきオブジェクトの表示領域以外の領域と判別した領域に、クローズアップ表示領域420を決定する。なお、たとえば、上記した特許文献1記載の技術のように、映像表示領域410とクローズアップ表示領域420とが、別々の表示領域としてあらかじめ用意されている場合には、このようなクローズアップ領域決定部330の機能が不要であることは、いうまでもない。
スムージング補間決定部340は、クローズアップ領域決定部330から入力された情報を基に、クローズアップ表示領域420の変化を解析する。そして、スムージング補間
決定部340は、解析したクローズアップ表示領域420の変化を補間し、クローズアップ表示領域420の変化が、滑らかにまたは自然に行われるようにする。
決定部340は、解析したクローズアップ表示領域420の変化を補間し、クローズアップ表示領域420の変化が、滑らかにまたは自然に行われるようにする。
クローズアップ領域制御部350は、クローズアップ映像生成部322によって生成されるクローズアップ映像を、映像表示部400で表示させるか否かを判断する。
映像表示部400は、液晶パネルなどの表示画面(図示せず)を有しており、表示画面に、CGアニメーションの基本映像を表示させるための領域である映像表示領域410を配置している。また、映像表示部400は、表示画面に、CGアニメーションのクローズアップ映像を表示させるための領域であるクローズアップ表示領域420を配置している。そして、映像表示部400は、CGアニメーション生成部300から入力される基本映像を、映像表示領域410に描画するとともに、CGアニメーション生成部300から入力されるクローズアップ映像を、クローズアップ表示領域420に描画する。ただし、クローズアップ表示領域420のサイズや位置および表示/非表示は、CGアニメーション生成部300から入力される情報によって制御される。
CGアニメーション表示システム100は、図示しないが、CPU(Central Processing Unit)と、制御プログラムを格納したROM(Read Only Memory)などの記憶媒体と、RAM(Random Access Memory)などの作業用メモリなどによって構成されている。制御プログラムをCPUが実行することで、上記した各部の機能は実現される。
なお、映像素材データベース200、映像表示領域410、およびクローズアップ表示領域420は、それぞれバスを介して直接にCGアニメーション生成部300に接続されてもよいし、ネットワークを介してCGアニメーション生成部300に接続されてもよい。
以下、クローズアップ領域決定部330の動作について、詳細に説明する。
図3は、クローズアップ領域決定部330が実行する処理の流れを示すフローチャートである。また、図4は、ある瞬間の基本映像(以下、単に「基本映像」という)を例として、クローズアップ領域決定部330が実行する各処理の内容を示す。ここでは、図3および図4を参照して、クローズアップ領域決定部330の動作の説明を行う。
図3のステップS1000において、クローズアップ領域決定部330は、基本映像から、キャラクタなどの優先的に表示すべきオブジェクトをピックアップする。そして、クローズアップ領域決定部330は、ピックアップしたオブジェクトが表示される領域に基づいて、映像表示領域410を、候補対象領域と候補対象外領域とに区分する。候補対象領域は、クローズアップ表示領域420の候補として扱う領域である。候補対象外領域は、クローズアップ表示領域420の候補のとして扱わない領域である。ここでは、クローズアップの対象となるオブジェクトが、優先的に表示すべきオブジェクトであるものとする。
図4Aに示すように、アニメーションシナリオ600に基づいて、キャラクタ「あきら」702aと、キャラクタ「なつこ」702bが配置された基本映像701が、CG描画部320の基本映像生成部321で生成されたとする。この場合、クローズアップ領域決定部330は、キャラクタ「あきら」702aおよびキャラクタ「なつこ」702bをピックアップする。
そして、クローズアップ領域決定部330は、図4Bに示すように、基本映像701が表示される映像表示領域410をN×M(いずれも自然数)の領域に分割し、個々の分割
領域に対して、ピックアップしたキャラクタの表示領域が存在するか否かを判別する。そして、クローズアップ領域決定部330は、映像表示領域410のうち、キャラクタの表示領域が存在しない分割領域を、クローズアップ表示領域420の候補対象領域に決定する。また、クローズアップ領域決定部330は、キャラクタの表示領域が存在する分割領域を、クローズアップ表示領域420の候補対象外領域703(図中斜線部分)に決定する。
領域に対して、ピックアップしたキャラクタの表示領域が存在するか否かを判別する。そして、クローズアップ領域決定部330は、映像表示領域410のうち、キャラクタの表示領域が存在しない分割領域を、クローズアップ表示領域420の候補対象領域に決定する。また、クローズアップ領域決定部330は、キャラクタの表示領域が存在する分割領域を、クローズアップ表示領域420の候補対象外領域703(図中斜線部分)に決定する。
なお、図4では、映像表示領域410を、横方向に8つ、縦方向に6つに、矩形状に48分割しているが、分割の方向や数および形状は、これに限定されるものではない。たとえば、ドット単位で処理を行い、キャラクタの輪郭で閉じられた領域のみを対象外領域としてもよい。
次に、図3のステップS2000において、クローズアップ領域決定部330は、クローズアップすべきオブジェクト(優先的に表示すべきオブジェクト)のうち、クローズアップ候補領域の決定の処理を行っていないものが残っているか否かを判別する。クローズアップ候補領域は、後述するクローズアップ表示領域420となり得る領域である。クローズアップ領域決定部330は、クローズアップすべきオブジェクトが残っている場合には(S2000:YES)、ステップS3000の処理へ進む。また、クローズアップ領域決定部330は、クローズアップすべきオブジェクトが残っていない場合には(S2000:NO)、ステップS4000の処理へ進む。
次に、ステップS3000において、クローズアップ領域決定部330は、クローズアップすべきオブジェクトを1つ選択し、選択したオブジェクトに基づいて、クローズアップ候補領域を決定する。ここでは、まず、キャラクタ「あきら」702aに基づいて、クローズアップ候補領域を決定する場合を例として説明を行う。
クローズアップすべきオブジェクトが複数存在する場合の選択順序は、たとえば、アニメーションシナリオ600における登場順序とすればよい。または、各オブジェクトにあらかじめ重要度を設定し、重要度に応じた順序で選択したり、その都度ランダムに選択を行うようにしてもよい。
図5は、図3のステップS3000で実行される処理の流れを示すフローチャートである。
ステップS3100において、クローズアップ領域決定部330は、処理の対象としているオブジェクトの表示領域が存在する分割領域(以下「オブジェクト配置領域」という)704を判別する。そして、クローズアップ領域決定部330は、映像表示領域410の各分割領域のうち、判別したオブジェクト配置領域704から最も遠い距離に位置する分割領域を選択する。最も遠い距離に位置する分割領域の算出は、単純な直線距離を用いたり、縦横など特定の方向に重みを付けて行うようにしてもよい。
または、最も遠い距離に位置する分割領域の算出は、隣り合う分割領域の距離を「1」とし、距離の計測方向を縦と横のみとして、各分割領域のオブジェクト配置領域704からの距離を示す数値を算出することにより行ってもよい。この場合には、クローズアップ領域決定部330は、最も数値の高い分割領域を、オブジェクト配置領域704から最も遠い距離に位置する領域とすればよい。この手法を用いて、図4Bの各分割領域に対してキャラクタ「あきら」702aのオブジェクト配置領域704aからの距離を示す数値を算出し、各分割領域の中に算出結果を示すと、図4Cのようになる。
ここでは、図4Cに示すように、映像表示領域410の左上の隅に位置する分割領域7
05aの数値が最も高くなる。したがって、この分割領域705aが、クローズアップ候補領域の基準となる分割領域(以下「候補基準領域」という)として選択される。なお、この候補基準領域は、オブジェクト配置領域704以外の領域であれば、必ずしもオブジェクト配置領域704から最も遠い距離に位置する領域である必要はない。
05aの数値が最も高くなる。したがって、この分割領域705aが、クローズアップ候補領域の基準となる分割領域(以下「候補基準領域」という)として選択される。なお、この候補基準領域は、オブジェクト配置領域704以外の領域であれば、必ずしもオブジェクト配置領域704から最も遠い距離に位置する領域である必要はない。
次に、図5のステップS3200において、クローズアップ領域決定部330は、候補基準領域として選択した分割領域の1つを、あらかじめ定められた条件に従って拡張し、拡張後の領域を、クローズアップ候補領域として選択する。
たとえば、拡張後の領域の条件として、「分割領域の縦2つ×横2つ分であり、候補対象外領域703が含まれない」という内容が設定されているとする。この場合、キャラクタ「あきら」702aが処理対象のオブジェクトのときには、図4Dに示すように、映像表示領域410の左上の隅の4つの分割領域からなる拡大領域706aが、クローズアップ候補領域として選択される。なお、拡張後の領域の条件として、たとえば、「分割領域の縦横の個数が同一であり、候補対象外領域703が含まれない最大領域」という内容を採用してもよい。
次に、図5のステップS3300において、クローズアップ領域決定部330は、オブジェクト配置領域から最も遠い距離位置する分割領域で、まだステップS3200で処理の対象となっていない他の分割領域が存在するか否かを判別する。すなわち、クローズアップ領域決定部330は、オブジェクト配置領域から、既にステップS3200の処理の対象となった分割領域と同じ距離に位置する分割領域が存在するか否かを判別する。クローズアップ領域決定部330は、該当する分割領域が存在する場合には(S3300:YES)、ステップS3200に戻って、該当する分割領域に基づいてクローズアップ候補領域の選択を行う。また、クローズアップ領域決定部330は、該当する分割領域が存在しない場合には(S3300:NO)、一連の処理を終了する。
ここでは、図4Cに示すように、数値が最も高くなる分割領域は1つしか存在しないため(S3300:NO)、クローズアップ領域決定部330は、クローズアップ候補領域を1つ選択した後、そのまま処理を終了する。
このようにして図3のステップS3000の処理が完了すると、クローズアップ領域決定部330は、図3のステップS2000へ戻る。ここでは、クローズアップすべきオブジェクトのうち、クローズアップ候補領域決定の処理の対象となっていないものとして、キャラクタ「なつこ」702bがまだ残っている(S2000:YES)。したがって、クローズアップ領域決定部330は、再びステップS3000の処理へ進む。そして、クローズアップ領域決定部330は、図5で説明した一連の処理を、今度はキャラクタ「なつこ」702bを処理対象として実行する。
キャラクタ「あきら」702a対象とした処理と同様に、キャラクタ「なつこ」702bのオブジェクト配置領域704bからの距離を示す数値を算出した場合の算出結果を、各分割領域の中に示すと、図4Eのようになる。ここでは、図4Eに示すように、映像表示領域410の四隅に位置する4つの分割領域の数値が、最も高くなる。
したがって、映像表示領域410の右上の隅に位置する分割領域705bを含めた四隅の分割領域が、候補基準領域として選択され、映像表示領域410の右上の隅に位置する拡大領域706bを含めた四隅の拡大領域が、クローズアップ候補領域として選択される。
このようにして、クローズアップすべきオブジェクトのすべてについてクローズアップ
アップ候補領域決定の処理が行われると(S2000:NO)、クローズアップ領域決定部330は、ステップS4000の処理へ進む。
アップ候補領域決定の処理が行われると(S2000:NO)、クローズアップ領域決定部330は、ステップS4000の処理へ進む。
ステップS4000において、クローズアップ領域決定部330は、クローズアップ表示の対象となる各オブジェクトに対し、決定されたクローズアップ候補領域を、クローズアップ表示領域420としてそれぞれ割り当てる。
たとえば、図4に示す基本映像701の場合には、上記したように、映像表示領域410の四隅の拡大領域が、クローズアップ候補領域して決定される。ここで、クローズアップ表示領域420の割り当てのルールとして、たとえば、「上側のクローズアップ候補領域を優先的に割り当てるとともに、クローズアップ候補領域の候補から距離が近い順に割り当てを行う」という内容が、あらかじめ設定されているものとする。
映像表示領域410の四隅に位置する拡大領域の上側の2つについて、各キャラクタ702からの距離を比較すると、最も距離が近いのは、キャラクタ「あきら」702aから分割領域706bまでの距離である。したがって、クローズアップ領域決定部330は、図4Fに示すように、まず、分割領域706bを、キャラクタ「あきら」702aのクローズアップ表示領域420aに割り当てる。そして、次に、クローズアップ領域決定部330は、図4Fに示すように、残った分割領域706aを、キャラクタ「なつこ」702bのクローズアップ表示領域420bに割り当てる。
なお、クローズアップ表示領域420の割り当てのルールとして、「1つ前に割り当てられたクローズアップ候補領域に最も近いクローズアップ候補領域を、優先的に割り当てる」という内容が設定されていてもよい。このようなルールを適用することにより、同一キャラクタ702のクローズアップ候補領域420の移動を、できるだけ抑えることが可能となる。
このようにして、クローズアップ領域決定部330は、必要なクローズアップ表示領域420のすべてを決定すると、一連の処理を終了する。
クローズアップ領域制御部350は、クローズアップ領域決定部330によって決定されるクローズアップ表示領域420を表示すべきか否かを逐次判別する。そして、クローズアップ領域決定部330は、クローズアップ表示領域420を表示すべきか否かの判別結果に応じてクローズアップ表示領域420の表示/非表示を制御する。
たとえば、クローズアップ領域決定部330は、クローズアップ領域決定部330によって決定されるクローズアップ表示領域420が、あらかじめ決められた面積以上確保できた場合のみ、クローズアップ表示領域420を表示するように制御する。または、クローズアップ領域決定部330は、キャラクタ702のアクションに同期して、対応するクローズアップ表示領域420の表示を制御する。より具体的には、クローズアップ領域決定部330は、キャラクタ702が発話するときだけ、またはキャラクタ702の表情が変化する一定区間だけ、対応するクローズアップ表示領域420を表示するよう制御する。これにより、効果の低いクローズアップ表示を低減し、画面の煩雑さや装置負荷を軽減することが可能となる。
なお、クローズアップ領域決定部330は、たとえば、キャラクタ702の発話している区間や表情が変化する区間を、アニメーションシナリオ600の記述から判別する。具体的には、たとえば、「Expression(表情)」が記述されている「Direction(ト書き)」620に対応する区間を特定し、その区間を前後数秒間だけ拡大した区間を、キャラクタ702の表情が変化する区間と判別する。
以上の処理により各クローズアップ表示領域420が表示されると、図4Fに示すように、キャラクタ「あきら」702aのクローズアップ映像707aが、基本映像701の右上に表示され、キャラクタ「なつこ」702bのクローズアップ映像707bが、基本映像701の左上に表示される。
図4Fからも分かるように、クローズアップ領域決定部330による処理の結果として、各クローズアップ映像707は、いずれも、キャラクタ702に重ならない位置に表示される。すなわち、各キャラクタ702の全身と顔部分の両方が表示される。また、キャラクタ702の全身のアクションと、顔の表情とが、効率よく表示され、表現豊かな映像が実現される。さらに、映像表示領域410の内部にクローズアップ映像707が表示されるので、基本映像701の表示領域のサイズおよび各キャラクタ702の全身の表示サイズはそのままとなる。
なお、クローズアップ領域決定部330は、分割領域705や拡大領域706を決定した後、クローズアップ表示領域を矩形以外の形状に変化させるようにしてもよい。
図6は、クローズアップ表示領域を変形させた場合の映像の一例を示す説明図である。ここでは、矩形状のクローズアップ表示領域に対して、対応するキャラクタ702のクローズアップの中心点に最も近い頂点を当該中心点に移動させる形で、変形を加えた場合を図示している。ただし、変形されたクローズアップ表示領域708よりも手前側に、オブジェクトを表示させるようにしている。このように変形されたクローズアップ表示領域708は、どのオブジェクトのクローズアップ映像であるのかをより分かり易くすることができる。
また、クローズアップ表示領域420の決定後、または変形後に、再度カメラワーク決定部310で新たなクローズアップのカメラワークを決定するようにしてもよい。または、クローズアップのカメラワークの決定自体を、クローズアップ表示領域420の決定後に行うようにしてもよい。
さらに、図4および図6では、クローズアップ映像の撮影方向が、基本映像の撮影方向と同じ場合を図示しているが、これに限るものではない。たとえば、常にキャラクタの顔正面から撮影を行うようなクローズアップのカメラワークを決定するようにしてもよい。これにより、たとえば、基本映像では後ろ向きとなっているキャラクタでも、その表情を表示させることができる。
また、上記の説明では、図3のステップS1000の説明で記載したとおり、クローズアップの対象となるオブジェクトが、優先的に表示すべきオブジェクトであるとしたが、クローズアップの対象となるオブジェクトを、優先的に表示すべきオブジェクトの全部または一部としてもよい。この場合には、クローズアップ領域決定部330は、図3のステップS1000で、優先的に表示すべきオブジェクトを、候補対象領域と候補対象外領域との区分の決定のために用い、図4のステップS3000で、優先的に表示すべきオブジェクトの全部また一部であるクローズアップの対象となるオブジェクトを、クローズアップ候補領域の決定のために用いることになる。
クローズアップの対象となるオブジェクトと、クローズアップの対象とならないオブジェクトの区別には、各種の規則を適用できる。たとえば、図2に示す「Direction(ト書き)」620のうち「Expression(表情)」が定義されているものをクローズアップの対象にする、という規則を適用する。また、たとえば、図2に示す「Resource(リソース情報)」630にそのオブジェクトが対象であるか否かを示す
属性が定義されている場合にはクローズアップの対象にする、という規則を適用する。
属性が定義されている場合にはクローズアップの対象にする、という規則を適用する。
オブジェクトがクローズアップの対象であるか否かを示す属性としては、たとえば、オブジェクトが人であるか否かを示す属性を用いればよい。オブジェクトが人であるか否かを示す属性は、たとえば「attr」とし、「person」が設定されているか否かにより人であるか否かを示す。この場合、アニメーションシナリオ600の「Resource(リソース情報)」630として、たとえば、「Resource name=“あきら” attr=person uri=・・・」が記述される。また、アニメーションシナリオ600の「Resource(リソース情報)」630として、たとえば、「Resource name=“椅子” attr=chair uri=・・・」が記述される。これらの「Resource(リソース情報)」630からは、「あきら」というオブジェクトが人であり、「椅子」というオブジェクトが人ではないということが分かる。
これにより、クローズアップ領域決定部330は、特に表情の変化が与えられないキャラクタや人以外のオブジェクトに対して、優先的な表示を保証する一方で、クローズアップは行なわないようにすることができる。
さらに、クローズアップの対象となるオブジェクトの個数が候補対象領域に比べて多すぎる場合には、クローズアップ領域決定部330は、クローズアップの対象を削減するようにしてもよい。たとえば、クローズアップ領域決定部330は、「Expression(表情)」の定義の有無や人のオブジェクトであるか否かに応じて、各オブジェクトに優先順位を決定する。そして、クローズアップ領域決定部330は、候補対象領域との関連で、優先順位の高いオブジェクトから順にクローズアップの対象を決定する。これにより、たとえば、オブジェクトが離散的に配置されているシーンでは、候補対象領域が狭くなることから、クローズアップの対象となるオブジェクトは少なくなり、逆に、オブジェクトが密集して配置されているシーンでは、候補対象領域が広くなることから、クローズアップの対象なるオブジェクトは多くなる。すなわち、シーンの状況に応じて、異なるクローズアップ表示の効果を得ることができる。
以上、ある瞬間の基本映像について、CGアニメーション表示システム100がどのように映像を表示するかについて説明した。ところが、アニメーションシナリオに基づいて生成される基本映像では、通常、オブジェクトの表示領域は、時々刻々と変化する。したがって、クローズアップ領域決定部330は、オブジェクトの表示領域が変化するたびに、上記したクローズアップ表示領域420の決定処理を動的に行う。または、クローズアップ領域決定部330は、オブジェクトの表示領域の変化の速度に比べて十分に細かい周期(1秒間に15回など)で、上記したクローズアップ表示領域420の決定処理を動的に行う。
以下、基本映像におけるオブジェクトの表示領域の変化に応じて、クローズアップ表示領域420が変化する様子を、基本映像の変化の一例を挙げて説明する。
図7は、クローズアップ表示の対象となる基本映像の変化の様子を示す説明図である。ここで、クローズアップ領域決定部330によって、クローズアップ表示領域420の決定の処理が9回連続して行われる際の各基本映像を、時系列で図示する。以下、クローズアップ領域決定部330によるクローズアップ表示領域420の決定の処理の対象となるアニメーション時刻を、領域決定時刻というものとする。
図7A〜図7Iに示すように、基本映像701には、キャラクタ「あきら」702aとキャラクタ「なつこ」702bが登場している。そして、各キャラクタ702のアニメー
ション空間における移動に伴って、各キャラクタ702の表示領域は、時間経過とともに変化している。
ション空間における移動に伴って、各キャラクタ702の表示領域は、時間経過とともに変化している。
クローズアップ領域決定部330は、基本映像において、クローズアップ表示の対象となるオブジェクトごとに、オブジェクト配置領域704を判別する。
図8は、オブジェクト配置領域704の変化の様子を示す説明図である。図8A〜図8Iは、それぞれ図7A〜図7Iに対応している。
クローズアップ領域決定部330は、映像表示領域410を分割し、ここでは、キャラクタ「あきら」702aのオブジェクト配置領域704aと、キャラクタ「なつこ」702bのオブジェクト配置領域704bが、図7A〜図7Iに示す各基本映像701について決定される。
図8に示すように、各オブジェクト配置領域704も、時間経過とともに変化する。なお、キャラクタ「あきら」702aのオブジェクト配置領域704aと、キャラクタ「なつこ」702bのオブジェクト配置領域704bとを合わせた領域が、候補対象外領域703となる。
クローズアップ領域決定部330は、映像表示領域410の内部に、候補対象外領域703に重ならないように、クローズアップ表示領域420を決定する。
図9は、クローズアップ表示領域420の変化の様子を示す説明図である。図9A〜図9Iは、それぞれ図7A〜図7AIおよび図8A〜図8Iに対応している。
クローズアップ領域決定部330は、映像表示領域410のうち、候補対象外領域703以外の領域(候補対象領域)であり、かつ、あらかじめ設定された条件を満たす領域を、クローズアップ表示領域420に決定する。ここでは、映像表示領域410が、横方向に8つ、縦方向に8つに、矩形状に64分割され、クローズアップ候補領域の条件として、「分割領域の縦横の個数が同一であり、縦3つ分×横3つ分を超えない最大領域」が設定されている場合を図示している。
図9に示すように、クローズアップ表示領域420も、時間経過とともに変化するが、常にキャラクタ702の表示領域と重ならないようになっている。
クローズアップ領域決定部330は、クローズアップ表示の対象となる各オブジェクトに対して、あらかじめ設定された条件に従って、クローズアップ表示領域420を割り当てる。CG描画部320は、この割り当てに従って、各クローズアップ表示領域420に、該当するクローズアップ707映像を表示させることによって、最終的なCGアニメーション映像(以下「最終映像」という)を表示させる。
図10は、最終映像の変化の様子を示す説明図である。図10A〜図10Iは、それぞれ図9A〜図9Iに対応している。
CG描画部320は、クローズアップ表示の対象となる各オブジェクトのクローズアップ映像707を、割り当てられたクローズアップ表示領域420に表示させる。これにより、図10に示すように、各クローズアップ映像707は、各キャラクタ702の表示を阻害せずに基本映像701に割り込む形で表示される。
なお、図9Cおよび図10Cに示すように、上記したクローズアップ候補領域を決定す
る際の条件と候補対象領域との関係により、クローズアップ表示領域420が一時的に小さくなる場合がある。また、図10A〜図10Iに示すように、あるオブジェクトについてのクローズアップ表示領域420の位置は、領域決定時刻によって異なる。このようなクローズアップ表示領域420のサイズや位置の切り替えを、各領域決定時刻のみで離散的に行うと、不自然で見づらい最終映像となるおそれがある。
る際の条件と候補対象領域との関係により、クローズアップ表示領域420が一時的に小さくなる場合がある。また、図10A〜図10Iに示すように、あるオブジェクトについてのクローズアップ表示領域420の位置は、領域決定時刻によって異なる。このようなクローズアップ表示領域420のサイズや位置の切り替えを、各領域決定時刻のみで離散的に行うと、不自然で見づらい最終映像となるおそれがある。
そこで、スムージング補間決定部340は、クローズアップ表示領域420のサイズや位置が連続的または自然に変化するように、各領域決定時刻の間の区間におけるクローズアップ表示領域420のサイズや位置を補間する。
スムージング補間決定部340は、クローズアップ領域決定部330によって決定されたクローズアップ表示領域420のサイズや位置を示す情報を、領域決定時刻ごとに取得する。そして、スムージング補間決定部340は、隣り合う領域決定時刻の間で、クローズアップ表示領域420の変化があるか否かを判別する。スムージング補間決定部340は、変化がある場合には、あらかじめ設定されたルールに従って、前後の領域決定時刻の間の区間におけるクローズアップ表示領域420の変化のさせ方を決定し、クローズアップ表示領域420の変化のスムージング処理を行う。
スムージング補間決定部340は、このクローズアップ表示領域420の変化のさせ方を決定するためのルールとして、たとえば、「前後の領域決定時刻の間でクローズアップ表示領域420が重なっている場合には、クローズアップ表示領域420の輪郭を連続的に変化させる」という内容を適用する。また、スムージング補間決定部340は、たとえば、「前後の領域決定時刻の間でクローズアップ表示領域420が重なっておらず、クローズアップ表示領域420を連続的に移動させることができる候補対象領域が存在する場合には、クローズアップ表示領域420を連続的に移動させる」という内容を適用する。さらに、スムージング補間決定部340は、たとえば、「前後の領域決定時刻の間でクローズアップ表示領域420が重なっておらず、クローズアップ表示領域420を連続的に移動させることができる候補対象領域が存在しない場合には、クローズアップ表示領域420を一旦消えるまで小さくし、位置を移動してから本来のサイズまで大きくしていく」という内容を適用する。
なお、各領域決定時刻の間の区間におけるクローズアップ表示領域420のサイズや位置の決定は、スムージング補間決定部340で行ってもよい。または、スムージング補間決定部340が、決定したスムージングの変化のさせ方をクローズアップ領域決定部330に出力し、上記クローズアップ表示領域420のサイズや位置の決定を、クローズアップ領域決定部330で行うようにしてもよい。決定された各領域決定時刻の間の区間におけるクローズアップ表示領域420のサイズや位置を示す情報は、映像表示部400へと出力される。
図11は、スムージング補間決定部340がクローズアップ表示領域420のサイズおよび位置を補間する様子の一例を示す説明図である。横軸800は、アニメーション時刻を示している。また、横軸800の上側は領域決定時刻に関する説明に対応し、横軸800の下側は各領域決定時刻の間の区間に関する説明に対応している。
図11に示すように、領域決定時刻である時刻t−10と、次の領域決定時刻である時刻t−20との間で、キャラクタ702が移動する場合、候補対象外領域703も移動する。その結果、時刻t−10、t−20について、クローズアップ表示領域420−10、420−20がそれぞれ決定されたとする。また、これらクローズアップ表示領域420−10、420−20は、図11に示すように、異なるサイズではあるものの、領域が重なっているものとする。
スムージング補間決定部340は、上記したルールを適用した場合、時刻t−10、t−20の間で、クローズアップ表示領域420の輪郭を連続的に変化させる。この結果、たとえば、時刻t−10、t−20の間の時刻t−11では、図11に示すように、クローズアップ表示領域420−10、420−20の間の大きさであるクローズアップ表示領域420−11を用いて補間が行われる。このようにして、クローズアップ表示領域420のサイズは、スムーズに変化する。
図12は、スムージング補間決定部340がクローズアップ表示領域420のサイズおよび位置を補間する様子の他の一例を示す説明図であり、図11に対応している。
図12に示すように、領域決定時刻である時刻t−30と、次の領域決定時刻である時刻t−40について決定されたクローズアップ表示領域420−30、420−40が、重なっていないとする。また、クローズアップ表示領域420−30からクローズアップ表示領域420−40へと、クローズアップ表示領域420を連続的に移動させることができる候補対象領域も存在していないとする。
スムージング補間決定部340は、上記したルールを適用した場合、時刻t−30、t−40の間で、クローズアップ表示領域420を一旦消えるまで小さくし、位置を移動してから本来のサイズまで大きくしていく。
この結果、図12に示すように、時刻t−30、t−40の間の時刻t−33におけるクローズアップ表示領域420−33は、クローズアップ表示領域420−30よりも小さくなる。そして、クローズアップ表示領域420の位置は移動し、移動直後の時刻t−34におけるクローズアップ表示領域420−34は、時刻t−40のクローズアップ表示領域420−40の位置に重なる。さらに、時刻t−34、t−40の間の時刻t−36におけるクローズアップ表示領域420−36は、時刻t−34のクローズアップ表示領域420−34と、時刻t−40のクローズアップ表示領域420−40の、中間の大きさとなる。
なお、図12に示すように、時刻t−33、t−30の間には、クローズアップ表示領域420−30、420−33の間の大きさのクローズアップ表示領域420−31、420−32を用いて補間が行われる。また、時刻t−34、t−36の間には、クローズアップ表示領域420−34、420−36の間の大きさのクローズアップ表示領域420−35によって、補間が行われる。このようにして、クローズアップ表示領域420の位置は、スムーズに変化する。
以上説明したように、本実施の形態によれば、基本映像から、オブジェクト配置領域を判別するので、クローズアップ表示領域420を、基本映像701のオブジェクト配置領域に応じて決定することができる。また、特定のオブジェクトについてオブジェクト配置領域を判別し、判別したオブジェクト配置領域に重ならないようにクローズアップ表示領域420を決定するので、キャラクタなど基本映像で全体像を必ず表示させたいようなオブジェクトの表示を阻害することなく、クローズアップ映像を表示することができる。すなわち、基本映像への影響を抑えた状態で、クローズアップ映像を表示することができる。また、拡大しても画質が劣化しないコンピュータグラフィックスの利点を活かして、1つの画面上に複数のカメラワークや複数の角度から撮影したCGアニメーション映像を表示することができるため、ユーザに対し、より表現に富んだ映像を提供することができる。
また、映像表示領域410の内部にクローズアップ表示領域420を決定するので、映
像表示領域410のサイズをそのままとすることができる。したがって、基本映像とクローズアップ映像の両方を、より効果的に表示することができる。具体的には、たとえば、図7に示すような、キャラクタの全身動作しか表示できなかったCG映像から、図10に示すような各キャラクタの表情がはっきりと分かり、しかもキャラクタの全身動作も表示できるようなCG映像を表示することができる。
像表示領域410のサイズをそのままとすることができる。したがって、基本映像とクローズアップ映像の両方を、より効果的に表示することができる。具体的には、たとえば、図7に示すような、キャラクタの全身動作しか表示できなかったCG映像から、図10に示すような各キャラクタの表情がはっきりと分かり、しかもキャラクタの全身動作も表示できるようなCG映像を表示することができる。
さらに、本実施の形態によれば、アニメーションシナリオ600の記述を解析し、必要な映像素材を映像素材データベース200から取得するとともに、適切なカメラワークを決定し、基本映像およびクローズアップ映像を生成する。これにより、アニメーションシナリオ600の内容に沿ったCGアニメーションを生成し、生成したCGアニメーションで上記した効果的な映像表示を実現することができる。また、各領域決定時刻の間の区間のクローズアップ表示領域420のサイズや位置を補間する。これにより、クローズアップ表示領域420の変化がスムーズに行われ、CGアニメーション映像を見る側にとって、クローズアップ表示領域420を目で追い易くなり、より質の高い映像表示を実現することができる。
なお、以上説明した実施の形態では、基本映像に表示されているオブジェクトをクローズアップ表示の対象としたが、これに限るものではない。たとえば、クローズアップ表示の対象を、基本映像に表示されていないオブジェクトとしたり、クローズアップ映像を基本映像とは独立した映像として用意するようにしてもよい。また、表示の対象となる映像がCGアニメーション映像の場合について説明したが、実写映像に対して上記した技術を適用することは可能である。たとえば、既知の画像解析技術により、実写映像を解析して、人物などの特定のオブジェクトの表示領域を検出し、検出された領域以外の領域で、クローズアップ映像を表示するようにすればよい。
2006年8月2日出願の特願2006−211336の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本発明に係る映像表示装置および映像表示方法は、基本映像とクローズアップ映像の両方を、より効果的に表示することができる映像表示装置および映像表示方法として有用である。特に、本発明に係る映像表示装置および映像表示方法は、携帯電話機やPDA、携帯ゲーム機など、表示画面の小さい機器に好適である。
Claims (11)
- 表示の対象となる基本映像における特定のオブジェクトの表示領域を判別する表示領域判別部と、
前記基本映像における特定のオブジェクトの表示領域に応じて、基本映像のクローズアップ映像の表示領域を決定するクローズアップ領域決定部と、
を有する映像表示装置。 - 前記基本映像を表示する映像表示部、をさらに有し、
前記特定のオブジェクトは、前記基本映像に配置されるオブジェクトのうち、優先的に表示すべきオブジェクトであり、
前記クローズアップ領域決定部は、
前記映像表示部による前記基本映像の表示領域のうち、前記特定のオブジェクトの表示領域以外の領域を、前記クローズアップ映像の表示領域に決定する、
請求項1記載の映像表示装置。 - 前記クローズアップ領域決定部により決定される前記クローズアップ映像の表示領域が、あらかじめ定められた面積以上のとき、前記クローズアップ映像を表示させるクローズアップ領域制御部、
をさらに有する請求項2記載の映像表示装置。 - 前記クローズアップ映像として、前記特定のオブジェクトをクローズアップした映像を生成するクローズアップ映像生成部、をさらに有し、
前記クローズアップ領域制御部は、
前記特定のオブジェクトのアクションに同期して、前記クローズアップ映像の表示を制御する、
請求項3記載の映像表示装置。 - 前記基本映像および前記クローズアップ映像は、コンピュータグラフィックスのオブジェクトを配置したコンピュータグラフィックスアニメーション映像である、
請求項2記載の映像表示装置。 - アニメーションシナリオから、前記基本映像のカメラワークを決定するカメラワーク決定部と、
前記アニメーションシナリオと、前記カメラワーク決定部によって決定される前記基本映像のカメラワークとに基づいて、前記基本映像を生成する基本映像生成部と、
前記アニメーションシナリオから、前記クローズアップ映像を生成するクローズアップ映像生成部と、
をさらに有する請求項5記載の映像表示装置。 - 前記カメラワーク決定部は、
前記アニメーションシナリオから、前記クローズアップ映像のカメラワークを決定し、
前記クローズアップ映像生成部は、
前記カメラワーク決定部によって決定される前記クローズアップ映像のカメラワークに基づいて、前記クローズアップ映像を生成する、
請求項6記載の映像表示装置。 - 前記コンピュータグラフィックスアニメーション映像を生成するのに必要な映像素材を格納した映像素材データベース、をさらに有し、
前記基本映像生成部および前記クローズアップ映像生成部は、
それぞれ前記映像素材データベースから必要な映像素材を取得してコンピュータグラフィックスアニメーション映像を生成する、
請求項7記載の映像表示装置。 - 前記クローズアップ領域決定部によって決定されるクローズアップ映像の表示領域が変化する区間において、その変化の補間を行うスムージング補間決定部、
をさらに有する請求項2記載の映像表示装置。 - 前記表示領域判別部は、
表示の対象となる基本映像における特定のオブジェクトの表示領域を、動的に判別する、
請求項1記載の映像表示装置。 - 表示の対象となる基本映像における特定のオブジェクトの表示領域を判別する表示領域判別ステップと、
前記表示領域判別ステップで判別した前記基本映像における特定のオブジェクトの表示領域に応じて、基本映像のクローズアップ映像の表示領域を決定するクローズアップ領域決定ステップと、
を有する映像表示方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006211336 | 2006-08-02 | ||
JP2006211336 | 2006-08-02 | ||
PCT/JP2007/064779 WO2008015978A1 (fr) | 2006-08-02 | 2007-07-27 | dispositif d'affichage d'images vidéo et procédé d'affichage d'images vidéo |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2008015978A1 true JPWO2008015978A1 (ja) | 2009-12-24 |
Family
ID=38997158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008527729A Pending JPWO2008015978A1 (ja) | 2006-08-02 | 2007-07-27 | 映像表示装置および映像表示方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20090262139A1 (ja) |
JP (1) | JPWO2008015978A1 (ja) |
CN (1) | CN101490738A (ja) |
WO (1) | WO2008015978A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2006123513A1 (ja) * | 2005-05-19 | 2008-12-25 | 株式会社Access | 情報表示装置および情報表示方法 |
CN101743583B (zh) * | 2007-07-19 | 2012-09-19 | 松下电器产业株式会社 | 图像显示装置 |
JP5121367B2 (ja) * | 2007-09-25 | 2013-01-16 | 株式会社東芝 | 映像を出力する装置、方法およびシステム |
JP4675995B2 (ja) * | 2008-08-28 | 2011-04-27 | 株式会社東芝 | 表示処理装置、プログラムおよび表示処理方法 |
JP5388631B2 (ja) * | 2009-03-03 | 2014-01-15 | 株式会社東芝 | コンテンツ提示装置、及び方法 |
JP4852119B2 (ja) * | 2009-03-25 | 2012-01-11 | 株式会社東芝 | データ表示装置、データ表示方法、データ表示プログラム |
JP2012128662A (ja) * | 2010-12-15 | 2012-07-05 | Samsung Electronics Co Ltd | 表示制御装置、プログラムおよび表示制御方法 |
CN102880458B (zh) * | 2012-08-14 | 2016-04-06 | 东莞宇龙通信科技有限公司 | 一种在背景图片上生成播放器界面的方法和系统 |
KR102266882B1 (ko) * | 2014-08-07 | 2021-06-18 | 삼성전자 주식회사 | 전자장치의 화면 표시 방법 |
KR102269598B1 (ko) * | 2014-12-08 | 2021-06-25 | 삼성전자주식회사 | 배경화면의 내용에 대응하여 객체를 배열하는 방법 및 장치 |
CN110134478B (zh) * | 2019-04-28 | 2022-04-05 | 深圳市思为软件技术有限公司 | 全景场景的场景转换方法、装置及终端设备 |
CN111541927A (zh) * | 2020-05-09 | 2020-08-14 | 北京奇艺世纪科技有限公司 | 一种视频播放方法及装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10239085A (ja) * | 1997-02-26 | 1998-09-11 | Casio Comput Co Ltd | 地図表示装置、地図表示方法及び記録媒体 |
US6315669B1 (en) * | 1998-05-27 | 2001-11-13 | Nintendo Co., Ltd. | Portable color display game machine and storage medium for the same |
JP2001188525A (ja) * | 1999-12-28 | 2001-07-10 | Toshiba Corp | 画像表示装置 |
JP3328256B2 (ja) * | 2000-01-07 | 2002-09-24 | コナミ株式会社 | ゲームシステムおよびコンピュータ読取可能な記憶媒体 |
JP3625172B2 (ja) * | 2000-04-26 | 2005-03-02 | コナミ株式会社 | 画像作成装置、画像作成方法、画像作成プログラムが記録されたコンピュータ読み取り可能な記録媒体およびビデオゲーム装置 |
EP1408001B1 (en) * | 2001-07-17 | 2014-04-09 | Kabushiki Kaisha Toyota Jidoshokki | Industrial vehicle equipped with material handling work controller |
JP3643796B2 (ja) * | 2001-08-03 | 2005-04-27 | 株式会社ナムコ | プログラム、情報記憶媒体、及びゲーム装置 |
JP2004147181A (ja) * | 2002-10-25 | 2004-05-20 | Fuji Photo Film Co Ltd | 画像閲覧装置 |
JP4168748B2 (ja) * | 2002-12-20 | 2008-10-22 | 富士ゼロックス株式会社 | 画像処理装置、画像処理プログラム、及び画像処理方法 |
GB2409028A (en) * | 2003-12-11 | 2005-06-15 | Sony Uk Ltd | Face detection |
JP2006041844A (ja) * | 2004-07-26 | 2006-02-09 | Toshiba Corp | メタデータのデータ構造及びそのメタデータの処理方法 |
JP2006072606A (ja) * | 2004-09-01 | 2006-03-16 | National Institute Of Information & Communication Technology | インターフェイス装置、インターフェイス方法及びその装置を用いた制御訓練装置 |
KR100682898B1 (ko) * | 2004-11-09 | 2007-02-15 | 삼성전자주식회사 | 적외선을 이용한 영상 장치 및 그의 영상 식별 방법 |
JP2007079641A (ja) * | 2005-09-09 | 2007-03-29 | Canon Inc | 情報処理装置及び情報処理方法及びプログラム及び記憶媒体 |
US7692696B2 (en) * | 2005-12-27 | 2010-04-06 | Fotonation Vision Limited | Digital image acquisition system with portrait mode |
FR2898824B1 (fr) * | 2006-03-27 | 2009-02-13 | Commissariat Energie Atomique | Dispositif interface intelligent pour la saisie d'un objet par un robot manipulateur et procede de mise en oeuvre de ce dispositif |
JP2009089174A (ja) * | 2007-10-01 | 2009-04-23 | Fujifilm Corp | デジタルカメラおよびその撮影方法 |
TWI392343B (zh) * | 2009-03-27 | 2013-04-01 | Primax Electronics Ltd | 自動影像拍攝系統 |
US20110141130A1 (en) * | 2009-12-10 | 2011-06-16 | Sony Corporation | Display device |
-
2007
- 2007-07-27 WO PCT/JP2007/064779 patent/WO2008015978A1/ja active Application Filing
- 2007-07-27 JP JP2008527729A patent/JPWO2008015978A1/ja active Pending
- 2007-07-27 US US12/375,580 patent/US20090262139A1/en not_active Abandoned
- 2007-07-27 CN CNA2007800270051A patent/CN101490738A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN101490738A (zh) | 2009-07-22 |
WO2008015978A1 (fr) | 2008-02-07 |
US20090262139A1 (en) | 2009-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPWO2008015978A1 (ja) | 映像表示装置および映像表示方法 | |
WO2018188499A1 (zh) | 图像、视频处理方法和装置、虚拟现实装置和存储介质 | |
US6151026A (en) | Image processing apparatus and image processing method | |
CN109741463B (zh) | 虚拟现实场景的渲染方法、装置及设备 | |
JP4039676B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2009237680A (ja) | プログラム、情報記憶媒体および画像生成システム | |
JP2005216061A (ja) | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス | |
EP2133842A1 (en) | Image generating apparatus, image processing method, information recording medium, and program | |
JP5044549B2 (ja) | 三次元ゲームの表示システム、表示方法及び表示プログラム | |
KR20150119621A (ko) | 디스플레이 장치 및 그의 이미지 합성 방법 | |
JP2017111719A (ja) | 映像処理装置、映像処理方法、及び映像処理プログラム | |
JP3639286B2 (ja) | ゲームプログラム、及びゲーム装置 | |
JP4689548B2 (ja) | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス | |
JP4513423B2 (ja) | 仮想三次元座標ポリゴンによるオブジェクト画像の表示制御方法及びこれを用いた画像表示装置 | |
US6833841B2 (en) | Image forming method, computer program for forming image, and image forming apparatus | |
JP2014153747A (ja) | 画像複雑度に基づいてキャラクタ表示を制御するプログラム、情報機器及び方法 | |
JP2011198138A (ja) | 漫画作成支援装置、漫画作成支援方法およびプログラム | |
JP2012014391A (ja) | 漫画作成支援装置、漫画作成支援方法およびプログラム | |
JP2012014392A (ja) | 漫画作成支援装置、漫画作成支援方法およびプログラム | |
JP5043903B2 (ja) | 画像処理装置、画像処理方法、ならびに、プログラム | |
JP2013186247A (ja) | 動画表示装置 | |
JPH05289637A (ja) | 画像情報提示装置 | |
JP3645847B2 (ja) | 画像処理装置及びコンピュータプログラム | |
JP4767331B2 (ja) | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス | |
JP2002024847A (ja) | 画像生成装置、画像生成方法及び記録媒体 |