JP4245433B2 - 動画作成装置および動画作成方法 - Google Patents

動画作成装置および動画作成方法 Download PDF

Info

Publication number
JP4245433B2
JP4245433B2 JP2003278401A JP2003278401A JP4245433B2 JP 4245433 B2 JP4245433 B2 JP 4245433B2 JP 2003278401 A JP2003278401 A JP 2003278401A JP 2003278401 A JP2003278401 A JP 2003278401A JP 4245433 B2 JP4245433 B2 JP 4245433B2
Authority
JP
Japan
Prior art keywords
moving image
effect
scene
description
production
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003278401A
Other languages
English (en)
Other versions
JP2005044181A (ja
Inventor
恒一 江村
秀司 森井
浩 安田
輝勝 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2003278401A priority Critical patent/JP4245433B2/ja
Priority to US10/565,513 priority patent/US7382372B2/en
Priority to PCT/JP2004/010757 priority patent/WO2005008599A1/ja
Publication of JP2005044181A publication Critical patent/JP2005044181A/ja
Application granted granted Critical
Publication of JP4245433B2 publication Critical patent/JP4245433B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2213/00Indexing scheme for animation
    • G06T2213/04Animation description language

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、文字列から動画を生成する動画作成装置および動画作成方法に関する。
従来より、文字列に含まれる文字に対応する動画を自動的に作成する方法が提案されている(例えば、特許文献1参照)。
この方法は、まず、文字列を解析し、文字列に含まれる文字に含まれる概念を決定する。次に、決定した概念に対応する動画構成要素、例えばストーリー、プロップ(小道具)、背景、音楽などを選択する。そして、選択した動画構成要素を用いて一連のアニメーションを作成する。
特開2002−366964号公報
しかしながら、従来の方法は、単純に、文字列に含まれる素材に関する動画構成要素を用いて一連のアニメーションを作成するだけであり、動画の撮影方法(カメラワーク)等の演出に関しては考慮されていない。
このように、従来の方法は、予め用意されている動作をする動画構成要素を並べるにすぎないので、動画のテーマに関係なく同じような演出になってしまう。例えば、風景に関する動画であろうとも、人の動作に関する動画でも同様のカメラワークになってしまう。このため、作成した動画がテーマを強調できない単調なイメージになってしまう。
本発明は、かかる点に鑑みてなされたものであり、効果的な演出がなされた動画を作成できる動画作成装置および動画作成方法を提供することを目的とする。
本発明は、素材と演出に関する情報が記述された構造化シナリオ記述から演出に関する情報を抽出し、抽出した演出に関する情報に対応する演出設定を抽出し、構造化シナリオ記述に記述された素材に対応する動画を抽出し、抽出した動画に対して抽出した演出設定を用いた演出するようにした。
このように、本発明を用いることにより、効果的な演出がなされた動画を作成できる。
本発明の第1の態様にかかる動画作成装置は、素材と演出に関する情報が記述された構造化シナリオ記述を入力し、前記構造化シナリオ記述から前記素材と前記演出に関する情報を抽出する構造解析部と、抽出した前記素材に対する動画構成要素を抽出する動画構成要素検索部と、抽出した前記演出に関する情報に対応する演出設定を抽出し、前記素材に対応する動画構成要素に対して抽出した前記演出設定を用いた動画構成記述を作成する動画構成部と、を具備した構成を採る。
これにより、構造化シナリオ記述に記述された演出に対応する適切な演出設定を抽出でき、この演出設定を用いて動画構成要素に効果的な演出をできる。
本発明の第2の態様は、第1の態様にかかる動画作成装置において、演出に関する情報と、前記演出に関する情報に対応する前記演出設定とを対応付けた演出テンプレートを格納する演出知識ベースを具備し、前記動画構成部は前記演出知識ベースから前記抽出した演出に関する情報に対応する演出設定を抽出する。
これにより、演出に関する情報と演出設定とを対応させた演出テンプレートを予め演出知識ベースに蓄積しておくことができる。つまり、特別な知識を持つ専門家による演出テンプレートを予め作成し蓄積しておくができ、専門家による演出と同じような演出をすることができる。また、異なる専門家による演出テンプレートを蓄積することもでき、演出の幅を広げることができる。
本発明の第3の態様は、第1の態様または第2の態様にかかる動画作成装置において、前記演出に関する情報は、監督名、作風、もしくは種別に関する情報であり、前記演出設定は前記監督名、作風、もしくは種別に対応する演出設定である。
これにより、監督名、作風、種別といった、実際の演出に関する設定とは違う記述をすることにより、監督名、作風、種別に対応した適切な演出がなされた動画が作成できる。つまり、ユーザが特別な知識もなくても、効果的な演出を動画にすることができる。
本発明の第4の態様は、第1の態様または第2の態様にかかる動画作成装置において、前記演出に関する情報は、前記演出に関する情報は、素材の配置、動作及び撮影方法のうち少なくとも一つ以上に関する記述であり、前記演出設定は前記動作に対応する演出設定である。
これにより、ユーザが、構造化シナリオ記述に、特に演出に関する記述をしなくても、動作に対応した演出をすることができる。つまり、ユーザが特別な知識もなく、自動的に効果的な演出を動画にすることができる。
本発明の第5の態様は、第1の態様から第4の態様のいずれかにかかる動画作成装置において、前記構造化シナリオは、前記素材と前記演出に関する情報を構造化記述したものである。
これにより、構造化シナリオ記述に記述されているタグを参照することにより、シナリオに登場する素材や演出に関する情報を容易に抽出できる。
本発明の第6の態様は、第1の態様から第5の態様のいずれかにかかる動画作成装置において、前記動画構成記述から動画を生成する動画再生部と、前記動画を表示する表示部と、表示された前記動画に用いた前記演出設定を変更する旨の入力をする操作部とを具備した構成を採る。
これにより、ユーザが表示部を用いて動画を視覚的に確認でき、必要に応じて動画に対応する演出設定を変更できる。これにより、構造化シナリオ記述を書き直さなくても、簡単にかつ効果的に動画の編集ができる。
本発明の第7の態様は、第1の態様から第5の態様のいずれかにかかる動画作成装置において、前記動画構成記述から動画を生成する動画再生部と、前記動画を表示する表示部と、表示された前記動画に用いた前記動画構成要素を変更する旨の入力をする操作部とを具備した構成を採る。
これにより、ユーザが表示部を用いて動画を視覚的に確認でき、必要に応じて動画に対応する動画構成要素を変更できる。これにより、構造化シナリオ記述を書き直さなくても、簡単にかつ効果的に動画の編集ができる。
本発明の第8の態様は、素材と演出に関する情報が記述された構造化シナリオ記述を入力するステップと、前記構造化シナリオ記述から前記素材と前記演出に関する情報を抽出するステップと、抽出した前記素材に対する動画構成要素を抽出するステップと、抽出した前記演出に関する情報に対応する演出設定を抽出するステップと、前記素材に対応する動画構成要素に対して抽出した前記演出設定を用いた動画構成記述を作成するステップと、を具備したことを特徴とする動画作成方法である。
以下、本発明の一実施の形態にかかる動画作成装置について、添付図面を用いて説明する。
まず、本実施の形態にかかる動画作成装置について図1を用いて説明する。図1は、本実施の形態にかかる動画作成装置の構成図である。
本実施の形態にかかる動画作成装置100には、シナリオを構成する素材(オブジェクト)や演出等を構造化記述により記述した構造化シナリオ記述101を入力する構造解析部102が設けられている。構造解析部102は、構造化シナリオ記述101に含まれるオブジェクトを抽出し、動画構成要素検索クエリ103を生成する。そして、動画構成要素検索クエリ103を動画構成要素検索部104に送る。
また、構造解析部102は、構造化シナリオ記述101から演出に関する記述を抽出し、抽出した演出に対するシーン演出テンプレート114を演出知識ベース109から選択し、選択したシーン演出テンプレート114を特定する情報を動画構成部105に送る。
なお、構造化シナリオ記述101に関する詳細な説明は、後述する。
演出知識ベース109は、演出に関する記述と、演出の設定と対応付けて格納したシーン演出テンプレート114を複数格納したデータベースである。なお、シーン演出テンプレート114の詳細については、後述する。
また、動画構成要素検索クエリ103は、動画構成要素データベース106に蓄積された動画構成要素の記述フォーマットに対応し、動画構成要素を検索できるフォーマットになっている。
動画構成要素データベース106は、複数のオブジェクトに対する動画構成要素を蓄積するデータベースである。動画構成要素データベース106は、動画作成装置100に含まれていても良いし、動画作成装置100とインターネット等のネットワークを介して接続された形態であっても良い。
また、動画構成要素は、キャラクタに関する情報(座標値やテクスチャ)、動作などを示す情報(行列式)などである。
動画構成要素検索部104は、構造解析部102から送られてきた動画構成要素検索クエリ103を入力し、動画構成要素検索クエリ103に対応する動画構成要素107を動画構成要素データベース106から抽出する。そして、動画構成要素検索部104は、抽出した動画構成要素107を動画構成部105に送る。
動画構成部105は、動画構成要素107と、構造解析部102が選択したシーン演出テンプレート114を入力する。次に、動画構成部105は、入力したシーン演出テンプレート114から詳細な演出設定を抽出する。そして、動画構成部105は、抽出した演出設定を動画構成要素107に対して用いて、動画構成記述110を作成し、動画再生部111に出力する。
また、動画構成部105は、シーン演出テンプレート114が構造解析部102から送られてこない場合には、構造化シナリオ記述101を入力し、構造化シナリオ記述101に記述されている演出を抽出し、抽出した演出を動画構成要素107に対して用いて、動画構成記述110を作成し、動画再生部111に出力する。
動画再生部111は、動画構成記述110を入力し、動画構成記述110に対応する動画構成要素を動画構成要素データベース106から抽出し、最終動画112を生成する。そして、動画再生部111は、最終動画112を表示部108に出力する。
表示部108は、動画構成要素107および最終動画112を表示する表示手段である。
操作部113は、ユーザが表示部108に表示する動画構成要素107や最終動画112を選択する手段である。つまり、操作部113は、表示部108に表示された動画構成要素107や最終動画112を参照したユーザが、所望の動画構成要素107や最終動画112を決定する手段である。
なお、本実施の形態では、動画構成要素検索部104が動画構成要素検索クエリ103に対応する動画構成要素を全て抽出し、表示部108で表示し、ユーザに選択させる形態であるが、動画構成要素検索部104が動画構成要素検索クエリ103に対応する動画構成要素から最適なものを選択し、最適なもののみを表示する形態であっても良い。
次に、構造化シナリオ記述101について詳細に説明する。まず、構造化シナリオ記述101のスキーム、つまり定義である構造化シナリオスキームについて、図2〜図9を用いて説明する。図2〜図9は、本実施の形態にかかる構造化シナリオスキームを示す図である。
図2に示すように、本実施の形態にかかる構造化シナリオスキーム200は、XMLを用いた構造化記述により構造化シナリオ記述を記述すると定義している。
また、構造化シナリオスキーム200は、構造化シナリオ記述には要素DMPML201があり、要素DMPMLには、要素Dramatics202と、要素Screenplay203があると定義している。
要素Dramatics202は、演出に関する記述であり作風等を用いて記述をする要素である。要素Dramatics202に記述された記述に対応する詳細な演出設定は、演出知識ベース109のシーン演出テンプレート114に記述されている。
また、要素Screenplay203は、シナリオに関する記述をする要素である。
また、図3に示すように、要素Dramatics202は、作風を示す属性touch301と、種別を示す属性genre302を持つ。
また、属性touch301は、属性値として、映画を示すMovie303、テレビドラマを示すTV Drama304、演劇を示すTheatrical305、ニュースを示すNews306、スポーツを示すSports307、アニメーションを示すAnimation308、および宣伝を示すCF309を持つ。
なお、属性touch301の属性値は、作風を示すものであれば、これ以外のものであっても良い。
また、属性genre302は、属性値として、SFものを示すS.F.310、ホラーものを示すHorror311、アクションものを示すAction312、コメディーものを示すComedy313、および連続ホームコメディを示すSitcom314を持つ。
なお、属性genre302の属性値は、種別を示すものであれば、これ以外のものであっても良い。
このように、構造化シナリオスキーム200によれば、構造化シナリオ記述101に作風や種別に関する記載ができる。
また、要素Screenplay203は、図4に示すように、タイトルを示す要素Title401、著者を示す要素Author402、著作権を示すCopyright403を持つ。
また、要素Screenplay203は、要素として、シーンの切り替わり方法を示す要素Transition404と、シーンを示す要素Scene405を持つ。
また、要素Scene405は、要素として、シーンのヘッダーであるSlugline406を持つ。
また、要素Scene405は、要素として、シーンの演出を示す要素SceneDirections407と、セリフを示す要素Dialogue408を持つ。
また、要素Transition404は、図5に示すように、属性値として、フェードインを示すFADE IN:501、フェードアウトを示すFADE OUT:502、次のシーンへの瞬間的な移行を示すCUT TO:503、前のシーンへの回顧を示すCUT BACK TO:504、現在のシーンをフェードアウトすると同時に次のシーンをフェードインするDISSOLVE TO:505、現在のシーンと次のシーンを混ぜるMIX TO:506、特定の場所のライトアップを示すLIGHTS UP:507、ワイプ効果による次のシーンへの以降を示すWIPE TO:508、ズームインを示すZOOM IN:509、およびズームアウトを示すZOOM OUT:510を持つ。
このように、要素Transition404に、多くのシーンの切り替わりに関する演出を記述することができる。これにより、ユーザが構造化シナリオ記述101に所望のシーンの切り替わりに関する演出をすることができる。
なお、要素Transition404の子要素は、シーンの切り替わりの演出に関するものであれば、上述した要素以外であっても良い。
また、要素Slugline406は、図6に示すように、要素として、シーンの基本的な場所を示す要素BasicLocation601と、時間を示す要素Time602とを持つ。
また、要素Slugline406は、属性として、屋内か屋外かを示す属性place603と、時間帯を示す属性timeOfDAY604を持つ。
属性place603は、属性値として、屋内(Internal)を示すINT.605、屋外(External)を示すEXT.606、および屋内および屋外を示すI/E.607を持つ。
このように、構造化シナリオ記述101に、屋内か屋外かをあらわす情報を記述することができる。これにより、ユーザは大まかな場所を設定できる。
なお、属性place603の属性値は、場所を示すものであれば、上述したもの以外であってもかまわない。
また、属性timeOfDay604は、属性値として、日中を示すDAY608、夜を示すNIGHT609、夜明けを示すDAWN610、夕暮れを示すDUSK611、前のシーンからの時間の継続を示すCONTINUOUS612、朝を示すMORNING613、午後を示すAFTERNOON614、夕方を示すEVENING615、暁を示すSUNRISE616、日没を示すSUNSET617、前のシーンより後の時間を示すLATER618、前のシーンよりちょっと後の時間を示すMOMENTS LATER619と、前のシーンと同じ時間を示すSAMETIME620を持つ。
このように、属性timeOfDay604に、時間帯に関する記述をすることができる。これにより、ユーザは所望の時間帯を設定することができる。
なお、属性timeOfDay604の、属性値は、時間帯を示すものであれば上述したもの以外であっても良い。
このように、要素Slugline406には、シーンの場所に関する情報や時間に関する情報を記述できる。
また、要素SceneDirections407には、図7に示すように、要素として、動作、行動を示す要素Action701を持つ。
要素Action701は、要素として、文字列を示す要素Text702を持つ。
また、要素Action701は、子要素として、構造を持つ文字列を示すStructure703と、文脈を持つ文字列を示すPhrase704を持つ。
このように、要素Action701には、動作に関する記述をできる。これにより、ユーザは、構造化シナリオ記述101に動作に関する記述をできる。
また、要素Dialogue408は、図8に示すように、属性として、話をしている登場キャラクタの名前を示す属性characterName801と、話をしているキャラクタの状況を示す属性characterExtension802と、話し方を示すmannerOfSpeaking803を持つ。
また、属性characterExtension802は、属性値として、キャラクタが画面に一時的に写らずに話している(Off Screen)ことを示すO.S.804、キャラクタがナレーションなど画面に全般的に写らずに話している(Voice Over)ことを示すV.O.805、キャラクタの話が次のシーンへ続くこと(Continue)を示すCONT.806、およびキャラクタの話が前のシーンからの継続であること(Continued)を示すCONT’D807がある。
このように、属性characterExtension802に、キャラクタの話している状況に関する情報を記述できる。これにより、ユーザは、キャラクタの話している状況の設定を所望のものにできる。
なお、属性characterExtension802の属性値は、キャラクタの話している状況に関するものであれば、上述した以外のものであっても良い。
また、属性mannerOfSpeaking803は、属性値として、ささやきを示すwhispers808、冗談を言っていることを示すjoking809、冗談でない真面目なことを言っていることを示すnot joking810、穏やかに話していることを示すcalm811、とても穏やかに話していることを示すvery calm812、興奮して話していることを示すexcited813、敬虔に話していることを示すreverently814、大声で話していることを示すloudly815、愛情を込めて話していることを示すlovingly816、叫んでいることを示すyelling817、独り言を言っていることを示すmuttering818、他の人に話していることを示すto other person819、他の人に怒鳴りつけていることを示すshouting to other person820、他の人に挨拶していることを示すsaluting other person821、前のシーンから継続的に同じ様子で話していることを示すcontinuing822、および電話で話していることを示すinto the phone823を持つ。
このように、属性mannerOfSpeaking803に、話し手の話し方に関する情報を記述できる。これにより、ユーザは、話し手の話し方に関する設定を所望のものにできる。
なお、属性mannerOfSpeaking803の属性値は、話しての話し方に関するものであれば、上述した以外のものであっても良い。
このように、要素Dialogue408に、話し手に関する情報を記述することができる。
また、要素DMPML201は、図9に示すように、属性として、カメラの撮影方法を示す属性cameraShot901、カメラの動きを示す属性cameraMovement902、および、カメラが撮影する視点を示す属性cameraPosition903を持つ。
属性cameraShot901は、属性値として、キャラクタを強調するクローズアップを示すC.U.904およびCLOSE UP905、キャラクタの頭から肩の間を撮影するCLOSE SHOT906、キャラクタのウエストより上を撮影するMED.SHOT907およびMEDIUM SHOT908、キャラクタから離れて多くの背景が入るように撮影するLONG SHOT909およびWIDE SHOT911、二人のキャラクタを撮影するTWO−SHOT912、極端なクローズアップ撮影であるEXTREME CLOSEUP913、極端なロングショットであるEXTREME LONG SHOT914、および、キャラクタの動きを追いながら撮影するMOVING915およびMOVING SHOT916がある。
このように、属性cameraShot901に、カメラの撮影方法を記述できる。これにより、ユーザは、構造化シナリオ記述に、カメラの撮影方法に関する設定を明示的に自由に記述できる。
なお、属性cameraShot901の属性値は、カメラの撮影方法に関するものであれば、上述した以外のものであっても良い。
また、属性cameraMovement902には、属性値として、キャラクタに近づきながら撮影するDOLLY IN917、キャラクタから離れながら撮影するDOLLY OUT918がある。
このように、属性cameraMovement902にカメラの動きに関する情報を記述できる。これにより、ユーザは、構造化シナリオ記述101に、所望のカメラの動きを設定できる。
なお、属性cameraMovement902の属性値は、カメラの動きに関するものであれば、上述した以外のものであってもよい。
また、属性cameraPosition903には、属性値として、話し手のキャラクタの視点から撮影することを示すP.O.V.919と、聞き手のキャラクタの視点から撮影することを示すREVERSE P.O.V.920がある。
このように、属性cameraPosition903に撮影する視点に関する情報を記述できる。これにより、ユーザは、構造化シナリオ記述101に所望の撮影する視点に関する設定をできる。
なお、属性cameraPosition903の属性値は、撮影する視点に関するものであれば、上述したもの以外であっても良い。
このように、属性cemeraShot901には、カメラワークに関するさまざまな情報を記述することができる。
また、ここで、カメラ位置を決定する計算式の例について、下記に記す。
Figure 0004245433
以上のように、構造化シナリオスキーム200は構成されている。なお、構造化シナリオスキームに、上述した以外の演出に関する情報を付与しても良い。例えば、光源の数、位置、色、種別に関する情報や、フォグ等の特殊効果、音響に関する設定などを入れても良い。
次に、構造化シナリオスキーム200を用いて構造化シナリオの記述例について図10を用いて説明する。図10は、本実施の形態にかかる構造化シナリオを示す図である。
図10に示す構造化シナリオ1000には、図中1001に示すように、要素Dramaticsの属性touchに属性値Movie1002が、属性genreの属性値としてS.F.1003が記述されている。
また、要素DirectorNameとして、S.S1004が記述されている。
このように、構造化シナリオ1000の演出を示す要素Dramaticsに作風として映画、種別としてSF、監督演出(監督風)としてS.Sが記述されている。
また、構造化シナリオ1000には、要素Screenplay1005が記述されている。要素Screenplay1005には、図中1006に示すように、要素TitleとしてOne Fine Dayが記述されている。
また、要素Screenplay1005には、図中1007に示すように、要素AuthorとしてKoichi Emuraが記述されている。
また、要素Screenplay1005には、図中1008に示すように、要素CopyrightとしてKoichi Emura、2001が記述されている。
このように、構造化シナリオ1000には、シナリオに関する情報であるタイトル、著者、著作権が記述されている。
また、要素Screenplay1005には、図中1009、1010に示すように要素Sceneが2つ記述されている。
また、要素Scene1009の前には、要素Transitionの属性typeとしてFADE IN:1011が記述されている。
また、要素Scene1010の前には、要素Transitionの属性typeとしてMIX TO:1022が記述されている。
また、要素Scene1010の後には、要素Transitionの属性typeとしてFADE OUT:1024が記述されている。
このように、構造化シナリオ1000には、シーンの切り替わりに関する情報が記述されている。
また、要素Scene1009には、属性placeの属性値としてINT.1012が記述され、属性timeOfDayの属性値としてNIGHT1013が記述されている。
また、要素Scene1009には、要素BasicLocationとしてLIVINGROOM1014が記述されている。
このように、構造化シナリオ1000には、シーン1009に関する場所と時間に関する情報が記述されている。
また、要素Scene1009には、要素SceneDirectionsとして、Michael’s〜room.が記述されている。
このように、構造化シナリオ記述1000には、キャラクタの動作に関する記述がなされている。
また、要素Scene1009には、図中1016〜1018に示すように、要素Dialogueに登場人物のセリフが記述されている。
例えば、図中1016に示す例では、属性characterName1019に属性値としてMichaelが記述され、MichaelがWhere are you going to go?と言うことが記述されている。
また、図中1017に示す例では、属性characterName1019に属性値としてMichael’s friendが記述され、Michael’s friendがTo the stationと言うことが記述されている。
また、図中1018に示す例では、属性characterName1019に属性値としてMichaelが記述され、また、属性値mannerOfSpeaking1021に属性値としてexcitedと記述され、Michaelが興奮してGOOD!と言うことが記述されている。
このように、構造化シナリオ記述1000には、セリフに関する記述がなされている。
以上のように、構造化シナリオ記述1000には、動画に登場する素材に関する情報および演出に関する情報が構造化して記述されている。
ここで着目すべき点は、構造化シナリオ記述1000には、シナリオに必要な項目がタグ付けされ、かつ構造化されている点である。これにより、構造化シナリオ記述1000に記述されているタグを参照することにより、シナリオに登場する素材や演出に関する情報を容易に抽出できる。
また、構造化シナリオ記述1000には、シナリオに登場する素材や演出に関する詳細情報が、シナリオに登場する素材や演出に関するタグの下位のタグに記述されている。これにより、シナリオに登場する素材や演出に関する詳細情報を、シナリオに登場する素材や演出に関するタグの下位のタグを参照することにより、容易に認識できる。
次に、演出知識ベース109に格納されているシーン演出テンプレート114について、図11〜図21を用いて説明する。図11〜図21は、本実施の形態にかかるシーン演出テンプレートを示す図である。
シーン演出テンプレート114は、構造化シナリオ記述の要素DMPMLの中に記述された動画に関する監督風(要素DirectorName)、作風(属性touch)、種別(属性genre)と、これらに対する演出種別との組で構成されている。演出種別は、監督風、作風、および種別に対応する、構成、シーケンス、カメラ位置および方向などの演出である。演出種別は、予め作成し、登録してある。
例えば、図11に示すシーン演出テンプレート1101には、監督風1102、作風1103、種別1104、演出設定である演出種別1105が格納されている。
シーン演出テンプレート1101は、演出に関する情報である監督風1102、作風1103、種別1104、演出種別1105のリストを単純に格納したものである。シーン演出テンプレート1101は、構造解析部102が構造化シナリオ記述101にシーンの演出に関する情報が含まれているか判断するのに使用される。
また、図12に示すシーン群演出テンプレート1201には、監督風1202、種別1203、演出種別(演出設定)1204が格納されている。
シーン群演出テンプレート1201は、構造解析部102が構造化シナリオ記述101に一連のシーン群の演出に関する情報が含まれているか判断するのに使用される。
また、図13に示すシーン演出群テンプレート例1300は、作風1301と、作風1301に対する演出種別(演出設定)1302とを対応付けて格納している。
また、図14に示すシーン演出テンプレート例1400は、種別1401と、種別1401に対する演出種別1402とを対応付けて格納している。
また、図15に示すシーン演出テンプレート例1500は、監督風1501と、監督風1501に対する演出種別(演出設定)1502とを対応付けて格納している。
シーン演出テンプレート例1300〜1500は、動画構成部105が、動画構成要素107に対して、演出を加える際に使用される。
また、図16に示すシーン演出テンプレート例1600は、監督風1601と、作風1603、および種別1604の組み合わせに対する演出種別(演出設定)1602とを対応付けて格納している。
シーン演出テンプレート例1600を使用することで、複数の演出に関する情報を加味した演出を行うことができる。
また、図17に示すデフォルト(シーン)演出テンプレート例1700は、シナリオアクション1701と、ショット群種別(演出設定)1702と、ショット群適合率1703とが対応付けられて格納している。
シナリオアクション1701は、構造化シナリオ記述101の要素Actionに対応するものである。
ショット群種別1702は、どのようなカメラショットで撮影するかという演出設定である。
また、ショット群適合率1703は、シナリオアクション1701に対するショット群種別1702の適合性を示したものである。つまり、ショット群適合率1703は、所定のシナリオアクション1701に対してどのショット群種別(演出設定)1702が適しているか、今まで選択されたかを示す値である。
例えば、デフォルトの構成(フレーミング)とシーケンス演出テンプレート例1700の場合、「二輪車 乗る」というシナリアクション1701に対しては、「人の右からフルショット」、「人の正面からフルショット」、および「ロングショット」というショット群種別1702があるが、「人の右からフルショット」に対するショット群適合率1703が最も適合率が高く、これを選択するのが最も一般的であるということを示している。
デフォルトの構成(フレーミング)とシーケンス演出テンプレート1700を動画構成部105が用いることにより、キャラクタの動作の記述に対して適切な演出を行うことができる。
また、図18に示す構成(フレーミング)とシーケンス演出テンプレート1800は、作風(属性touch)がMovieである場合における、シナリオアクション1801、ショット群種別(演出設定)1802、およびショット群適合率1803を対応させて記憶している。
この例では、作風がMovieである場合には、「二輪車 乗る」というシナリオアクションに対しては、ウエストショットというショット群種別1802が好ましいことがわかる。
また、図19に示す構成(フレーミング)とシーケンス演出テンプレート1900は、作風(属性touch)がTV Dramaである場合における、シナリオアクション1901、ショット群種別(演出種別)1902、およびショット群適合率1903を対応させて記憶している。
構成(フレーミング)とシーケンス演出テンプレート1800、1900を動画構成部105が用いることにより、作風とキャラクタの動作を加味した演出を行うことができる。
また、図20に示すシーン間の構成(フレーミング)とシーケンス(シーン間)演出テンプレート2000は、シナリオアクション2001と、前のシーンのショット群種別(演出種別)2002と、後のシーンのショット群種別(演出種別)2004と、該当シーンのショット群種別(演出設定)2003と、ショット群適合率2005を対応付けている。
ショット群種別2003は、シナリオアクション2001、前のシーンのショット群種別2002、および後のシーンのショット群種別2004を加味した場合の該当シーンのショット群種別であり、ショット群適合率2005は、その適合率を示している。
シーン間の構成(フレーミング)とシーケンス演出テンプレート2000を動画構成部105が用いることにより、前後のシーンのショット群を加味した演出を行うことができる。
図21に示す、構成(フレーミング)とシーケンス演出テンプレート2100は、シナリオアクション2101と、これに対するショット群種別(演出設定)2102と、ショット群適合率2103を対応付けている。構成(フレーミング)とシーケンス演出テンプレート2100は、ショット群種別として、多数の演出を記述している。
以上のように、シーン演出テンプレートは構成されている。
なお、上述したシーン演出テンプレートは、ショット群種別が主にカメラワークとなっているが、カメラの位置(ポジション)と方向(アングル)も同様のテンプレートを持って良いし、カメラワーク以外であっても良い。例えば、ショット群種別は、照明の設定、音響効果など、撮影の演出に関するものならいかなるものであっても良い。
次に、構造解析部102が動画構成要素検索クエリ103を作成する処理について、図22、図23を用いて説明する。図22、図23は、本実施の形態にかかる構造解析部102が動画構成要素検索クエリ103を作成する処理のフローチャートである。
まず、構造解析部102は、構造化シナリオ記述101を入力し、入力した構造化シナリオ記述101の制作者であるAuthorノード(要素Author)を読み込む(ST2201)。例えば、構造解析部102が、構造化シナリオ記述1000を読み込んだ場合には、図10中の1007で示される部分を読み込む。
そして、構造解析部102は、Authorノードに要素値、つまり制作者名(図10の例では、Koichi Emura)があるか判断し(ST2202)、あれば制作者名を動画構成要素検索クエリに追加する(ST2203)。
次に、構造解析部102は、入力した構造化シナリオ記述101のコピーライトであるCopyrightノード(要素Copyright)を読み込む(ST2204)。例えば、構造解析部102が、構造化シナリオ記述1000を読み込んだ場合には、図10中の1008で示される部分を読み込む。
そして、構造解析部102は、Copyrightノードに要素値、つまりコピーライト(図10の例では、Koichi Emura,2001)があるか判断し(ST2205)、あればコピーライトを動画構成要素検索クエリに追加する(ST2206)。
次に、構造解析部102は、入力した構造化シナリオ記述101の時間と場所に関する記述であるSluglineノード(要素Slugline)を読み込む(ST2207)。
次に、構造解析部102は、Sluglineノードに記述された場所に関する記述である属性placeの属性値(例えば、構造化シナリオ記述1000の1012で示される部分)であるINT.(屋内)、EXT.(屋外)、I/E.(屋内と屋外)を抽出し、動画構成要素検索クエリに追加する(ST2208)。
次に、構造解析部102は、Sluglineノードに記述された時間帯に関する記述である属性timeOfDayの属性値(例えば、構造化シナリオ記述1000の1013で示される部分)であるNIGHT、DAWN、DUSKなどを抽出し、動画構成要素検索クエリに追加する(ST2209)。
次に、構造解析部102は、Sluglineノードに記述された場所に関する記述である要素BasicLocationの値(例えば、構造化シナリオ記述1000の1014で示される部分)であるLIVINGROOMなどを抽出し、動画構成要素検索クエリに追加する(ST2210)。
次に、構造解析部102は、Sluglineノードに記述された時間に関する記述である要素Timeがあるか判断し(ST2211)、あれば要素Timeの値を抽出し、動画構成要素検索クエリに追加する(ST2212)。
次に、構造解析部102は、入力した構造化シナリオ記述101のアクションに関する記述であるSceneDirectionノード(要素SceneDirection)を読み込む(ST2301)。
次に、構造解析部102は、SceneDirectionノードの記述を句に分ける形態素解析する(ST2302)。
例えば、SceneDirectionノードに、「Michael’s friend stands up and is going out of the room」という記述があれば、構造解析部102は、これを「Michael’s friend」、「stands up」、「is going out」、「of the room」という句に分ける。
次に、構造解析部102は、ST2302において分けた句に、キャラクタや、動作を示す能力属性があるか判断する(ST2303)。
例えば、「Michael’s friend」、「stands up」、「is going out」、「of the room」という句があれば、構造解析部102は、「Human (man or woman)」、「stand up」、「go out (walk)」、「room」を能力属性として検出する。
そして、ST2303において能力属性があると判断すると、構造解析部102は、検出した能力属性を動画構成要素検索クエリに追加する(ST2304)。
次に、構造解析部102は、ST2304において、動画構成要素検索クエリに追加した能力属性に含まれるキャラクタ数およびこれに対する属性を類義語辞書を用いて汎用語に変換した後動画構成要素検索クエリに追加し(ST2305)、セット数および属性を類義語辞書を用いて汎用語に変換した後動画構成要素検索クエリに追加し(ST2306)、小道具数および属性を類義語辞書を用いて汎用語に変換した後動画構成要素検索クエリに追加する(ST2307)。
次に、構造解析部102は、入力した構造化シナリオ記述101の対話に関する記述であるDialogueノード(要素Dialogue)(例えば、図10の1016〜1018に示される部分)を読み込む(ST2308)。
次に、構造解析部102は、Dialogueノードに話し方に関する属性値(例えば図10の1021で示される部分)があるか判断し(ST2309)、あれば、Whispers、Joking、not joking、Calm、very calm、Excited、Revelently、Loudly、Lovingly、Yelling、Muttering、to other person、shouting to other person、saluting other person、Continuing、into the phone等の話し方属性値を動画構成要素検索クエリに追加する(ST2310)。
そして、構造解析部102は、ST2207からST2310の処理を、全てのシーン(Sceneノード)に対して行う。
そして、構造解析部102は、上述したように作成した動画構成要素検索クエリを動画構成要素検索部104に送る。そして、動画構成要素検索部104が、送られてきた動画構成要素検索クエリに対応する動画構成要素を動画構成要素データベース106から検索する(ST2311)。
以上のように、構造解析部102は、入力した構造化シナリオ記述101から動画構成要素検索クエリ103を作成する。
次に、動画作成部100が構造化シナリオ記述101から動画を作成する処理について、図24を用いて詳細に説明する。図24は、本実施の形態にかかる動画作成装置100が構造化シナリオから演出を加えた動画を作成する処理のフローチャートである。ここでは、構造化シナリオ記述101に記述された、監督名、作風、種別に対応する演出をした動画を作成する処理について説明する。
まず、動画作成装置100の構造解析部102が、構造化シナリオ記述101を入力し、入力した構造化シナリオ記述101の演出タイプであるDramaticsノード(要素Dramatics)を読み込む(ST2401)。例えば、構造解析部102は、構造化シナリオ記述1000を読み込んだ場合には、図10中の1001で示される部分を読み込む。
次に、構造解析部102は、読み込んだ演出タイプに要素DirectorNameがあるか判断する(ST2402)。
読み込んだ演出タイプに要素DirectorNameがある場合には、構造解析部102は、要素DirectorNameに記述されている監督名を抽出する。そして、構造解析部102は、演出知識ベース109のシーン演出テンプレート1101、1201を参照し、抽出した監督名に対する演出種別が記述されているシーン演出テンプレートがあるか判断する。
そして、抽出した監督名に関する演出種別が記述されているシーン演出テンプレートがあると判断すると、構造解析部102は、演出知識ベース109から抽出した監督名に対する演出が記述されているシーン演出テンプレート、例えば、シーン演出テンプレート1500を選択する(ST2403)。
次に、構造解析部102は、読み込んだ演出タイプに属性touchがあるか判断する(ST2404)。
読み込んだ演出タイプに属性touchがある場合には、構造解析部102は、属性touchに記述されている属性値(作風)を抽出する。そして、構造解析部102は、演出知識ベース109のシーン演出テンプレート1101、1201を参照し、抽出した作風に対する演出種別が記述されているシーン演出テンプレートがあるか判断する。
そして、抽出した作風に関する演出種別が記述されているシーン演出テンプレートがあると判断すると、構造解析部102は、演出知識ベース109から抽出した作風に対する演出が記述されているシーン演出テンプレート、例えば、シーン演出テンプレート1300を選択する(ST2405)。
次に、構造解析部102は、読み込んだ演出タイプに属性genreがあるか判断する(ST2406)。
読み込んだ演出タイプに属性genreがある場合には、構造解析部102は、属性genreに記述されている属性値(種別)を抽出する。そして、構造解析部102は、演出知識ベース109のシーン演出テンプレート1101、1201を参照し、抽出した種別に対する演出種別が記述されているシーン演出テンプレートがあるか判断する。
そして、抽出した種別に関する演出種別が記述されているシーン演出テンプレートがあると判断すると、構造解析部102は、演出知識ベース109から抽出した種別に対する演出が記述されているシーン演出テンプレート、例えば、シーン演出テンプレート1400を選択する(ST2407)。
次に、構造解析部102は、上述したステップで複数のシーン演出テンプレートを選択した場合、最も適合性の高いシーン演出テンプレートを決定する(ST2408)。
例えば、構造化シナリオ記述101に監督名と作風と種別が記述されている場合には、これら全てを持つシーン演出テンプレート、例えばシーン演出テンプレート1600を選択する。
また、シーン演出テンプレートに優先度を付与しておき、この優先度に基づいてシーン演出テンプレートを選択するようにしてもよい。
次に、構造解析部102は、選択したシーン演出テンプレートを特定できる情報を動画構成部105に出力する(ST2409)。
これに対して、動画構成部105は、動画構成要素検索部104が検索した、構造化シナリオ記述101に対する動画構成要素107を入力し(ST2410)、構造解析部102が選択したシーン演出テンプレートを入力する(ST2411)。
次に、動画構成部105は、入力した動画構成要素107に対して、入力したシーン演出テンプレートに記述された演出種別を加えた、動画構成記述110を作成する(ST2212)。そして、動画構成部105は、作成した動画構成記述110を動画再生部111に送る。
これに対して、動画再生部111は、送られてきた動画構成記述110を入力し、入力した動画構成記述に対する実際の映像を生成するためのデータを動画構成要素データベース106から抽出し、抽出したデータを用いて最終動画112を生成し、表示部108に送る。
そして、表示部108が送られてきた最終動画112を再生する(ST2413)。
そして、表示部108に表示されたユーザが最終動画112を気に入ればその旨を操作部113から入力し、気にいらなければ、気に入らない部分、つまり動画構成要素もしくはシーン演出テンプレートを変更する操作をする。
そして、この入力を受けた動画構成部105が、再度をユーザが変更した動画構成要素もしくはシーン演出テンプレートを使用して動画構成記述110を作成する。
以上のように、構造解析部102は、構造化シナリオ記述101に記述された監督や作風や種別に対応する適切なシーン演出テンプレートを選択し、動画構成部105が選択したシーン演出テンプレートに記述された演出が加えられた動画構成記述を生成できる。
また、ここで着目すべき点は、ユーザが、構造化シナリオ記述101に監督名、作風、種別といった、実際の演出に関する設定とは違う記述をすることにより、監督名、作風、種別に対応した適切な演出がなされた動画が作成できることである。
実際、演出は、熟練の知識と経験を必要とし、カメラワークなどの細かい設定を必要とするものである。よって、一般の人が、効果的な演出に関する設定をすることは難しく、効果的な演出に関する記述をすることは容易ではない。
しかし、本発明を用いることにより、一般の人が特別な知識もなくても、効果的な演出を動画にすることができる。
なお、本実施の形態は、構造解析部102がシーン演出テンプレート114を選択する形態になっているが、動画構成部105がシーン演出テンプレート114を選択する形態であっても良い。
次に、動画作成部100が構造化シナリオ記述101から動画を作成する別の処理について、図25を用いて詳細に説明する。図25は、本実施の形態にかかる動画作成装置100が構造化シナリオから演出を加えた動画を作成する別の処理のフローチャートである。ここでは、構造化シナリオ記述101に記述された、シナリオの動作に関する記述に対応する演出をした動画を作成する処理について説明する。
まず、動画作成装置100の構造解析部102が、構造化シナリオ記述101を入力し、入力した構造化シナリオ記述101のシナリオアクションであるSceneDirectionノード(要素SceneDirection)を読み込む(ST2501)。例えば、構造解析部102は、構造化シナリオ記述1000を読み込んだ場合には、図10中の1015で示される部分を読み込む。
次に、構造解析部102は、読み込んだシナリオアクションの形態素解析を行う(ST2502)。例えば、読み込んだシナリオアクションが「自転車に飛び乗る」という記述だった場合には、構造解析部102は、形態素解析を行い「自転車に飛び乗る」という記述を「自転車」「飛び」「乗る」という句に切る。
次に、構造解析部102は、図示しない類義語辞書を用いて、ST2502において解析した語句を一般的な単語に抽象化する(ST2503)。例えば、構造解析部102は、「自転車」「飛び」「乗る」を「二輪車」「乗る」というふうに抽象化する。
次に、構造解析部102は、ST2503において抽象化した語句と、演出知識ベース109のシーン演出テンプレート114とのマッチングをとる(ST2504)。つまり、構造解析部102は、ST2503において抽象化した語句を格納したシーン演出テンプレート114にあるか調べる(ST2505)。
そして、ST2505において、抽象化した語句に対応するシーン演出テンプレート114が1つあると判断すると、構造解析部102は、該当するシーン演出テンプレート114を選択し(ST2506)、選択したシーン演出テンプレートを特定する情報を動画構成部105に出力する(ST2507)。
一方、ST2505において、抽象化した語句に対応するシーン演出テンプレート114が2つ以上あると判断すると、構造解析部102は、該当する複数のシーン演出テンプレートから最も適切なシーン演出テンプレートを選択する処理に移行する。
まず、構造解析部102は、構造化シナリオ記述101を入力し、入力した構造化シナリオ記述101の演出タイプであるDramaticsノード(要素Dramatics)を読み込み、読み込んだ演出タイプに要素DirectorName(監督風)、属性touch(作風)、属性genre(種別)があるか判断する。
そして、要素DirectorName(監督風)、属性touch(作風)、属性genre(種別)あると判断すると、構造解析部102は、これらの演出タイプおよびシナリオアクションと、シーン(群)シーン演出テンプレートとマッチングし(ST2508)、これらの演出タイプと、シナリオアクションとの両方を加味したシーン(群)シーン演出テンプレートがあるか判断する(ST2509)。
そして、演出タイプと、シナリオアクションとの両方を加味したシーン(群)シーン演出テンプレートがあると判断した場合には、構造解析部102は、該当するシーン演出テンプレートを選択し(ST2510)、選択したシーン演出テンプレートを特定する情報を動画構成部105に送る(ST2507)。
一方、演出タイプと、シナリオアクションとの両方を加味したシーン(群)シーン演出テンプレートがないと判断した場合には、構造解析部102は、ST2504においてマッチングした、複数のシーン演出テンプレートから最も優先度の高いものを選択し(ST2511)、選択したシーン演出テンプレートを特定する情報を動画構成部105に出力する(ST2507)。なお、シーン演出テンプレートには優先度が付与されているものとする。
なお、ST2508において、前後のシーンを加味した、例えば図20に示すシーン演出テンプレート2000があるか否かを判断するようにしても良い。
一方、ST2505において、抽象化した語句に対応するシーン演出テンプレート114がないと判断すると、デフォルトで用意しておいたシーン演出テンプレートを選択し(ST2516)、選択したシーン演出テンプレートを特定する情報を動画構成部105に送る(ST2507)。
なお、ST2512において、構造化シナリオ記述101に属性cameraShot、属性cameraMovement、または属性cameraPositionがある場合は、シーン演出テンプレートを用いずこれらの演出を用いるようにしても良い。
次に、動画構成部105が、動画構成要素検索部104が検索した、構造化シナリオ記述101に対する動画構成要素107を入力し(ST2512)、構造解析部102が選択したシーン演出テンプレートを入力する(ST2513)。
次に、動画構成部105が、入力した動画構成要素107に対して、入力したシーン演出テンプレートに記述された演出種別を加えた、動画構成記述110を作成する(ST2514)。そして、動画構成部105は、作成した動画構成記述110を動画再生部111に送る。
これに対して、動画再生部111は、送られてきた動画構成記述110を入力し、入力した動画構成記述に対する実際の映像を生成するためのデータを動画構成要素データベース106から抽出し、抽出したデータを用いて最終動画112を生成し、表示部108に送る。
そして、表示部108が送られてきた最終動画112を再生する(ST2515)。
そして、表示部108に表示されたユーザが最終動画112を気に入ればその旨を操作部113から入力し、気にいらなければ、気に入らない部分、つまり動画構成要素もしくはシーン演出テンプレートを変更する操作をする。
このように、ユーザが表示部108を用いて最終動画112を視覚的に確認でき、必要に応じて最終動画112に対応する動画構成要素もしくはシーン演出テンプレートを変更できる。これにより、構造化シナリオ記述101を書き直さなくても、簡単にかつ効果的に動画の編集ができる。
そして、この入力を受けた動画構成部105が、再度をユーザが変更した動画構成要素もしくはシーン演出テンプレートを使用して動画構成記述110を作成する。
以上のように、構造解析部102は、構造化シナリオ記述101に記述されたシナリオアクションに対応する適切なシーン演出テンプレートを選択し、動画構成部105が選択したシーン演出テンプレートに記述された演出が加えられた動画構成記述を生成できる。
また、ここで着目すべき点は、ユーザが、構造化シナリオ記述101に、特に演出に関する記述をしなくても、シナリオアクションに対応した適切な演出がなされた動画が作成できることである。
実際、演出は、熟練の知識と経験を必要とし、カメラワークなどの細かい設定を必要とするものである。よって、一般の人が、効果的な演出に関する設定をすることは難しく、効果的な演出に関する記述をすることは容易ではない。
しかし、本発明を用いることにより、一般の人が特別な知識もなくても、自動的に効果的な演出を動画にすることができる。
以上説明したように、本実施の形態によれば、ユーザが演出に関する専門的な知識がなくても、簡単に効果的な演出がなされた動画を作成できる。
また、本実施の形態によれば、演出に関する情報と演出設定とを対応させたシーン演出テンプレート114を予め演出知識ベース109に蓄積しておくことができる。つまり、特別な知識を持つ専門家によるシーン演出テンプレートを予め作成し蓄積しておくができ、専門家による演出と同じような演出をすることができる。また、異なる専門家によるシーン演出テンプレート114を蓄積することもでき、演出の幅を広げることができる。
なお、演出知識ベース109は、動画作成装置100の内部にあっても、動画作成装置100の外部、例えばインターネット上の空間にあっても良い。
なお、本実施の形態によれば、構造化シナリオ記述101に演出に関する設定をすることもできる。これにより、演出の専門かなどが、自分の所望の演出を構造化シナリオ記述101に直接記述することもできる。
なお、動画作成装置100の行う動作をプログラムにし、汎用のコンピュータに実行させる形態であっても良い。
以上説明したように、本発明によれば、構造化シナリオ記述101から演出に関する情報を抽出し、抽出した演出に関する情報に対応する演出設定を演出知識ベースから抽出し、抽出した演出設定を用いて動画に効果的な演出を加えることができる。このように、効果的な演出がなされた動画は、情報の伝達やコミュニケーションなど幅広い応用範囲があり、利用範囲は広い。
本実施の形態にかかる動画作成装置の構成図 上記実施の形態にかかる構造化シナリオスキームを示す第1の図 上記実施の形態にかかる構造化シナリオスキームを示す第2の図 上記実施の形態にかかる構造化シナリオスキームを示す第3の図 上記実施の形態にかかる構造化シナリオスキームを示す第4の図 上記実施の形態にかかる構造化シナリオスキームを示す第5の図 上記実施の形態にかかる構造化シナリオスキームを示す第6の図 上記実施の形態にかかる構造化シナリオスキームを示す第7の図 上記実施の形態にかかる構造化シナリオスキームを示す第8の図 上記実施の形態にかかる構造化シナリオを示す図 上記実施の形態にかかるシーン演出テンプレートを示す第1の図 上記実施の形態にかかるシーン演出テンプレートを示す第2の図 上記実施の形態にかかるシーン演出テンプレートを示す第3の図 上記実施の形態にかかるシーン演出テンプレートを示す第4の図 上記実施の形態にかかるシーン演出テンプレートを示す第5の図 上記実施の形態にかかるシーン演出テンプレートを示す第6の図 上記実施の形態にかかるシーン演出テンプレートを示す第7の図 上記実施の形態にかかるシーン演出テンプレートを示す第8の図 上記実施の形態にかかるシーン演出テンプレートを示す第9の図 上記実施の形態にかかるシーン演出テンプレートを示す第10の図 上記実施の形態にかかるシーン演出テンプレートを示す第11の図 上記実施の形態にかかる構造解析部が動画構成要素検索クエリを作成する処理の第1のフローチャート 上記実施の形態にかかる構造解析部が動画構成要素検索クエリを作成する処理の第2のフローチャート 上記実施の形態にかかる動画作成装置が構造化シナリオから演出を加えた動画を作成する処理のフローチャート 上記実施の形態にかかる動画作成装置が構造化シナリオから演出を加えた動画を作成する別の処理のフローチャート
符号の説明
100 動画作成装置
102 構造解析部
104 動画構成要素検索部
105 動画構成部
106 動画構成要素データベース
108 表示部
109 演出知識ベース
111 動画再生部
113 操作部

Claims (8)

  1. 監督名、作風、もしくは種別(ジャンル)を含む演出に関する情報と、前記演出に関する情報に対応する演出設定とを対応付けたシーン演出テンプレートを複数格納する演出知識ベースと、
    素材と演出に関する情報を構造化記述した構造化シナリオ記述を入力し、前記構造化シナリオ記述から前記素材と前記演出に関する情報を抽出し、前記抽出した演出に関する情報に基づいてシーン演出テンプレートを前記演出知識ベースから選択する構造解析部と、
    前記構造解析部が選択した前記シーン演出テンプレートから前記演出設定を抽出し、前記構造解析部が抽出した前記素材に対応する動画構成要素に対して前記演出設定に基づいた演出を加えて動画構成記述を作成する動画構成部と、
    を具備する、動画作成装置。
  2. 前記演出設定は、前記演出に関する情報に対応する構成(フレーミング)、カメラショット、カメラ位置および方向の少なくとも1つを含むカメラワークである、請求項1記載の動画作成装置。
  3. 前記演出に関する情報は、素材の配置、動作及び撮影方法のうち少なくとも一つ以上に関する記述であり、前記演出設定は前記動作に対応する演出設定である、請求項1記載の動画作成装置。
  4. 前記構造化シナリオ記述には、監督名、作風、もしくは種別(ジャンル)を含む演出タイプと動作に関する記述であるシナリオアクションとを含み、
    前記構造解析部は、前記演出タイプとシナリオアクションの両方を加味したシーン演出テンプレートを選択する、
    請求項1記載の動画作成装置。
  5. 前記構造化シナリオ記述には、動作に関する記述であるシナリオアクションを含み、
    前記シーン演出テンプレートは、前記シナリオアクションと、どのようなカメラワーク(カメラショット、カメラの位置、方向)で撮影するかという演出であるショット群種別と、前記シナリオアクションと前記ショット群種別の適合性を示すショット群適合率とが、対応付けられて、前記演出知識ベースに格納されており、
    前記構造解析部は、前記複数のシーン演出テンプレートから最も適合性の高いシーン演出テンプレートを決定する、
    請求項1記載の動画作成装置。
  6. 前記動画構成記述から動画を生成する動画再生部と、前記動画を表示する表示部と、表示された前記動画に用いた前記演出設定を変更する旨の入力をする操作部とを具備する、請求項1から請求項5のいずれかに記載の動画作成装置。
  7. 前記動画構成記述から動画を生成する動画再生部と、前記動画を表示する表示部と、表示された前記動画に用いた前記動画構成要素を変更する旨の入力をする操作部とを具備する、請求項1から請求項5のいずれかに記載の動画作成装置。
  8. 構造解析部において、素材と演出に関する情報を構造化記述した構造化シナリオ記述を入力するステップと、
    前記構造解析部において、前記構造化シナリオ記述から前記素材と前記演出に関する情報を抽出するステップと、
    前記構造解析部において、監督名、作風、もしくは種別(ジャンル)を含む演出に関する情報と、前記演出に関する情報に対応する演出設定とを対応付けたシーン演出テンプレートを複数格納する演出知識ベースから、前記抽出した演出に関する情報に基づいてシーン演出テンプレートを選択するステップと、
    動画構成部において、前記構造解析部が選択した前記シーン演出テンプレートから演出設定を抽出するステップと、
    前記動画構成部において、前記素材に対応する動画構成要素に対して前記演出設定に基づいた演出を加えて動画構成記述を作成するステップと、
    を具備する、動画作成方法。
JP2003278401A 2003-07-23 2003-07-23 動画作成装置および動画作成方法 Expired - Lifetime JP4245433B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2003278401A JP4245433B2 (ja) 2003-07-23 2003-07-23 動画作成装置および動画作成方法
US10/565,513 US7382372B2 (en) 2003-07-23 2004-07-22 Apparatus and method for creating moving picture
PCT/JP2004/010757 WO2005008599A1 (ja) 2003-07-23 2004-07-22 動画作成装置および動画作成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003278401A JP4245433B2 (ja) 2003-07-23 2003-07-23 動画作成装置および動画作成方法

Publications (2)

Publication Number Publication Date
JP2005044181A JP2005044181A (ja) 2005-02-17
JP4245433B2 true JP4245433B2 (ja) 2009-03-25

Family

ID=34074716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003278401A Expired - Lifetime JP4245433B2 (ja) 2003-07-23 2003-07-23 動画作成装置および動画作成方法

Country Status (3)

Country Link
US (1) US7382372B2 (ja)
JP (1) JP4245433B2 (ja)
WO (1) WO2005008599A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2339536A2 (en) 2009-11-11 2011-06-29 Sony Corporation Image processing system, image processing apparatus, image processing method, and program

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4426623B2 (ja) * 2005-06-01 2010-03-03 パイオニア株式会社 映像配信装置、映像配信方法、映像配信プログラム、および記録媒体
KR20100007702A (ko) * 2008-07-14 2010-01-22 삼성전자주식회사 애니메이션 제작 방법 및 장치
US20100225648A1 (en) * 2009-03-05 2010-09-09 Sony Corporation Story development in motion picture
EP2357220A1 (en) * 2010-02-10 2011-08-17 The Procter & Gamble Company Cleaning composition comprising amylase variants with high stability in the presence of a chelating agent
US10031953B1 (en) * 2013-03-14 2018-07-24 Google Llc Generating query answers
JP6292921B2 (ja) * 2014-02-24 2018-03-14 Kddi株式会社 カメラワーク情報生成装置、カメラワーク情報生成方法およびコンピュータプログラム
JP6460347B2 (ja) * 2016-03-01 2019-01-30 京セラドキュメントソリューションズ株式会社 動画生成装置、動画生成プログラムおよび動画生成方法
JP7336346B2 (ja) * 2019-10-04 2023-08-31 日本放送協会 フレーミング情報生成装置及びそのプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263681A (ja) * 1995-03-22 1996-10-11 Matsushita Electric Ind Co Ltd アニメーション作成装置およびその方法
AU5442796A (en) * 1995-04-06 1996-10-23 Avid Technology, Inc. Graphical multimedia authoring system
KR100276598B1 (ko) * 1995-05-19 2000-12-15 이리마지리 쇼우이치로 화상처리장치, 화상처리방법 및 이것을 이용한 게임장치
US5810666A (en) * 1996-05-08 1998-09-22 Mero; George T. Role playing game
JP2997439B2 (ja) * 1997-07-16 2000-01-11 コナミ株式会社 ビデオゲーム機,及びコンピュータプログラムを記録した機械読取可能な記録媒体
JP2992499B2 (ja) * 1998-01-05 1999-12-20 コナミ株式会社 画像処理方法及び装置、記録媒体
JP2001006001A (ja) * 1999-06-18 2001-01-12 Hitachi Ltd 三次元表現制御システムと方法およびその処理プログラムを記録した記録媒体
US20010049596A1 (en) 2000-05-30 2001-12-06 Adam Lavine Text to animation process

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2339536A2 (en) 2009-11-11 2011-06-29 Sony Corporation Image processing system, image processing apparatus, image processing method, and program
US9547791B2 (en) 2009-11-11 2017-01-17 Sony Corporation Image processing system, image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
WO2005008599A1 (ja) 2005-01-27
JP2005044181A (ja) 2005-02-17
US7382372B2 (en) 2008-06-03
US20060181541A1 (en) 2006-08-17

Similar Documents

Publication Publication Date Title
US9870798B2 (en) Interactive real-time video editor and recorder
US10679063B2 (en) Recognizing salient video events through learning-based multimodal analysis of visual features and audio-based analytics
US20110161348A1 (en) System and Method for Automatically Creating a Media Compilation
US9570107B2 (en) System and method for semi-automatic video editing
US9554111B2 (en) System and method for semi-automatic video editing
KR100321839B1 (ko) 비디오내로하이퍼링크를통합하는방법및장치
JP2002366964A (ja) 動画作成方法およびシステム
JP4245433B2 (ja) 動画作成装置および動画作成方法
WO2014179749A1 (en) Interactive real-time video editor and recorder
WO2024108981A1 (zh) 视频剪辑方法及装置
JP7177175B2 (ja) テキスト・コンテンツからのリッチ・コンテンツの作成
US8223153B2 (en) Apparatus and method of authoring animation through storyboard
Agamanolis et al. Multilevel scripting for responsive multimedia
KR101694303B1 (ko) 편집형 영상 객체 생성 장치 및 방법
KR20170090856A (ko) 오픈 시나리오 생성 방법
US7610554B2 (en) Template-based multimedia capturing
KR20130107895A (ko) 2차원 코믹 콘텐츠의 이펙트 적용에 의한 애니코믹 제작 방법 및 2차원 코믹 콘텐츠의 이펙트 적용에 의한 애니코믹 제작 프로그램을 기록한 컴퓨터로 판독가능한 기록매체
JP2003219355A (ja) ムービー編集システム及びムービー編集サービスサーバ
JP4446124B2 (ja) ビデオコンテンツ作成方法
Shen et al. The Framework of an Automatic Digital Movie Producer
JP3987483B2 (ja) マルチメディア・コンテンツ流通システム
JP3496866B2 (ja) マンガ型映像編集方法及び装置ならびに該編集方法を記録した記録媒体
Nack The Future of Media Computing: From Ontology-Based Semiosis to Communal Intelligence
Lv et al. Image Segmentation-Based Artistic Cutting Technology and Long Shot Analysis of Digital Film and Television Clips
KR20050102521A (ko) 멀티미디어 콘텐츠를 제작할 수 있는 프로그램을 기록한컴퓨터로 읽을 수 있는 기록 매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090106

R150 Certificate of patent or registration of utility model

Ref document number: 4245433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140116

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term