JP2010020781A - アニメーション製作方法及び装置 - Google Patents

アニメーション製作方法及び装置 Download PDF

Info

Publication number
JP2010020781A
JP2010020781A JP2009166011A JP2009166011A JP2010020781A JP 2010020781 A JP2010020781 A JP 2010020781A JP 2009166011 A JP2009166011 A JP 2009166011A JP 2009166011 A JP2009166011 A JP 2009166011A JP 2010020781 A JP2010020781 A JP 2010020781A
Authority
JP
Japan
Prior art keywords
animation
production
user
level content
rule
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009166011A
Other languages
English (en)
Other versions
JP5432617B2 (ja
JP2010020781A5 (ja
Inventor
Bo-Gyeong Kang
甫 ▲ぎょん▼ 姜
Hyun-Ju Shim
賢 柱 沈
Seung-Eun Song
升 銀 宋
Kyung-Soo Kwang
庚 洙 郭
Yeong-Mok You
永 穆 兪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2010020781A publication Critical patent/JP2010020781A/ja
Publication of JP2010020781A5 publication Critical patent/JP2010020781A5/ja
Application granted granted Critical
Publication of JP5432617B2 publication Critical patent/JP5432617B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs

Abstract

【課題】 アニメーションを自動で製作する方法及び装置を提供する。
【解決手段】 アニメーションを自動で製作する方法及び装置によれば、ユーザーからアニメーションの製作のためのユーザーレベルのコンテンツを入力され、アニメーション演出知識を規則化した情報に基づいて、ユーザーレベルのコンテンツからアニメーションを表す映像スクリプトを生成し、この映像スクリプトを再生することによってアニメーションの映像を出力する。
【選択図】 図3

Description

本発明の少なくとも一つの実施形態は、アニメーション製作方法及び装置に係り、特に、ユーザーの入力と選択された演出スタイルによってアニメーションスクリプト言語でアニメーションを自動で製作する方法及び装置に関する。
現在、映像を製作するための色々な映像製作ツールが発売されている。例えば、フラッシュ(flash)、アドーブプレミア(adobe premiere)などを挙げることができる。このような映像編集ツールは、製作しようとする映像の内容をテキストで表現したコンテンツの意味を映像製作者が理解し、これに対応するメディアコンテンツを製作し、これを編集してビデオ映像を生成する過程を経る。一方、映像スクリプトを基盤とした映像製作ツールも発売された。代表的な例には、NHKのTVML(TV program Making Language)を挙げることができる。これは、映像製作者が一種のコンピュータプログラム言語である映像スクリプトを理解して作成して初めて映像が製作できる。
日本特許公開第2000−036057号公報 日本特許公開第2002−109566号公報 日本特許公開第2002−170128号公報 韓国特許公開第2000−0050029号公報 韓国特許公開第2001−0038639号公報 韓国特許公開第2002−0057447号公報 韓国特許公開第2008−0028732号公報
本発明の少なくとも一つの実施形態が解決しようとする技術的課題は、ユーザーがアニメーション演出の専門的知識や映像スクリプトの言語が分からない場合でも、専門家レベルのアニメーションを容易に製作可能にする装置及び方法を提供するところにある。また、前記方法をコンピュータで行わせるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供するところにある。本実施形態が解決しようとする技術的課題は、前記のような技術的課題に限定されず、さらに他の技術的課題が存在しうる。
前記技術的課題を解決するための本実施形態によるアニメーションをインタラクティブに製作する方法は、ユーザーレベルのコンテンツを分析するステップと、前記分析された結果にアニメーション演出知識を規則化した情報を適用することによって、前記アニメーションを表す映像スクリプトを生成するステップと、前記生成された映像スクリプトを保存するステップと、を含む方法を含む。
前記他の技術的課題を解決するために、本発明は、前記アニメーション製作方法をコンピュータで行わせるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供する。
前記さらに他の技術的課題を解決するための本実施形態によるアニメーションをインタラクティブに製作する装置は、ユーザーレベルのコンテンツを分析し、前記分析された結果にアニメーション演出知識を規則化した情報を適用することによって、前記アニメーションを表す映像スクリプトを生成して保存する自動演出エンジンを備える。
本発明によれば、ユーザーがアニメーション演出の専門的知識や映像スクリプトの言語が分からない場合であっても専門家レベルのアニメーションを容易に製作できる。
本発明の一実施形態によるアニメーション自動製作装置の構成図である。 図1に示したユーザーインターフェース100のテンプレートの多様な例を示した図である。 図1に示した自動演出エンジン200の構成図である。 図1に示した自動演出エンジン200内でのデータフローを示す図である。 図3及び図4に示した仮想演出部212内に搭載された演出要素の分類体系の一例を示す図である。 図3及び図4に示したカメラ演出部231により決定されるコンディションの一例を示す図である。 図3及び図4に示したカメラ演出部231により決定されるカメラワーク規則のリストを示す図である。 本発明の一実施形態によるアニメーション自動製作方法のフローチャートである。 図8に示した803ステップの詳細フローチャートである。
以下、図面を参照して本発明の実施形態を詳細に説明する。
図1は、本発明の一実施形態によるアニメーション自動製作装置の構成図である。図1を参照すれば、本実施形態によるアニメーション自動製作装置は、ユーザーインターフェース100、自動演出エンジン200、及びスクリプト再生器300で構成される。本実施形態の当業者ならば、本実施形態でのアニメーションが実写映像を含むこともできるということを理解できるであろう。
ユーザーインターフェース100には、ユーザーからアニメーションの製作のためのユーザーレベルのコンテンツが入力される。ここで、ユーザーレベルのコンテンツとは、アニメーション製作に関する専門家的な演出知識が要求されないコンテンツをいい、文字を読んで書くことができるほどの一般的な知識程度が要求されるコンテンツをいう。このように、ユーザーインターフェース100は、いずれかの情報を要請、獲得、選択するためにユーザーとインタラクトできる。本実施形態で、ユーザーレベルのコンテンツは、ユーザーインターフェース100内の任意のアニメーションを定義するための複数のメディア要素のうち、ユーザーが製作しようとするアニメーションを定義するためのメディア要素を選択するための情報を含む。例えば、ユーザーはウェブページ形態で具現されるユーザーインターフェース100内で、メディア要素それぞれに該当するアイコンのうち、自分が製作しようとするアニメーションを定義するためのアイコンをクリックすればよい。
図1を参照すれば、ユーザーインターフェース100には、ユーザーからテンプレートタイプ、ダイアローグ、メディアスタイル、スクリーンショットに該当するコンテンツが入力される。ただし、本実施形態の当業者ならば、ユーザーインターフェース100は前記メディア要素以外に他のタイプのメディア要素に該当するコンテンツを入力されることもできるということが分かる。
ユーザーインターフェース100には、ユーザーからユーザーインターフェース内の入力フォーマットを規定するいろいろなタイプのテンプレートのうち、いずれか一つを選択するための情報が入力される。ここで、テンプレートは、ユーザーの立場で一種の書き込みタイプ(writing type)であるともいえる。
図2は、図1に示したユーザーインターフェース100のテンプレートの多様な例を示した図である。図2を参照すれば、ユーザーインターフェース100のテンプレートの例には、随筆、旅行記、日記、電子メール、手紙、詩、案内書、レシピ、マニュアル、レビュー、記事、発表資料、広告、教育資料、シナリオなどを挙げることができる。
例えば、ユーザーによりユーザーインターフェース100のテンプレートが日記と選択されたならば、ユーザーインターフェース100の入力フォーマットは、日付、天気、本文の構造になる。また、ユーザーによりユーザーインターフェース100のテンプレートがシナリオと選択されたならば、ユーザーインターフェース100の入力形態は、シーン(scene)ナンバー、シーンタイトル、シーン説明、ナレーション、話者、台詞、描写の構造になる。ここで、本文のような項目は数回入力されうる。また、描写のような項目は話者、台詞に従属される項目である。
ユーザーインターフェース100には、ユーザー入力情報によって決定されたテンプレートを通じてユーザーからアニメーションのダイアローグ(dialog)、メディアスタイル(media style)、スクリーンショット(screen shot)などに関するユーザーレベルのコンテンツが入力される。例えば、ユーザーはユーザーインターフェース100のテンプレートに設けられたテキスト入力インターフェースにダイアローグを入力するか、GUI(Graphical User Interface)形態のメニューバー(menu bar)のアイコンをクリックすることによって、メディアスタイルを選択できる。
ダイアローグに関するユーザーレベルのコンテンツは、自動演出エンジン200により決定されたテンプレートが支援するアニメーションのキャラクターのうち、ユーザーが製作しようとするアニメーションに登場するキャラクターを選択するための情報、ユーザーにより作成されたキャラクターの台詞、キャラクターのアクション、感情を表すコマンド、ユーザーから入力されたメディアクリップ(例えば、動画、音楽、写真など)などを含む。
メディアスタイルに関するユーザーレベルのコンテンツは、自動演出エンジン200により決定されたテンプレートが支援する多様なメディアスタイルのうち、ユーザーが製作しようとするアニメーションのスタイルを選択するための情報として、アニメーションのジャンル、場面、雰囲気、時間帯などを選択するための情報、アニメーションに登場するキャラクターの性格を選択するための情報などを含む。
スクリーンショットに関するユーザーレベルのコンテンツは、自動演出エンジン200により決定されたテンプレートが支援する多様な背景のうち、ユーザーが製作しようとするアニメーションの背景を選択するための情報、この背景内でのキャラクターの位置を選択するための情報などを含む。
一方、ダイアローグ、メディアスタイル、スクリーンショットに関するコンテンツは、前記のユーザーレベルのコンテンツ以外に、自動演出エンジン200が保有しているコンテンツも含むことができる。特に、本実施形態でのメディアスタイルに関するコンテンツは、アニメーションのメディアスタイルを表す多様なメディアリソース(例えば、動画、音楽、写真など)を含む。これらのメディアリソースには、ユーザーから入力されたメディアクリップも含まれうる。
現在広く使われているフラッシュ、アドーブプレミアなどの映像製作ツールの場合、ユーザーは該当プログラムの使用法を学ばねばならず、ユーザーが製作しようとする映像を生成するまでカメラ、照明、キャラクター、音響など多くの演出知識が要求される。しかし、本実施形態では映像製作に前記のようなユーザーレベルのコンテンツのみ要求されるため、ユーザーは映像製作ツールの使用法を学ぶ必要がなく、専門家的な演出知識も不要になる。
自動演出エンジン200は、アニメーション演出知識(direction knowledge)を規則化した情報に基づいて、ユーザーインターフェース100に入力されたユーザーレベルのコンテンツからアニメーションを表す映像スクリプトを生成する。ここで、アニメーション演出知識の代表的な例には、アニメーションのシーンそれぞれに対して、アニメーション演出専門家により一般的に決定されるカメラワーク(camera work)、照明(light)、アドリブ(ad−lib)、音響効果(sound effect)、スローイング効果(drawing effect)などを挙げることができる。すなわち、アニメーション演出知識を規則化した情報とは、前記のような例のアニメーション演出知識を複数の規則(rule)で画一化した後、これらをコンピュータで読み取り可能なデータで作った情報を意味する。これらの情報は、XML(Extensible Markup Language)文書の形態で作成されてもよく、データベース形態で作成されてもよい。特に、これらの情報はユーザーにより修正ないし追加が容易になるように設計されうる。
さらに詳細に説明すれば、自動演出エンジン200は、ユーザーインターフェース100に入力されたユーザーレベルのコンテンツを分析し、このように分析された結果にアニメーション演出知識を規則化した情報を適用することによって、映像スクリプトを生成する。
図3は、図1に示した自動演出エンジン200の構成図である。図3を参照すれば、図1に示した自動演出エンジン200は、プランコーディネーター210、規則管理部220、演出部230、及び仮想ライター240で構成される。図4は、図1に示した自動演出エンジン200内でのデータフローを示す図である。
プランコーディネーター210は、アニメーションのメディアスタイル及びスクリーンショットに関するユーザーレベルのコンテンツに基づいて、アニメーションのダイアローグに関するユーザーレベルのコンテンツを分析することによって、アニメーション演出知識を規則化した情報に対応できる演出要素のコンディション(condition)を決定する。プランコーディネーター210は、環境管理部211及び仮想演出部212で構成される。
環境管理部211は、ユーザーインターフェース100を通じて入力されたメディアスタイル及びスクリーンショットに関するユーザーレベルのコンテンツによってアニメーションの環境を設定し、このように設定された環境内でアニメーションの演出の制限事項とこの環境に適したメディアリソースとを決定し、これらを、演出部230を構成する各演出部に出力する。例えば、ユーザーレベルのコンテンツに含まれたアニメーションの時間帯が夕方時間帯ならば、環境管理部211は、アニメーションの環境を照明の暗い環境に設定し、この環境に適していない陽光などをアニメーションの演出の制限事項に決定し、この環境に適したメディアリソース(例えば、夕焼けイメージ)を決定する。
仮想演出部212は、ユーザーインターフェース100を通じて入力されたダイアローグに関するユーザーレベルのコンテンツを、ユーザーが製作しようとするアニメーションの演出の動機ないし情報として作用する最小単位である演出ユニットに分類し、このように分類された演出ユニットそれぞれを、アニメーション演出知識を構成する演出要素の分類体系に対応させることによって各演出ユニットに対応する演出要素のコンディションを決定し、その結果を、ユーザーインターフェース100を通じて入力されたダイアローグに関するユーザーレベルのコンテンツと共に演出部230を構成する各演出部に出力する。
また、仮想演出部212は、ユーザーインターフェース100を通じて入力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、各演出ユニットに対応する演出要素のアドリブを生成する。例えば、ユーザーインターフェース100を通じて入力されたダイアローグに関するユーザーレベルのコンテンツの一つの演出ユニットが、いずれかのキャラクターに対する承諾に該当する場合、このキャラクターの首が上下にうなずかれるアドリブが生成される。
図5は、図3及び図4に示した仮想演出部212内に搭載された演出要素の分類体系の一例を示す図である。図5を参照すれば、演出要素は、場面カテゴリー、キャラクターカテゴリー、モーションカテゴリーに大別される。本実施形態の当業者ならば、前記のカテゴリー以外に他のカテゴリーが追加されうるということを理解できるであろう。
場面カテゴリーは再び、物理的場所(例えば、海浜、広場など)、ジャンル(例えば、映画、トークショーなど)、場面(例えば、対話、追撃など)、雰囲気(例えば、ホラー、ロマンチックなど)、時間帯(例えば、朝、夕方など)などのクラスに分類される。キャラクターカテゴリーは再び、物理的形態(例えば、男性、女性など)、性格(例えば、内向的、外向的など)、役割(例えば、主演、助演など)、職業(例えば、会社員、医者、警察など)などのクラスに分類される。モーションカテゴリーは再び、物理的形態(例えば、頭、上半身、下半身、全身など)、動作範囲(例えば、一人でする動作、キャラクターとキャラクターとが関連した動作、キャラクターと小品とが関連した動作など)などのクラスに分類される。
例えば、ユーザーインターフェース100を通じて入力されたダイアローグに関するユーザーレベルのコンテンツの一つの演出ユニットが、海浜での男女間の恋の対話である場合、場面カテゴリーに対しては海浜、映画、対話、ロマンチック、夕方、キャラクターカテゴリーに対しては男性、女性の2人のキャラクター、内向的、モーションカテゴリーに対しては全身、全身動作を表す演出要素のコンディションが決定される。
演出部230は、アニメーション演出知識を規則化した情報に含まれた演出規則のうち、プランコーディネーター210により決定されたコンディションに基づいて少なくとも一つの演出規則を決定し、このように決定された演出規則によってユーザーが製作しようとするアニメーションの演出結果物を生成する。ただし、アニメーション演出知識を規則化した情報に含まれた演出規則のうち、少なくとも一つの演出規則を決定する機能は、演出部230により行われてもよく、規則管理部220により行われてもよい。もし、アニメーション演出知識を規則化した情報に含まれた演出規則のうち、少なくとも一つの演出規則を決定する機能が規則管理部220により行われる場合、演出部230は規則管理部220に、アニメーション演出知識を規則化した情報に含まれた演出規則のうち、少なくとも一つの演出規則を決定することを要請し、規則管理部220からこの要請に対する応答に該当する演出規則を獲得し、このように獲得された演出規則によってユーザーが製作しようとするアニメーションの演出結果物を生成する。ここで、演出結果物とは、演出規則をXML文書などの形態でデータ化したものを意味する。
さらに詳細に説明すれば、演出部230は、仮想演出部212から出力された各演出ユニットに対応する演出要素のコンディションに対して、アニメーションの多様な演出分野の特性を考慮して、仮想演出部212から出力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定し、アニメーション演出知識を規則化した情報に含まれた演出規則のうち、このような決定されたコンディションに該当する少なくとも一つの演出規則を決定する。また、演出部230は、このように決定された演出規則のうち、環境管理部211から入力された演出制限事項を除いて、環境管理部211により決定されたメディアリソースに適した演出規則を選択する。もし、環境管理部211により決定されたメディアリソースに適した演出規則が複数である場合、演出部230は、あらかじめ定められた演出規則間の優先順位によっていずれか一つを選択する。
演出部230は、カメラ演出部231、キャラクター演出部232、編集演出部233、照明演出部234、アート演出部235、及びサウンド演出部236で構成される。ただし、本実施形態の当業者ならば、自動演出エンジン200は、前記の演出部以外に他の機能を演出する演出部をさらに備えることができるということが分かる。カメラ演出部231は、仮想演出部212から出力された各演出ユニットに対応する演出要素のコンディションに対して、カメラ演出分野の特性を考慮して仮想演出部212から出力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定する。
図6は、図3及び図4に示したカメラ演出部231により決定されるコンディションの一例を示す図である。図6を参照すれば、カメラ演出部231は、仮想演出部212から出力されたいずれかの演出ユニットに対応する演出要素のコンディション(すなわち、ジャンルのタイプ、場面のタイプ、雰囲気のタイプ、時間帯のタイプ、物理的場所のタイプ)で、この演出ユニットがカメラに対する演出規則が転換(trigger)されうるシーケンス(sequence)であるかどうかを確認して、図7のカメラワーク規則を適用する。
例えば、仮想演出部212から出力されたいずれかの演出ユニットに対応する演出要素のコンディションが、ドラマ、三者ダイアローグ、ロマンチック、室外、スローである環境で抱擁、キス、感動のモーションシーケンスに該当するならば、カメラ演出部231は、この演出ユニットのコンディションを“1”に決定する。カメラ演出部231は、この演出ユニットに連続する次の演出ユニットが、前記の“1”ではない他のコンディションであるかを確認し、その結果、他のコンディションならば、コンディションを転換する。
図7は、図3及び図4に示したカメラ演出部231により決定されるカメラワーク規則のリストを示す図である。図7を参照すれば、カメラ演出部231は、前記のように決定された演出ユニットのコンディション、すなわち、“1”に該当する演出規則を決定する。図7では演出ユニットのコンディション、すなわち、“1”に該当する演出規則は円形トラッキング(round tracking)になる。カメラ演出部231は、このような円形トラッキングという演出規則をXML文書などの形態でデータ化することによって、ユーザーが製作しようとするアニメーションのカメラ演出結果物を生成する。特に、“1”に該当する演出規則には、円形トラッキングというカメラ演出効果を表すためのカメラのショットアングル、ショットサイズ、ショットルームなどについての情報が含まれている。
キャラクター演出部232は、仮想演出部212から出力された各演出ユニットに対応する演出要素のコンディションに対して、キャラクター演出分野の特性を考慮して仮想演出部212から出力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定する。編集演出部233は、仮想演出部212から出力された各演出ユニットに対応する演出要素のコンディションに対して、編集演出分野の特性を考慮して仮想演出部212から出力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定する。照明演出部234は、仮想演出部212から出力された各演出ユニットに対応する演出要素のコンディションに対して、照明演出分野の特性を考慮して仮想演出部212から出力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定する。
アート演出部235は、仮想演出部212から出力された各演出ユニットに対応する演出要素のコンディションに対して、アート演出分野の特性を考慮して仮想演出部212から出力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定する。一般的に、アートとは、3D(3 Dimensional)空間またはアニメーションが再生される画面全体または一部分にグラフィックテキスト、イメージ、そしてこれらの動作形態などを意味する。アート演出部235は、例えば、字幕の挿入時点、挿入部分、フォント、サイズなどを決定する。サウンド演出部236は、仮想演出部212から出力された各演出ユニットに対応する演出要素のコンディションに対して、サウンド演出分野の特性を考慮して仮想演出部212から出力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定する。
規則管理部220は、演出部230の要請に応じてアニメーション演出知識を規則化した情報に含まれた演出規則のうち、プランコーディネーター210により決定された演出要素のコンディションに基づいて少なくとも一つの演出規則を決定し、その決定結果を演出部230に出力する。さらに詳細に説明すれば、規則管理部220は、演出部230を構成する各演出部の要請に応じて、アニメーション演出知識を規則化した情報に含まれた演出規則のうち、各演出部により決定されたさらに細部的な演出要素のコンディションによって少なくとも一つの演出規則を決定し、その決定結果を演出部230に出力する。
本実施形態によれば、アニメーション演出知識を規則化した情報は、一般規則(general rule)、スタイル規則(stylish rule)、ケース規則(case−based rule)で構成される。一般規則は、最も自然なアニメーション映像を表現するために一般的に使われてきた演出技法(例えば、180°法則、画面構図設定法など)を意味する。スタイル規則は、ユーザーが所望する特定演出効果を表すために典型的に使われてきた演出技法を称する言葉であるクリシェ(cliche)をデータベースとして構築したものであって、例えば、ロマンチックな雰囲気で二人間の感情状態を描写するための円形トラックを利用したカメラワークがある。
規則管理部220は、アニメーション演出知識を規則化した情報に含まれた複数の演出規則のうち、各演出部により決定された演出要素のコンディションに対応するスタイル規則が存在するかどうかを確認し、その結果、存在すれば、このスタイル規則を各演出部に出力する。もし、演出要素のコンディションに対応するスタイル規則が存在していなければ、規則管理部220は、アニメーション演出知識を規則化した情報に含まれた複数の演出規則のうち、各演出部により決定された演出要素のコンディションに対応するケース規則を各演出部に出力する。特に、規則管理部220は、前記のように決定されたスタイル規則、ケース規則が各演出部により決定された演出要素のコンディションに対応する一般規則に違反するかどうかを確認し、その結果、違反していない場合にのみスタイル規則、ケース規則を各演出部に出力し、違反した場合にはこの一般規則を各演出部に出力する。
前記のような一般規則、スタイル規則、ケース規則のうち一部に関する情報は、各演出部が保有してもよい。特に、一般規則の場合には、その修正ないし変更が一般的に行われないため、各演出部内にプログラムコードの形態で保存されうる。このようにすることで、規則管理部220と各演出部間の通信過程が低減して、全体システムの処理効率が向上できる。また、規則管理部220は、アニメーション演出知識を規則化した情報以外にアニメーション演出要素の分類体系も保有できる。この場合には、プランコーディネーター210が規則管理部220に、各演出ユニットに対応する演出要素のコンディションを決定することを要請すれば、規則管理部220は、演出ユニットそれぞれをアニメーション演出知識を構成する演出要素の分類体系に対応させることによって、各演出ユニットに対応する演出要素のコンディションを決定し、その結果をプランコーディネーター210に出力する。
仮想ライター240は、演出部230により生成された演出結果物、仮想演出部212により生成されたアドリブをXML文法によって作成することによって、ユーザーが製作しようとするアニメーションを表す映像スクリプトを生成する。さらに詳細に説明すれば、仮想ライター240は、演出部230を構成する各演出部により生成された演出結果物を、この演出結果物の時間的動機が一致するように結合した後、でXML文法によって作成することによって、ユーザーが製作しようとするアニメーションを表す映像スクリプトを生成する。ただし、仮想ライター240の一部機能はプランコーディネーター210で具現されることもある。
スクリプト再生器300は、自動演出エンジン200により生成された映像スクリプトを再生することによってアニメーションの映像を出力する。前記のように、自動演出エンジン200により映像スクリプトが自動で生成されるため、ユーザーには映像スクリプトを作成するための知識が要求されず、文字を読んで書くほどの知識を持つ者ならば誰でも容易に本実施形態を利用してアニメーションを製作できる。特に、アニメーションスクリプトはその容量が小さくて修正が容易なため、他ユーザーとの共有に大きい長所があり、多様な人間との協力製作などの応用に容易に適用できる。
図8は、本発明の一実施形態によるアニメーション自動製作方法のフローチャートである。図8を参照すれば、本実施形態によるアニメーション自動製作方法は、図1に示したアニメーション自動製作装置で時系列的に処理されるステップで構成される。したがって、以下省略された内容であっても、図1に示したアニメーション自動製作装置に関して以上で記述された内容は、本実施形態によるアニメーション自動製作方法にも適用される。
801ステップで、ユーザーインターフェース100には、ユーザーからユーザーインターフェース内の入力フォーマットを規定するいろいろなタイプのテンプレートのうち、いずれか一つを選択するための情報が入力される。
802ステップで、ユーザーインターフェース100には、ユーザー入力情報によって決定されたテンプレートを通じて、ユーザーからアニメーションのダイアローグ、メディアスタイル、スクリーンショットに関するユーザーレベルのコンテンツが入力される。
803ステップで、自動演出エンジン200は、アニメーション演出知識を規則化した情報に基づいて、802ステップで入力されたユーザーレベルのコンテンツからアニメーションを表す映像スクリプトを生成する。
804ステップで、スクリプト再生器300は、803ステップで生成された映像スクリプトを再生することによってアニメーションの映像を出力する。また、804ステップで映像スクリプトは、例えば、不揮発性メモリまたは揮発性メモリに保存されうる。
図9は、図8に示した803ステップの詳細フローチャートである。図9を参照すれば、図8に示した803ステップは、図3及び図4に示した自動演出エンジン200で時系列的に処理されるステップで構成される。したがって、以下省略された内容であっても、図3及び図4に示した自動演出エンジン200に関して以上で記述された内容は、次の各ステップにも適用される。
901ステップで、プランコーディネーター210は、ユーザーインターフェース100を通じて入力されたメディアスタイル及びスクリーンショットに関するユーザーレベルのコンテンツによってアニメーションの環境を設定する。
902ステップで、プランコーディネーター210は、901ステップで設定された環境内で、アニメーションの演出の制限事項とこの環境に適したメディアリソースとを決定する。
903ステップで、プランコーディネーター210は、ユーザーインターフェース100を通じて入力されたダイアローグに関するユーザーレベルのコンテンツを、ユーザーが製作しようとするアニメーションの演出の動機ないし情報として作用する最小単位である演出ユニットに分類する。
904ステップで、プランコーディネーター210は、903ステップで分類された演出ユニットそれぞれを、アニメーション演出知識を構成する演出要素の分類体系に対応させることによって、各演出ユニットに対応する演出要素のコンディションを決定する。このステップは、規則管理部220により行われてもよい。
905ステップで、プランコーディネーター210は、ユーザーインターフェース100を通じて入力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、各演出ユニットに対応する演出要素のアドリブを生成する。
906ステップで、演出部230は、904ステップで決定されたコンディションに対してアニメーションの多様な演出分野の特性を考慮して、ダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定する。
907ステップで、規則管理部220は、アニメーション演出知識を規則化した情報に含まれた演出規則のうち、906ステップで決定されたコンディションに該当する少なくとも一つの演出規則を決定する。さらに詳細に説明すれば、907ステップで規則管理部220は、アニメーション演出知識を規則化した情報に含まれた複数の演出規則のうち、906ステップで決定されたコンディションに対応するスタイル規則が存在するかどうかを確認し、その結果、存在すれば、このスタイル規則と決定し、そうでなければ、906ステップで決定されたコンディションに対応するケース規則と決定する。次いで、規則管理部220は、前記のように決定されたスタイル規則、ケース規則が各演出部により決定された演出要素のコンディションに対応する一般規則に違反するかどうかを確認し、その結果、違反していない場合にのみスタイル規則、ケース規則と決定し、違反した場合には一般規則と決定する。907ステップの全体過程ないし一部過程は、演出部230により行われてもよい。
908ステップで、演出部230は、907ステップで決定された演出規則のうち、902ステップで決定された演出制限事項を除いて、902ステップで決定されたメディアリソースに適した演出規則を選択し、選択された演出規則が複数である場合、あらかじめ定められた演出規則間の優先順位によっていずれか一つを選択する。
909ステップで、演出部230は、907及び908ステップで決定ないし選択された演出規則によって、ユーザーが製作しようとするアニメーションの演出結果物を生成する。
910ステップで、演出部230は、909ステップで生成された演出結果物、905ステップで生成されたアドリブをXML文法によって作成することによって、ユーザーが製作しようとするアニメーションを表す映像スクリプトを生成する。
前記のような実施形態によれば、アニメーション演出知識を規則化した情報に基づいて、ユーザーレベルのコンテンツからアニメーションを表す映像スクリプトを自動で生成することによって、ユーザーがアニメーション演出の専門的知識や映像スクリプトの言語が分からない場合であっても、カメラ、音響、キャラクター、照明、スローイング効果などがリアルタイムで演出された専門家レベルのアニメーションを容易に製作できる。特に、映像製作者は、前記のように生成された映像スクリプトを、スクリプト再生器を通じて再生することによって、リアルタイムで自分が製作したアニメーションを確認することができる。
一方、前述した本発明の実施形態は、コンピュータで実行できるプログラムで作成可能であり、コンピュータで読み取り可能な記録媒体を利用して前記プログラムを動作させる汎用ディジタルコンピュータで具現できる。また、前述した本発明の実施形態で使われたデータの構造は、コンピュータで読み取り可能な記録媒体にいろいろな手段を通じて記録できる。前記コンピュータで読み取り可能な記録媒体は、マグネチック記録媒体(例えば、ROM、フロッピー(登録商標)ディスク、ハードディスクなど)、光学的判読媒体(例えば、CD−ROM、DVDなど)のような記録媒体を含む。
これまで本発明についてその望ましい実施形態を中心に説明した。当業者ならば、本発明が本発明の本質的な特性から逸脱しない範囲で変形された形態で具現できるということを理解できるであろう。したがって、開示された実施形態は、限定的な観点ではなく説明的な観点で考慮されねばならない。本発明の範囲は、前述した説明ではなく特許請求の範囲に表れており、これと同等な範囲内にあるあらゆる差異点は本発明に含まれていると解釈されねばならない。
本発明は、映像制作ツールに好適に用いられる。
200 自動演出エンジン
210 プランコーディネーター
211 環境管理部
212 仮想演出部
220 規則管理部
230 演出部
231 カメラ演出部
232 キャラクター演出部
233 編集演出部
234 照明演出部
235 アート演出部
236 サウンド演出部
240 仮想ライター

Claims (18)

  1. アニメーションをインタラクティブに製作する方法において、
    ユーザーレベルのコンテンツを分析するステップと、
    前記分析された結果にアニメーション演出知識を規則化した情報を適用することによって、前記アニメーションを表す映像スクリプトを生成するステップと、
    前記生成された映像スクリプトを保存するステップと、を含む方法。
  2. 前記映像スクリプトを生成するステップは、
    前記ユーザーレベルのコンテンツを分析することによって、前記情報に対応できる演出要素のコンディションを決定するステップと、
    前記情報に含まれた演出規則のうち、前記決定されたコンディションに基づいて少なくとも一つの演出規則を決定するステップと、
    前記決定された演出規則によって前記アニメーションの演出結果物を生成するステップと、を含む請求項1に記載の方法。
  3. 前記ユーザーレベルのコンテンツを、ユーザーが製作しようとするアニメーションの演出の動機ないし情報として作用する最小単位である演出ユニットに分類するステップをさらに含み、
    前記コンディションを決定するステップは、前記分類された演出ユニットそれぞれをアニメーション演出知識を構成する演出要素の分類体系に対応させることによって、各演出ユニットに対応する演出要素のコンディションを決定することを特徴とする請求項2に記載の方法。
  4. 前記ユーザーレベルのコンテンツを分析することによって各演出ユニットに対応する演出要素のアドリブを生成するステップをさらに含むことを特徴とする請求項3に記載の方法。
  5. 前記決定されたコンディションに対して、アニメーションの多様な演出分野の特性を考慮してダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定するステップをさらに含み、
    前記演出規則を決定するステップは、前記細部的なコンディションに該当する少なくとも一つの演出規則を決定することを特徴とする請求項2に記載の方法。
  6. 前記ユーザーレベルのコンテンツによって設定されたアニメーションの環境内でアニメーションの演出の制限事項を決定するステップをさらに含み、
    前記演出規則を決定するステップは、前記決定された演出規則から前記決定された演出制限事項を除いた後で演出規則を選択することを特徴とする請求項2に記載の方法。
  7. 前記決定された演出規則が複数である場合、あらかじめ定められた演出規則間の優先順位によっていずれか一つを選択するステップをさらに含み、
    前記演出結果物を生成するステップは、前記優先順位によって選択された演出規則によって前記アニメーションの演出結果物を生成することを特徴とする請求項2に記載の方法。
  8. 前記演出規則を決定するステップは、アニメーション演出知識を規則化した情報に含まれたスタイル規則、ケース規則、一般規則のうち、いずれか一つを演出規則として決定することを特徴とする請求項2に記載の方法。
  9. 前記ユーザーレベルのコンテンツは、ユーザーインターフェース内の任意のアニメーションを定義するための複数のメディア要素のうち、前記アニメーションを定義するためのメディア要素を選択するための情報を含むことを特徴とする請求項1に記載の方法。
  10. 前記ユーザーレベルのコンテンツは、ユーザーインターフェースの入力フォーマットを規定するいろいろなタイプのテンプレートのうち、いずれか一つを選択するための情報をさらに含み、
    前記ユーザーレベルのコンテンツを入力されるステップは、前記ユーザーレベルのコンテンツによって決定されたテンプレートを通じて、ユーザーから前記アニメーションのダイアローグ、メディアスタイル、スクリーンショットのうち少なくとも一つに関するユーザーレベルのコンテンツを入力されることを特徴とする請求項9に記載の方法。
  11. 前記映像スクリプトを再生することによって前記アニメーションの映像を出力するステップを含む請求項1に記載の方法。
  12. 請求項1ないし11のうち、いずれか1項に記載の方法をコンピュータで行わせるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
  13. アニメーションをインタラクティブに製作する装置において、
    ユーザーレベルのコンテンツを分析し、前記分析された結果にアニメーション演出知識を規則化した情報を適用することによって、前記アニメーションを表す映像スクリプトを生成して保存する自動演出エンジンを備える装置。
  14. ユーザーから前記アニメーションの製作のためのユーザーレベルのコンテンツを入力されるユーザーインターフェースをさらに備える請求項13に記載の装置。
  15. 前記自動演出エンジンは、前記ユーザーレベルのコンテンツを分析することによって前記情報に対応できる演出要素のコンディションを決定し、前記情報に含まれた演出規則のうち、前記決定されたコンディションに基づいて少なくとも一つの演出規則を決定し、前記決定された演出規則によって前記アニメーションの演出結果物を生成することを特徴とする請求項13に記載の装置。
  16. 前記ユーザーレベルのコンテンツは、ユーザーインターフェース内の任意のアニメーションを定義するための複数のメディア要素のうち、前記アニメーションを定義するためのメディア要素を選択するための情報を含むことを特徴とする請求項13に記載の装置。
  17. 前記ユーザーレベルのコンテンツは、ユーザーインターフェースの入力フォーマットを規定するいろいろなタイプのテンプレートのうち、いずれか一つを選択するための情報をさらに含み、
    前記ユーザーレベルのコンテンツを入力されるステップは、前記ユーザーレベルのコンテンツによって決定されたテンプレートを通じて、ユーザーから前記アニメーションのダイアローグ、メディアスタイル、スクリーンショットのうち少なくとも一つに関するユーザーレベルのコンテンツを入力されることを特徴とする請求項16に記載の装置。
  18. 前記映像スクリプトを再生することによって前記アニメーションの映像を出力する再生器をさらに備える請求項13に記載の装置。
JP2009166011A 2008-07-14 2009-07-14 アニメーション製作方法及び装置 Expired - Fee Related JP5432617B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2008-0068361 2008-07-14
KR20080068361 2008-07-14
KR1020090033635A KR20100007702A (ko) 2008-07-14 2009-04-17 애니메이션 제작 방법 및 장치
KR10-2009-0033635 2009-04-17

Publications (3)

Publication Number Publication Date
JP2010020781A true JP2010020781A (ja) 2010-01-28
JP2010020781A5 JP2010020781A5 (ja) 2010-10-21
JP5432617B2 JP5432617B2 (ja) 2014-03-05

Family

ID=40929500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009166011A Expired - Fee Related JP5432617B2 (ja) 2008-07-14 2009-07-14 アニメーション製作方法及び装置

Country Status (5)

Country Link
US (1) US20100013836A1 (ja)
EP (1) EP2146322A1 (ja)
JP (1) JP5432617B2 (ja)
KR (1) KR20100007702A (ja)
CN (1) CN101639943B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101349064B1 (ko) 2010-02-01 2014-01-08 반도키코 가부시키가이샤 왕복동 엔진
KR102508765B1 (ko) * 2022-05-06 2023-03-14 (주) 스튜디오 애니 인공 신경망 기반의 사용자 맞춤 메타 콘텐츠 제공 시스템 및 그 방법

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2324417A4 (en) * 2008-07-08 2012-01-11 Sceneplay Inc SYSTEM AND METHOD FOR PRODUCING MEDIA
KR101458139B1 (ko) * 2008-09-18 2014-11-05 삼성전자 주식회사 연출규칙을 이용한 카메라웍 제어장치 및 그 제어방법
CN102136154B (zh) * 2010-11-18 2012-12-12 彭浩明 一种动漫制作方法及装置
CN102509328A (zh) * 2011-09-30 2012-06-20 中兴通讯股份有限公司 日记文件生成方法和装置
CN102522016B (zh) * 2011-12-23 2014-07-16 刘焯琛 一种智能交互的远程教育系统
CN103854300B (zh) * 2012-12-07 2016-12-21 江苏省电力公司 多客户端联网控制下三维场景协作搬运的实现方法
US20160071302A1 (en) * 2014-09-09 2016-03-10 Mark Stephen Meadows Systems and methods for cinematic direction and dynamic character control via natural language output
KR101651928B1 (ko) 2015-02-05 2016-08-29 주식회사 윌드림 스타일시트 애니메이션을 이용한 이펍 애니메이션의 실시간 생성 및 재생방법과 이를 이용한 이펍 애니메이션 생성 및 재생 시스템
CN104793745B (zh) * 2015-04-17 2018-06-05 范剑斌 一种在移动终端上的人机交互方法
KR102403512B1 (ko) 2015-04-30 2022-05-31 삼성전자주식회사 공기 조화기의 실외기, 이에 적용되는 컨트롤 장치
US20170124448A1 (en) * 2015-10-30 2017-05-04 Northrop Grumman Systems Corporation Concurrent uncertainty management system
CN109684487A (zh) * 2018-11-06 2019-04-26 北京小小牛创意科技有限公司 媒体文件及其生成方法和播放方法
US11068284B2 (en) * 2019-07-25 2021-07-20 Huuuge Global Ltd. System for managing user experience and method therefor
CN111638845B (zh) * 2020-05-26 2022-02-11 维沃移动通信有限公司 动画元素获取方法、装置和电子设备
US20230310995A1 (en) * 2022-03-31 2023-10-05 Advanced Micro Devices, Inc. Detecting personal-space violations in artificial intelligence based non-player characters

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263681A (ja) * 1995-03-22 1996-10-11 Matsushita Electric Ind Co Ltd アニメーション作成装置およびその方法
JPH09167251A (ja) * 1995-12-14 1997-06-24 Canon Inc アニメーション生成装置及びその方法
JP2000036057A (ja) * 1998-07-21 2000-02-02 Hitachi Ltd キャラクタの動作生成方法
JP2002109566A (ja) * 2000-09-22 2002-04-12 Taiwan Mukojo Kagi Kofun Yugenkoshi 3dアニメ製作加速方法
JP2002170128A (ja) * 2000-12-04 2002-06-14 Hudson Soft Co Ltd 絵本作成システム、絵本作成用サーバおよび記録媒体
US20020089504A1 (en) * 1998-02-26 2002-07-11 Richard Merrick System and method for automatic animation generation
JP2005044181A (ja) * 2003-07-23 2005-02-17 Matsushita Electric Ind Co Ltd 動画作成装置および動画作成方法
JP2005346721A (ja) * 2004-06-04 2005-12-15 Reallusion Inc 自動的に動画を生み出すシステム
JP2006196017A (ja) * 1999-02-26 2006-07-27 Toshiba Corp アニメーション作成装置および方法、記憶媒体
US20060197764A1 (en) * 2005-03-02 2006-09-07 Yang George L Document animation system
JP4051484B2 (ja) * 2001-10-11 2008-02-27 株式会社ヤッパ Web3D画像表示システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7555717B2 (en) * 2004-04-30 2009-06-30 Samsung Electronics Co., Ltd. Method for displaying screen image on mobile terminal
KR100678120B1 (ko) * 2004-11-01 2007-02-02 삼성전자주식회사 이동통신 단말기에서 3d 애니메이션 파일을 제공하기 위한 장치 및 방법
CN1326093C (zh) * 2005-09-09 2007-07-11 湖南互动传媒有限公司 交互式动画节目的制作及播放方法
WO2009125404A2 (en) * 2008-04-07 2009-10-15 Ramot At Tel-Aviv University Ltd. System for generating an interactive or non-interactive branching movie segment by segment and methods useful in conjunction therewith

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263681A (ja) * 1995-03-22 1996-10-11 Matsushita Electric Ind Co Ltd アニメーション作成装置およびその方法
JPH09167251A (ja) * 1995-12-14 1997-06-24 Canon Inc アニメーション生成装置及びその方法
US20020089504A1 (en) * 1998-02-26 2002-07-11 Richard Merrick System and method for automatic animation generation
JP2000036057A (ja) * 1998-07-21 2000-02-02 Hitachi Ltd キャラクタの動作生成方法
JP2006196017A (ja) * 1999-02-26 2006-07-27 Toshiba Corp アニメーション作成装置および方法、記憶媒体
JP2002109566A (ja) * 2000-09-22 2002-04-12 Taiwan Mukojo Kagi Kofun Yugenkoshi 3dアニメ製作加速方法
JP2002170128A (ja) * 2000-12-04 2002-06-14 Hudson Soft Co Ltd 絵本作成システム、絵本作成用サーバおよび記録媒体
JP4051484B2 (ja) * 2001-10-11 2008-02-27 株式会社ヤッパ Web3D画像表示システム
JP2005044181A (ja) * 2003-07-23 2005-02-17 Matsushita Electric Ind Co Ltd 動画作成装置および動画作成方法
JP2005346721A (ja) * 2004-06-04 2005-12-15 Reallusion Inc 自動的に動画を生み出すシステム
US20060197764A1 (en) * 2005-03-02 2006-09-07 Yang George L Document animation system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN7013002825; Peter King et al.: '"Behavioral reactivity and real time programming in XML Functional programming meets SMIL animation"' Proceedings of the 2004 ACM symposium on Document engineering , 2004, p.57-66 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101349064B1 (ko) 2010-02-01 2014-01-08 반도키코 가부시키가이샤 왕복동 엔진
KR102508765B1 (ko) * 2022-05-06 2023-03-14 (주) 스튜디오 애니 인공 신경망 기반의 사용자 맞춤 메타 콘텐츠 제공 시스템 및 그 방법

Also Published As

Publication number Publication date
JP5432617B2 (ja) 2014-03-05
CN101639943A (zh) 2010-02-03
US20100013836A1 (en) 2010-01-21
EP2146322A1 (en) 2010-01-20
KR20100007702A (ko) 2010-01-22
CN101639943B (zh) 2013-10-30

Similar Documents

Publication Publication Date Title
JP5432617B2 (ja) アニメーション製作方法及び装置
Manovich AI aesthetics
US10679063B2 (en) Recognizing salient video events through learning-based multimodal analysis of visual features and audio-based analytics
US9992556B1 (en) Automated creation of storyboards from screenplays
CN101300567B (zh) 在Web上的媒体共享和创作的方法
US8161452B2 (en) Software cinema
US20220180052A1 (en) Management of presentation content including interjecting live feeds into presentation content
US20160203386A1 (en) Method and apparatus for generating photo-story based on visual context analysis of digital content
Gürsimsek Animated GIFs as vernacular graphic design: producing Tumblr blogs
US20130346843A1 (en) Displaying documents based on author preferences
CN104735468A (zh) 一种基于语义分析将图像合成新视频的方法及系统
US20230274545A1 (en) Systems and methods for generating composite media using distributed networks
US20210117471A1 (en) Method and system for automatically generating a video from an online product representation
US11393134B2 (en) Customizing soundtracks and hairstyles in modifiable videos of multimedia messaging application
KR20220017068A (ko) 인공지능 콘텐츠 자동 생성 및 변형 방법
KR102313203B1 (ko) 인공지능 콘텐츠 창작 시스템 및 방법
KR101804679B1 (ko) 스토리에 기초하는 멀티미디어 콘텐츠 개발 장치 및 방법
TW202109388A (zh) 依據同目標求職者履歷產生履歷修改建議之系統及方法
Shim et al. CAMEO-camera, audio and motion with emotion orchestration for immersive cinematography
CN115917647A (zh) 自动非线性编辑风格转移
Warner Enhancing Visual Media Through Reflection and Recomposition
van den Nieuwenhuijzen From Support to Disruption: Highlighting the discrepancy between user needs, current AI offerings and research focus for professional video creators, a situated user study.
JP2023546754A (ja) テキストの動的映像物への変換
Chi Designing Video-Based Interactive Instructions
KR20230167494A (ko) 홍보 영상 켄텐츠 제작 방법 및 3d 영상 컨텐츠 제작 시스템

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131206

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees