JP2012113677A - 情報処理装置および情報処理プログラム - Google Patents

情報処理装置および情報処理プログラム Download PDF

Info

Publication number
JP2012113677A
JP2012113677A JP2010273823A JP2010273823A JP2012113677A JP 2012113677 A JP2012113677 A JP 2012113677A JP 2010273823 A JP2010273823 A JP 2010273823A JP 2010273823 A JP2010273823 A JP 2010273823A JP 2012113677 A JP2012113677 A JP 2012113677A
Authority
JP
Japan
Prior art keywords
effect
identifier
animation
data
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010273823A
Other languages
English (en)
Inventor
Atsushi Nakahara
淳 中原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AITIA CORP
Original Assignee
AITIA CORP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AITIA CORP filed Critical AITIA CORP
Priority to JP2010273823A priority Critical patent/JP2012113677A/ja
Publication of JP2012113677A publication Critical patent/JP2012113677A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】多様なエフェクトで拡張現実感を表現する動画データを生成する。
【解決手段】情報処理装置1は、エフェクトの識別子が入力されると、エフェクト定義データ12aから当該エフェクトの識別子に対応づけられた特定モジュールの識別子を抽出し、動画データ11aの各フレームを、抽出した特定モジュールの識別子に対応する特定モジュールに入力して、エフェクト対象を取得する対象特定手段22と、エフェクト定義データ12aから当該エフェクトの識別子に対応づけられたアニメーションモジュールの識別子を抽出し、対象特定手段22によって特定されたエフェクト対象と、動画データ11aのフレームと、抽出されたアニメーションモジュールの識別子とから、合成画像データ14aを生成する合成手段23と、合成手段23により生成された合成画像データ14aから、新たな動画データを構成して表示部105に表示する表示手段24と、を備える。
【選択図】図1

Description

本発明は、動画データを処理する情報処理装置および情報処理プログラムに関する。
一般的に、拡張現実感の機能を備えるカメラ等の撮像装置が知られている。拡張現実感とは、カメラで撮影された現実の環境に、ソフトウェアで付加情報を加えて合成して表示することである。この技術は、現実環境中の特定の物体に関する説明や関連情報を、説明対象となる実物体近くに提示する場合に用いられる場合がある。
例えば、カメラで撮影された実空間の映像に、カメラの位置情報に基づいた拡張現実感情報に対応するグラフィックスオブジェクトを、所定の表示位置に重畳して描画する装置がある(例えば特許文献1参照。)。
このような技術について、携帯電話機などの可搬性を有する情報処理装置への導入が期待されている。このような可搬性を有する情報処理装置において、多くの情報を表示するには困難な場合がある。特許文献1に記載の方法では、複数の拡張現実感の情報を、一つの集合グラフィックスオブジェクトとして表示部に表示する。
特開2010−238098号公報
上記特許文献1に記載の方法では、グラフィックスオブジェクトの表示が固定されることになり、アニメーション表示するのは困難である。また、動画データにおいて、多様なエフェクトで拡張現実感を表現することは困難であった。
そこで本発明の目的は、多様なエフェクトで拡張現実感を表現する動画データを生成する情報処理装置および情報処理プログラムを提供することである。
本発明の第1の特徴は、動画データを処理する情報処理装置に関する。すなわち本発明の特徴に係る情報処理装置は、動画データに対するエフェクトの識別子と、エフェクト対象を特定するための特定モジュールの識別子と、エフェクト対象のアニメーションモジュールの識別子と、を対応づけたエフェクト定義データを記憶するエフェクト定義データ記憶部と、エフェクトの識別子が入力されると、エフェクト定義データから当該エフェクトの識別子に対応づけられた特定モジュールの識別子を抽出し、動画データの各フレームを、抽出した特定モジュールの識別子に対応する特定モジュールに入力して、エフェクト対象を取得する対象特定手段と、エフェクト定義データから当該エフェクトの識別子に対応づけられたアニメーションモジュールの識別子を抽出し、対象特定手段によって特定されたエフェクト対象と、動画データのフレームと、抽出されたアニメーションモジュールの識別子とから、合成画像データを生成する合成手段と、合成手段により生成された合成画像データから、新たな動画データを構成して表示部に表示する表示手段と、を備える。
ここで合成手段は、動画データの画像フレームデータを逐次読み出し、読み出した画像フレームデータの特定されたエフェクト対象に、抽出されたアニメーションモジュールの識別子に対応するアニメーションを重畳した合成画像データを生成しても良い。
またアニメーションは、エフェクト対象にオブジェクトを表示するとともに、動画データの後続の画像フレームデータについて、オブジェクトの座標位置を連続して変化する処理であってもよい。アニメーションは、エフェクト対象の座標位置および色情報のうち少なくともいずれか一方を、連続して変化する処理であっても良い。
エフェクト定義データにおいて、エフェクト対象のアニメーションモジュールの識別子に、アニメーションで表示するオブジェクトの識別子が対応づけられていても良い。この場合合成手段は、動画データの画像フレームデータを逐次読み出し、読み出した画像フレームデータの特定されたエフェクト対象に、抽出されたアニメーションモジュールの識別子に対応するオブジェクトを表示するとともに、新たな画像フレームデータに表示するオブジェクトの座標を変化して表示する。
エフェクト定義データにおいて、特定モジュールの識別子と、エフェクト対象のアニメーションモジュールの識別子の複数のペアが、エフェクトの識別子に対応づけられていても良い。この場合合成手段は、画像フレームデータに、各ペアについて、当該ペアのエフェクト対象に、当該ペアのアニメーション識別子に対応するアニメーションを重畳して合成画像データを生成する。
本発明の第2の特徴は、動画データを処理する情報処理プログラムに関する。すなわち本発明の第2の特徴に係る情報処理プログラムは、コンピュータに、エフェクトの識別子が入力されると、動画データに対するエフェクトの識別子と、エフェクト対象を特定するための特定モジュールの識別子と、エフェクト対象のアニメーションモジュールの識別子と、を対応づけたエフェクト定義データから当該エフェクトの識別子に対応づけられた特定モジュールの識別子を抽出し、動画データの各フレームを、抽出した特定モジュールの識別子に対応する特定モジュールに入力して、エフェクト対象を取得する対象特定手段と、エフェクト定義データから当該エフェクトの識別子に対応づけられたアニメーションモジュールの識別子を抽出し、対象特定手段によって特定されたエフェクト対象と、動画データのフレームと、抽出されたアニメーションモジュールの識別子とから、合成画像データを生成する合成手段と、合成手段により生成された合成画像データから、新たな動画データを構成して表示部に表示する表示手段として機能させる。
ここで合成手段は、動画データの画像フレームデータを逐次読み出し、読み出した画像フレームデータの特定されたエフェクト対象に、抽出されたアニメーションモジュールの識別子に対応するアニメーションを重畳した合成画像データを生成しても良い。
また、アニメーションは、エフェクト対象にオブジェクトを表示するとともに、動画データの後続の画像フレームデータについて、オブジェクトの座標位置を連続して変化する処理であっても良い。アニメーションは、エフェクト対象の座標位置および色情報のうち少なくともいずれか一方を、連続して変化する処理であっても良い。
エフェクト定義データにおいて、エフェクト対象のアニメーションモジュールの識別子に、アニメーションで表示するオブジェクトの識別子が対応づけられていても良い。この場合合成手段は、動画データの画像フレームデータを逐次読み出し、読み出した画像フレームデータの特定されたエフェクト対象に、抽出されたアニメーションモジュールの識別子に対応するオブジェクトを表示するとともに、新たな画像フレームデータに表示するオブジェクトの座標を変化して表示する。
エフェクト定義データにおいて、特定モジュールの識別子と、エフェクト対象のアニメーションモジュールの識別子の複数のペアが、エフェクトの識別子に対応づけられていてもよい。この場合合成手段は、画像フレームデータに、各ペアについて、当該ペアのエフェクト対象に、当該ペアのアニメーション識別子に対応するアニメーションを重畳して合成画像データを生成する。
本発明によれば、多様なエフェクトで拡張現実感を表現する動画データを生成する情報処理装置および情報処理プログラムを提供することができる。
本発明の実施形態に係る情報処理装置の機能ブロックを説明する図である。 本発明の実施形態に係る情報処理装が表示するエフェクト一覧画面野市例である。 本発明の実施形態に係る情報処理装置が取得する動画データと、その動画データから作成した新たな動画データを説明する図である。(その1) 本発明の実施形態に係る情報処理装置が取得する動画データと、その動画データから作成した新たな動画データを説明する図である。(その2) 本発明の実施形態に係る情報処理装置が取得する動画データと、その動画データから作成した新たな動画データを説明する図である。(その3) 本発明の実施形態に係る情報処理装置のハードウェア構成を説明する図である。 本発明の実施形態に係る情報処理装置の処理を説明するフローチャートである。 本発明の実施形態に係るエフェクト定義データのデータ構造とデータの例を説明する図である。 本発明の実施の形態に係る情報処理装置のアクティビティチャートである。 本発明の実施の形態に係る情報処理装置において、画像フレームデータの処理を説明する図である。 本発明の実施の形態に係る情報処理装置の合成手段の処理を説明する図である。 本発明の実施の形態に係る情報処理装置が出力するの合成画像データを説明する図である。
次に、図面を参照して、実施形態を説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号を付している。
図1を参照して本発明の実施の形態に係る情報処理装置1を説明する。本発明の実施の形態に係る情報処理装置1は、カメラなどの撮影部121で撮影した動画データから、多様なエフェクト効果を施した新たな動画データを生成し、表示部105に表示する。情報処理装置1は、撮影部121から入力された動画データを構成する各フレームデータについて、エフェクトで用いる領域を特定し、その特定された領域について、エフェクト効果を施す。本発明の実施の形態において情報処理装置1は、動画データに対し、情報処理装置1の負担を軽減しつつ、多様なエフェクト効果を加えることができる。
例えば、情報処理装置1の表示部105に、図2に示すエフェクト一覧表示画面P101が表示される。エフェクト一覧表示画面P101において、エフェクト識別子に対応する複数のアイコンが表示されている。ユーザがエフェクト一覧表示画面P101に表示されたいずれかのアイコンを選択すると、情報処理装置1は、そのアイコンに対応するエフェクト識別子を取得し、動画データに、そのエフェクト識別子に対応するエフェクトを加えて処理し、エフェクトされた動画データを、表示部105に表示する。
ここで図3ないし図5を参照して、本発明の実施の形態に係る情報処理装置1が取得する動画データと、情報処理装置1が表示する動画データを説明する。図3(a)、図4(a)および図5(a)は、情報処理装置1が取得する動画データを説明する図である。図3(b)、図4(b)および図5(b)は、情報処理装置1が出力する動画データを説明する図である。
図3(a)は、正面を向いている二人の女性が、お互いが向き合う動画データを説明している。図3(a)に示す動画データに対して情報処理装置1は、所定時間過去のフレームを蓄積する。情報処理装置1は、図3(b)に示すように、含蓄した過去のフレーム群の部分画像分を、現在時間の一枚のフレーム中に幾何学的に描画した動画データを生成する。例えば、フレームの画像情報に新しい部分画像を描画し、下方に古い部分画像を描画するなど、フレーム内のエリアを区切ってそれぞれ異なる画像を描画する。このように情報処理装置1は、被写体の形状が融解したような効果を、動画データに与えることができる。
図4(a)は、正面を向いている女性がお辞儀をした後、手を振る動画を説明している。情報処理装置1は、図4(b)に示すように、まず、「Happy Birthday!」と記述されたラッピングのイラストを表示する。情報処理装置1は、図4(a)に示す動画データにおいて女性が動いた部分を検出する。さらに情報処理装置1は、図4(b)に示すように、最初に表示されたイラストから、女性の動きが検出された部分を削除し、その削除した部分に、取得した動画データを合成した動画データを生成する。このようなアニメーションにより情報処理装置1は、ユーザに、ラッピングされたプレゼントボックスから女性が飛び出すような視覚効果を与えることができる。
図5(a)は、女性が手を振っている動画データを説明している。図5(a)に示す動画データに対して情報処理装置1は、手が動いた部分を検出する。情報処理装置1は、図5(b)に示すように、手が動いた部分に音符記号を表示し、その音符記号が、動画データの上方に移動するアニメーションを施した動画データを表示する。このようなアニメーションにより情報処理装置1は、ユーザに、例えばダンスをしている被写体に、その動作に応じた雰囲気を付与する視覚効果を与えることができる。
図6に示すように、本発明の実施形態に係る情報処理装置1は、中央処理制御装置101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、入出力インタフェース109および動画データ生成部122が、バス110を介して接続されている。入出力インタフェース109には、入力装置104、表示部105、通信制御装置106、記憶装置107およびリムーバブルディスク108が接続されている。動画データ生成部122には、撮影部121が接続されている。
撮影部121は、例えばCCDであって、被写体から受けた光を電気信号に変換する。撮影部121は、電気信号を、動画データ生成部122に入力する。撮影部121は、例えば、情報処理装置1に固定され、かつ内蔵されたCCDである。
動画データ生成部122は、撮影部121から逐次受信した電気信号から、動画データを生成する。本発明の実施形態に係る動画データ生成部122は、動画データ生成部122は、回路基盤により実装されてもよいし、ソフトウェアプログラムによって実装されてもよい。
中央処理制御装置101は、入力装置104からの入力信号に基づいてROM102から情報処理装置1を起動するためのブートプログラムを読み出して実行し、さらに記憶装置107に記憶されたオペレーティングシステムを読み出す。さらに中央処理制御装置101は、入力装置104や通信制御装置106などの入力信号に基づいて、各種装置の制御を行ったり、RAM103や記憶装置107などに記憶されたプログラムおよびデータを読み出してRAM103にロードするとともに、RAM103から読み出されたプログラムのコマンドに基づいて、データの計算または加工など、後述する一連の処理を実現する処理装置である。
入力装置104は、操作者が各種の操作を入力するキーボード104a、マウス104bなどの入力デバイスにより構成されており、操作者の操作に基づいて入力信号を作成し、入出力インタフェース109およびバス110を介して中央処理制御装置101に送信される。
表示部105は、例えば液晶ディスプレイである。表示部105は、中央処理制御装置101からバス110および入出力インタフェース109を介して表示部105において表示させる出力信号を受信し、例えば中央処理制御装置101の処理結果などを表示する。第1の実施形態に係る情報処理装置1の表示部105には、タッチパネル105aが施されており、ユーザが表示部105の画面をタッチすることにより、入力信号を中央処理制御装置101に送信することができる。
通信制御装置106は、LANカード、モデム、アンテナなどの装置であり、情報処理装置1をインターネット、LAN、携帯電話通信網などの通信ネットワークに接続する装置である。通信制御装置106を介して通信ネットワークと送受信したデータは入力信号または出力信号として、入出力インタフェース109およびバス110を介して中央処理制御装置101に送受信される。
記憶装置107は半導体記憶装置や磁気ディスク装置であって、中央処理制御装置101で実行されるプログラムやデータが記憶されている。リムーバブルディスク108は、光ディスクやフレキシブルディスクのことであり、ディスクドライブによって読み書きされた信号は、入出力インタフェース109およびバス110を介して中央処理制御装置101に送受信される。
本発明の実施形態に係る情報処理装置1の記憶装置107には、情報処理プログラムが記憶されるとともに、図1示すように、記憶装置107は、動画データ記憶部11、エフェクト定義データ記憶部12、対象特定データ記憶部13、合成画像データ記憶部14を備える。情報処理プログラムが情報処理装置1の中央処理制御装置に読み込まれることにより、中央処理制御装置101は、取得手段21、対象特定手段22、合成手段23および表示手段24を備える。
動画データ記憶部11は、記憶装置107のうち、動画データ11aを記憶する記憶領域である。動画データ11aは、撮影部121によって撮影され、動画データ生成部122に生成された動画データであって、取得手段21によって取得され、動画データ記憶部11に記憶される。
エフェクト定義データ記憶部12は、記憶装置107のうち、エフェクト定義データ12aを記憶する記憶領域である。エフェクト定義データ12aは、動画データ11aに対するエフェクトの識別子(エフェクトID)と、エフェクト対象を特定するための特定モジュールの識別子(特定モジュールID)と、エフェクト対象のアニメーションモジュールの識別子(アニメーションID)と、を対応づけたデータである。ここで、エフェクトの識別子は、ユーザによって入力部104やタッチパネル105aから入力される。エフェクト定義データ12aにおいて、エフェクトの識別子に、特定モジュールの識別子とエフェクト対象のアニメーションモジュールの識別子とを1対1に対応づける複数のペアが対応づけられる。
エフェクト定義データ12aは、動画データに対してエフェクト効果を与えるための、スクリプトデータである。本発明の実施の形態によれば、エフェクト定義データ12aにおいて一つのエフェクトの識別子おいて、特定モジュールの識別子とエフェクト対象のアニメーションモジュールの識別子とのペアの組み合わせることができる。これにより本発明の実施の形態に係る情報処理装置1は、所定数の特定モジュールとエフェクト対象のアニメーションを有していれば、ペアの組み合わせを変えることにより、動画データに、多様なエフェクト効果を与えることができる。
エフェクト定義データ12aにおいて、エフェクト対象のアニメーションモジュールの識別子に、アニメーションで表示するオブジェクトの識別子が対応づけられていてもよい。オブジェクトの識別子とは、例えばリソースデータ名であって、図4(a)に示すラッピングイラストや、図5(b)に示す音符記号のイラストの識別子である。これらのリソースデータが、特定モジュールの識別子とアニメーションモジュールの識別子のペアに対応づけることにより、さらに多様なエフェクト効果を与えることができる。
例えば、アニメーションモジュールの識別子として、リソースデータを揺らすアニメーションが対応づけられている場合を考える。ここで、リソースデータとして音符記号のイラストデータを用いたり、雪の結晶のイラストデータを用いたりすることができる。これにより、情報処理装置1は、同じエフェクト対象に同じアニメーションアルゴリズムを用いても、リソースデータを変えることにより、異なるエフェクト効果を有する動画データを得ることができる。
また、エフェクト定義データ12aにおいて、特定モジュールの識別子と、エフェクト対象のアニメーションモジュールの識別子の複数のペアが、エフェクトの識別子に対応づけられていてもよい。この場合、一つのエフェクトIDが指定されると、一つの画像フレームデータについて、複数のアニメーションモジュールが処理してアニメーションが重畳される。これにより、一つのエフェクトIDが指定されるだけで、情報処理装置1は、入力された動画データ11aに、複雑なアニメーション効果を与えることができる。
対象特定データ記憶部13は、記憶装置107のうち対象特定データ13aが記憶された記憶領域である。対象特定データ13aは、対象特定手段22により出力され、対象特定データ記憶部13に記憶される。対象特定データ13aは、エフェクト対象を特定するための特定モジュールの識別子と、そのエフェクト対象の位置情報とが対応づけられている。対象特定データ13aは、ユーザによって指定されたエフェクトの識別子に対応づけられたエフェクト対象を特定する特定モジュール識別子について、その特定モジュールにより出力されたエフェクト対象の位置情報を含む。
合成画像データ記憶部14は、記憶装置107のうち合成画像データ14aが記憶された記憶領域である。合成画像データ14aは、動画データ11aの各フレームについて、エフェクト効果が与えられた画像データである。合成画像データ14aにエフェクト効果の画像データが蓄積されることにより、情報処理装置1は、新たな動画データを出力することができる。
取得手段21は、撮影部121によって撮影され、動画データ生成部122に生成された動画データを取得し、動画データ記憶部11に記憶する。取得手段21は、ユーザから入力されるスタート指示に基づいて動画データの取得を開始し、ユーザから入力されるストップ指示に基づいて動画データの取得を終了してもよい。
対象特定手段22は、ユーザからエフェクトの識別子が入力されると、エフェクト定義データ12aからエフェクト識別子に対応づけられた特定モジュールの識別子を抽出し、動画データ11aの各フレームを、抽出した特定モジュール識別子に対応する特定モジュールに入力して、エフェクト対象を取得する。対象特定手段22は、エフェクト対象を、フレームデータにおける画素の位置情報として取得してもよい。対象特定手段22は、特定モジュールの識別子と、そのエフェクト対象の位置情報とが対応づけて対象特定データ13aを生成し、対象特定データ記憶部13に記憶する。
対象特定手段22は、第1の特定モジュール22a、第2の特定モジュール22b・・・を備えている。各特定モジュールは、動画データ11aの各フレームについて、エフェクトの対象を特定するためのモジュールである。特定モジュールは、例えば、人物の顔部分を特定するモジュール、動きのあった部分を特定するモジュールなどである。各特定モジュールは、エフェクト対象の位置情報を出力すればよく、本発明の実施の形態において、その具体的な処理内容は問わない。エフェクト定義データ12aの所定のエフェクトの識別子に対応づけられた複数のペアにおいて、所定の特定モジュールの識別子が複数のペアに出現する場合でも、対象特定手段22は、1度だけ処理し、対象特定データ13aにその位置情報を含めればよい。この場合、後述する合成手段23において、対象特定データ13aの位置情報が複数回参照される。
合成手段23は、エフェクト定義データ12aから、ユーザによって指定されたエフェクト識別子に対応づけられたアニメーションモジュールの識別子を抽出し、対象特定手段22によって特定されたエフェクト対象と、動画データ11aのフレームと、抽出されたアニメーションモジュールの識別子とから、合成画像データ14aを生成する。合成手段23は、動画データ11aの画像フレームデータを逐次読み出し、読み出した画像フレームデータの特定されたエフェクト対象に、抽出されたアニメーションモジュールの識別子に対応するアニメーションを重畳した合成画像データを生成する。
合成手段23は、動画データ11aの各フレームデータについて、エフェクト定義データ12aで定義されたエフェクト対象に対して、エフェクト定義データ12aで定義されるアニメーション処理を施し、合成画像データ14aを生成する。ここで、エフェクト定義データ12aにおいて、ユーザが指定したエフェクトIDに、特定モジュールIDとアニメーションIDのペアが複数対応づけられている場合、各ペアについて、アニメーション処理を施す。
ここでアニメーションは、エフェクト対象にオブジェクトを表示するとともに、動画データ11aの後続の画像フレームデータについて、オブジェクトの座標位置を連続して変化する処理である。また、アニメーションは、エフェクト対象の座標位置および色情報のうち少なくともいずれか一方を、連続して変化する処理であってもよい。
オブジェクトの表示位置を変更するアニメーションを生成する場合、合成手段23は、動画データ11aの画像フレームデータを逐次読み出し、読み出した画像フレームデータの特定されたエフェクト対象に、抽出されたアニメーションモジュールの識別子に対応するオブジェクトを表示するとともに、新たな画像フレームデータに表示するオブジェクトの座標を変化して表示する。
また、エフェクト定義データにおいて、一つのエフェクトIDに、複数のアニメーションが定義されていてもよい。具体的には、エフェクト定義データにおいて、特定モジュールの識別子と、エフェクト対象のアニメーションモジュールの識別子の複数のペアが、エフェクトの識別子に対応づけられている場合、合成手段23は、画像フレームデータ11aに、各ペアについて、当該ペアのエフェクト対象に、当該ペアのアニメーション識別子に対応するアニメーションを重畳して合成画像データ14aを生成する。
表示手段24は、合成手段23により生成された合成画像データ14aから、新たな動画データを構成して表示部105に表示する。
表示手段24は、合成画像データ14aを新たな動画データのフレームデータとして、新たな動画データを生成する。この新たな動画データは、入力された動画データ11aに、ユーザによって指定されたエフェクトIDに対応するエフェクトが施されたデータである。
図7を参照して、本発明の実施の形態に係る情報処理装置1の処理を説明する。まずステップS101において、情報処理装置1は、ユーザがエフェクトIDを入力するのを待機する。ユーザは例えば図2に示すようなエフェクト一覧表示から、所望のエフェクトのアイコンを選択することにより、情報処理装置1にエフェクトIDを入力することができる。
エフェクトIDが入力されると、動画データ11aの各フレームデータについて、ステップS102ないしステップS109の処理を繰り返す。ここでステップS102ないしステップS105の処理が、対象特定手段22による処理である。またステップS1065ないしステップS109の処理が、合成手段23による処理である。ステップS110の処理は、表示手段24による処理である。
まず情報処理装置の対象特定手段22が、入力されたエフェクトIDに対応する対象特定情報を取得する。具体的には、ステップS102において、エフェクト定義データ12aから、ステップS101で入力されたエフェクトIDに対応づけられた特定モジュールIDを取得する。ここでは、エフェクト定義データ12aにおいて複数のペアがある場合、いずれかのペアで対応づけられる特定モジュールIDを取得する。
対象特定手段22は、ステップS102で取得した特定モジュールIDのそれぞれについて、ステップS103およびステップS104の処理を繰り返す。具体的には対象特定手段22は、ステップS103において動画データ11aの所定の画像フレームを特定モジュールに入力し、ステップS104において、その特定モジュールから対象特定情報を取得する。ここで対象特定情報は、画像フレームのうち、エフェクト効果を与える画素の位置情報である。対象特定手段22は、ステップS103およびステップS104の処理をステップS102で取得した全ての特定モジュールIDについて繰り返す。
ステップS105において対象特定手段22は、ステップS104で取得した対象特定情報と、特定モジュールIDとを関連づけて対象特定データ13aを生成し、対象特定データ記憶部13に記憶する。
次に合成手段23が、各フレームに、入力されたエフェクトIDに対応するアニメーション処理を施す。具体的には、ステップS105において合成手段23は、エフェクト定義データ12aから、ステップS101で入力されたエフェクトIDに対応づけられた、特定モジュールIDとアニメーションIDのペアを取得する。ここでは、エフェクト定義データ12aにおいて複数のペアがある場合、全てのペアの情報を取得する。
合成手段23は、ステップS106で取得したペアのそれぞれについて、ステップS107およびステップS108の処理を繰り返す。具体的には合成手段23は、ステップS107において、ステップS106において取得したペアについて、所定のアニメーションIDに対応する特定モジュールIDを取得するとともに、対象特定データ13aから、取得した特定モジュールIDに対応する対象特定情報を取得する。さらにステップS108において合成手段は、ステップS107で取得した対象特定情報および動画データ11aのフレームに対して、アニメーションIDに対応するアニメーション処理を施す。全てのペアについてステップS107およびステップS108を繰り返し、ステップS109において合成手段23は、全てのアニメーションが施されて最終的に得られた合成画像データ14aを、合成画像データ記憶部14に記憶する。
表示手段110は、ステップS109で生成された合成画像データ14aを、表示部105に表示する。動画データ11aの各フレームについてステップS102ないしステップS110の処理が繰り返されることにより、表示部105にアニメーション処理が施された動画データが表示される。
このように本発明の実施の形態に係る情報処理装置1は、動画データの各フレームについて、予めアニメーションの処理対象となる画素の位置情報を取得し、取得した位置情報を用いて、アニメーション処理を施す。これにより、情報処理装置1の処理負荷を低減し、多様で高度な拡張現実感を持った動画データを生成することができる。このような情報処理装置1は、人の顔部分に複数のアニメーションを施す場合などに好適である。
(処理の詳細)
次に、本発明の実施の形態に係る情報処理装置1の処理の詳細を説明する。
まず、図8を参照して、本発明の実施の形態に係るエフェクト定義データ12aを説明する。図8(a)に示すように、エフェクト定義データ12aは、エフェクトID、特定モジュールID、アニメーションIDおよびリソースデータが対応づけられている。エフェクト定義データ12aは、各エフェクトIDについて、どのエフェクト対象に、どのようなアニメーションを施すかを特定している。また、図8(a)に示すように、一つのエフェクトIDに、複数の特定モジュールIDおよびアニメーションIDのペアを対応づけても良い。
図8(b)および図8(c)に、エフェクト定義データ12aの変形例を記載している。図8(b)は、エフェクト定義データ12aをリスト形式で記載した例で、図8(c)は、エフェクト定義データ12aをXML形式で記載した例である。このように、エフェクト定義データ12aは、様々なデータ形態が考えられる。
ここで、特定モジュールは、エフェクト対象を出力する。エフェクト対象は、画像フレームデータ11aのうち、アニメーション効果を与える位置情報であって、例えば、画素の座標情報である。特定モジュールにより出力されたエフェクト対象は、アニメーションIDに対応するアニメーションが施される。この際、必要に応じて、リソースデータで特定されるオブジェクトが用いられる。
図8(a)において、エフェクトID”snow”に、特定モジュールID”edge”および”diff”が対応づけられている。図1に示す情報処理装置1の対象特定手段22において、例えば、第1の特定モジュール22aの識別子は、特定モジュールID”edge”で、第2の特定モジュール22bの識別子は、特定モジュールID”diff”である。
特定モジュールID”edge”のモジュールは、動画データを構成する画像フレームデータが入力されると、その画像フレームデータにおける被写体のエッジの位置情報を出力する。また特定モジュールID”diff”のモジュールは、一つ前の画像フレームデータを保持し、この一つ前の画像フレームデータと新たに入力された画像フレームデータとの差分を検出することにより、動きのあった画素の位置情報を出力する。
図8(a)において、エフェクトID”snow”に、アニメーションID”asm_up”、”asm_down”および”asm_shake”が対応づけられている。
図1に示す情報処理装置1の合成手段23において、例えば、第1のアニメーションモジュール23aの識別子は、アニメーションID”asm_up”で、第2のアニメーションモジュール23bの識別子は、アニメーションID”asm_down”であって、第3のアニメーションモジュール23cの識別子は、アニメーションID”asm_shake”である。
アニメーションID”asm_up”のアニメーションモジュールは、エフェクト対象に、リソースデータで特定されるオブジェクトを表示して、そのオブジェクトを上昇させるアニメーションを出力する。アニメーションID”asm_up”のアニメーションモジュールは、オブジェクトを表示する座標位置を保持し、動画データの後続の画像フレームデータについても、オブジェクトのY軸座標の値を増加させた座標にそのオブジェクトを表示することにより、動画データに、そのオブジェクトを上昇させる効果を与える。
アニメーションID”asm_down”のアニメーションモジュールは、エフェクト対象に、リソースデータで特定されるオブジェクトを表示して、そのオブジェクトを下降させるアニメーションを出力する。アニメーションID”asm_up”のアニメーションモジュールは、アニメーションID”asm_up”のアニメーションと同様に、オブジェクトを表示する座標位置を保持し、動画データの後続の画像フレームデータについても、オブジェクトのY軸座標の値を減少させた座標にそのオブジェクトを表示することにより、動画データに、そのオブジェクトを下降させる効果を与える。
アニメーションID”asm_shake”のアニメーションモジュールは、エフェクト対象に、リソースデータで特定されるオブジェクトを表示して、そのオブジェクトを左右方向に揺らすアニメーションを出力する。アニメーションID”asm_shake”のアニメーションモジュールは、所定の割合でオブジェクトをエフェクト対象にオブジェクトを表示して、そのオブジェクトを揺らす。アニメーションID”asm_shake”のアニメーションモジュールは、オブジェクトを表示する座標位置を保持し、動画データの後続の画像フレームデータについても、オブジェクトのX軸座標の値を減少したり増加したりした座標にそのオブジェクトを表示することにより、動画データに、そのオブジェクトが揺れる効果を与える。このとき、弧を描くように揺れる視覚効果を与えるため、Y軸座標の値も変化されてもよい。
ここで特定モジュールが、エフェクト対象の位置情報を出力する際の具体的な処理内容は、本発明では問わない。同様に、アニメーションモジュールが、エフェクト対象にアニメーションを施した合成画像データを出力する際の具体的な処理内容は、本発明では問わない。
図8(a)に示すエフェクト定義データ12aにおいて、特定モジュールIDおよびアニメーションIDのペアを1以上定義することにより、動画に複雑なエフェクトを与えることができる。エフェクトID”snow”では、3つのペアが定義されており、このエフェクトIDが指定されることにより、3つのそれぞれのペアに基づくアニメーションが、定義された順序で重畳された動画データが生成される。
エフェクトID”snow”に、一つ目のペアとして、特定モジュールID”edge”およびアニメーションID”asm_up”のペアが対応づけられるとともに、リソースデータとして”OBJ_A.bmp”が指定されている。エフェクトID”snow”の一つ目のエフェクト効果として、被写体のエッジにOBJ_A.bmpをオブジェクトとして表示し、このオブジェクトを上昇させるアニメーション効果が、動画データに重畳される。
エフェクトID”snow”に、二つ目のペアとして、特定モジュールID”edge”およびアニメーションID”asm_down”のペアが対応づけられ、リソースデータとして”OBJ_B.bmp”が指定されている。エフェクトID”snow”の二つ目のエフェクト効果として、被写体のエッジにOBJ_B.bmpをオブジェクトとして表示し、このオブジェクトを下降させるアニメーション効果が、上述の一つ目のエフェクト効果が施された動画データに重畳される。
エフェクトID”snow”に、3つ目のペアとして、特定モジュールID”diff”およびアニメーションID”asm_shake”のペアが対応づけられ、リソースデータとして”OBJ_C.bmp”が指定されている。エフェクトID”snow”の3つ目のエフェクト効果として、所定の割合で、被写体のエッジにOBJ_C.bmpをオブジェクトとして表示し、このオブジェクトを揺らすアニメーション効果が、上述の二つ目のエフェクト効果が施された動画データに重畳される。この所定の割合は、例えば1%である。この所定の割合は、動画データの種別や単位時間あたりのフレーム数によって変更しても良い。
このように、エフェクト定義データ12aにおいて、一つのエフェクトIDに、エフェクト対象を特定するためのモジュールIDと、そのエフェクト対象に施すアニメーションIDとの複数のペアを指定することにより、一つのエフェクトIDを指定することにより、動画データに、複雑なアニメーション効果を与えることができる。
ここで、特定モジュールによるエフェクト対象の算出およびアニメーションモジュールによるアニメーションは、動画データを構成する各画像フレームデータごとに実行される。エフェクトID”snow”において、特定モジュールID”edge”が二度出現するが、一つの画像フレームデータについて、特定モジュールID”edge”のモジュールを一度処理すればよい。特定モジュールID”edge”のモジュールの処理結果を、アニメーションID”asm_up”および”asm_down”の各アニメーション手段が参照することにより、本発明の実施の形態に係る情報処理装置1の負荷を軽減させることができる。
図9を参照して、本発明の実施の形態に係る情報処理装置1によるアクティビティチャートを説明する。
まずステップS201においてユーザが、入力装置104から起動指示を入力すると、中央処理制御装置(制御手段)101aは、本発明の実施の形態に係る情報処理プログラムを起動する。ここで制御手段101aは、本発明の実施の形態に係る情報処理を司る手段である。制御手段101aは、ステップS202およびステップS203において、エフェクト定義データ12aを参照して取得し、表示部105に表示する。表示部105には、例えば図2を参照して説明したエフェクト一覧表示部P101が表示される。
ステップS204においてユーザは、表示されたエフェクト一覧から、所望のエフェクトIDを入力装置104から入力し、制御手段101aは、エフェクトIDを取得する。具体的には、ユーザが、図2に示されたエフェクト一覧表示部P101から、所望のエフェクトのアイコンを選択すると、制御手段101aは、ユーザが選択したアイコンに対応するエフェクトIDを取得する。
ステップS205およびステップS206において制御手段101aは、エフェクト定義データ12aから、ユーザによって入力されたエフェクトIDに対応づけられた特定モジュールID群およびアニメーションID群を取得する。制御手段101aは、ステップS207において、ステップS206で取得した特定モジュールIDを対象特定手段22に設定する。また制御手段101aは、ステップS208において、特定モジュールIDとアニメーションIDのペアを合成手段23に設定する。エフェクト定義データ12aにおいてリソースデータが指定されている場合、制御手段101aは、そのリソースデータの識別子も、合成手段23に設定する。
次に、ステップS209ないしステップS216の処理が、動画データの各画像フレームデータごとに実行される。ステップS209ないしステップS216において情報処理装置1は、動画データの各画像フレームデータから、アニメーションが合成された合成画像データ14aが生成され、この合成画像データ14aを逐次表示することで、表示装置105にアニメーション加工された動画データを表示することができる。
具体的には、ステップS209において、ユーザの操作により動画データが情報処理装置1に入力されると、制御手段101aは、その動画データの画像フレームデータを、逐次対象特定手段22に入力する。ステップS211において対象特定手段22は、ステップS207で指定された特定モジュールを用いて、画像フレームデータを処理して、対象特定情報を生成する。全ての特定モジュールについて対象特定情報を生成すると、ステップS212において全ての対象特定情報を含む対象特定データ13aを、制御手段101aに戻す。
制御手段101aはステップS213において、画像フレームデータおよび対象特定データ13aを、逐次合成手段23に入力する。合成手段23は、ステップS214において、各ペアについて、画像フレームデータにアニメーションを合成し、合成画像データ14aを生成する。ステップS215において合成手段23は、生成した合成画像データ14aを制御手段101aに戻す。
ステップS216において制御手段101aは、合成手段23から入力された合成画像データ14aを、逐次表示手段24に入力する。表示手段24は、合成画像データ14aを逐次表示部105に表示する。これにより情報処理装置1は、ユーザにアニメーション加工された動画データを表示する。
ステップS209ないしステップS216の処理は、ステップS217においてユーザがエフェクト終了または記録終了指示を入力するまで、繰り返される。さらにステップS218においてユーザがソフトウェアの終了指示を入力すると、本発明の実施の形態に係る情報処理プログラムの処理は終了する。
図10を参照して、動画データの画像フレームデータにアニメーションを重畳し、合成画像データを出力する処理を説明する。
図1および図10に示すように対象特定手段22は、対象特定情報を生成するための複数のモジュールを備えている。例えば、特定モジュールID”edge”は、エッジを特定するモジュールの識別子である。特定モジュールID”diff”は、前後のフレームの差分を特定するモジュールの識別子である。特定モジュールID”face”は、顔部分を特定するモジュールの識別子である。特定モジュールID”back”は、背景部分を特定するモジュールの識別子である。
対象特定手段22は、動画データの画像フレームデータを入力すると、その画像フレームデータを、ユーザが指定したエフェクトIDに対応づけられる特定モジュールIDのモジュールに入力する。各特定モジュールは、入力された画像フレームデータについて、エフェクト対象となる対象特定情報を算出する。対象特定手段22は、各特定モジュールIDと、そのモジュールが出力した対象特定情報と、を対応づけた対象特定データ13aを出力する。
図1および図10に示すように合成手段23は、アニメーション効果を施すための複数のアニメーションモジュールを備えている。例えば、アニメーションモジュールID”asm_up”は、エフェクト対象にオブジェクトを表示して、そのオブジェクトを上昇させるアニメーションモジュールの識別子である。アニメーションモジュールID”asm_down”は、エフェクト対象にオブジェクトを表示して、そのオブジェクトを上昇させるアニメーションモジュールの識別子である。アニメーションモジュールID”asm_shake”は、エフェクト対象に一定確率でオブジェクトを表示して、そのオブジェクトを揺らすアニメーションモジュールの識別子である。アニメーションモジュールID”asm_up2”は、エフェクト対象に一定確率でオブジェクトを表示して、そのオブジェクトを上昇させるアニメーションモジュールの識別子である。
合成手段23は、エフェクト定義データ12aにおいて定義される特定モジュールIDおよびアニメーションIDのペアごとに、アニメーションの1コマを生成して画像フレームデータに重畳する。対象特定データ13aおよび画像フレームデータが入力されると、合成手段23は、ペアごとに、対象特定データ13aから当該ペアの特定モジュールIDに対応づけられた対象特定情報と画像フレームデータとを、当該ペアのアニメーションIDのアニメーションモジュールに入力して、画像フレームデータにアニメーションの1コマを重畳する処理を繰り返す。このとき合成手段23は、エフェクト定義データ12aにおいて各ペアにリソースデータが対応づけられている場合、そのリソースデータも、当該ペアのアニメーションIDのアニメーションモジュールに入力する。
図10においては、図8(a)のエフェクトID”snow”が指定された場合について説明する。情報処理装置1は、各画像フレームデータについて、(1)エッジにOBJ_Aを表示して上昇させ、(2)エッジにOBJ_Bを表示して下降させ、(3)フレーム差分に一定確率でOBJ_Cを表示して揺らすアニメーションを重畳して、合成画像データ14aを生成する。従って、対象特定手段22は、複数の特定モジュールのうち、特定モジュールID”edge”および”diff”のモジュールを使用するよう、予め設定されている。また、合成手段23は、複数のアニメーションモジュールのうち、アニメーションID”asm_up”、”asm_down”および”asm_shake”のモジュールを使用するよう、予め設定されている。
まず、ステップS301において、画像フレームデータFが、対象特定手段22に入力される。この画像フレームデータFは、図10に示すように、女性が左手にバナナを持ち、右手を振っている動画データの1フレームデータである。
ステップS302において対象特定手段22は、エフェクトID”snow”で用いられるエフェクト対象を出力する。対象特定手段22は、入力された画像フレームデータFを、特定モジュールID”edge”のモジュールに入力し、画像フレームデータFのエッジ特定情報を取得するとともに、特定モジュールID”diff”のモジュールに入力し、画像フレームデータFのフレーム差分特定情報を取得する。さらに対象特定手段22は、対象特定データ13aを生成する。対象特定データ13aは、特定モジュールID”edge”とエッジ特定情報を対応づけるとともに、特定モジュールID”diff”とフレーム差分特定情報を特定づけたデータである。ステップS303において対象特定手段22は、対象特定データ13aを制御手段101aに戻し、制御手段101aは、対象特定データ13aを記憶装置107に一時的に記憶する。
次に制御手段101aは、画像フレームデータFと、ステップS303で取得した対象特定データ13aを、合成手段23に入力する。合成手段23は、エフェクトID”snow”に対応づけられた特定モジュールIDとアニメーションモジュールIDとのペアに基づいて、画像フレームデータFおよび特定対象データ13aから、合成画像データF’を生成する。
ここで、図8(a)のエフェクトID”snow”に関するデータより、(1)合成手段23は、アニメーションID”asm_up”のアニメーションモジュールに、特定モジュールID”edge”の対象特定情報、および”OBJ_A.bmp”のリソースファイルを設定して得られるアニメーションの1コマを、画像フレームデータに重畳する。(2)合成手段23は、アニメーションID”asm_down”のアニメーションモジュールに、特定モジュールID”edge”の対象特定情報、および”OBJ_B.bmp”のリソースファイルを設定したアニメーションの1コマを、(1)のアニメーションが重畳された画像フレームデータに重畳する。(3)合成手段23は、アニメーションID”asm_shake”のアニメーションモジュールに、特定モジュールID”edge”の対象特定情報、および”OBJ_C”のリソースファイルを設定したアニメーションの1コマを、(1)および(2)のアニメーションが重畳された画像フレームデータに重畳して、合成画像データF’を生成する。
ステップS306において合成手段23は、上記(1)ないし(3)の処理により生成された合成画像データF’を、制御手段101aに戻す。
図11を参照して、合成手段23の処理をさらに詳述する。図10を参照して説明した通り、対象特定データ13aは、エッジ特定情報13bとフレーム差分特定情報13cと、を有する。エッジ特定情報13bは、特定モジュールID”edge”のエッジ特定モジュールにより算出された、被写体のエッジ部分の位置情報である。フレーム差分特定情報13cは、特定モジュールID”diff”のフレーム差分特定モジュールにより算出された、フレーム間で差分のある部分の位置情報である。
合成手段23は、アニメーションID”asm_up”、”asm_down”および”asm_shake”の各アニメーションモジュールを用いて、対象特定データ13aで特定されたエフェクト対象にアニメーションの1コマを重畳し、画像フレームデータFから合成画像データF’を生成する。
まず合成手段23は、エフェクトID”snow”の一つ目のペアについて、アニメーションID”asm_up”のアニメーションモジュールを用いて、エッジ特定情報13bのエッジに、OBJ_Aのオブジェクトを表示する。図11に示す例においてOBJ_Aのオブジェクトは、星である。このアニメーションモジュールは、エッジ特定情報13bのエッジのうち、最も右上のエッジに、オブジェクトを表示するよう予めプログラムされているとする。従って合成手段23は、画像フレームデータFのもっと右上のエッジに、オブジェクトを表示して、第1の処理画像データf1を生成する。さらに合成手段23は、後続の画像フレームデータについて、このオブジェクトを上昇させるアニメーションを生成するため、OBJ_Aの座標情報を更新する。具体的には、Y軸方向の値を増加することにより、後続の画像フレームデータにおいて、OBJ_Aを上昇させるアニメーションを生成することができる。OBJ_Aの座標情報は、アニメーションモジュールにおいて予め定められたロジックに従って更新される。
二つ目のペアについて合成手段23は、アニメーションID”asm_down”のアニメーションモジュールを用いて、エッジ特定情報13bのエッジに、OBJ_Bのオブジェクトを表示する。図11に示す例においてOBJ_Bのオブジェクトは、リンゴである。このアニメーションモジュールでも、エッジ特定情報13bのエッジのうち、最も右上のエッジに、オブジェクトを表示するよう予めプログラムされているとする。従って合成手段23は、第1の処理画像データf1の最も右上のエッジに、オブジェクトを表示して、第2の処理画像データf2を生成する。ここで、アニメーションID”asm_up”のアニメーションモジュールにより、すでに同じ場所にOBJ_Aのオブジェクトが表示されているので、第2の処理画像データf2において、このOBJ_Aのオブジェクトの上に、OBJ_Bのオブジェクトが上書きされる。さらに合成手段23は、後続の画像フレームデータについて、このオブジェクトを下降させるアニメーションを生成するため、OBJ_Bの座標情報を更新する。具体的には、Y軸方向の値を減少することにより、後続の画像フレームデータにおいて、OBJ_Bを下降させるアニメーションを生成することができる。OBJ_Bの座標情報は、アニメーションモジュールにおいて予め定められたロジックに従って更新される。
3つ目のペアについて合成手段23は、アニメーションID”asm_shake”のアニメーションモジュールを用いて、フレーム差分特定情報13cに、OBJ_Cのオブジェクトを表示する。図11に示す例においてOBJ_Cのオブジェクトは、顔マークである。このアニメーションモジュールでは、フレーム差分特定情報13cで検出された部分のうち、最も左上の部分に、オブジェクトを表示するよう予めプログラムされているとする。従って合成手段23は、第2の処理画像データf2の最も左上の動きが検出された部分に、一定の割合でオブジェクトを表示して、合成画像データF’を生成する。図11に示す合成画像データF’は、オブジェクトを表示するタイミングで生成されたものとする。さらに合成手段23は、後続の画像フレームデータについて、このオブジェクトを左右に揺らすアニメーションを生成するため、OBJ_Cの座標情報を更新する。具体的には、X軸方向の値を変更することにより、後続の画像フレームデータにおいて、OBJ_Cを揺らすアニメーションを生成することができる。OBJ_Cの座標情報は、アニメーションモジュールにおいて予め定められたロジックに従って更新される。
このような処理を、動画データの画像フレームデータが入力される度に実行することにより、図12に示す動画データを生成することができる。図12(a)ないし(e)は、女性が左手にバナナを持ち右手を振っている動画データについて、図11に示す処理により生成された合成画像データF’を時系列に並べたものである。情報処理装置1は、図12(a)から(e)の順で、表示部105に表示する。図12に示す各合成画像データは、隣接するフレームの合成画像データでなくともよく、間に複数の合成画像データが含まれてもよい。
図12(a)に示す合成画像データF’は、図11で説明した通りに作成される。図12(a)の合成画像データF’において、同じエッジに、OBJ_Aの星が表示されるとともに、OBJ_Bのリンゴが上書き表示されているので、星の形は、リンゴに隠れてほとんど見えない。時間の経過に伴い、図12(b)ないし図(e)においては、OBJ_Aの星は徐々に上昇し、OBJ_Bのリンゴは徐々に下降する。従って、図12(b)において、OBJ_Aの星の下方はOBJ_Bのリンゴの上方に被って見えないものの、図12(c)ないし(e)においては、OBJ_Aの星およびOBJ_Bのリンゴのそれぞれが、合成画像データ14aに表示される。
一方顔マークは、女性が右手を振ることにより右手にフレーム差分が検出され、女性の右手位置に一定確率で表示される。図12(a)において表示された顔マークは、女性の右手位置に表示される。一度表示された顔マークは、女性の右手の動きに関係なくアニメーションモジュールのプログラミングにより、左右に揺れるアニメーションが施される。
ここでアニメーションモジュールは、フレーム差分に一定割合で顔マークのオブジェクトを表示し揺らすアニメーションを施す。図12の例では女性が手を振り続けているので、図12(d)の合成画像データに、新たな顔マークが表示されている。この新たな顔マークは、図12(e)において、女性の右手および最初に表示された顔マークとは独立して、左右に揺れるアニメーションが施される。このアニメーションモジュールは、一定確率で表示した全てのオブジェクトのそれぞれについて、そのオブジェクトの位置情報を保持し更新しながら、順次動画データのフレームにアニメーションを施す。
本発明の実施の形態においては、オブジェクトを表示して、そのオブジェクトの表示位置を変更してアニメーションする場合について説明したが、アニメーションの例はこれに限られない。例えば、エフェクト対象の画素の色を変化させたり、透明に変化させる場合もある。さらに、エフェクト対象の領域自体を広げたり狭めたりする場合も考えられる。これらのアニメーションを複合することにより、情報処理装置1は、画像フレームデータの下から上に雪を積もらせるアニメーションや、上から降ってきた星が被写体の上に積もるアニメーションなども実装することができる。
このように本発明の実施の形態に係る情報処理装置1は、予め、エフェクト対象を特定する複数の特定モジュールと、エフェクト対象にアニメーションを施す複数のアニメーションモジュールとを備える。また、エフェクト定義データ12aにおいて、特定モジュールとアニメーションモジュールの対応づけたペアを定義する。これにより、アニメーションを施すエフェクト対象を特定する処理と、そのエフェクト対象にアニメーションを施す処理とを切り分けて、エフェクト定義データを用いてアニメーションを定義することができるので、動画データに、容易に複雑なアニメーションを施すことができる。
また、エフェクト定義データ12aが、エフェクトIDに、複数のペアを対応づけることにより、ユーザがエフェクトIDを指定することにより、動画データに、複数のペアによって様々なアニメーション効果を与えることができる。さらに、エフェクト定義データ12aにおいて、一つのエフェクト対象に、複数のアニメーションを施すように定義づけられている場合もある。この場合、特定モジュールによるエフェクト対象の出力結果が、複数のアニメーションモジュールに入力されることにより、情報処理装置1の処理負荷を軽減させることができる。
このような本発明の実施の形態に係る情報処理装置1によれば、エフェクト定義データ12aにより、特定モジュールとアニメーションモジュールの多彩な組み合わせを定義することができる。これにより、本発明の実施の形態に係る情報処理装置1は、従来よりもコンピュータグラフィックスによる多様なエフェクトを施した拡張現実感をユーザに与えることができる。
(その他の実施の形態)
上記のように、本発明の実施の形態によって記載したが、この開示の一部をなす論述および図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例および運用技術が明らかとなる。
例えば、本発明の実施の形態に記載した情報処理装置装置は、図1に示すように一つのハードウェア上に構成されてもよいし、撮影および表示するクライアント端末と、クライアント端末から取得した動画データを処理するサーバとに構成されてもよい。また、既存の情報処理装置上に実現されてもよい。
本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。従って、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
1 情報処理装置
11 画像データ記憶部
12 エフェクト定義データ記憶部
13 対象特定データ記憶部
14 合成画像データ記憶部
21 取得手段
22 対象特定手段
23 合成手段
24 表示手段
101 中央処理制御装置
102 ROM
103 RAM
104 入力装置
105 表示部
105a タッチパネル
106 通信制御装置
107 記憶装置
108 リムーバブルディスク
109 入出力インタフェース
110 バス
121 撮影部
122 動画データ生成部

Claims (12)

  1. 動画データを処理する情報処理装置であって、
    前記動画データに対するエフェクトの識別子と、エフェクト対象を特定するための特定モジュールの識別子と、前記エフェクト対象のアニメーションモジュールの識別子と、を対応づけたエフェクト定義データを記憶するエフェクト定義データ記憶部と、
    前記エフェクトの識別子が入力されると、前記エフェクト定義データから当該エフェクトの識別子に対応づけられた特定モジュールの識別子を抽出し、前記動画データの各フレームを、抽出した特定モジュールの識別子に対応する特定モジュールに入力して、前記エフェクト対象を取得する対象特定手段と、
    前記エフェクト定義データから当該エフェクトの識別子に対応づけられたアニメーションモジュールの識別子を抽出し、前記対象特定手段によって特定されたエフェクト対象と、前記動画データのフレームと、抽出された前記アニメーションモジュールの識別子とから、合成画像データを生成する合成手段と、
    前記合成手段により生成された合成画像データから、新たな動画データを構成して表示部に表示する表示手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記合成手段は、前記動画データの画像フレームデータを逐次読み出し、読み出した前記画像フレームデータの前記特定されたエフェクト対象に、前記抽出されたアニメーションモジュールの識別子に対応するアニメーションを重畳した前記合成画像データを生成する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記アニメーションは、前記エフェクト対象にオブジェクトを表示するとともに、前記動画データの後続の画像フレームデータについて、前記オブジェクトの座標位置を連続して変化する処理である
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記エフェクト定義データにおいて、前記エフェクト対象のアニメーションモジュールの識別子に、アニメーションで表示するオブジェクトの識別子が対応づけられており、
    前記合成手段は、前記動画データの画像フレームデータを逐次読み出し、読み出した前記画像フレームデータの前記特定されたエフェクト対象に、前記抽出されたアニメーションモジュールの識別子に対応するオブジェクトを表示するとともに、新たな画像フレームデータに表示するオブジェクトの座標を変化して表示する
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記アニメーションは、前記エフェクト対象の座標位置および色情報のうち少なくともいずれか一方を、連続して変化する処理である
    ことを特徴とする請求項2に記載の情報処理装置。
  6. 前記エフェクト定義データにおいて、前記特定モジュールの識別子と、前記エフェクト対象のアニメーションモジュールの識別子の複数のペアが、前記エフェクトの識別子に対応づけられており、
    前記合成手段は、前記画像フレームデータに、各ペアについて、当該ペアの前記エフェクト対象に、当該ペアの前記アニメーション識別子に対応するアニメーションを重畳して前記合成画像データを生成する
    ことを特徴とする請求項1に記載の情報処理装置。
  7. 動画データを処理する情報処理プログラムであって、
    コンピュータに、
    エフェクトの識別子が入力されると、前記動画データに対する前記エフェクトの識別子と、エフェクト対象を特定するための特定モジュールの識別子と、前記エフェクト対象のアニメーションモジュールの識別子と、を対応づけたエフェクト定義データから当該エフェクトの識別子に対応づけられた特定モジュールの識別子を抽出し、前記動画データの各フレームを、抽出した特定モジュールの識別子に対応する特定モジュールに入力して、前記エフェクト対象を取得する対象特定手段と、
    前記エフェクト定義データから当該エフェクトの識別子に対応づけられたアニメーションモジュールの識別子を抽出し、前記対象特定手段によって特定されたエフェクト対象と、前記動画データのフレームと、抽出された前記アニメーションモジュールの識別子とから、合成画像データを生成する合成手段と、
    前記合成手段により生成された合成画像データから、新たな動画データを構成して表示部に表示する表示手段
    として機能させるための情報処理プログラム。
  8. 前記合成手段は、前記動画データの画像フレームデータを逐次読み出し、読み出した前記画像フレームデータの前記特定されたエフェクト対象に、前記抽出されたアニメーションモジュールの識別子に対応するアニメーションを重畳した前記合成画像データを生成する
    ことを特徴とする請求項7に記載の情報処理プログラム。
  9. 前記アニメーションは、前記エフェクト対象にオブジェクトを表示するとともに、前記動画データの後続の画像フレームデータについて、前記オブジェクトの座標位置を連続して変化する処理である
    ことを特徴とする請求項8に記載の情報処理プログラム。
  10. 前記エフェクト定義データにおいて、前記エフェクト対象のアニメーションモジュールの識別子に、アニメーションで表示するオブジェクトの識別子が対応づけられており、
    前記合成手段は、前記動画データの画像フレームデータを逐次読み出し、読み出した前記画像フレームデータの前記特定されたエフェクト対象に、前記抽出されたアニメーションモジュールの識別子に対応するオブジェクトを表示するとともに、新たな画像フレームデータに表示するオブジェクトの座標を変化して表示する
    ことを特徴とする請求項9に記載の情報処理プログラム。
  11. 前記アニメーションは、前記エフェクト対象の座標位置および色情報のうち少なくともいずれか一方を、連続して変化する処理である
    ことを特徴とする請求項8に記載の情報処理プログラム。
  12. 前記エフェクト定義データにおいて、前記特定モジュールの識別子と、前記エフェクト対象のアニメーションモジュールの識別子の複数のペアが、前記エフェクトの識別子に対応づけられており、
    前記合成手段は、前記画像フレームデータに、各ペアについて、当該ペアの前記エフェクト対象に、当該ペアの前記アニメーション識別子に対応するアニメーションを重畳して前記合成画像データを生成する
    ことを特徴とする請求項7に記載の情報処理プログラム。
JP2010273823A 2010-11-05 2010-12-08 情報処理装置および情報処理プログラム Pending JP2012113677A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010273823A JP2012113677A (ja) 2010-11-05 2010-12-08 情報処理装置および情報処理プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010248620 2010-11-05
JP2010248620 2010-11-05
JP2010273823A JP2012113677A (ja) 2010-11-05 2010-12-08 情報処理装置および情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2012113677A true JP2012113677A (ja) 2012-06-14

Family

ID=46497785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010273823A Pending JP2012113677A (ja) 2010-11-05 2010-12-08 情報処理装置および情報処理プログラム

Country Status (1)

Country Link
JP (1) JP2012113677A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020009424A (ja) * 2016-05-18 2020-01-16 アップル インコーポレイテッドApple Inc. グラフィカルメッセージユーザインタフェースにおける確認応答オプションの使用
KR20200093034A (ko) * 2018-02-08 2020-08-04 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 특수 효과 프로그램 파일 패키지 및 특수 효과의 생성 방법과 장치, 전자 기기
US11521389B2 (en) 2018-01-19 2022-12-06 Beijing Sensetime Technology Development Co., Ltd. Method for generating special effect program file package, method for generating special effect, electronic device, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020015514A1 (en) * 2000-04-13 2002-02-07 Naoto Kinjo Image processing method
JP2002077592A (ja) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd 画像処理方法
JP2004171543A (ja) * 2002-11-07 2004-06-17 Matsushita Electric Ind Co Ltd 画像処理方法及びその装置
US20040131278A1 (en) * 2002-11-07 2004-07-08 Kazuyuki Imagawa Method and apparatus for image processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020015514A1 (en) * 2000-04-13 2002-02-07 Naoto Kinjo Image processing method
JP2002077592A (ja) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd 画像処理方法
JP2004171543A (ja) * 2002-11-07 2004-06-17 Matsushita Electric Ind Co Ltd 画像処理方法及びその装置
US20040131278A1 (en) * 2002-11-07 2004-07-08 Kazuyuki Imagawa Method and apparatus for image processing

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020009424A (ja) * 2016-05-18 2020-01-16 アップル インコーポレイテッドApple Inc. グラフィカルメッセージユーザインタフェースにおける確認応答オプションの使用
US11521389B2 (en) 2018-01-19 2022-12-06 Beijing Sensetime Technology Development Co., Ltd. Method for generating special effect program file package, method for generating special effect, electronic device, and storage medium
KR20200093034A (ko) * 2018-02-08 2020-08-04 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 특수 효과 프로그램 파일 패키지 및 특수 효과의 생성 방법과 장치, 전자 기기
JP2021508883A (ja) * 2018-02-08 2021-03-11 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 特殊効果プログラムファイルパッケージの生成及び特殊効果生成方法、装置並びに電子機器
US11368746B2 (en) 2018-02-08 2022-06-21 Beijing Sensetime Technology Development Co., Ltd. Method and device for generating special effect program file package, method and device for generating special effect, and electronic device
JP7167165B2 (ja) 2018-02-08 2022-11-08 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド 特殊効果プログラムファイルパッケージの生成及び特殊効果生成方法、装置並びに電子機器
KR102466689B1 (ko) * 2018-02-08 2022-11-14 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 특수 효과 프로그램 파일 패키지 및 특수 효과의 생성 방법과 장치, 전자 기기

Similar Documents

Publication Publication Date Title
CN110766777B (zh) 虚拟形象的生成方法、装置、电子设备及存储介质
US10922865B2 (en) Information processing apparatus, information processing method, and program
US10916044B2 (en) Information processing apparatus, information processing method, and program
CN104850388B (zh) 网页绘制方法及装置
US11450044B2 (en) Creating and displaying multi-layered augemented reality
CN110989878B (zh) 小程序中的动画展示方法、装置、电子设备及存储介质
US20130113789A1 (en) Information processing apparatus, display control method, and program
CN111833461B (zh) 一种图像特效的实现方法、装置、电子设备及存储介质
WO2016114930A2 (en) Systems and methods for augmented reality art creation
CN112199016B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN112884908A (zh) 基于增强现实的显示方法、设备、存储介质及程序产品
CN105389090B (zh) 游戏交互界面显示的方法及装置、移动终端和电脑终端
CN114730483A (zh) 在消息传送系统中生成3d数据
US9588651B1 (en) Multiple virtual environments
CN112672185B (zh) 基于增强现实的显示方法、装置、设备及存储介质
CN112053370A (zh) 基于增强现实的显示方法、设备及存储介质
CN112053449A (zh) 基于增强现实的显示方法、设备及存储介质
CN113709549A (zh) 特效数据包生成、图像处理方法、装置、设备及存储介质
JP2024506639A (ja) 画像表示方法、装置、機器及び媒体
JP3579775B2 (ja) 映像生成装置
JP2012113677A (ja) 情報処理装置および情報処理プログラム
CN107943805A (zh) 一种动画渲染及发布方法、装置
US11763533B2 (en) Display method based on augmented reality, device, storage medium and program product
CN105892663A (zh) 一种信息处理方法及电子设备
KR101305725B1 (ko) 로고인식 증강현실 시스템 및 그 구현 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140812

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141209