JP5891883B2 - 画像生成方法、画像生成装置及びプログラム - Google Patents

画像生成方法、画像生成装置及びプログラム Download PDF

Info

Publication number
JP5891883B2
JP5891883B2 JP2012063011A JP2012063011A JP5891883B2 JP 5891883 B2 JP5891883 B2 JP 5891883B2 JP 2012063011 A JP2012063011 A JP 2012063011A JP 2012063011 A JP2012063011 A JP 2012063011A JP 5891883 B2 JP5891883 B2 JP 5891883B2
Authority
JP
Japan
Prior art keywords
image
movement
images
synchronization
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012063011A
Other languages
English (en)
Other versions
JP2013196402A (ja
Inventor
純平 石橋
純平 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012063011A priority Critical patent/JP5891883B2/ja
Publication of JP2013196402A publication Critical patent/JP2013196402A/ja
Application granted granted Critical
Publication of JP5891883B2 publication Critical patent/JP5891883B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、画像生成方法、画像生成装置及びプログラムに関する。
二次元の原画像を予め記録されている動作データに適合するように変形させて動画像を生成する技術が知られている(例えば、特許文献1参照)。
特許文献1には、画像入力装置から入力された二次元原画像中のキャラクターをキャラクター指示に従って抽出し、抽出されたキャラクターに対して対応付け指示に従ってキャラクターの基本構造データに対応付ける。さらに、対応付けられたキャラクターに動作データに従って変形を加えて動画像を生成して表示することが記載されている。
特開平10−040407号公報
しかしながら、従来の画像生成方法等では、個々の画像であるキャラクター毎に異なる動きや速度を設定することは可能であるものの、初期設定した動きのみを行うだけである。
このため、例えば、複数の画像を配置して所定の動きで動かす場合に、それぞれ異なる動きで動いている画像の動きを、同じ動きに揃えたり、再び異なる動きに戻したりすることが容易にできないと言った問題点があった。
本発明の課題は、配置された複数の画像を変形させて動画を生成する際に、容易に画像間の動きを同期させ、若しくは、動きの同期を解除することが可能な画像生成方法、画像生成装置及びプログラムを提供することにある。
また、本発明に係る一つの態様は、第1及び第2画像をそれぞれ取得する取得ステップと、前記第1及び第2画像に対して同期条件及び動きの条件をそれぞれ設定する設定ステップと、前記動きの条件に基づいて前記第1及び第2画像を変形させながら、それぞれを移動させて複数のフレーム画像を生成する第1生成ステップと、前記第1及び第2画像の前記同期条件が成立した場合、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成する第2生成ステップとを含み、前記設定ステップは、前記第1及び第2画像に対して同期制御領域をそれぞれ設定し、前記第2生成ステップは、前記同期条件として前記第1及び第2画像の前記同期制御領域が互いに重なった場合、前記同期制御領域の重なる回数に基づき、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成することを特徴とする画像生成方法である。
本発明によれば、第1及び第2画像をそれぞれ取得する取得ステップと、第1及び第2画像に対して同期条件及び動きの条件をそれぞれ設定する設定ステップと、動きの条件に基づいて第1及び第2画像を変形させながら、それぞれを移動させて複数のフレーム画像を生成する第1生成ステップと、第1及び第2画像の前記同期条件が成立した場合、第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成する第2生成ステップとを含むことにより、容易に画像間の動きを同期させることが可能になる。
本発明を適用した一実施形態の動画生成システムの概略構成を示すブロック図である。 図1の動画生成システムを構成するユーザ端末の概略構成を示すブロック図である。 図1の動画生成システムを構成するサーバの概略構成を示すブロック図である。 図1の動画生成システムによる同期設定処理に係る動作の一例を示すフローチャートである。 同期制御領域の一例を示す説明図である。 移動位置座標の一例を示す説明図である。 図1の動画生成システムによる同期制御処理に係る動作の一例を示すフローチャートである。 動きの同期の一例を示す説明図である。 キャラクターの動きの一例を示す説明図である。 キャラクターの動きの一例を示す説明図である。 動きの同期の一例を示す説明図である。
以下に、本発明について、図面を用いて具体的な態様を説明する。但し、発明の範囲は、図示例に限定されない。
(第1実施形態)
本発明の第1実施形態の動画生成システムについて、図1、図2及び図3に基づいて説明する。
本実施形態の動画生成システム100は、図1に示すように、撮像装置1と、ユーザ端末2と、サーバ3とを備え、ユーザ端末2とサーバ3とが所定の通信ネットワークNを介して各種情報を送受信可能に接続されている。
撮像装置1は、被写体を撮像する撮像機能や撮像画像の画像データを記録媒体Cに記録する記録機能等を具備する。即ち、撮像装置1は、公知のものを適用可能であり、例えば、主要な機能を撮像機能とするデジタルカメラ等だけでなく、主要な機能としないものの撮像機能を具備する携帯電話機等も含む。
次に、ユーザ端末2について図2を参照して説明する。
ユーザ端末2は、例えば、パーソナルコンピュータ等により構成され、サーバ3により開設されるWebページ(例えば、動画生成用ページ)にアクセスして、当該Webページ上で各種の指示を入力する。
図2は、ユーザ端末2の概略構成を示すブロック図である。
図2に示すように、ユーザ端末2は、具体的には、中央制御部201と、通信制御部202と、表示部203と、音出力部204と、記録媒体制御部205と、操作入力部206等を備えている。
中央制御部201は、ユーザ端末2の各部を制御するものである。具体的には、中央制御部201は、CPU、RAM、ROM(何れも図示略)を備え、ROMに記憶されたユーザ端末2用の各種処理プログラム(図示略)に従って各種の制御動作を行う。その際に、CPUは、RAM内の格納領域内に各種処理結果を格納させ、必要に応じてその処理結果を表示部203に表示させる。
RAMは、例えば、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。
ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、ユーザ端末2で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。
通信制御部202は、例えば、モデム(MODEM:Modulater/DEModulater)、ターミナルアダプタ(Terminal Adapter)等によって構成され、所定の通信ネットワークNを介してサーバ3等の外部機器との間で情報の通信制御を行うためのものである。
なお、通信ネットワークNは、例えば、専用線や既存の一般公衆回線を利用して構築された通信ネットワークであり、LAN(Local Area Network)やWAN(Wide Area Network)等の様々な回線形態を適用することが可能である。また、通信ネットワークNには、例えば、電話回線網、ISDN回線網、専用線、移動体通信網、通信衛星回線、CATV回線網等の各種通信回線網と、それらを接続するインターネットサービスプロバイダ等が含まれる。
表示部203は、例えば、LCD、CRT(Cathode Ray Tube)等のディスプレイから構成され、中央制御部201のCPUの制御下にて各種情報を表示画面に表示する。
即ち、表示部203は、例えば、サーバ3から送信され通信制御部202により受信されたWebページ(例えば、動画生成用ページ)のページデータに基づいて、対応するWebページを表示画面に表示する。具体的には、表示部203は、動画生成処理(後述)に係る各種の処理画面の画像データに基づいて、各種の処理画面を表示画面に表示する。
音出力部204は、例えば、D/Aコンバータ、LPF(Low Pass Filter)、増幅器、スピーカ等により構成され、中央制御部201のCPUの制御下にて放音する。
即ち、音出力部204は、例えば、サーバ3から送信され通信制御部202により受信された演奏情報に基づいて、当該演奏情報のデジタルデータをD/Aコンバータによりアナログデータに変換し、増幅器を介してスピーカから、所定の音色、音高、音長で曲を放音する。また、音出力部204は、一の音源(例えば、楽器)の音を放音しても良いし、複数の音源の音を同時に放音しても良い。
記録媒体制御部205は、記録媒体Cが着脱自在に構成され、装着された記録媒体Cからのデータの読み出しや記録媒体Cに対するデータの書き込みを制御する。即ち、記録媒体制御部205は、撮像装置1から取り外されて装着された記録媒体Cから動画生成処理(後述)に係る被写体存在画像の画像データを読み出して通信制御部202に出力する。
ここで、被写体存在画像とは、所定の背景内に主要な被写体が存在する画像のことである。また、記録媒体Cには、撮像装置1の画像処理部(図示略)により所定の符号化形式(例えば、JPEG形式等)に従って符号化された被写体存在画像の画像データが記録されている。
そして、通信制御部202は、入力された被写体存在画像の画像データをサーバ3に所定の通信ネットワークNを介して送信する。
操作入力部206は、例えば、数値、文字等を入力するためのデータ入力キーや、データの選択、送り操作等を行うための上下左右移動キーや各種機能キー等によって構成されるキーボードやマウス等を備え、ユーザにより押下されたキーの押下信号やマウスの操作信号を中央制御部201のCPUに出力する。
なお、操作入力部206としてタッチパネル(図示略)を表示部203の表示画面に配設して、タッチパネルの接触位置に応じて各種の指示を入力するような構成としても良い。
次に、サーバ3について図3を参照して説明する。
サーバ3は、Web(World Wide Web)サーバとしてインターネット上にWebページ(例えば、動画生成用ページ)を開設する機能を具備するものであり、ユーザ端末2からのアクセスに応じて当該ユーザ端末2にWebページのページデータを送信する。また、サーバ3は、動画生成装置として、静止画像内で動き情報Mに係る複数の可動点に対応する各位置に動きの制御点を複数設定し、指定された動き情報Mの複数の可動点の動きに追従させるように複数の制御点を動かして動画像を生成する。
図3は、サーバ3の概略構成を示すブロック図である。
図3に示すように、サーバ3は、具体的には、中央制御部301と、表示部302と、通信制御部303と、被写体切抜部304と、記憶部305と、動画処理部306等を備えて構成されている。
中央制御部301は、サーバ3の各部を制御するものである。具体的には、中央制御部301は、CPU、RAM、ROM(何れも図示略)を備え、CPUは、ROMに記憶されたサーバ3用の各種処理プログラム(図示略)に従って各種の制御動作を行う。その際に、CPUは、RAM内の格納領域内に各種処理結果を格納させ、必要に応じてその処理結果を表示部302に表示させる。
RAMは、例えば、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。
ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、サーバ3で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。
表示部302は、例えば、LCD、CRT等のディスプレイから構成され、中央制御部301のCPUの制御下にて各種情報を表示画面に表示する。
通信制御部303は、例えば、モデム、ターミナルアダプタ等によって構成され、所定の通信ネットワークNを介してユーザ端末2等の外部機器との間で情報の通信制御を行うためのものである。
具体的には、通信制御部303は、例えば、動画生成処理(後述)にてユーザ端末2から所定の通信ネットワークNを介して送信された被写体存在画像の画像データを受信して、当該画像データを中央制御部301のCPUに出力する。
中央制御部301のCPUは、入力された被写体存在画像の画像データを被写体切抜部304に出力する。
被写体切抜部304は、被写体存在画像から被写体切り抜き画像を生成する。(「被写体画像の生成」)
即ち、被写体切抜部304は、公知の被写体切抜手法を用いて、被写体存在画像から被写体が含まれる領域が切り抜いた画像を生成する。具体的には、被写体切抜部304は、中央制御部301のCPUから出力された被写体存在画像の画像データを取得して、例えば、ユーザによるユーザ端末2の操作入力部206(例えば、マウス等)の所定操作に基づいて、表示部203に表示されている当該被写体存在画像上に描画された境界線(図示略)により当該被写体存在画像を区分する。そして、被写体切抜部304は、被写体存在画像の境界線により区分される被写体が含まれる被写体領域を抽出して、当該被写体領域のアルファ値を「1」とするとともに被写体の背景部分のアルファ値を「0」とし、当該被写体領域の画像を所定の単一色画像と合成した被写体切り抜き画像の画像データを生成する。即ち、被写体切り抜き画像のうち、アルファ値が「1」の被写体領域の所定の背景に対する透過度が0%となり、一方、アルファ値が「0」の被写体の背景部分の所定の背景に対する透過度が100%となる。
また、被写体切り抜き画像の画像データとしては、例えば、RGBA形式の画像データを適用することができ、具体的には、RGB色空間で規定される各色に透過度(A)の情報が付加されている。なお、被写体切り抜き画像の画像データは、例えば、被写体存在画像の各画素について、被写体領域の画像を所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したアルファマップと対応付けられる構成であっても良い。
なお、上記した被写体切抜部304による被写体切抜手法は、一例であってこれに限られるものではなく、被写体存在画像から被写体が含まれる領域を切り抜く公知の手法であれば如何なる手法を適用しても良い。
記憶部305は、例えば、半導体の不揮発メモリやHDD(Hard Disc Drive)等により構成され、ユーザ端末2に送信されるWebページのページデータや被写体切抜部304により生成された被写体切り抜き画像の画像データ等を記憶する。
また、記憶部305は、動画生成処理に用いられる動き情報Mを複数記憶している。
各動き情報Mは、所定空間、即ち、例えば、互いに直交する二軸(例えば、x軸、y軸等)により規定される二次元の平面空間やこれら二軸に加えて当該二軸に直交する軸(例えば、z軸等)により規定される三次元の立体的空間内における複数の可動点の動きを示す情報である。なお、動き情報Mは、二次元の平面空間を所定の回動軸周りに回転させることで複数の可動点の動きに奥行きをもたせるような情報であっても良い。
ここで、各可動点の位置は、動きのモデルとなる動体モデル(例えば、ヒトや動物等)の骨格の形状や関節の位置等を考慮してそれぞれ規定されている。また、可動点の個数は、動体モデルの形状や大きさ等に応じて適宜任意に設定可能である。
また、各動き情報Mは、所定空間内にて複数の可動点の全て若しくは少なくとも一つを移動させた座標情報を所定の時間間隔で連続して並べることで、複数の可動点の動きが連続して表されている。具体的には、各動き情報Mは、例えば、複数の可動点を所定の踊りに対応させるように移動させた情報であり、複数の可動点の動きが連続して表された動体モデルのモデル名と対応付けてそれぞれ記憶されている。また、各動き情報Mは、動きの種類(例えば、ヒップホップ、ツイスト、ロボットダンス等)やバリエーション(例えば、ヒップホップ1〜3等)に応じて、複数の可動点の連続した動きを異ならせている。
また、記憶部305は、動画生成処理に用いられる演奏情報Tを複数記憶している。
演奏情報Tは、動画再生部306eにより動画像とともに自動的に演奏される情報である。即ち、演奏情報Tは、例えば、テンポ、拍子、音程、音階、調、発想標語等を異ならせて複数規定され、それぞれ曲名と対応付けて記憶されている。
また、各演奏情報Tは、例えば、MIDI(Musical Instruments Digital Interface
)規格等に従って規定されたデジタルデータであり、具体的には、トラック数や四分音符の分解能(Tickカウント数)等が規定されたヘッダ情報と、各音源(例えば、楽器等)毎の演奏情報T等が規定されたトラック情報等を有している。また、トラック情報には、テンポ及び拍子の設定情報やNoteOn・Offのタイミング等が規定されている。
動画処理部306は、画像取得部306aと、制御点設定部306bと、動き指定部306cと、画像生成部306dと、動画再生部306eと、速さ指定部306fと、同期設定部306gと、同期制御部306hとを具備している。
画像取得部306aは、動画生成処理に用いられる静止画像を取得する。(「被写体画像の取得」)
即ち、画像取得部306aは、静止画像として、背景と被写体とが存在する被写体存在画像から被写体が含まれる領域が切り抜かれた被写体切り抜き画像を取得する。具体的には、画像取得部306aは、被写体切抜部304により生成された被写体切り抜き画像の画像データを処理対象の静止画像として取得する。
制御点設定部306bは、処理対象の静止画像内で動きの制御点を複数設定する。(「制御点の設定」)
即ち、制御点設定部306bは、画像取得部306aにより取得された被写体切り抜き画像の被写体画像内で複数の可動点に対応する各位置に動きの制御点を複数設定する。具体的には、制御点設定部306bは、記憶部305から動体モデル(例えば、ヒト)の動き情報Mを読み出して、被写体切り抜き画像の被写体画像内で、当該動き情報Mに規定されている基準フレーム(例えば、1フレーム目等)の複数の可動点の各々が対応する位置を特定する。例えば、制御点設定部306bは、被写体画像がヒトを主要被写体として切り抜いた画像である場合には、ヒトの骨格の形状や関節の位置等を考慮して複数の可動点の各々が対応する位置を特定する。このとき、動体モデルと被写体画像について、例えば、顔などの主要部の大きさを合わせるように寸法の調整(例えば、動体モデルの拡大や縮小、変形等)を行うようにしても良い。また、例えば、動体モデルと被写体画像を重ね合わせて被写体画像における複数の可動点の各々が対応する位置を特定しても良い。
そして、制御点設定部306bは、特定された複数の可動点の各々が対応する位置に動きの制御点をそれぞれ設定する。
なお、制御点設定部306bによる動きの制御点の設定は、上記のように自動的に行われても良いし、手動で行われても良い。即ち、例えば、ユーザによるユーザ端末2の操作入力部206の所定操作に基づいて入力された所望の位置に動きの制御点を設定するようにしても良い。
さらに、制御点設定部306bによる動きの制御点の設定が自動的に行われた場合であっても、ユーザによる操作入力部の所定操作に基づいて制御点の設定位置の修正(変更)を受け付けるようにしても良い。
動き指定部306cは、動画生成処理に用いられる動き情報Mを指定する。(「動きの指定」)
即ち、動き指定部306cは、記憶部305に記憶されている複数の動き情報Mの中で、何れか一の動き情報Mを指定する。具体的には、表示部203に表示されている所定画面内の複数の動きモデルのモデル名の中で、ユーザによるユーザ端末2の操作入力部206の所定操作に基づいて何れか一のモデル名(例えば、ヒップホップ1等)を指定する指示が通信ネットワークN及び通信制御部303を介して入力されると、動き指定部306cは、複数の動き情報Mの中で、指定指示に係る動きモデルのモデル名と対応付けられている動き情報Mを指定する。
なお、動き指定部306cは、複数の動き情報Mの中で、例えば、デフォルトとして設定されている動き情報Mやユーザにより前回指定された動き情報Mを自動的に指定するようにしても良い。
画像生成部306dは、動画像を構成する複数のフレーム画像を逐次生成する。(「フレーム画像の生成」)
即ち、画像生成部306dは、動き指定部306cにより指定された動き情報Mの複数の可動点の動きに追従させるように、被写体切り抜き画像の被写体画像内に設定されている複数の制御点を移動させて複数のフレーム画像を逐次生成する。具体的には、画像生成部306dは、例えば、動き情報Mに従って所定の時間間隔で移動する複数の可動点の座標情報を逐次取得して、当該可動点の各々に対応する各制御点の座標を算出する。そして、画像生成部306dは、算出された座標に制御点を逐次移動させていくとともに、少なくとも一の制御点を基準として被写体画像内に設定される所定の画像領域(例えば、三角形や矩形のメッシュ状の領域)を移動させたり変形させることで、基準フレーム画像を生成する。これにより、例えば、動き情報Mの複数の可動点の各座標情報等に対応する位置に制御点が配設された基準フレーム画像がそれぞれ生成される。
また、制御点を基準とした所定の画像領域を移動させたり変形させる処理は、公知の技術であるので、ここでは詳細な説明を省略する。
また、画像生成部306dは、移動後の可動点の各々に対応する複数の制御点に基づいて生成される時間軸に沿って隣合う二つの基準フレーム画像どうしの間を補間する補間フレーム画像を生成する。即ち、画像生成部306dは、動画再生部306eにより複数のフレーム画像が所定の再生フレームレート(例えば、30fps等)で再生されるように、二つの基準フレーム画像どうしの間を補間する補間フレーム画像を所定数生成する。
具体的には、画像生成部306dは、隣合う二つの基準フレーム画像間における、動画再生部306eにより演奏される所定の曲の演奏の進行度合を逐次取得して、当該進行度合に応じて、隣合う二つの基準フレーム画像間で再生される補間フレーム画像を逐次生成する。例えば、画像生成部306dは、MIDI規格の演奏情報Tに基づいてテンポの設定情報及び四分音符の分解能(Tickカウント数)を取得して、動画再生部306eにより演奏される所定の曲の演奏の経過時間をTickカウント数に変換する。続けて、画像生成部306dは、所定の曲の演奏の経過時間に対応するTickカウント数に基づいて、所定のタイミング(例えば、各小節の一拍目等)に同期させた隣合う二つの基準フレーム画像間における所定の曲の演奏の相対的な進行度合を、例えば百分率で算出する。
そして、画像生成部306dは、所定の曲の演奏の相対的な進行度合に応じて、当該隣合う二つの基準フレーム画像に対する重み付けを変えて補間フレーム画像を生成する。
ここで、所定の曲の演奏の相対的な進行度合は、隣合う二つの基準フレーム画像の各々が同期した所定のタイミングどうしの間で、テンポや拍子の変更が行われて、算出された進行度合が前回算出された進行度合に対して減少した場合には、進行度合の減少度合が小さくなるように当該進行度合を補正するようにしても良い。これにより、曲の進行度合を考慮してより適正な補間フレーム画像を生成することができる。
なお、補間フレーム画像を生成する処理は、公知の技術であるので、ここでは詳細な説明を省略する。
また、画像生成部306dによる基準フレーム画像や補間フレーム画像の生成は、例えば、RGBA形式の画像データの場合、RGB色空間で規定される被写体画像の各色の情報及び透過度(A)の情報の両方について行われる。
また、制御点設定部306bによる制御点の設定処理にて、動き情報Mの基準フレームの可動点の位置に対して所定の距離以上離れた位置に、当該可動点に対応する制御点が設定された場合には、当該可動点と制御点との距離を考慮して、基準フレーム画像の生成を行っても良い。
即ち、複数の可動点の座標情報の各々が、例えば、基準となる可動点の座標情報に対する各可動点の移動量を規定した情報の場合、基準となる可動点の座標情報以降の座標情報に対応させるように、それぞれの可動点の移動量に応じて移動させた制御点の位置が、予め動き情報Mに規定されている可動点の位置に対して所定の距離以上離れてしまう。この結果、生成される基準フレーム画像が、動き情報Mに規定している可動点の動きを再現することができない虞がある。
そこで、基準となる可動点の座標情報以降の座標情報については、それぞれの可動点の移動量に、基準となる可動点と当該可動点に対応する制御点との距離を加算して、それぞれの可動点に対応する制御点の座標を算出するようにしても良い。
動画再生部306eは、画像生成部306dにより生成された複数のフレーム画像の各々を再生する。(「フレーム画像の再生」)
即ち、動画再生部306eは、ユーザによるユーザ端末2の操作入力部206の所定操作に基づいて指定された演奏情報Tに基づいて所定の曲を自動的に演奏するとともに、当該所定の曲の所定のタイミングで複数のフレーム画像の各々を再生する。具体的には、動画再生部306eは、所定の曲の演奏情報のデジタルデータをD/Aコンバータによりアナログデータに変換して当該所定の曲を自動的に演奏させ、このとき、所定のタイミング(例えば、各小節の1拍目や各拍等)に同期させるように隣合う二つの基準フレーム画像を再生するとともに、隣合う二つの基準フレーム画像間における所定の曲の演奏の相対的な進行度合に応じて、当該進行度合に対応する各々の補間フレーム画像を再生する。
なお、動画再生部306eは、速さ指定部306f(後述)により指定された速さで被写体画像に係る複数のフレーム画像を再生しても良い。この場合には、動画再生部306eは、隣合う二つの基準フレーム画像を同期させるタイミングを変化させることで、所定の単位時間内に再生されるフレーム画像の数を変更して被写体画像の動きの速さを可変させる。
速さ指定部306fは、被写体画像の動きの速さを指定する。(「速さの指定」)
即ち、速さ指定部306fは、制御点設定部306bにより設定される複数の動きの制御点の動きの速さを指定する。具体的には、サーバ3には、表示部203に表示されている所定画面内の被写体画像の複数の速さ(例えば、1/2倍、標準(等倍)、2倍等)の中で、ユーザによるユーザ端末2の操作入力部206の所定操作に基づいて何れか一の速さ(例えば、標準等)を指定する指示が、通信ネットワークN及び通信制御部303を介して入力される。速さ指定部306fは、複数の動きの速さの中で、当該指定指示に係る速さを被写体画像の動きの速さとして指定する。
これにより、所定の単位時間で切り替えられるフレーム画像数が、例えば、1/2倍、等倍、2倍等に変更される。
同期設定部306gは、「動きの指定」の動作に際して、ユーザ端末2からの指示に基づき、取得した被写体画像に対する同期制御領域の設定を行うと共に、複数のキャラクター(第1画像、第2画像)の配置、各キャラクター毎の移動位置座標や移動速度(動きの条件)の設定、優先度の設定、各種同期条件、同期内容(例えば、開始後何秒後に同期、奇数回目のみ同期、ダンスの種類を同期、ダンス速度の同期等)の設定を行う。
同期制御部306hは、「フレーム画像の生成」の動作に際して、各キャラクター毎の移動位置座標や移動速度(動きの条件)に基づき各キャラクターを移動させてフレーム画像を生成し、各キャラクターの設定された同期制御領域が重なった場合、優先度の設定の有無、その他同期条件等に基づき、配置されたキャラクターの動きを同期、若しくは、同期を解除したフレーム画像を逐次生成する。
但し、これ以降の説明に際して、「同期」とは、動きのタイミングを揃えることや、動きの内容を揃えることを含む意味として取り扱うものとする。
次に、ユーザ端末2及びサーバ3を用いた動画生成処理について、図4〜図11を参照して説明する。
但し、動画生成処理に係る動作において、「被写体画像の生成」、「制御点の設定」、「被写体画像の取得」、「動きの指定」、「フレーム画像の生成」、「フレーム画像の再生」及び「速さの指定」等の基本的な動作に関する詳細な説明は省略し、本発明の第1実施形態に関連する動作について詳細に説明する。
ここで、図4及び図7は、動画生成処理に係る動作の一例を示すフローチャートである。なお、以下の説明にあっては、被写体存在画像の画像データから生成された被写体切り抜き画像の画像データ等の各種データはサーバ3の記憶部305に予め記憶されているものとする。
上述の「動きの設定」の動作に際して、図4に示すように動画処理部306の同期設定部306gは、ユーザ端末2からの指示に基づき、同期の設定をするか否かを判断する(ステップS1)。
ここで、同期設定部306gが同期の設定をしないと判断した場合(ステップS1:No)、通常の「動きの設定」の動作に移行し、同期の設定をすると判断した場合(ステップS1:Yes)、同期設定部306gは、ユーザ端末2からの指示に基づき、被写体画像をサーバ3の記憶部305に記憶されている被写体切り抜き画像の画像データから取得し、複数のキャラクター(第1画像、第2画像)としてフレーム画像に配置する(ステップS2:取得ステップ)。
次に、同期設定部306gは、ユーザ端末2からの指示に基づき、配置したそれぞれのキャラクターに同期制御領域を設定する(ステップS3:設定ステップ)。
例えば、同期設定部306gは、ユーザ端末2からの指示に基づき、図5に示すようにフレーム画像に配置されたキャラクターCH1の周囲に、破線で示す同期制御領域OR1を設定する。
なお、同期制御領域の設定に関しては、ユーザ端末2からの指示に基づき、配置されたキャラクターCH1が選択されると、同期設定部306gが自動的に同期制御領域OR1を設定するものであっても良い。
そして、同期設定部306gは、ユーザ端末2からの指示に基づき、それぞれの当該キャラクター(第1画像、第2画像)の移動位置座標や移動速度(動きの条件)を設定する(ステップS4:設定ステップ)。
例えば、同期設定部306gは、ユーザ端末2からの指示に基づき、図6に示すようにフレーム画像の中央に配置されたキャラクターCH11に移動しながら近づくように、フレーム画像に配置されたCH12及びCH13に対して、移動位置座標MV11及びMV12をそれぞれ設定する。
すなわち、図6では、キャラクターCH11は移動することなくその場でダンス踊って(CH11の画像の動き)おり、その周りからキャラクターCH12がダンスを踊り(CH12の画像の動き)ながら、移動位置座標MV11に示すように時計回りで近づき、キャラクターCH13がダンスを踊り(CH13の画像の動き)ながら、移動位置座標MV12に示すように時計回りで近づくように移動するように設定される。
なお、移動速度の設定に関しては、ユーザ端末2からの指示に基づき、同期設定部306gが、移動速度に関する数値を取得して各キャラクターに設定する等、公知の技術を用いて設定すれば良い。
最後に、同期設定部306gは、ユーザ端末2からの指示に基づき、配置されたそれぞれのキャラクター(第1画像、第2画像)の優先度を設定し(ステップS5:設定ステップ)、当該キャラクターの同期条件を設定する(ステップS6:設定ステップ)。その後、同期設定部306gは、通常の「動きの指定」の動作に移行する。
例えば、同期条件としては、「同期制御領域が重なったら同期」、「同期制御領域ではなくキャラクター本体が重なった場合に同期」、「初めからキャラクターが重なっている場合でも同期」等の条件が考えられる。
但し、基本的に同期制御領域を設定する時点で、同期制御領域の重複が同期条件であることは、明らかであるので、同期条件の設定がなくても「同期制御領域が重なったら同期」という同期条件を含むことになる。
なお、上述の同期条、件は、一例であってこれに限られるものではなく、同期条件は適宜任意に設定が可能である。
また、同期条件のみならず、同期設定部306gは、ユーザ端末2からの指示に基づき、「初めからキャラクターが重なっている場合には非同期」、「同期制御領域ではなくキャラクター本体が重なった場合には非同期」、「キャラクターが前後で重なった場合には非同期」、「同期制御領域が重ならなくなった場合には同期を解除」と言った非同期条件、若しくは、同期解除条件を設定することも可能である。
但し、第1実施形態では、同期条件として後述の同期時間は設定されていないものとする。
このように、同期設定部306gによってキャラクターの配置、同期制御領域の設定、移動位置座標等(動きの条件)の設定、優先度の設定及び同期条件の設定がされた後、上述の「フレーム画像の生成」の動作に際して、図7に示す第1生成ステップ及び第2生成ステップを行う。すなわち、動画処理部306の同期制御部306hは、配置されているキャラクターに移動位置座標及び移動時間(動きの条件)が設定されているか否かを判断する(ステップS10)。
ここで、同期制御部306hが、移動位置座標及び移動時間(動きの条件)が設定されていないと判断した場合(ステップS10:No)、同期条件として同期時間が設定されているか否かを判断する(ステップS11)。但し、第1実施形態では、同期条件として後述の同期時間は設定されていないので、同期制御部306hは、同期時間の設定がないと判断して(ステップS11:No)、通常の「フレーム画像の生成」の動作に移行する。
一方、同期制御部306hが、移動位置座標及び移動時間(動きの条件)が設定されていると判断した場合(ステップS10:Yes)、同期制御部306hは、設定されている移動位置座標及び移動速度(動きの条件)に基づき各キャラクターを変形させながら、それぞれを移動させて複数のフレーム画像を生成する(ステップS12:第1生成ステップ)。
次に、同期制御部306hは、配置されている各キャラクターの同期制御領域が重複しているか否かを判断する(ステップS13:第2生成ステップ)。
ここで、同期制御部306hが、同期制御領域が重なっていないと判断した場合(ステップS13:No)、通常の「フレーム画像の生成」の動作に移行し、同期制御領域が重なっていると判断した場合(ステップS13:Yes)、同期制御部306hは、さらに、配置されているキャラクターに優先度が設定されているか否かを判断する(ステップS14:第2生成ステップ)。
そして、同期制御部306hが、優先度が設定されていないと判断した場合(ステップS14:No)、通常の「フレーム画像の生成」の動作に移行し、優先度が設定されていると判断した場合(ステップS14:Yes)、同期制御部306hは、さらに、配置されているキャラクターに同期条件を満足するか否かを判断する(ステップS15:第2生成ステップ)。
そして、同期制御部306hが、同期条件を満足しないと判断した場合(ステップS15:No)、通常の「フレーム画像の生成」の動作に移行し、同期条件を満足すると判断した場合(ステップS15:Yes)、同期制御部306hは、優先度の低いキャラクターの動きを、優先度が高いキャラクターの動きに同期させたフレーム画像を逐次生成し(ステップS16:第2生成ステップ)、その後、通常の「フレーム画像の生成」の動作に移行する。
これまでに図4〜図7用いて説明した内容を、図8〜図11を用いてさらに詳細に説明する。
図8において、フレーム画像に互いに離れて配置されたキャラクターCH21及びCH22(第1画像、第2画像)は、同期設定部306gにより、同期制御領域(OR21及びOR22)、移動位置座標(MV21及びMV22)、優先度及び同期条件等がそれぞれ設定されており、キャラクターCH21の方が設定された優先度は高いものとする。
また、優先度の高いキャラクターCH21は、図9に示すように、体の横方向に両腕を水平に伸ばした状態、水平に伸ばしていた右腕を前に突き出す状態、体の横方向に両腕を水平に伸ばした状態、水平に伸ばしていた左腕を前に突き出す状態をフレーム毎に順次繰り返す動きを行うものとする。(画像の動き)
同様に、優先度の低いキャラクターCH22は、図10に示すように、体の横方向に両腕を水平に伸ばした状態、水平に伸ばしていた両腕を真上に突き出す状態をフレーム毎に順次繰り返す動きを行うものとする。(画像の動き)
従って、図8において、キャラクターCH21は図9に示す動きを行いながら、設定された移動位置座標MV21に沿って移動し、キャラクターCH22は図10に示す動きを行いながら、設定された移動位置座標MV22に沿って移動して、図11に示すような位置関係となる。
図8に示す移動位置座標及び移動速度(動きの条件)に従ってキャラクターCH21及びCH22を移動させた結果、例えば、図11中CR21に示すように、キャラクターCH21の左手と、キャラクターCH22の右手の部分の同期制御領域が重なった場合、この時点で、同期制御部306hは、優先度の低いキャラクターの動きを、優先度が高いキャラクターの動きに同期させたフレーム画像を逐次生成する。
そして、動画再生部306eにより逐次生成されたフレーム画像を再生することにより、2つのキャラクターの同期制御領域が重なった時点で、優先度の低いキャラクターCH22の動きは図10に示す動きから、図9に示す優先度の高いキャラクターCH21の動きに変更、言い換えれば、キャラクターCH22の動きがキャラクターCH21の動きに同期した動画として再生されることになる。
以上のように、記憶部から画像データを取得して複数のキャラクター(第1画像、第2画像)としてフレーム画像に配置し、同期制御領域、移動位置座標や移動速度(動きの条件)、優先度、同期条件をそれぞれ設定して、移動位置座標及び移動速度(動きの条件)に基づき各キャラクターを移動させた結果、同期条件としてキャラクターの同期制御領域が互いに重なり、優先度が設定されており、その他の同期条件を満足する場合に、優先度の低いキャラクターの動きを、優先度が高いキャラクターの動きに同期させたフレーム画像を逐次生成することにより、容易にキャラクター間の動きを同期させることが可能になる。
なお、第1実施形態では、キャラクターに対する優先度の設定を前提としているが、勿論、優先度は必須ではない。例えば、同期制御領域が重なった場合、どちらか一方の画像の動きを、もう一方(他方)の動きに同期させても構わない。この場合、図7におけるステップS14の条件判断は不要になる。
さらに、第1実施形態では、同期条件として、複数のキャラクター(第1画像、第2画像)の同期制御領域の重複を例示しているが、勿論、これに限定される訳ではなく、その他の同期条件が成立した場合に、どちらか一方の画像の動きを、もう一方(他方)の動きに同期させても構わない。
また、前述の通り、同期条件のみならず、「同期制御領域が重ならなくなった場合には同期を解除」と言った同期解除条件を設定しておくことにより、容易にキャラクター間の動きの同期を解除することが可能になる。
さらに、前述の通り、同期条件のみならず、「初めからキャラクターが重なっている場合には非同期」、「同期制御領域ではなくキャラクター本体が重なった場合には非同期」と言った非同期条件を設定しておくことにより、容易にキャラクター間の動きを非同期にさせることが可能になる。
(第2実施形態)
また、本発明の第2実施形態の動画生成システムについて、図4及び図7に基づいて説明する。但し、同期設定部306gによる各キャラクターの配置や各種設定その他、本発明の第1実施形態と同様の部分に関しては説明を省略する。
図4に示す動画生成処理に係る動作の一例を示すフローチャートにおいて、同期設定部306gは、ユーザ端末2からの指示に基づき、移動位置座標及び移動速度(動きの条件)の設定(ステップS4)ぜず、例えば、同期条件として、「開始後5秒後に同期する」と言った「同期時間」、「開始後10秒後に同期を解除にする」と言った「同期解除時間」を設定(ステップS6)した場合を想定する。
ここで、「同期時間」とは、移動位置座標や移動速度(動きの条件)といった具体的な設定でなく、設定された時間後に各キャラクターの同期制御領域が自動的に重なって同期が起こるように、各キャラクターを移動させるための値である。
また、「同期解除時間」とは、移動位置座標や移動速度(動きの条件)といった具体的な設定でなく、設定された時間後に各キャラクターの同期制御領域が自動的に重ならなくなって同期が解除されるように、各キャラクターを移動させるための値である。
このように、同期設定部306gによってキャラクターの配置、同期制御領域の設定、優先度の設定及び同期条件の設定がされた後、上述の「フレーム画像の生成」の動作に際して、図7に示す移動制御ステップ及び生成ステップを行う。すなわち、動画処理部306の同期制御部306hは、配置されているキャラクターに移動位置座標及び移動時間(動きの条件)が設定されているか否かを判断する(ステップS10)。但し、第2実施形態では、移動位置座標及び移動時間(動きの条件)が設定されていないので、同期制御部306hは、移動位置座標及び移動時間(動きの条件)の設定がないと判断する(ステップS10:No)。
また、同期制御部306hは、同期条件として同期時間が設定されているか否かを判断する(ステップS11)。
そして、同期制御部306hが、同期条件として同期時間が設定されていないと判断した場合(ステップS11:No)、通常の「フレーム画像の生成」の動作に移行し、同期条件として同期時間が設定されていると判断した場合(ステップS11:Yes)、同期制御部306hは、同期時間に基づき、同期時間経過後に各キャラクターの同期制御領域が重なるように、各キャラクターの移動すべき移動位置座標や移動速度を計算し、(ステップS17:移動制御ステップ)、計算された移動速度で移動位置座標に各キャラクターを変形させながら複数のフレーム画像を生成する際に、それぞれを移動させる(ステップS18:移動制御ステップ)。
次に、同期制御部306hは、配置されている各キャラクターの同期制御領域が重複しているか否かを判断する(ステップS13:生成ステップ)。
ここで、同期制御部306hが、同期制御領域が重なっていないと判断した場合(ステップS13:No)、通常の「フレーム画像の生成」の動作に移行し、同期制御領域が重なっていると判断した場合(ステップS13:Yes)、同期制御部306hは、さらに、配置されているキャラクターに優先度が設定されているか否かを判断する(ステップS14:生成ステップ)。
そして、同期制御部306hが、優先度が設定されていないと判断した場合(ステップS14:No)、通常の「フレーム画像の生成」の動作に移行し、優先度が設定されていると判断した場合(ステップS14:Yes)、同期制御部306hは、さらに、配置されているキャラクターに同期条件を満足するか否かを判断する(ステップS15:生成ステップ)。
そして、同期制御部306hが、同期条件を満足しないと判断した場合(ステップS15:No)、通常の「フレーム画像の生成」の動作に移行し、同期条件を満足すると判断した場合(ステップS15:Yes)、同期制御部306hは、優先度の低いキャラクターの動きを、優先度が高いキャラクターの動きに同期させたフレーム画像を逐次生成し(ステップS16:生成ステップ)、その後、通常の「フレーム画像の生成」の動作に移行する。
以上のように、記憶部から画像データを取得して複数のキャラクター(第1画像、第2画像)としてフレーム画像に配置し、同期制御領域、優先度、同期時間を含む同期条件をそれぞれ設定して、同期時間に基づき各キャラクターを移動させた結果、同期条件としてキャラクターの同期制御領域が互いに重なり、優先度が設定されており、その他の同期条件を満足する場合に、優先度の低いキャラクターの動きを、優先度が高いキャラクターの動きに同期させたフレーム画像を逐次生成することにより、容易にキャラクター間の動きを同期させることが可能になる。
なお、第2実施形態でも、キャラクターに対する優先度の設定を前提としているが、勿論、優先度は必須ではない。例えば、同期制御領域が重なった場合、どちらか一方の画像の動きを、もう一方(他方)の動きに同期させても構わない。この場合、図7におけるステップS14の条件判断は不要になる。
さらに、第2実施形態では、同期条件として同期制御領域の重複を例示しているが、勿論、これに限定される訳ではなく、複数のキャラクター(第1画像、第2画像)の位置関係には関わりなく、単純に同期時間が経過した時点で、どちらか一方の画像の動きを、もう一方(他方)の動きに同期させても構わない。
また、前述の通り、同期条件のみならず、「同期制御領域が重ならなくなった場合には同期を解除」と言った同期解除条件を設定しておくことにより、容易にキャラクター間の動きの同期を解除することが可能になる。
さらに、前述の通り、同期条件のみならず、「初めからキャラクターが重なっている場合には非同期」、「同期制御領域ではなくキャラクター本体が重なった場合には非同期」と言った非同期条件を設定しておくことにより、容易にキャラクター間の動きを非同期にさせることが可能になる。
特に、前述の通り、「同期時間」のみならず、「同期解除時間」を設定しておくことにより、容易にキャラクター間の動きの同期を解除することが可能になる。
すなわち、同期解除時間に基づき同期解除時間経過後に各キャラクターの同期制御領域が重ならないように、各キャラクターの移動すべき移動位置座標や移動速度を計算し、計算された移動速度で移動位置座標に各キャラクターを移動させることにより、容易にキャラクター間の動きの同期を解除することが可能になる。
(変形例1)
本発明の第1実施形態及び第2実施形態の変形例1について説明する。
図4のステップS6において、同期制御部306hは、ユーザ端末2からの指示に基づき、配置されたキャラクターの同期条件として、例えば、「同期制御領域が3回重なるまで同期する(重なり回数1〜3回目は同期)」、「同期制御領域が3回重なるまで同期しない(重なり回数4回目以降に同期)」、「同期制御領域の重なり回数が奇数の場合に同期」、「同期制御領域の重なり回数が偶数の場合に同期」、等の条件を設定する。
すなわち、単純に同期制御領域の重なりだけで、キャラクター間の動きを同期させ、若しくは、動きの同期を解除するだけではなく、同期制御領域の重なる回数をカウントして、そのカウント値に基づき同期条件を設定することにより、キャラクター間の同期等の仕方が複雑になり、フレーム画像全体として、より複雑な動きとしてユーザに認識させることができる。
また、キャラクターに予め設定されている演奏情報Tが、予め設定されている演奏情報T(例えば、アップテンポな曲調の演奏情報T)に一致する場合のみ、同期制御領域が重なって時点で同期させる制御を行っても構わない。
以上のように、変形例1では、単純に同期制御領域の重なりだけで、キャラクター間の動きを同期等させる場合と比較して、同期制御領域の重なり回数に応じて、或いは、予め設定された演奏情報Tと一致する場合に、一方の画像の動きを他方の画像の動きに同期させたフレーム画像を生成して再生することにより、フレーム画像全体として、より複雑な動きとしてユーザに認識させることができる。
(変形例2)
本発明の第1実施形態及び第2実施形態の変形例2について説明する。
図4のステップS3において、同期制御部306hは、ユーザ端末2からの指示に基づき、配置されたキャラクターの同期制御領域に関し、例えば、図5中のキャラクターCH1の外周から破線までの幅である同期制御領域OR1の幅(以下、単に同期制御領域幅と呼ぶ。)を任意に設定する。
例えば、同期制御領域幅を正の値に設定すれば、キャラクターの同期制御領域が重なった時点で動きが同期するものの、同期制御領域幅の違いにより、キャラクター間の同期等の仕方が複雑になり、フレーム画像全体として、より複雑な動きとしてユーザに認識させることができる。
また、同期制御領域幅を”0”に設定すれば、キャラクター本体が重なることで動きが同期し、同期制御領域幅を負の値に設定すれば、キャラクター本体がある程度重なるまで動きが同期しないことになるので、更に、キャラクター間の同期等の仕方が複雑になり、フレーム画像全体として、より複雑な動きとしてユーザに認識させることができる。
以上のように、変形例2では、単純に同期制御領域の重なりだけで、キャラクター間の動きを同期等させる場合と比較して、同期制御領域幅を任意に変更可能にして、同期制御領域が重なった場合、一方の画像の動きを他方の画像の動きに同期させたフレーム画像を生成して再生することにより、フレーム画像全体として、より複雑な動きとしてユーザに認識させることができる。
(変形例3)
本発明の第1実施形態及び第2実施形態の変形例3について説明する。
図4のステップS6において、同期制御部306hは、ユーザ端末2からの指示に基づき、配置されたキャラクターの同期条件の代わりに同期内容を設定する。
同期内容とは、単純にキャラクターの全ての動きを同期させるのでなく、動きを同期させる内容、例えば、「ダンスの種類のみ同期(ダンス速度は異なる)」、「ダンスの速度のみ同期(ダンス種類は異なる)」、「ダンスの種類及び速度の双方に同期」等を選択可能にする。
すなわち、単純に同期オフセット領域の重なりだけで、キャラクター間の動きを同期させ、若しくは、動きの同期を解除するだけではなく、同期制御領域が重なって時点で、ダンスの種類のみ同期、ダンスの速度のみ同期、ダンスの種類及び速度の双方に同期、と言った同期内容を設定することにより、キャラクター間の同期等の仕方が複雑になり、フレーム画像全体として、より複雑な動きとしてユーザに認識させることができる。
以上のように、変形例3では、単純に同期制御領域の重なりだけで、キャラクター間の動きを同期等させる場合と比較して、同期内容(種類、速度、両方等)を設定し、同期制御領域が重なった場合、一方の画像の動きの該当する同期内容のみを他方の画像の動きに同期させたフレーム画像を生成して再生することにより、フレーム画像全体として、より複雑な動きとしてユーザに認識させることができる。
「被写体画像の生成」でも説明した通り、第1実施形態や第2実施形態におけるキャラクターは、背景と被写体とが存在する画像から被写体が含まれる領域が切り抜かれた画像であることは言うまでもない。
加えて、上記実施形態にあっては、取得ステップ、設定ステップ、第1生成ステップ(第2実施形態では移動制御ステップ)及び第2生成ステップ(第2実施形態では生成ステップ)としての動作を、中央制御部301の制御下にて、画像取得部306aと、背面画像生成部306bと、制御点設定部306cと、フレーム生成部306dと、動画再生部306eと、速さ指定部306fと、同期設定部306gと、同期制御部306hとを具備している動画処理部306より実現される構成としたが、これに限られるものではなく、取得手段、設定手段、第1生成手段(移動制御手段)、第2生成手段(生成手段)から構成される画像生成装置として実現しても良い。
即ち、ユーザ端末2からの指示に基づき、被写体画像をサーバ3の記憶部305に記憶されている被写体切り抜き画像の画像データから取得し、複数のキャラクター(第1画像、第2画像)としてフレーム画像に配置する取得手段と、ユーザ端末2からの指示に基づき、配置したそれぞれのキャラクターに同期制御領域を設定し、それぞれの当該キャラクターの移動位置座標や移動速度(動きの条件)を設定し、配置されたそれぞれのキャラクターの優先度を設定し、当該キャラクターの同期条件を設定する設定手段と、設定されている移動位置座標及び移動速度(動きの条件)に基づき各キャラクターを移動させてフレーム画像を生成する第1生成手段(移動制御手段)と、同期制御領域が重なっていると判断した場合、配置されているキャラクターに優先度が設定され、配置されているキャラクターに同期条件を満足するすると判断した場合、優先度の低いキャラクターの動きを、優先度が高いキャラクターの動きに同期させたフレーム画像を逐次生成する第2生成手段(生成手段)とから画像生成装置を構成しても良い。
また、加えて、上記実施形態にあっては、取得ステップ、設定ステップ、第1生成ステップ(第2実施形態では移動制御ステップ)及び第2生成ステップ(第2実施形態では生成ステップ)としての動作を、中央制御部301の制御下にて、画像取得部306aと、背面画像生成部306bと、制御点設定部306cと、フレーム生成部306dと、動画再生部306eと、速さ指定部306fと、同期設定部306gと、同期制御部306hとを具備している動画処理部306より実現される構成としたが、これに限られるものではなく、中央制御部301によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、設定処理ルーチン、第1生成処理ルーチン(移動制御処理ルーチン)及び第2生成処理ルーチン(生成処理ルーチン)を含むプログラムを記憶しておく。
そして、取得処理ルーチンにより中央制御部301のCPUを、ユーザ端末2からの指示に基づき、被写体画像をサーバ3の記憶部305に記憶されている被写体切り抜き画像の画像データから取得し、複数のキャラクター(第1画像、第2画像)としてフレーム画像に配置する取得手段として機能させるようにしても良い。
また、設定処理ルーチンにより中央制御部301のCPUを、ユーザ端末2からの指示に基づき、配置したそれぞれのキャラクターに同期制御領域を設定し、それぞれの当該キャラクターの移動位置座標や移動速度(動きの条件)を設定し、配置されたそれぞれのキャラクターの優先度を設定し、当該キャラクターの同期条件を設定する設定手段として機能させるようにしても良い。
また、第1生成処理ルーチン(移動制御処理ルーチン)により中央制御部301のCPUを、設定されている移動位置座標及び移動速度(動きの条件)に基づき各キャラクターを移動させてフレーム画像を生成する第1生成手段(移動制御手段)として機能させるようにしても良い。
また、第2生成処理ルーチン(生成処理ルーチン)により中央制御部301のCPUを、同期制御領域が重なっていると判断した場合、配置されているキャラクターに優先度が設定され、配置されているキャラクターに同期条件を満足するすると判断した場合、優先度の低いキャラクターの動きを、優先度が高いキャラクターの動きに同期させたフレーム画像を逐次生成する第2生成手段(生成手段)として機能させるようにしても良い。
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
第1及び第2画像をそれぞれ取得する取得ステップと、
前記第1及び第2画像に対して同期条件及び動きの条件をそれぞれ設定する設定ステップと、
前記動きの条件に基づいて前記第1及び第2画像を変形させながら、それぞれを移動させて複数のフレーム画像を生成する第1生成ステップと、
前記第1及び第2画像の前記同期条件が成立した場合、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成する第2生成ステップと
を含むことを特徴とする画像生成方法。
<請求項2>
前記設定ステップは、
前記第1及び第2画像に対して同期制御領域をそれぞれ設定し、
前記第2生成ステップは、
前記同期条件として前記第1及び第2画像の前記同期制御領域が互いに重なった場合、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成することを特徴とする請求項1に記載の画像生成方法。
<請求項3>
前記第2生成ステップは、
前記同期条件として前記第1及び第2画像の前記同期制御領域が互いに重なった場合、前記同期制御領域の重なる回数に基づき、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成することを特徴とする請求項2に記載の画像生成方法。
<請求項4>
前記第2生成ステップは、
前記同期条件として前記第1若しくは第2画像の前記同期制御領域が互いに重なり、且つ、前記第1若しくは第2画像に設定されている演奏情報が予め設定されている演奏情報に一致する場合、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成することを特徴とする請求項2に記載の画像生成方法。
<請求項5>
前記設定ステップは、
前記第1及び第2画像にそれぞれ優先度を設定し、
前記第2生成ステップは、
前記第1及び第2画像の前記同期条件が成立した場合、優先度の低い画像の動きを、優先度の高い画像の動きに同期させたフレーム画像を生成することを特徴とする請求項1〜4の何れか一項に記載の画像生成方法。
<請求項6>
前記設定ステップは、
前記第1及び第2画像に対して同期内容をそれぞれ設定し、
前記第2生成ステップは、
前記第1及び第2画像の前記同期条件が成立した場合、前記第1及び第2画像のうちの何れか一方の画像の動きのうち前記同期内容に該当する動きのみを、他方の画像の動きに同期させたフレーム画像を生成することを特徴とする請求項1〜4の何れか一項に記載の画像生成方法。
<請求項7>
前記同期内容が、
前記動きの種類及び前記動きの速度のうち少なくとも一方を含むことを特徴とする請求項6に記載の画像生成方法。
<請求項8>
前記同期制御領域の幅を設定可能にしたことを特徴とする請求項2〜4の何れか一項に記載の画像生成方法。
<請求項9>
第1及び第2画像をそれぞれ取得する取得ステップと、
前記第1及び第2画像に対して、同期時間をそれぞれ設定する設定ステップと、
所定の動きの条件に基づいて前記第1及び第2画像を変形させながら複数のフレーム画像を生成する際に、前記同期時間が経過した場合、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成する生成ステップと
を含むことを特徴とする画像生成方法。
<請求項10>
前記第1及び第2画像を変形させながら複数のフレーム画像を生成する際に、それぞれを移動させる移動制御ステップを備え、
前記設定ステップは、
前記第1及び第2画像に対して同期制御領域をそれぞれ設定し、
前記移動制御ステップは、
前記同期時間に基づき前記同期時間経過後に前記第1及び第2画像の同期制御領域が重なるように、前記第1及び第2画像の移動すべき移動位置座標や移動速度を計算し、計算された移動位置座標や移動速度に基づき前記第1及び第2画像を移動させ、
前記生成ステップは、
同期条件として前記第1及び第2画像の前記同期制御領域が互いに重なった場合、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成することを特徴とする請求項9に記載の画像生成方法。
<請求項11>
前記第1及び第2画像は、
背景と被写体とが存在する画像から被写体が含まれる領域が切り抜かれた画像であることを特徴とする請求項1〜10の何れか一項に記載の画像生成方法。
<請求項12>
第1及び第2画像をそれぞれ取得する取得手段と、
前記第1及び第2画像に対して同期条件及び動きの条件をそれぞれ設定する設定手段と、
前記動きの条件に基づいて前記第1及び第2画像を変形させながら、それぞれを移動させて複数のフレーム画像を生成する第1生成手段と、
前記第1及び第2画像の前記同期条件が成立した場合、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成する第2生成手段と
を備えたことを特徴とする画像生成装置。
<請求項13>
コンピュータを、
第1及び第2画像をそれぞれ取得する取得手段と、
前記第1及び第2画像に対して同期条件及び動きの条件をそれぞれ設定する設定手段と、
前記動きの条件に基づいて前記第1及び第2画像を変形させながら、それぞれを移動させて複数のフレーム画像を生成する移動制御手段と、
前記第1及び第2画像の前記同期条件が成立した場合、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成する生成手段と
して機能させることを特徴とするプログラム。
100 動画生成システム
1 撮像装置
2 ユーザ端末
3 サーバ
201,301 中央制御部
202,303 通信制御部
203,302 表示部
204 音出力部
205 記録媒体制御部
206 操作入力部
304 被写体切抜部
305 記憶部
306 動画処理部
306g 同期設定部
306h 同期制御部

Claims (8)

  1. 第1及び第2画像をそれぞれ取得する取得ステップと、
    前記第1及び第2画像に対して同期条件及び動きの条件をそれぞれ設定する設定ステップと、
    前記動きの条件に基づいて前記第1及び第2画像を変形させながら、それぞれを移動させて複数のフレーム画像を生成する第1生成ステップと、
    前記第1及び第2画像の前記同期条件が成立した場合、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成する第2生成ステップと
    を含み、
    前記設定ステップは、
    前記第1及び第2画像に対して同期制御領域をそれぞれ設定し、
    前記第2生成ステップは、
    前記同期条件として前記第1及び第2画像の前記同期制御領域が互いに重なった場合、前記同期制御領域の重なる回数に基づき、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成することを特徴とする画像生成方法。
  2. 前記第2生成ステップは、更に、
    前記同期条件として前記第1若しくは第2画像の前記同期制御領域が互いに重なり、且つ、前記第1若しくは第2画像に設定されている演奏情報が予め設定されている演奏情報に一致する場合、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成することを特徴とする請求項1に記載の画像生成方法。
  3. 前記設定ステップは、
    前記第1及び第2画像にそれぞれ優先度を設定し、
    前記第2生成ステップは、更に、
    前記第1及び第2画像の前記同期条件が成立した場合、優先度の低い画像の動きを、優先度の高い画像の動きに同期させたフレーム画像を生成することを特徴とする請求項1又は2に記載の画像生成方法。
  4. 前記設定ステップは、
    前記第1及び第2画像に対して同期内容をそれぞれ設定し、
    前記第2生成ステップは、更に、
    前記第1及び第2画像の前記同期条件が成立した場合、前記第1及び第2画像のうちの何れか一方の画像の動きのうち前記同期内容に該当する動きのみを、他方の画像の動きに同期させたフレーム画像を生成することを特徴とする請求項1〜3の何れか一項に記載の画像生成方法。
  5. 前記同期内容が、
    前記動きの種類及び前記動きの速度のうち少なくとも一方を含むことを特徴とする請求項4に記載の画像生成方法。
  6. 前記同期制御領域の幅を設定可能にしたことを特徴とする請求項1〜4の何れか一項に記載の画像生成方法。
  7. 第1及び第2画像をそれぞれ取得する取得手段と、
    前記第1及び第2画像に対して同期条件及び動きの条件をそれぞれ設定する設定手段と、
    前記動きの条件に基づいて前記第1及び第2画像を変形させながら、それぞれを移動させて複数のフレーム画像を生成する第1生成手段と、
    前記第1及び第2画像の前記同期条件が成立した場合、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成する第2生成手段と
    を備え、
    前記設定手段は、
    前記第1及び第2画像に対して同期制御領域をそれぞれ設定し、
    前記第2生成手段は、
    前記同期条件として前記第1及び第2画像の前記同期制御領域が互いに重なった場合、前記同期制御領域の重なる回数に基づき、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成することを特徴とする画像生成装置。
  8. コンピュータを、
    第1及び第2画像をそれぞれ取得する取得手段と、
    前記第1及び第2画像に対して同期条件及び動きの条件をそれぞれ設定する設定手段と、
    前記動きの条件に基づいて前記第1及び第2画像を変形させながら、それぞれを移動させて複数のフレーム画像を生成する第1生成手段と、
    前記第1及び第2画像の前記同期条件が成立した場合、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成する第2生成手段と
    して機能させ、
    前記設定手段は、
    前記第1及び第2画像に対して同期制御領域をそれぞれ設定し、
    前記第2生成手段は、
    前記同期条件として前記第1及び第2画像の前記同期制御領域が互いに重なった場合、前記同期制御領域の重なる回数に基づき、前記第1及び第2画像のうちの何れか一方の画像の動きを、他方の画像の動きに同期させたフレーム画像を生成することを特徴とするプログラム。
JP2012063011A 2012-03-21 2012-03-21 画像生成方法、画像生成装置及びプログラム Expired - Fee Related JP5891883B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012063011A JP5891883B2 (ja) 2012-03-21 2012-03-21 画像生成方法、画像生成装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012063011A JP5891883B2 (ja) 2012-03-21 2012-03-21 画像生成方法、画像生成装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2013196402A JP2013196402A (ja) 2013-09-30
JP5891883B2 true JP5891883B2 (ja) 2016-03-23

Family

ID=49395252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012063011A Expired - Fee Related JP5891883B2 (ja) 2012-03-21 2012-03-21 画像生成方法、画像生成装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5891883B2 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040407A (ja) * 1996-07-24 1998-02-13 Nippon Telegr & Teleph Corp <Ntt> 動画生成方法および装置
JP2000311251A (ja) * 1999-02-26 2000-11-07 Toshiba Corp アニメーション作成装置および方法、記憶媒体
JP4519883B2 (ja) * 2007-06-01 2010-08-04 株式会社コナミデジタルエンタテインメント キャラクター表示装置、キャラクター表示方法、ならびに、プログラム
JP5043224B2 (ja) * 2011-08-12 2012-10-10 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置

Also Published As

Publication number Publication date
JP2013196402A (ja) 2013-09-30

Similar Documents

Publication Publication Date Title
JP5434965B2 (ja) 動画生成方法、動画生成装置及びプログラム
JP7053869B2 (ja) ビデオ生成の方法、装置、電子機器及びコンピュータ読み取り可能記憶媒体
JP4591576B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5454604B2 (ja) 動画再生方法、動画再生装置及びプログラム
JP4692550B2 (ja) 画像処理装置、その処理方法およびプログラム
JP2021520764A (ja) 動画撮像方法、動画撮像装置、電子機器、およびコンピューター読取可能な記憶媒体
JP5375897B2 (ja) 画像生成方法、画像生成装置及びプログラム
JP6721570B2 (ja) 楽曲再生システム、データ出力装置、及び楽曲再生方法
JP2022065175A (ja) 音響処理装置および方法、並びにプログラム
JP2011175598A (ja) 手話アニメーション生成装置及び手話アニメーション生成プログラム
JPWO2018173791A1 (ja) 画像処理装置および方法、並びにプログラム
JP5408205B2 (ja) 制御点設定方法、制御点設定装置及びプログラム
JP5891883B2 (ja) 画像生成方法、画像生成装置及びプログラム
US20230033201A1 (en) Image processing apparatus, image processing method, and storage medium
JP5093317B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5919926B2 (ja) 画像生成方法、画像生成装置及びプログラム
JP5408206B2 (ja) 画像生成方法、画像生成装置及びプログラム
JP5874426B2 (ja) 制御点設定方法、制御点設定装置及びプログラム
JP5906897B2 (ja) 動き情報生成方法、動き情報生成装置及びプログラム
JP6028489B2 (ja) 動画再生装置、動画再生方法、及びプログラム
JP5776442B2 (ja) 画像生成方法、画像生成装置及びプログラム
JP2012128630A (ja) 動画生成装置
JP4967983B2 (ja) 情報記録装置及びプログラム
JP2009206986A (ja) 画像出力装置及び画像出力方法
JP2006048901A (ja) マルチメディア情報再生装置およびマルチメディア情報記録装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160208

R150 Certificate of patent or registration of utility model

Ref document number: 5891883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees