JP5434965B2 - 動画生成方法、動画生成装置及びプログラム - Google Patents

動画生成方法、動画生成装置及びプログラム Download PDF

Info

Publication number
JP5434965B2
JP5434965B2 JP2011125663A JP2011125663A JP5434965B2 JP 5434965 B2 JP5434965 B2 JP 5434965B2 JP 2011125663 A JP2011125663 A JP 2011125663A JP 2011125663 A JP2011125663 A JP 2011125663A JP 5434965 B2 JP5434965 B2 JP 5434965B2
Authority
JP
Japan
Prior art keywords
image
moving
moving image
movable
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011125663A
Other languages
English (en)
Other versions
JP2012252597A (ja
JP2012252597A5 (ja
Inventor
哲司 牧野
光康 中嶋
雅行 広浜
玲 浜田
泰士 前野
聡 掛川
克典 石井
義裕 手島
正敏 綿貫
飛雄太 田中
道大 二瓶
雅昭 佐々木
紳一 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011125663A priority Critical patent/JP5434965B2/ja
Priority to US13/483,343 priority patent/US20120237186A1/en
Priority to CN2012101738343A priority patent/CN102811352A/zh
Publication of JP2012252597A publication Critical patent/JP2012252597A/ja
Publication of JP2012252597A5 publication Critical patent/JP2012252597A5/ja
Application granted granted Critical
Publication of JP5434965B2 publication Critical patent/JP5434965B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、静止画像から動画像を生成する動画生成方法、動画生成装置及びプログラムに関する。
従来、静止画像内の所望の位置に制御点を設定して、動きをつけたい制御点に所望の動きを指定することで当該静止画像を動かす技術が知られている(例えば、特許文献1参照)。
特開2007−323293号公報
しかしながら、上記特許文献1の場合、制御点毎に動きを指定しなければならず、その作業が煩雑であるだけでなく、ユーザ所望の動きを再現するのが難しいといった問題がある。
本発明は、このような問題に鑑みてなされたものであり、ユーザ所望の動きの動画像の生成を簡便に行うことができる動画生成方法、動画生成装置及びプログラムを提供することである。
上記課題を解決するため、本発明の動画生成方法は、
動体モデルに設定されている複数の可動点と、予め所定空間内における前記動体モデルの複数の可動点の動きを示す動き情報を記憶した動画生成装置を用いた動画生成方法であって、当該動画生成装置のコンピュータが、
静止画像を取得する取得ステップと、
前記取得ステップにて取得された静止画に対して、前記動体モデルと前記静止画像の大きさを合わせるように寸法の調整を行ない、前記動体モデルに設定されている複数の可動点を反映させる可動点反映ステップと、
前記可動点反映ステップにて反映された前記静止画像の前記複数の可動点を、前記動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成ステップと、
前記フレーム画像生成ステップにて生成された複数のフレームから動画像を生成する動画像生成ステップと、
を実行することを特徴としている。
また、本発明の動画生成装置は、
動体モデルに設定されている複数の可動点と、
予め所定空間内における前記動体モデルの複数の可動点の動きを示す動き情報を記憶する記憶手段と、
静止画像を取得する取得手段と、
前記取得手段により取得された静止画像に対して、前記動体モデルと前記静止画像の大きさを合わせるように寸法の調整を行ない、前記動体モデルに設定されている複数の可動点を反映させる可動点反映手段と、
前記可動点反映手段により反映された前記静止画像の前記複数の可動点を、前記動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成手段と、
前記フレーム画像生成手段により生成された複数のフレームから動画像を生成する動画像生成手段と、
を備えたことを特徴としている。
また、本発明のプログラムは、
動体モデルに設定されている複数の可動点と、予め所定空間内における前記動体モデルの複数の可動点の動きを示す動き情報を記憶する記憶手段を備える動画生成装置のコンピュータを、
静止画像を取得する取得手段、
前記取得手段により取得された静止画像に対して、前記動体モデルと前記静止画像の大きさを合わせるように寸法の調整を行ない、前記動体モデルに設定されている複数の可動点を反映させる可動点反映手段、
前記可動点反映手段により反映された前記静止画像の前記複数の可動点を、前記動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成手段、
前記フレーム画像生成手段により生成された複数のフレームから動画像を生成する動画像生成手段、
として機能させることを特徴としている。
本発明によれば、ユーザ所望の動きの動画像の生成を簡便に行うことができる。
本発明を適用した一実施形態の動画生成システムの概略構成を示すブロック図である。 動画生成システムを構成するユーザ端末の概略構成を示すブロック図である。 動画生成システムを構成するサーバの概略構成を示すブロック図である。 動画生成システムによる動画生成処理に係る動作の一例を示すフローチャートである。 図4の動画生成処理の続きを示すフローチャートである。 図4の動画生成処理に係る画像の一例を模式的に示す図である。 図4の動画生成処理を説明するための図である。 図4の動画生成処理を説明するための図である。
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の動画生成システム100の概略構成を示すブロック図である。
本実施形態の動画生成システム100は、図1に示すように、撮像装置1と、ユーザ端末2と、サーバ3とを備え、ユーザ端末2とサーバ3とが所定の通信ネットワークNを介して各種情報を送受信可能に接続されている。
撮像装置1は、被写体を撮像する撮像機能や撮像画像の画像データを記録媒体Cに記録する記録機能等を具備する。即ち、撮像装置1は、公知のものを適用可能であり、例えば、主要な機能を撮像機能とするデジタルカメラ等だけでなく、主要な機能としないものの撮像機能を具備する携帯電話機等も含む。
次に、ユーザ端末2について図2を参照して説明する。
ユーザ端末2は、例えば、パーソナルコンピュータ等により構成され、サーバ3により開設されるWebページ(例えば、動画生成用ページ)にアクセスして、当該Webページ上で各種の指示を入力する。
図2は、ユーザ端末2の概略構成を示すブロック図である。
図2に示すように、ユーザ端末2は、具体的には、中央制御部201と、通信制御部202と、表示部203と、音出力部204と、記録媒体制御部205と、操作入力部206等を備えている。
中央制御部201は、ユーザ端末2の各部を制御するものである。具体的には、中央制御部201は、CPU、RAM、ROM(何れも図示略)を備え、ROMに記憶されたユーザ端末2用の各種処理プログラム(図示略)に従って各種の制御動作を行う。その際に、CPUは、RAM内の格納領域内に各種処理結果を格納させ、必要に応じてその処理結果を表示部203に表示させる。
RAMは、例えば、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。
ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、ユーザ端末2で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。
通信制御部202は、例えば、モデム(MODEM:Modulater/DEModulater)、ターミナルアダプタ(Terminal Adapter)等によって構成され、所定の通信ネットワークNを介してサーバ3等の外部機器との間で情報の通信制御を行うためのものである。
なお、通信ネットワークNは、例えば、専用線や既存の一般公衆回線を利用して構築された通信ネットワークであり、LAN(Local Area Network)やWAN(Wide Area Network)等の様々な回線形態を適用することが可能である。また、通信ネットワークNには、例えば、電話回線網、ISDN回線網、専用線、移動体通信網、通信衛星回線、CATV回線網等の各種通信回線網と、それらを接続するインターネットサービスプロバイダ等が含まれる。
表示部203は、例えば、LCD、CRT(Cathode Ray Tube)等のディスプレイから構成され、中央制御部201のCPUの制御下にて各種情報を表示画面に表示する。
即ち、表示部203は、例えば、サーバ3から送信され通信制御部202により受信されたWebページ(例えば、動画生成用ページ)のページデータに基づいて、対応するWebページを表示画面に表示する。具体的には、表示部203は、動画生成処理(後述)に係る各種の処理画面の画像データに基づいて、各種の処理画面を表示画面に表示する(図7(a)等参照)。
音出力部204は、例えば、D/Aコンバータ、LPF(Low Pass Filter)、増幅器、スピーカ等により構成され、中央制御部201のCPUの制御下にて放音する。
即ち、音出力部204は、例えば、サーバ3から送信され通信制御部202により受信された演奏情報に基づいて、当該演奏情報のデジタルデータをD/Aコンバータによりアナログデータに変換し、増幅器を介してスピーカから、所定の音色、音高、音長で曲を放音する。また、音出力部204は、一の音源(例えば、楽器)の音を放音しても良いし、複数の音源の音を同時に放音しても良い。
記録媒体制御部205は、記録媒体Cが着脱自在に構成され、装着された記録媒体Cからのデータの読み出しや記録媒体Cに対するデータの書き込みを制御する。即ち、記録媒体制御部205は、撮像装置1から取り外されて装着された記録媒体Cから動画生成処理(後述)に係る被写体存在画像P1(図6(a)参照)の画像データを読み出して通信制御部202に出力する。
ここで、被写体存在画像P1とは、所定の背景内に主要な被写体が存在する画像のことである。また、記録媒体Cには、撮像装置1の画像処理部(図示略)により所定の符号化形式(例えば、JPEG形式等)に従って符号化された被写体存在画像P1の画像データが記録されている。
そして、通信制御部202は、入力された被写体存在画像P1の画像データをサーバ3に所定の通信ネットワークNを介して送信する。
操作入力部206は、例えば、数値、文字等を入力するためのデータ入力キーや、データの選択、送り操作等を行うための上下左右移動キーや各種機能キー等によって構成されるキーボードやマウス等を備え、ユーザにより押下されたキーの押下信号やマウスの操作信号を中央制御部201のCPUに出力する。
なお、操作入力部206としてタッチパネル(図示略)を表示部203の表示画面に配設して、タッチパネルの接触位置に応じて各種の指示を入力するような構成としても良い。
次に、サーバ3について図3を参照して説明する。
サーバ3は、Web(World Wide Web)サーバとしてインターネット上にWebページ(例えば、動画生成用ページ)を開設する機能を具備するものであり、ユーザ端末2からのアクセスに応じて当該ユーザ端末2にWebページのページデータを送信する。また、サーバ3は、動画生成装置として、静止画像内で動き情報Mに係る複数の可動点Da、…に対応する各位置に動きの制御点Dbを複数設定し、指定された動き情報Mの複数の可動点Da、…の動きに追従させるように複数の制御点Db、…を動かして動画像Qを生成する。
図3は、サーバ3の概略構成を示すブロック図である。
図3に示すように、サーバ3は、具体的には、中央制御部301と、表示部302と、通信制御部303と、被写体切抜部304と、記憶部305と、動画処理部306等を備えて構成されている。
中央制御部301は、サーバ3の各部を制御するものである。具体的には、中央制御部301は、CPU、RAM、ROM(何れも図示略)を備え、CPUは、ROMに記憶されたサーバ3用の各種処理プログラム(図示略)に従って各種の制御動作を行う。その際に、CPUは、RAM内の格納領域内に各種処理結果を格納させ、必要に応じてその処理結果を表示部302に表示させる。
RAMは、例えば、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。
ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、サーバ3で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。
表示部302は、例えば、LCD、CRT等のディスプレイから構成され、中央制御部301のCPUの制御下にて各種情報を表示画面に表示する。
通信制御部303は、例えば、モデム、ターミナルアダプタ等によって構成され、所定の通信ネットワークNを介してユーザ端末2等の外部機器との間で情報の通信制御を行うためのものである。
具体的には、通信制御部303は、例えば、動画生成処理(後述)にてユーザ端末2から所定の通信ネットワークNを介して送信された被写体存在画像P1の画像データを受信して、当該画像データを中央制御部301のCPUに出力する。
中央制御部301のCPUは、入力された被写体存在画像P1の画像データを被写体切抜部304に出力する。
被写体切抜部304は、被写体存在画像P1から被写体切り抜き画像P2を生成する。
即ち、被写体切抜部304は、公知の被写体切抜手法を用いて、被写体存在画像P1から被写体Sが含まれる領域が切り抜いた画像を生成する。具体的には、被写体切抜部304は、中央制御部301のCPUから出力された被写体存在画像P1の画像データを取得して、例えば、ユーザによるユーザ端末2の操作入力部206(例えば、マウス等)の所定操作に基づいて、表示部203に表示されている当該被写体存在画像P1上に描画された境界線(図示略)により当該被写体存在画像P1を区分する。そして、被写体切抜部304は、被写体存在画像P1の境界線により区分される被写体Sが含まれる被写体領域を抽出して、当該被写体領域のアルファ値を「1」とするとともに被写体Sの背景部分のアルファ値を「0」とし、当該被写体領域の画像を所定の単一色画像と合成した被写体切り抜き画像P2(図6(b)参照)の画像データを生成する。即ち、被写体切り抜き画像P2のうち、アルファ値が「1」の被写体領域の所定の背景に対する透過度が0%となり、一方、アルファ値が「0」の被写体Sの背景部分の所定の背景に対する透過度が100%となる。
また、被写体切り抜き画像P2の画像データとしては、例えば、RGBA形式の画像データを適用することができ、具体的には、RGB色空間で規定される各色に透過度(A)の情報が付加されている。なお、被写体切り抜き画像P2の画像データは、例えば、被写体存在画像P1の各画素について、被写体領域の画像を所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したアルファマップと対応付けられる構成であっても良い。
なお、上記した被写体切抜部304による被写体切抜手法は、一例であってこれに限られるものではなく、被写体存在画像P1から被写体Sが含まれる領域を切り抜く公知の手法であれば如何なる手法を適用しても良い。
記憶部305は、例えば、半導体の不揮発メモリやHDD(Hard Disc Drive)等により構成され、ユーザ端末2に送信されるWebページのページデータや被写体切抜部304により生成された被写体切り抜き画像P2の画像データ等を記憶する。
また、記憶部305は、動画生成処理に用いられる動き情報Mを複数記憶している。
各動き情報Mは、所定空間、即ち、例えば、互いに直交する二軸(例えば、x軸、y軸等)により規定される二次元の平面空間やこれら二軸に加えて当該二軸に直交する軸(例えば、z軸等)により規定される三次元の立体的空間内における複数の可動点Da、…の動きを示す情報である。なお、動き情報Mは、二次元の平面空間を所定の回動軸周りに回転させることで複数の可動点Da、…の動きに奥行きをもたせるような情報であっても良い。
ここで、各可動点Daの位置は、動きのモデルとなる動体モデル(例えば、ヒトや動物等)の骨格の形状や関節の位置等を考慮してそれぞれ規定されている。また、可動点Daの個数は、動体モデルの形状や大きさ等に応じて適宜任意に設定可能である。
また、各動き情報Mは、所定空間内にて複数の可動点Da、…の全て若しくは少なくとも一つを移動させた座標情報を所定の時間間隔で連続して並べることで、複数の可動点Da、…の動きが連続して表されている(図8(a)参照)。具体的には、各動き情報Mは、例えば、複数の可動点Da、…を所定の踊りに対応させるように移動させた情報であり、複数の可動点Da、…の動きが連続して表された動体モデルのモデル名と対応付けてそれぞれ記憶されている。また、各動き情報Mは、動きの種類(例えば、ヒップホップ、ツイスト、ロボットダンス等)やバリエーション(例えば、ヒップホップ1〜3等)に応じて、複数の可動点Da、…の連続した動きを異ならせている。
例えば、図8(a)に示すように、動き情報Mは、ヒトの動体モデルの両方の腕を挙げた状態を模式的に表した複数の可動点Da、…の座標情報D1、片方の腕(図8(a)における左側の腕)を下げた状態を模式的に表した複数の可動点Da、…の座標情報D2、両方の腕を下げた状態を模式的に表した複数の可動点Da、…の座標情報D3といったように、時間軸に沿って所定の時間間隔を空けて連続して並べられている(図8(a)にあっては、座標情報D3以降の座標情報の図示は省略する)。
ここで、複数の可動点Da、…の座標情報D1、D2、D3、…の各々は、例えば、基準となる可動点Daの座標情報(例えば、座標情報D1等)に対する各可動点Daの移動量を規定した情報であっても良いし、各可動点Daの絶対位置座標を規定した情報であっても良い。
なお、図8(a)に示した動き情報Mは、一例であってこれに限られるものではなく、動きの種類等は適宜任意に変更可能である。
このように、記憶部305は、予め所定空間内における複数の可動点Da、…の動きを示す動き情報Mを複数記憶する記憶手段を構成している。
また、記憶部305は、動画生成処理に用いられる演奏情報Tを複数記憶している。
演奏情報Tは、動画再生部306eにより動画像Qとともに自動的に演奏される情報である。即ち、演奏情報Tは、例えば、テンポ、拍子、音程、音階、調、発想標語等を異ならせて複数規定され、それぞれ曲名と対応付けて記憶されている。
また、各演奏情報Tは、例えば、MIDI(Musical Instruments Digital Interface)規格等に従って規定されたデジタルデータであり、具体的には、トラック数や四分音符の分解能(Tickカウント数)等が規定されたヘッダ情報と、各音源(例えば、楽器等)毎の演奏情報T等が規定されたトラック情報等を有している。また、トラック情報には、テンポ及び拍子の設定情報やNoteOn・Offのタイミング等が規定されている。
動画処理部306は、画像取得部306aと、制御点設定部306bと、動き指定部306cと、画像生成部306dと、動画再生部306eと、速さ指定部306fとを具備している。
画像取得部306aは、動画生成処理に用いられる静止画像を取得する。
即ち、画像取得部306aは、静止画像として、背景と被写体Sとが存在する被写体存在画像P1から被写体Sが含まれる領域が切り抜かれた被写体切り抜き画像P2を取得する。具体的には、画像取得部306aは、被写体切抜部304により生成された被写体切り抜き画像P2の画像データを処理対象の静止画像として取得する。
制御点設定部306bは、処理対象の静止画像内で動きの制御点Dbを複数設定する。
即ち、制御点設定部306bは、画像取得部306aにより取得された被写体切り抜き画像P2の被写体画像Ps内で複数の可動点Da、…に対応する各位置に動きの制御点Dbを複数設定する。具体的には、制御点設定部306bは、記憶部305から動体モデル(例えば、ヒト)の動き情報Mを読み出して、被写体切り抜き画像P2の被写体画像Ps内で、当該動き情報Mに規定されている基準フレーム(例えば、1フレーム目等)の複数の可動点Da、…の各々が対応する位置を特定する。例えば、制御点設定部306bは、被写体画像Psがヒトを主要被写体Sとして切り抜いた画像である場合には(図7(b)参照)、ヒトの骨格の形状や関節の位置等を考慮して複数の可動点Da、…の各々が対応する位置を特定する。このとき、動体モデルと被写体画像Psについて、例えば、顔などの主要部の大きさを合わせるように寸法の調整(例えば、動体モデルの拡大や縮小、変形等)を行うようにしても良い。また、例えば、動体モデルと被写体画像Psを重ね合わせて被写体画像Psにおける複数の可動点Da、…の各々が対応する位置を特定しても良い。
そして、制御点設定部306bは、特定された複数の可動点Da、…の各々が対応する位置に動きの制御点Dbをそれぞれ設定する。
なお、制御点設定部306bによる動きの制御点Dbの設定は、上記のように自動的に行われても良いし、手動で行われても良い。即ち、例えば、ユーザによるユーザ端末2の操作入力部206の所定操作に基づいて入力された所望の位置に動きの制御点Dbを設定するようにしても良い。
さらに、制御点設定部306bによる動きの制御点Dbの設定が自動的に行われた場合であっても、ユーザによる操作入力部の所定操作に基づいて制御点Dbの設定位置の修正(変更)を受け付けるようにしても良い。
動き指定部306cは、動画生成処理に用いられる動き情報Mを指定する。
即ち、動き指定部306cは、記憶部305に記憶されている複数の動き情報M、…の中で、何れか一の動き情報Mを指定する。具体的には、表示部203に表示されている所定画面内の複数の動きモデルのモデル名の中で、ユーザによるユーザ端末2の操作入力部206の所定操作に基づいて何れか一のモデル名(例えば、ヒップホップ1等)を指定する指示が通信ネットワークN及び通信制御部303を介して入力されると、動き指定部306cは、複数の動き情報M、…の中で、指定指示に係る動きモデルのモデル名と対応付けられている動き情報Mを指定する。
なお、動き指定部306cは、複数の動き情報M、…の中で、例えば、デフォルトとして設定されている動き情報Mやユーザにより前回指定された動き情報Mを自動的に指定するようにしても良い。
画像生成部306dは、動画像Qを構成する複数のフレーム画像F、…を逐次生成する。
即ち、画像生成部306dは、動き指定部306cにより指定された動き情報Mの複数の可動点Da、…の動きに追従させるように、被写体切り抜き画像P2の被写体画像Ps内に設定されている複数の制御点Db、…を移動させて複数のフレーム画像F、…を逐次生成する。具体的には、画像生成部306dは、例えば、動き情報Mに従って所定の時間間隔で移動する複数の可動点Da、…の座標情報を逐次取得して、当該可動点Daの各々に対応する各制御点Dbの座標を算出する。そして、画像生成部306dは、算出された座標に制御点Dbを逐次移動させていくとともに、少なくとも一の制御点Dbを基準として被写体画像Ps内に設定される所定の画像領域(例えば、三角形や矩形のメッシュ状の領域)を移動させたり変形させることで、基準フレーム画像Fa(図8(b)参照)を生成する。これにより、例えば、動き情報Mの複数の可動点Da、…の各座標情報D1、D2、D3(図8(b)参照)等に対応する位置に制御点Dbが配設された基準フレーム画像Fa(図8(b)参照)がそれぞれ生成される。なお、図8(b)にあっては、各制御点Dbを仮想的に表したものであり、基準フレーム画像Faに実際に現れているものではない。
また、制御点Dbを基準とした所定の画像領域を移動させたり変形させる処理は、公知の技術であるので、ここでは詳細な説明を省略する。
また、画像生成部306dは、移動後の可動点Daの各々に対応する複数の制御点Db、…に基づいて生成される時間軸に沿って隣合う二つの基準フレーム画像Fa、Faどうしの間を補間する補間フレーム画像Fbを生成する(図8(b)参照)。即ち、画像生成部306dは、動画再生部306eにより複数のフレーム画像Fが所定の再生フレームレート(例えば、30fps等)で再生されるように、二つの基準フレーム画像Fa、Faどうしの間を補間する補間フレーム画像Fbを所定数生成する。
具体的には、画像生成部306dは、隣合う二つの基準フレーム画像Fa、Fa間における、動画再生部306eにより演奏される所定の曲の演奏の進行度合を逐次取得して、当該進行度合に応じて、隣合う二つの基準フレーム画像Fa、Fa間で再生される補間フレーム画像Fbを逐次生成する。例えば、画像生成部306dは、MIDI規格の演奏情報Tに基づいてテンポの設定情報及び四分音符の分解能(Tickカウント数)を取得して、動画再生部306eにより演奏される所定の曲の演奏の経過時間をTickカウント数に変換する。続けて、画像生成部306dは、所定の曲の演奏の経過時間に対応するTickカウント数に基づいて、所定のタイミング(例えば、各小節の一拍目等)に同期させた隣合う二つの基準フレーム画像Fa、Fa間における所定の曲の演奏の相対的な進行度合を、例えば百分率で算出する。そして、画像生成部306dは、所定の曲の演奏の相対的な進行度合に応じて、当該隣合う二つの基準フレーム画像Fa、Faに対する重み付けを変えて補間フレーム画像Fbを生成する。
ここで、所定の曲の演奏の相対的な進行度合は、隣合う二つの基準フレーム画像Fa、Faの各々が同期した所定のタイミングどうしの間で、テンポや拍子の変更が行われて、算出された進行度合が前回算出された進行度合に対して減少した場合には、進行度合の減少度合が小さくなるように当該進行度合を補正するようにしても良い。これにより、曲の進行度合を考慮してより適正な補間フレーム画像Fbを生成することができる。
なお、補間フレーム画像Fbを生成する処理は、公知の技術であるので、ここでは詳細な説明を省略する。
また、画像生成部306dによる基準フレーム画像Faや補間フレーム画像Fbの生成は、例えば、RGBA形式の画像データの場合、RGB色空間で規定される被写体画像Psの各色の情報及び透過度(A)の情報の両方について行われる。
また、制御点設定部306bによる制御点Dbの設定処理にて、動き情報Mの基準フレームの可動点Daの位置に対して所定の距離以上離れた位置に、当該可動点Daに対応する制御点Dbが設定された場合には、当該可動点Daと制御点Dbとの距離を考慮して、基準フレーム画像Faの生成を行っても良い。
即ち、複数の可動点Da、…の座標情報D1、D2、D3、…の各々が、例えば、基準となる可動点Daの座標情報(例えば、座標情報D1等)に対する各可動点Daの移動量を規定した情報の場合、基準となる可動点Daの座標情報以降の座標情報(例えば、座標情報D2、D3等)に対応させるように、それぞれの可動点Daの移動量に応じて移動させた制御点Dbの位置が、予め動き情報Mに規定されている可動点Daの位置に対して所定の距離以上離れてしまう。この結果、生成される基準フレーム画像Faが、動き情報Mに規定している可動点Daの動きを再現することができない虞がある。
そこで、基準となる可動点Daの座標情報以降の座標情報(例えば、座標情報D2、D3等)については、それぞれの可動点Daの移動量に、基準となる可動点Daと当該可動点Daに対応する制御点Dbとの距離を加算して、それぞれの可動点Daに対応する制御点Dbの座標を算出するようにしても良い。
動画再生部306eは、画像生成部306dにより生成された複数のフレーム画像F、…の各々を再生する。
即ち、動画再生部306eは、ユーザによるユーザ端末2の操作入力部206の所定操作に基づいて指定された演奏情報Tに基づいて所定の曲を自動的に演奏するとともに、当該所定の曲の所定のタイミングで複数のフレーム画像F、…の各々を再生する。具体的には、動画再生部306eは、所定の曲の演奏情報のデジタルデータをD/Aコンバータによりアナログデータに変換して当該所定の曲を自動的に演奏させ、このとき、所定のタイミング(例えば、各小節の1拍目や各拍等)に同期させるように隣合う二つの基準フレーム画像Fa、Faを再生するとともに、隣合う二つの基準フレーム画像Fa、Fa間における所定の曲の演奏の相対的な進行度合に応じて、当該進行度合に対応する各々の補間フレーム画像Fbを再生する。
なお、動画再生部306eは、速さ指定部306f(後述)により指定された速さで被写体画像Psに係る複数のフレーム画像F、…を再生しても良い。この場合には、動画再生部306eは、隣合う二つの基準フレーム画像Fa、Faを同期させるタイミングを変化させることで、所定の単位時間内に再生されるフレーム画像Fの数を変更して被写体画像Psの動きの速さを可変させる。
速さ指定部306fは、被写体画像Psの動きの速さを指定する。
即ち、速さ指定部306fは、制御点設定部306bにより設定される複数の動きの制御点Dbの動きの速さを指定する。具体的には、サーバ3には、表示部203に表示されている所定画面内の被写体画像Psの複数の速さ(例えば、1/2倍、標準(等倍)、2倍等)の中で、ユーザによるユーザ端末2の操作入力部206の所定操作に基づいて何れか一の速さ(例えば、標準等)を指定する指示が、通信ネットワークN及び通信制御部303を介して入力される。速さ指定部306fは、複数の動きの速さの中で、当該指定指示に係る速さを被写体画像Psの動きの速さとして指定する。
これにより、所定の単位時間で切り替えられるフレーム画像F数が、例えば、1/2倍、等倍、2倍等に変更される。
次に、ユーザ端末2及びサーバ3を用いた動画生成処理について図4〜図8を参照して説明する。
ここで、図4及び図5は、動画生成処理に係る動作の一例を示すフローチャートである。また、図6(a)〜図6(c)は、動画生成処理に係る画像の一例を模式的に示す図である。また、図7(a)及び図7(c)は、動画生成処理におけるユーザ端末2の表示部203に表示される表示画面の一例を模式的に示す図であり、図7(b)は、可動点Daと制御点Dbとの対応関係の一例を模式的に示す図である。また、図8(a)は、動き情報Mの一例を模式的に示す図であり、図8(b)は、動画像Qを構成するフレーム画像Fの一例を模式的に示す図である。
なお、以下の説明にあっては、被写体存在画像P1の画像データから生成された被写体切り抜き画像P2(図6(b)参照)の画像データがサーバ3の記憶部305に記憶されているものとする。また、ヒトを動体モデルとした動き情報M(図8(a)参照)が記憶部305に記憶されているものとする。
図4に示すように、ユーザ端末2の中央制御部201のCPUは、ユーザによる操作入力部206の所定操作に基づいて、サーバ3により開設される動画生成用ページのアクセス指示が入力されると、当該アクセス指示を通信制御部202により所定の通信ネットワークNを介してサーバ3に送信させる(ステップS1)。
サーバ3の通信制御部303によって、ユーザ端末2から送信されたアクセス指示が受信されると、中央制御部301のCPUは、動画生成用ページのページデータを通信制御部303により所定の通信ネットワークNを介してユーザ端末2に送信させる(ステップS2)。
そして、ユーザ端末2の通信制御部202によって、動画生成用ページのページデータが受信されると、表示部203は、当該動画生成用ページのページデータに基づいて、動画生成用ページの画面Pgを表示する(図7(a)参照)。
次に、ユーザ端末2の中央制御部201は、ユーザによる操作入力部206の所定操作に基づいて、動画生成用ページの画面Pg内にて操作された各種ボタンに対応する指示信号を通信制御部202により所定の通信ネットワークNを介してサーバ3に送信させる(ステップS3)。
図5に示すように、サーバ3の中央制御部301のCPUは、ユーザ端末2からの指示の内容に応じて処理を分岐させる(ステップS4)。具体的には、中央制御部301のCPUは、ユーザ端末2からの指示が、被写体画像Psの指定に関する内容の場合(ステップS4;被写体画像の指定)、処理をステップS51に移行させ、また、制御点Dbの修正に関する内容の場合(ステップS4;制御点の修正)、処理をステップS61に移行させ、また、合成内容の修正に関する内容の場合(ステップS4;合成内容の修正)、処理をステップS71に移行させ、また、背景画像Pbの指定に関する内容の場合(ステップS4;背景画像の指定)、処理をステップS81に移行させ、また、動き及び曲の指定に関する内容の場合(ステップS4;動き及び曲の指定)、処理をステップS91に移行させる。
<被写体画像の指定>
ステップS4にて、ユーザ端末2からの指示が、被写体画像Psの指定に関する内容の場合(ステップS4;被写体画像の指定)、動画処理部306の画像取得部306aは、記憶部305に記憶されている被写体切り抜き画像P2の画像データの中からユーザにより指定された被写体切り抜き画像P2の画像データを読み出して取得する(ステップS51)。
次に、制御点設定部306bは、取得された被写体切り抜き画像P2の被写体画像Ps内で動きの制御点Dbが既に設定されているか否かを判定する(ステップS52)。
ステップS52にて、動きの制御点Dbが設定されていないと判定されると(ステップS52;NO)、制御点設定部306bは、被写体切り抜き画像P2の画像データに基づいて、当該被写体切り抜き画像P2のトリミングを行って、トリミング後の画像P3の被写体画像Psの背面に所定色の画像を付加して背面画像(図示略)を生成する(ステップS53)。
具体的には、制御点設定部306bは、被写体切り抜き画像P2の画像データに基づいて、被写体画像Psの所定位置(例えば、中心やヒトの顔の位置等)を基準として被写体切り抜き画像P2をトリミングすることで被写体画像Psと動きモデル(例えば、ヒト)の大きさが等しくなるように補正する(ステップS53)。被写体切り抜き画像P2のトリミング後の画像P3を図6(c)に示す。
このとき、制御点設定部306bは、例えば、被写体画像Psがヒトの場合、当該ヒトの顔や背骨といった中心部がトリミング後の画像P3の左右方向の中心に沿って配設されるようにトリミングを行っても良い。
また、被写体切り抜き画像P2のトリミングは、例えば、RGBA形式の画像データの場合、RGB色空間で規定される被写体画像Psの各色の情報及び透過度(A)の情報について行われる。
次に、中央制御部301のCPUは、トリミングされた画像P3の画像データを通信制御部303により所定の通信ネットワークNを介してユーザ端末2に送信させる(ステップS54)。その後、制御点設定部306bは、トリミング後の画像P3の被写体画像Ps内で複数の可動点Da、…に対応する各位置に動きの制御点Dbを複数設定する(ステップS55;図7(b)参照)。
具体的には、制御点設定部306bは、記憶部305から動体モデル(例えば、ヒト)の動き情報Mを読み出して、被写体切り抜き画像P2の被写体画像Ps内で、当該動き情報Mに規定されている複数の可動点Da、…の各々が対応する位置を特定した後、当該複数の可動点Da、…の各々が対応する位置に動きの制御点Dbをそれぞれ設定する。
そして、動画再生部306eは、当該被写体画像Psに対して設定された複数の制御点Db、…、並びに被写体画像Psの合成位置やサイズ等の合成内容を所定の格納手段(例えば、所定のメモリ等)に登録する(ステップS56)。
その後、中央制御部301のCPUは、処理をステップS10に移行させる。ステップS10の処理の内容については、後述する。
なお、ステップS52にて、既に動きの制御点Dbが設定されていると判定されると(ステップS52;YES)、中央制御部301のCPUは、ステップS53〜S56の処理をスキップして、処理をステップS10に移行させる。
<制御点の修正>
ステップS4にて、ユーザ端末2からの指示が、制御点Dbの修正に関する内容の場合(ステップS4;制御点の修正)、動画処理部306の制御点設定部306bは、ユーザによる操作入力部206の所定操作に基づいて動きの制御点Dbの位置を修正する(ステップS61)。
即ち、図4に示すように、ステップS11にて、ユーザ端末2の中央制御部201は、ユーザによる操作入力部206の所定操作に基づいて、設定済みの制御点Dbの修正指示が入力されたと判定すると(ステップS11;YES)、当該修正指示に対応する信号を通信制御部202により所定の通信ネットワークNを介してサーバ3に送信させる(ステップS3)。
そして、図5に示すように、動画処理部306の制御点設定部306bは、ユーザによる操作入力部206の所定操作に基づいて入力された所望の位置に動きの制御点Dbを設定する(ステップS61)。
その後、中央制御部301のCPUは、処理をステップS10に移行させる。ステップS10の処理の内容については、後述する。
<合成内容の修正>
ステップS4にて、ユーザ端末2からの指示が、合成内容の修正に関する内容の場合(ステップS4;合成内容の修正)、動画処理部306は、ユーザによる操作入力部206の所定操作に基づいて被写体画像Psの合成位置やサイズを設定する(ステップS71)。
即ち、図4に示すように、ステップS11にて、ユーザ端末2の中央制御部201は、ユーザによる操作入力部206の所定操作に基づいて、被写体画像Psの合成位置やサイズの修正指示が入力されたと判定すると(ステップS11;YES)、当該修正指示に対応する信号を通信制御部202により所定の通信ネットワークNを介してサーバ3に送信させる(ステップS3)。
そして、図5に示すように、動画処理部306は、ユーザによる操作入力部206の所定操作に基づいて、被写体画像Psの合成位置を所望の合成位置に設定したり、当該被写体画像Psのサイズを所望のサイズに設定する(ステップS71)。
その後、中央制御部301のCPUは、処理をステップS10に移行させる。ステップS10の処理の内容については、後述する。
<背景画像の指定>
ステップS4にて、ユーザ端末2からの指示が、背景画像Pbの指定に関する内容の場合(ステップS4;背景画像の指定)、動画処理部306の動画再生部306eは、ユーザによる操作入力部206の所定操作に基づいて所望の背景画像(他の画像)Pbの画像データを読み出して(ステップS81)、当該背景画像Pbの画像データを動画像Qの背景として所定の格納手段に登録する(ステップS82)。
具体的には、サーバ3には、ユーザ端末2の表示部203に表示されている動画生成用ページの画面Pg内の複数の画像データの中で、ユーザによる操作入力部206の所定操作に基づいて指定された何れか一の画像データの指定指示が、通信ネットワークN及び通信制御部303を介して入力される。動画再生部306eは、当該指定指示に係る背景画像Pb(図7(a)参照)の画像データを記憶部305から読み出して取得した後(ステップS81)、当該背景画像Pbの画像データを動画像Qの背景として登録する(ステップS82)。
次に、中央制御部301のCPUは、背景画像Pbの画像データを通信制御部303により所定の通信ネットワークNを介してユーザ端末2に送信させる(ステップS83)。
その後、中央制御部301のCPUは、処理をステップS10に移行させる。ステップS10の処理の内容については、後述する。
<動き及び曲の指定>
ステップS4にて、ユーザ端末2からの指示が、動き及び曲の指定に関する内容の場合(ステップS4;動き及び曲の指定)、動画処理部306は、ユーザによる操作入力部206の所定操作に基づいて動き情報Mや動きの速さを設定する(ステップS91)。
具体的には、サーバ3には、ユーザ端末2の表示部203に表示されている動画生成用ページの画面Pg内の複数の動きモデルのモデル名の中で、ユーザによる操作入力部206の所定操作に基づいて指定された何れか一のモデル名(例えば、フラダンス等)の指定指示が、通信ネットワークN及び通信制御部303を介して入力される。動画処理部306の動き指定部306cは、記憶部305に記憶されている複数の動き情報M、…の中で、当該指定指示に係る動きモデルのモデル名と対応付けられている動き情報Mを設定する。また、サーバ3には、ユーザ端末2の表示部203に表示されている動画生成用ページの画面Pg内の複数の動きの速さの中で、ユーザによる操作入力部206の所定操作に基づいて指定された何れか一の速さ(例えば、標準等)の指定指示が、通信ネットワークN及び通信制御部303を介して入力される。動画処理部306の速さ指定部306fは、当該指定指示に係る速さを被写体画像Psの動きの速さとして設定する。
その後、動画処理部306の動画再生部306eは、設定された動き情報Mや動きの速さを動画像Qの動きの内容として所定の格納手段に登録する(ステップS92)。
次に、動画処理部306は、ユーザによる操作入力部206の所定操作に基づいて自動的に演奏される曲を設定する(ステップS93)。
具体的には、サーバ3には、ユーザ端末2の表示部203に表示されている動画生成用ページの画面Pg内の複数の曲名の中で、ユーザによる操作入力部206の所定操作に基づいて指定された何れか一の曲名の指定指示が、通信ネットワークN及び通信制御部303を介して入力される。動画処理部306は、当該指定指示に係る曲名の曲を設定する。
その後、中央制御部301のCPUは、処理をステップS10に移行させる。ステップS10の処理の内容については、後述する。
ステップS10では、中央制御部301のCPUは、動画像Qの生成が可能な状態であるか否かを判定する(ステップS10)。即ち、ユーザによる操作入力部206の所定操作に基づいて、サーバ3の動画処理部306は、被写体画像Psに対する制御点Dbの登録、被写体画像Psの動きの内容の登録、背景画像Pbの登録等を行うことで、動画像Qの生成準備が整って動画像Qを生成可能か否か判定する。
ここで、動画像Qの生成が可能な状態でないと判定されると(ステップS10;NO)、中央制御部301のCPUは、処理をステップS4に戻し、ユーザ端末2からの指示の内容に応じて処理を分岐させる(ステップS4)。
一方、動画像Qの生成が可能な状態であると判定されると(ステップS10;YES)、図4に示すように、中央制御部301のCPUは、処理をステップS13に移行させる。
ステップS13では、サーバ3の中央制御部301のCPUは、ユーザによるユーザ端末2の操作入力部206の所定操作に基づいて動画像Qのプレビュー指示が入力されたか否かを判定する(ステップS13)。
即ち、ステップS11にて、ユーザ端末2の中央制御部201が、被写体画像Psの合成位置やサイズの修正指示が入力されていないと判定した後(ステップS11;NO)、ユーザによる操作入力部206の所定操作に基づいて入力された動画像Qのプレビュー指示を通信制御部202により所定の通信ネットワークNを介してサーバ3に送信させる(ステップS12)。
そして、ステップS13にて、サーバ3の中央制御部301のCPUによって、動画像Qのプレビュー指示が入力されたと判定されると(ステップS13;YES)、動画処理部306は、制御点Dbの位置や合成内容に修正があったか否かを判定する(ステップS14)。即ち、動画処理部306は、ステップS61にて、制御点Dbの位置が修正されたり、ステップS71にて、被写体画像Psの合成位置やサイズの修正が行われたか否かを判定する。
ステップS14にて、制御点Dbの位置や合成内容に修正があったと判定されると(ステップS14;YES)、動画再生部306eは、修正内容を反映させるように、制御点Dbの位置の再登録、被写体画像Psの合成位置やサイズの再登録を行う(ステップS15)。
次に、動画処理部306の動画再生部306eは、設定済みの曲名に対応する演奏情報Tを動画像Qとともに自動的に演奏される情報として所定の格納手段に登録する(ステップS16)。
なお、ステップS14にて、制御点Dbの位置や合成内容に修正がなかったと判定されると(ステップS14;NO)、動画処理部306は、ステップS15の処理をスキップして、処理をステップS16に移行させる。
次に、動画処理部306は、格納手段に登録されている演奏情報Tに基づいて動画再生部306fによる所定の曲の演奏を開始させるとともに、動画像Qを構成する複数のフレーム画像F、…の画像生成部306dによる生成を開始させる(ステップS17)。
続けて、動画処理部306は、動画再生部306fによる所定の曲の演奏が終了したか否かを判定する(ステップS18)。
ここで、曲の演奏が終了していないと判定されると(ステップS18;NO)、動画処理部306の画像生成部306dは、動き情報Mに応じて変形させた被写体画像Psの基準フレーム画像Faを生成する(ステップS19;図8(b)参照)。具体的には、画像生成部306dは、格納手段に登録されている動き情報Mに従って所定の時間間隔で移動する複数の可動点Da、…の座標情報をそれぞれ取得して、当該可動点Daの各々に対応する各制御点Dbの座標を算出する。そして、画像生成部306dは、算出された座標に制御点Dbを逐次移動させていくとともに、制御点Dbの移動に応じて被写体画像Ps内に設定される所定の画像領域を移動させたり変形させることで、基準フレーム画像Faを生成する。
また、動画処理部306は、基準フレーム画像Faと背景画像(他の画像)Pbとを公知の画像合成手法を用いて合成する。具体的には、動画処理部306は、例えば、背景画像Pbの各画素のうち、アルファ値が「0」の画素は透過させ、アルファ値が「1」の画素は基準フレーム画像Faの対応する画素の画素値で上書きし、さらに、背景画像Pbの各画素のうち、アルファ値が「0<α<1」の画素は1の補数(1−α)を用いて基準フレーム画像Faの被写体領域を切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて基準フレーム画像Faを生成した際に単一背景色とブレンドした値を計算し、当該値を基準フレーム画像Faから減算し、それを被写体領域を切り抜いた画像(背景用画像×(1−α))と合成する。
続けて、画像生成部306dは、動画再生部306eにより演奏される所定の曲の演奏の進行度合に応じて、隣合う二つの基準フレーム画像Fa、Faどうしの間を補間する補間フレーム画像Fbを生成する(ステップS20;図8(b)参照)。具体的には、画像生成部306dは、隣合う二つの基準フレーム画像Fa、Fa間における、動画再生部306eにより演奏される所定の曲の演奏の進行度合を逐次取得して、当該進行度合に応じて、隣合う二つの基準フレーム画像Fa、Fa間で再生される補間フレーム画像Fbを逐次生成する。
また、動画処理部306は、補間フレーム画像Fbと背景画像(他の画像)Pbとを、上記基準フレーム画像Faの場合と同様に、公知の画像合成手法を用いて合成する。
次に、中央制御部301のCPUは、動画再生部306eにより自動的に演奏される曲の演奏情報とともに、当該曲の所定のタイミングで再生される基準フレーム画像Fa及び補間フレーム画像Fbからなるプレビュー動画のデータを、通信制御部303により所定の通信ネットワークNを介してユーザ端末2に送信させる(ステップS21)。ここで、プレビュー動画のデータは、所定数の基準フレーム画像Fa及び補間フレーム画像Fbからなる複数のフレーム画像Fとユーザ所望の背景画像(他の画像)Pbとが合成された動画像を構成している。
次に、動画処理部306は、処理をステップS18に戻し、曲の演奏が終了したか否かを判定する(ステップS18)。
上記の処理は、ステップS18にて、曲の演奏が終了したと判定されるまで(ステップS18;YES)、繰り返し実行される。
そして、曲の演奏が終了したと判定されると(ステップS18;YES)、図5に示すように、中央制御部301のCPUは、処理をステップS4に戻し、ユーザ端末2からの指示の内容に応じて処理を分岐させる(ステップS4)。
ステップS21にて、サーバ3から送信されたプレビュー動画のデータがユーザ端末2の通信制御部303によって受信されると、中央制御部201のCPUは、音出力部204及び表示部203を制御してプレビュー動画を再生させる(ステップS22)。
具体的には、音出力部204は、演奏情報に基づいて曲を自動的に演奏してスピーカから放音するとともに、表示部203は、当該自動的に演奏される曲の所定のタイミングで基準フレーム画像Fa及び補間フレーム画像Fbからなるプレビュー動画を表示画面に表示する。
なお、上記の動画生成処理にあっては、プレビュー動画を再生するようにしたが、一例であってこれに限られるものではなく、例えば、逐次生成された基準フレーム画像Faや補間フレーム画像Fbや背景画像の画像データ並びに演奏情報を一つのファイルとして所定の記憶手段に記憶していき、動画像Qに係る全てのデータの生成完了後に、当該ファイルをサーバ3からユーザ端末2に送信して当該ユーザ端末2にて再生させるようにしても良い。
以上のように、本実施形態の動画生成システム100によれば、処理対象の静止画像(例えば、被写体画像Ps)内で動き情報Mに係る複数の可動点Da、…に対応する各位置に動きの制御点Dbを複数設定し、指定された動き情報Mの複数の可動点Da、…の動きに追従させるように複数の制御点Db、…を動かして動画像Qを生成する。即ち、予め所定空間内における複数の可動点Da、…の動きを示す動き情報Mを複数記憶しておき、複数の可動点Da、…に対応させて静止画像内で設定された複数の制御点Db、…を、指定された動き情報Mの複数の可動点Da、…の動きに追従させるように移動させることにより動画像Qを構成する各フレーム画像Fを生成することができ、従来のように制御点Db毎に動きを指定する作業が不要となる。
従って、複数の動き情報M、…の中で何れか一の動き情報Mを指定するという簡単な作業で、ユーザ所望の動きを再現した動画像Qを簡便に生成することができる。
また、ユーザによる操作入力部206の所定操作に応じたモデル名の指定に基づいて、当該モデル名と対応付けられている動き情報Mを指定することができるので、複数の動き情報M、…の中での何れか一の動き情報Mの指定をより簡便に行うことができ、ユーザ所望の動きを再現した動画像Qの生成を簡便に行うことができる。
さらに、複数の可動点Da、…を所定の踊りに対応させるように動かした動き情報Mに基づいて、当該複数の可動点Da、…の動きに追従させるように複数の制御点Db、…を移動させることにより所定の踊りを再現した動画像Qを構成する各フレーム画像Fを生成することができる。従って、ユーザ所望の踊りの動きを再現した動画像Qの生成を簡便に行うことができる。
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態にあっては、ユーザによるユーザ端末2の所定操作に基づいて、Webサーバとして機能するサーバ(動画生成装置)3によって動画像Qを生成するようにしたが、一例であってこれに限られるものではなく、動画生成装置の構成は適宜任意に変更可能である。即ち、動画像Qの生成に係る動画処理部306の機能をソフトウェアにより実現される構成として、ユーザ端末2にインストールすることで通信ネットワークNを必要とすることなく、当該ユーザ端末2単体で動画生成処理を行うようにしても良い。
また、上記実施形態にあっては、ユーザ端末2として、パーソナルコンピュータを例示したが、一例であってこれに限られるものではなく適宜任意に変更可能であり、例えば、携帯電話機等を適用しても良い。
なお、被写体切り抜き画像P2や動画像Qのデータには、ユーザによる所定の改変を禁止する制御情報を埋め込むようにしても良い。
加えて、上記実施形態にあっては、取得手段、設定手段、指定手段、フレーム画像生成手段、動画像生成手段としての機能を、中央制御部301の制御下にて、画像取得部306a、制御点設定部306b、動き指定部306c、画像生成部306d、動画処理部306が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部301のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、設定処理ルーチン、指定処理ルーチン、フレーム画像生成処理ルーチン、動画像生成処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部301のCPUを、静止画像を取得する取得手段として機能させるようにしても良い。また、設定処理ルーチンにより中央制御部301のCPUを、取得手段により取得された静止画像内で複数の可動点Da、…に対応する各位置に動きの制御点Dbを複数設定する設定手段として機能させるようにしても良い。また、指定処理ルーチンにより中央制御部301のCPUを、記憶手段に記憶されている複数の動き情報M、…の中で、何れか一の動き情報Mを指定する指定手段として機能させるようにしても良い。また、フレーム画像生成処理ルーチンにより中央制御部301のCPUを、指定手段により指定された動き情報Mの複数の可動点Da、…の動きに基づいて、複数の制御点Dbを動かし、当該制御点Dbの動きに従って静止画像を変形させたフレーム画像Fを複数生成するフレーム画像生成手段として機能させるようにしても良い。また、動画像生成処理ルーチンにより中央制御部301のCPUを、フレーム画像生成手段により生成された複数のフレームFから動画像Qを生成する動画像生成手段として機能させるようにしても良い。
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。
〔付記〕
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
予め所定空間内における複数の可動点の動きを示す動き情報を複数記憶する記憶手段を備える動画生成装置を用いた動画生成方法であって、
静止画像を取得する取得ステップと、
前記取得ステップにて取得された静止画像内で前記複数の可動点に対応する各位置に動きの制御点を複数設定する設定ステップと、
前記記憶手段に記憶されている前記複数の動き情報の中で、何れか一の動き情報を指定する指定ステップと、
前記指定ステップにて指定された前記動き情報の前記複数の可動点の動きに基づいて、前記複数の制御点を動かし、当該制御点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成ステップと、
前記フレーム画像生成ステップにて生成された複数のフレームから動画像を生成する動画像生成ステップと、
を含むことを特徴とする動画生成方法。
<請求項2>
前記動き情報は、前記複数の可動点の動きが連続して表された動きモデルのモデル名と対応付けてそれぞれ記憶され、
前記指定ステップは、更に、
ユーザによる所定操作に応じた前記モデル名の指定に基づいて、当該モデル名と対応付けられている動き情報を指定することを特徴とする請求項1に記載の動画生成方法。
<請求項3>
前記動き情報は、前記複数の可動点を所定の踊りに対応させるように動かした動き情報を含むことを特徴とする請求項1又は2に記載の動画生成方法。
<請求項4>
前記取得ステップは、
前記静止画像として、背景と被写体とが存在する画像から被写体が含まれる領域が切り抜かれた切り抜き画像を取得し、
前記動画像生成ステップは、前記切り抜き画像から生成された複数のフレーム画像を他の画像に合成して動画像を生成することを特徴とする請求項1〜3の何れか一項に記載の動画生成方法。
<請求項5>
予め所定空間内における複数の可動点の動きを示す動き情報を複数記憶する記憶手段と、
静止画像を取得する取得手段と、
前記取得手段により取得された静止画像内で前記複数の可動点に対応する各位置に動きの制御点を複数設定する設定手段と、
前記記憶手段に記憶されている前記複数の動き情報の中で、何れか一の動き情報を指定する指定手段と、
前記指定手段により指定された前記動き情報の前記複数の可動点の動きに基づいて、前記複数の制御点を動かし、当該制御点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成手段と、
前記フレーム画像生成手段により生成された複数のフレームから動画像を生成する動画像生成手段と、
を備えたことを特徴とする動画生成装置。
<請求項6>
予め所定空間内における複数の可動点の動きを示す動き情報を複数記憶する記憶手段を備える動画生成装置のコンピュータを、
静止画像を取得する取得手段、
前記取得手段により取得された静止画像内で前記複数の可動点に対応する各位置に動きの制御点を複数設定する設定手段、
前記記憶手段に記憶されている前記複数の動き情報の中で、何れか一の動き情報を指定する指定手段、
前記指定手段により指定された前記動き情報の前記複数の可動点の動きに基づいて、前記複数の制御点を動かし、当該制御点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成手段、
前記フレーム画像生成手段により生成された複数のフレームから動画像を生成する動画像生成手段、
として機能させることを特徴とするプログラム。
100 動画生成システム
1 撮像装置
2 ユーザ端末
3 サーバ
301 中央制御部
303 通信制御部
305 記憶部
306 動画処理部
306a 画像取得部
306b 制御点設定部
306c 動き指定部
306d 画像生成部
306e 動画再生部
C 記録媒体
M 動き情報
N 通信ネットワーク

Claims (13)

  1. 動体モデルに設定されている複数の可動点と、予め所定空間内における前記動体モデルの複数の可動点の動きを示す動き情報を記憶した動画生成装置を用いた動画生成方法であって、当該動画生成装置のコンピュータが、
    静止画像を取得する取得ステップと、
    前記取得ステップにて取得された静止画に対して、前記動体モデルと前記静止画像の大きさを合わせるように寸法の調整を行ない、前記動体モデルに設定されている複数の可動点を反映させる可動点反映ステップと、
    前記可動点反映ステップにて反映された前記静止画像の前記複数の可動点を、前記動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成ステップと、
    前記フレーム画像生成ステップにて生成された複数のフレームから動画像を生成する動画像生成ステップと、
    を実行することを特徴とする動画生成方法。
  2. 前記動き情報は、前記複数の可動点の動きが連続して表された前記動体モデルのモデル名と対応付けてそれぞれ記憶され、
    前記フレーム画像生成ステップは、ユーザによる所定操作に応じた前記モデル名と対応付けられている動き情報の前記複数の可動点の動きに基づいて、前記静止画像の前記複数の可動点を動かすことを特徴とする請求項1に記載の動画生成方法。
  3. 前記動き情報は、前記複数の可動点を所定のダンスに対応させるように動かした動き情報を含むことを特徴とする請求項1又は2に記載の動画生成方法。
  4. 前記取得ステップは、
    前記静止画像として、背景と被写体とが存在する画像から被写体が含まれる領域が切り抜かれた切り抜き画像を取得し、
    前記動画像生成ステップは、前記切り抜き画像から生成された複数のフレーム画像を他の画像に合成して動画像を生成することを特徴とする請求項1〜3の何れか一項に記載の動画生成方法。
  5. 前記フレーム画像生成ステップは、動画と共に再生する曲の進行度合いに応じてフレーム間の補間画像を生成することを特徴とする請求項1〜4の何れか一項に記載の動画生成方法。
  6. 前記動画生成装置は、前記動き情報を複数記憶し、
    前記フレーム画像生成ステップは、前記可動点反映ステップにて反映された前記静止画像の前記複数の可動点を、前記複数の動き情報の中の何れか一つの動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成することを特徴とする請求項1〜の何れか一項に記載の動画生成方法。
  7. 動体モデルに設定されている複数の可動点と、
    予め所定空間内における前記動体モデルの複数の可動点の動きを示す動き情報を記憶する記憶手段と、
    静止画像を取得する取得手段と、
    前記取得手段により取得された静止画像に対して、前記動体モデルと前記静止画像の大きさを合わせるように寸法の調整を行ない、前記動体モデルに設定されている複数の可動点を反映させる可動点反映手段と、
    前記可動点反映手段により反映された前記静止画像の前記複数の可動点を、前記動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成手段と、
    前記フレーム画像生成手段により生成された複数のフレームから動画像を生成する動画像生成手段と、
    を備えたことを特徴とする動画生成装置。
  8. 前記動き情報は、前記複数の可動点の動きが連続して表された前記動体モデルのモデル名と対応付けてそれぞれ記憶され、
    前記フレーム画像生成手段は、ユーザによる所定操作に応じた前記モデル名と対応付けられている動き情報の前記複数の可動点の動きに基づいて、前記静止画像の前記複数の可動点を動かすことを特徴とする請求項に記載の動画生成装置。
  9. 前記動き情報は、前記複数の可動点を所定のダンスに対応させるように動かした動き情報を含むことを特徴とする請求項又はに記載の動画生成装置。
  10. 前記取得手段は、
    前記静止画像として、背景と被写体とが存在する画像から被写体が含まれる領域が切り抜かれた切り抜き画像を取得し、
    前記動画像生成手段は、前記切り抜き画像から生成された複数のフレーム画像を他の画像に合成して動画像を生成することを特徴とする請求項の何れか一項に記載の動画生成装置。
  11. 前記フレーム画像生成手段は、動画と共に再生する曲の進行度合いに応じてフレーム間の補間画像を生成することを特徴とする請求項10の何れか一項に記載の動画生成装置。
  12. 前記記憶手段は、前記動き情報を複数記憶し、
    前記フレーム画像生成手段は、前記可動点反映手段により反映された前記静止画像の前記複数の可動点を、前記複数の動き情報の中の何れか一つの動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成することを特徴とする請求項11の何れか一項に記載の動画生成装置。
  13. 動体モデルに設定されている複数の可動点と、予め所定空間内における前記動体モデルの複数の可動点の動きを示す動き情報を記憶する記憶手段を備える動画生成装置のコンピュータを、
    静止画像を取得する取得手段、
    前記取得手段により取得された静止画像に対して、前記動体モデルと前記静止画像の大きさを合わせるように寸法の調整を行ない、前記動体モデルに設定されている複数の可動点を反映させる可動点反映手段、
    前記可動点反映手段により反映された前記静止画像の前記複数の可動点を、前記動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成手段、
    前記フレーム画像生成手段により生成された複数のフレームから動画像を生成する動画像生成手段、
    として機能させることを特徴とするプログラム。
JP2011125663A 2011-03-06 2011-06-03 動画生成方法、動画生成装置及びプログラム Expired - Fee Related JP5434965B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011125663A JP5434965B2 (ja) 2011-06-03 2011-06-03 動画生成方法、動画生成装置及びプログラム
US13/483,343 US20120237186A1 (en) 2011-03-06 2012-05-30 Moving image generating method, moving image generating apparatus, and storage medium
CN2012101738343A CN102811352A (zh) 2011-06-03 2012-05-30 运动图像生成方法及运动图像生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011125663A JP5434965B2 (ja) 2011-06-03 2011-06-03 動画生成方法、動画生成装置及びプログラム

Publications (3)

Publication Number Publication Date
JP2012252597A JP2012252597A (ja) 2012-12-20
JP2012252597A5 JP2012252597A5 (ja) 2013-03-21
JP5434965B2 true JP5434965B2 (ja) 2014-03-05

Family

ID=46828524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011125663A Expired - Fee Related JP5434965B2 (ja) 2011-03-06 2011-06-03 動画生成方法、動画生成装置及びプログラム

Country Status (3)

Country Link
US (1) US20120237186A1 (ja)
JP (1) JP5434965B2 (ja)
CN (1) CN102811352A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7396766B2 (ja) 2020-03-02 2023-12-12 第一実業ビスウィル株式会社 整列供給装置

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5655713B2 (ja) * 2011-06-03 2015-01-21 カシオ計算機株式会社 動画再生装置、動画再生方法及びプログラム
WO2014188235A1 (en) * 2013-05-24 2014-11-27 Nokia Corporation Creation of a cinemagraph file
JP2015011480A (ja) * 2013-06-27 2015-01-19 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
CN106128355A (zh) * 2016-07-14 2016-11-16 北京智能管家科技有限公司 一种led灯阵的显示方法及装置
KR102361570B1 (ko) 2017-05-19 2022-02-11 구글 엘엘씨 환경 센서 데이터를 사용하는 효율적 이미지 분석 방법, 시스템 및 미디어
JP7087290B2 (ja) * 2017-07-05 2022-06-21 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
CN109068069A (zh) * 2018-07-03 2018-12-21 百度在线网络技术(北京)有限公司 视频生成方法、装置、设备及存储介质
JP7111088B2 (ja) 2019-01-24 2022-08-02 カシオ計算機株式会社 画像検索装置、学習方法及びプログラム
CN110072047B (zh) * 2019-01-25 2020-10-09 北京字节跳动网络技术有限公司 图像形变的控制方法、装置和硬件装置
CN110324534B (zh) * 2019-07-10 2021-08-20 厦门美图之家科技有限公司 图像处理方法、装置及电子设备
CN113209618B (zh) * 2021-06-01 2023-04-28 腾讯科技(深圳)有限公司 虚拟角色的控制方法、装置、设备及介质
US20220406337A1 (en) * 2021-06-21 2022-12-22 Lemon Inc. Segmentation contour synchronization with beat

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040407A (ja) * 1996-07-24 1998-02-13 Nippon Telegr & Teleph Corp <Ntt> 動画生成方法および装置
JP3384314B2 (ja) * 1997-12-02 2003-03-10 ヤマハ株式会社 楽音応答画像生成システム、方法、装置、及び、そのための記録媒体
JP2007004732A (ja) * 2005-06-27 2007-01-11 Matsushita Electric Ind Co Ltd 画像生成装置及び画像生成方法
JP2007018388A (ja) * 2005-07-08 2007-01-25 Univ Of Tokyo モーション作成装置およびモーション作成方法並びにこれらに用いるプログラム
US20070059676A1 (en) * 2005-09-12 2007-03-15 Jinnyeo Jeong Interactive animation for entertainment and instruction using networked devices
JP2007323293A (ja) * 2006-05-31 2007-12-13 Urumadelvi & Productions Inc 画像処理装置及び画像処理方法
WO2009031155A2 (en) * 2007-09-06 2009-03-12 Yeda Research And Development Co. Ltd. Modelization of objects in images
JP5028225B2 (ja) * 2007-11-06 2012-09-19 オリンパスイメージング株式会社 画像合成装置、画像合成方法、およびプログラム
JP2009128923A (ja) * 2007-11-19 2009-06-11 Brother Ind Ltd 画像生成装置及びそのプログラム
US20100118033A1 (en) * 2008-11-10 2010-05-13 Vistaprint Technologies Limited Synchronizing animation to a repetitive beat source

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7396766B2 (ja) 2020-03-02 2023-12-12 第一実業ビスウィル株式会社 整列供給装置

Also Published As

Publication number Publication date
CN102811352A (zh) 2012-12-05
JP2012252597A (ja) 2012-12-20
US20120237186A1 (en) 2012-09-20

Similar Documents

Publication Publication Date Title
JP5434965B2 (ja) 動画生成方法、動画生成装置及びプログラム
JP5454604B2 (ja) 動画再生方法、動画再生装置及びプログラム
JP5375897B2 (ja) 画像生成方法、画像生成装置及びプログラム
JP2000172869A (ja) 演奏画像情報作成装置および再生装置
JP2011175598A (ja) 手話アニメーション生成装置及び手話アニメーション生成プログラム
JP5408205B2 (ja) 制御点設定方法、制御点設定装置及びプログラム
WO2018173791A1 (ja) 画像処理装置および方法、並びにプログラム
JP2003044046A (ja) 情報処理装置及び情報処理方法、並びに記憶媒体
JP2006196017A (ja) アニメーション作成装置および方法、記憶媒体
JP2011221718A (ja) 生成装置、生成方法、及びプログラム
JP5776442B2 (ja) 画像生成方法、画像生成装置及びプログラム
JP5906897B2 (ja) 動き情報生成方法、動き情報生成装置及びプログラム
JP5408206B2 (ja) 画像生成方法、画像生成装置及びプログラム
JP5919926B2 (ja) 画像生成方法、画像生成装置及びプログラム
JP5891883B2 (ja) 画像生成方法、画像生成装置及びプログラム
JP5874426B2 (ja) 制御点設定方法、制御点設定装置及びプログラム
JP3523784B2 (ja) 対話型画像操作表示装置および方法並びにプログラム格納媒体
JP6043610B2 (ja) 合成動画コンテンツの生成システム
JP4967983B2 (ja) 情報記録装置及びプログラム
JP5490480B2 (ja) 動画作成装置、コンピュータプログラム及び記憶媒体
JP4335087B2 (ja) 音付映像の再生装置
KR20070098364A (ko) 3차원 영상 데이터를 코드화하여 저장하는 장치 및 방법
JP2009206986A (ja) 画像出力装置及び画像出力方法
JP2006140867A (ja) 映像編集装置およびその方法
JP2006048901A (ja) マルチメディア情報再生装置およびマルチメディア情報記録装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130131

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131125

R150 Certificate of patent or registration of utility model

Ref document number: 5434965

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

LAPS Cancellation because of no payment of annual fees