JP5906897B2 - 動き情報生成方法、動き情報生成装置及びプログラム - Google Patents
動き情報生成方法、動き情報生成装置及びプログラム Download PDFInfo
- Publication number
- JP5906897B2 JP5906897B2 JP2012078551A JP2012078551A JP5906897B2 JP 5906897 B2 JP5906897 B2 JP 5906897B2 JP 2012078551 A JP2012078551 A JP 2012078551A JP 2012078551 A JP2012078551 A JP 2012078551A JP 5906897 B2 JP5906897 B2 JP 5906897B2
- Authority
- JP
- Japan
- Prior art keywords
- motion information
- motion
- reference control
- information
- control point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
静止画像の動きを制御するための動き制御点の設定に係る動き情報を生成する動き情報生成装置を用いた動き情報生成方法であって、前記静止画像の動きを生成するための第1動体モデルに設定されている第1基準制御点の動きを示す情報を第1動き情報として取得する第1取得ステップと、前記静止画像の動きを生成するための第2動体モデルに設定されている第2基準制御点の動きを示す情報を第2動き情報として取得する第2取得ステップと、前記第1動き情報及び前記第2動き情報の各々に係る前記第1基準制御点の動きと前記第2基準制御点の動きを組み合わせて基準制御点の動きを示す新たな動き情報を生成する第1生成ステップと、を含むことを特徴としている。
静止画像の動きを制御するための動き制御点の設定に係る動き情報を生成する動き情報生成装置であって、前記静止画像の動きを生成するための第1動体モデルに設定されている第1基準制御点の動きを示す情報を第1動き情報として取得する第1取得手段と、前記静止画像の動きを生成するための第2動体モデルに設定されている第2基準制御点の動きを示す情報を第2動き情報として取得する第2取得手段と、前記第1動き情報及び前記第2動き情報の各々に係る前記第1基準制御点の動きと前記第2基準制御点の動きを組み合わせて基準制御点の動きを示す新たな動き情報を生成する第1生成手段と、を備えたことを特徴としている。
静止画像の動きを制御するための動き制御点の設定に係る動き情報を生成する動き情報生成装置のコンピュータを、前記静止画像の動きを生成するための第1動体モデルに設定されている第1基準制御点の動きを示す第1動き情報として取得する第1取得手段、前記静止画像の動きを生成するための第2動体モデルに設定されている第2基準制御点の動きを示す第2動き情報として取得する第2取得手段、前記第1動き情報及び前記第2動き情報の各々に係る前記第1基準制御点の動きと前記第2基準制御点の動きを組み合わせて基準制御点の動きを示す新たな動き情報を生成する第1生成手段、として機能させることを特徴としている。
図1は、本発明を適用した一実施形態の動画生成システム100の概略構成を示すブロック図である。
撮像装置1は、被写体を撮像する撮像機能や撮像画像の画像データを記録媒体Cに記録する記録機能等を具備する。即ち、撮像装置1は、公知のものを適用可能であり、例えば、撮像機能を主要な機能として具備するデジタルカメラだけでなく、主要な機能としないものの撮像機能を具備する携帯電話機等の携帯端末なども含む。
ユーザ端末2は、例えば、パーソナルコンピュータ等により構成され、サーバ3により開設されるWebページ(例えば、動画生成用ページ)にアクセスして、当該Webページ上で各種の指示を入力する。
図2に示すように、ユーザ端末2は、具体的には、中央制御部201と、操作入力部202と、表示部203と、音出力部204と、記録媒体制御部205と、通信制御部206等を備えている。
RAMは、例えば、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。
ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、ユーザ端末2で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。
なお、操作入力部202としてタッチパネル(図示略)を表示部203の表示画面に配設して、タッチパネルの接触位置に応じて各種の指示を入力するような構成としても良い。
即ち、表示部203は、例えば、サーバ3から送信され通信制御部206により受信されたWebページ(例えば、動画生成用ページ)のページデータに基づいて、対応するWebページを表示画面に表示する。具体的には、表示部203は、動画生成処理(後述)に係る各種の処理画面の画像データに基づいて、各種の処理画面を表示画面に表示する。
即ち、音出力部204は、例えば、サーバ3から送信され通信制御部206により受信された演奏情報に基づいて、当該演奏情報のデジタルデータをD/Aコンバータによりアナログデータに変換し、増幅器を介してスピーカから、所定の音色、音高、音長で曲を放音する。また、音出力部204は、一の音源(例えば、楽器)の音を放音しても良いし、複数の音源の音を同時に放音しても良い。
ここで、被写体存在画像とは、所定の背景内に主要な被写体が存在する画像のことである。また、記録媒体Cには、撮像装置1の画像処理部(図示略)により所定の符号化形式(例えば、JPEG形式等)に従って符号化された被写体存在画像の画像データが記録されている。
そして、通信制御部206は、入力された被写体存在画像の画像データをサーバ3に所定の通信ネットワークNを介して送信する。
サーバ3は、Web(World Wide Web)サーバとしてインターネット上にWebページ(例えば、動画生成用ページ)を開設する機能を具備するものであり、ユーザ端末2からのアクセスに応じて当該ユーザ端末2にWebページのページデータを送信する。また、サーバ3は、動き情報生成装置として、複数の基準制御点Q、…の所定空間内での動きを示す複数の動き情報のうち、第1動き情報d1及び第2動き情報d2の各々に係る複数の基準制御点Q1、Q2の動きを、基準制御点Qの基準位置に対する差分diffx、diffyを利用して組み合わせて新たな動き情報(合成動き情報dn)を生成する。
図3に示すように、サーバ3は、具体的には、中央制御部301と、表示部302と、通信制御部303と、被写体切抜部304と、記憶部305と、動画処理部306等を備えて構成されている。
RAMは、例えば、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。
ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、サーバ3で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。
具体的には、通信制御部303は、例えば、動画生成処理(後述)にてユーザ端末2から所定の通信ネットワークNを介して送信された被写体存在画像(図示略)の画像データを受信して、当該画像データを中央制御部301のCPUに出力する。
中央制御部301のCPUは、入力された被写体存在画像の画像データを被写体切抜部304に出力する。
即ち、被写体切抜部304は、公知の被写体切抜手法を用いて、被写体存在画像から被写体が含まれる被写体領域が切り抜かれた被写体切り抜き画像(図示略)を生成する。具体的には、被写体切抜部304は、中央制御部301のCPUから出力された被写体存在画像の画像データを取得して、例えば、ユーザによるユーザ端末2の操作入力部202(例えば、マウス等)の所定操作に基づいて、表示部203に表示されている当該被写体存在画像上に描画された境界線(図示略)により当該被写体存在画像を区分する。続けて、被写体切抜部304は、被写体存在画像の切抜線により区分される複数の区分領域の中で、被写体の背景を推定して当該背景の各画素の画素値に基づいて所定の演算を行って、被写体の背景色を所定の単一色として推定する。その後、被写体切抜部304は、所定の単一色の背景用画像と被写体存在画像との間で対応する各画素の差分情報(例えば、相違度マップ等)を生成する。そして、被写体切抜部304は、生成した差分情報の各画素の画素値を所定の閾値と比較して二値化した後、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理を行って面積が最大の画素集合を被写体部分とする。
その後、被写体切抜部304は、例えば、上記の面積が最大の画素集合が「1」、その他の部分が「0」である二値化された差分情報に対してローパスフィルタを施して境界部分に中間値を生じさせることでアルファ値を生成し、被写体切り抜き画像内で被写体領域の位置を示す位置情報としてのアルファマップ(図示略)を生成する。
アルファ値(0≦α≦1)とは、例えば、被写体存在画像の各画素について、被写体領域の画像を所定の背景に対してアルファブレンディングする際の重みを表すものである。この場合、被写体領域はアルファ値が「1」となり、被写体存在画像の所定の背景に対する透過度が0%となる。一方、被写体の背景部分はアルファ値が「0」となり、当該被写体存在画像の所定の背景に対する透過度が100%となる。
被写体切り抜き画像の画像データは、例えば、生成されたアルファマップ等の位置情報と対応付けられている。
また、被写体切り抜き画像の画像データとしては、例えば、RGBA形式の画像データを適用しても良く、具体的には、RGB色空間で規定される各色に透過度(A)の情報が付加されている。この場合には、被写体切抜部304は、透過度(A)の情報を利用して、被写体切り抜き画像内で被写体領域の位置を示す位置情報(図示略)を生成しても良い。
即ち、第1動き情報d1は、複数の基準制御点Q1、…の所定空間、例えば、互いに直交する二軸(例えば、x軸、y軸等)により規定される二次元の平面空間やこれら二軸に加えて当該二軸に直交する軸(例えば、z軸等)により規定される三次元の立体的空間での座標位置(x, y)を示す情報を時間軸に沿って並べた情報である。例えば、第1動き情報d1は、第1基準画像P1の動体モデルが含まれるモデル領域内に設定されている複数の基準制御点Q1、…を所定の踊り(例えば、「右腕を上げる動き」等)に対応させるように移動させた情報を含み、複数の踊りの各々に対応させて複数規定されている。
具体的には、第1動き情報d1は、例えば、所定空間内にて複数の基準制御点Q1、…の全て若しくは少なくとも一つを移動させた座標位置(x, y)を示す情報を所定の時間間隔(例えば、100[ms]等)で連続して並べることで、各踊り毎に、複数の基準制御点Q1、…の動きが連続して表されている(図8参照)。なお、図8にあっては、例えば、第1基準画像P1における左上隅部を原点(0, 0)とし、水平方向をx軸方向とし、垂直方向をy軸方向として、各基準制御点Q1の座標位置(x, y)が表されている。
具体的には、例えば、第1基準画像P1のヒトの外形を模したモデル領域内で、ヒトの「頭」、「首」、「右脇」、「右肘_中央」、「右手首」、「右手」、「左脇」、「左肘_中央」、「左手首」、「左手」、「胸」、「腰」、「左足_付け根」、「左膝_中央」、「左足首」、「左つま先」、「右足_付け根」、「右膝_中央」、「右足首」、「右つま先」の各々に相当する位置にそれぞれ基準制御点Q1が設定されている(図8、図9(a)等参照)。
なお、基準制御点Q1の個数は、動体モデルの形状や大きさ等に応じて適宜任意に設定可能である。
また、図9(a)〜図9(c)後述する図11(a)〜図11(c)にあっては、向かって左側に動体モデルとしてのヒトの右腕及び右脚が配置され、一方、向かって右側にヒトの左腕及び左脚が配置されているものとする。
また、図8に示す第1動き情報d1は、例えば、「右腕を上げる動き」に対応させるように複数の基準制御点Q1、…を移動させる際の情報であるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。さらに、第1動き情報d1は、二次元の平面空間を所定の回動軸周りに回転させることで複数の基準制御点Q1、…の動きに奥行きをもたせるような情報であっても良い。
即ち、第2動き情報d2は、複数の基準制御点Q2、…の所定空間、例えば、互いに直交する二軸(例えば、x軸、y軸等)により規定される二次元の平面空間やこれら二軸に加えて当該二軸に直交する軸(例えば、z軸等)により規定される三次元の立体的空間での基準の座標位置(x, y)に対する差分diffx、diffyを示す情報を時間軸に沿って並べた情報である。例えば、第2動き情報d2は、第2基準画像P2の動体モデルが含まれるモデル領域内に設定されている複数の基準制御点Q2、…の各々の座標位置(x, y)に対して、各基準制御点Q2の所定の時間経過後の座標位置(x, y)の差分(変位量)diffx、diffyを示す情報を含み、複数の踊りの各々に対応させて複数規定されている(図11(a)〜図11(c)等参照)。
具体的には、第2動き情報d2は、例えば、所定空間内にて複数の基準制御点Q2、…の全て若しくは少なくとも一つを移動させる際の所定の時間間隔(例えば、100[ms]等)毎の変位量(差分diffx、diffy)を示す情報によって、各踊り毎に、複数の基準制御点Q2、…の動きが連続して表されている(図10参照)。なお、図10にあっては、例えば、第2基準画像P1における左上隅部を原点(0, 0)とし、水平方向をx軸方向とし、垂直方向をy軸方向として、各基準制御点Q2の基準位置に対する差分diffx、diffyが表されている。
また、図10に示す第2動き情報d2は、例えば、「膝を曲げる動き」に対応させるように複数の基準制御点Q2、…を移動させる際の情報であるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
具体的には、合成動き情報dnは、第1動き情報d1及び第2動き情報d2の各々に係る複数の基準制御点Q1、Q2の動きを組み合わせて生成された新たな動き情報である(図13参照)。例えば、図13に示す合成動き情報dnは、例えば、「右腕を上げる動き」と「膝を曲げる動き」とを組み合わせた「右腕を上げつつ膝を曲げる動き」に対応させるように複数の基準制御点Qn、…を移動させる際の情報であるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
なお、合成動き情報dnの生成の手法については後述する。
演奏情報dmは、動画処理部306の動画再生部306h(後述)により動画像とともに自動的に曲を演奏するための情報である。即ち、演奏情報dmは、例えば、テンポ、拍子、音程、音階、調、発想標語等を異ならせて複数規定され、それぞれ曲名と対応付けて記憶されている。
また、各演奏情報dmは、例えば、MIDI(Musical Instruments Digital Interface)規格等に従って規定されたデジタルデータであり、具体的には、トラック数や四分音符の分解能(Tickカウント数)等が規定されたヘッダ情報と、各パートに割り当てられた音源(例えば、楽器等)に供給させるイベント及びタイミングかならなるトラック情報等を有している。このトラック情報のイベントとして、例えば、テンポあるいは拍子の変更や、NoteOn・Offを指示する情報などがある。
なお、動画処理部306の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
即ち、第1取得部306aは、記憶部305に記憶されている複数の第1動き情報d1、…の中で、何れか一の第1動き情報d1を取得する。具体的には、第1取得部306aは、記憶部305に記憶されている複数の第1動き情報d1、…の中で、ユーザによるユーザ端末2の操作入力部202の所定操作に基づいて選択されたユーザ所望の第1動き情報d1(例えば、「右腕を上げる動き」に対応する第1動き情報d1等)を取得する。
即ち、第2取得部306bは、記憶部305に記憶されている複数の第2動き情報d2、…の中で、何れか一の第2動き情報d2を取得する。具体的には、第2取得部306bは、記憶部305に記憶されている複数の第2動き情報d2、…の中で、ユーザによるユーザ端末2の操作入力部202の所定操作に基づいて選択されたユーザ所望の第2動き情報d2(例えば、「膝を曲げる動き」に対応する第2動き情報d2等)を取得する。
即ち、タイミング設定部306cは、第1動き情報d1及び第2動き情報d2のうち、一方の動き情報に係る複数の基準制御点Q、…(例えば、第1動き情報d1に係る基準制御点Q1、…等)の動きを他方の動き情報に係る複数の基準制御点Q、…(例えば、第2動き情報d2に係る基準制御点Q2、…等)の動きに組み合わせるタイミングを設定する。具体的には、タイミング設定部306cは、例えば、時間軸に沿って配置される第1動き情報d1に係る複数の基準制御点Q1、…の動きに対して、第2動き情報d2に係る複数の基準制御点Q2、…の動きを組み合わせる際の当該複数の基準制御点Q2、…の動きの開始タイミングを、ユーザによるユーザ端末2の操作入力部202の所定操作に基づいて指定されたユーザ所望のタイミング(例えば、第1動き情報d1に係る動きが開始されてから50[ms]後等)に設定する(図12参照)。
なお、タイミング設定部306cは、第2動き情報d2に係る複数の基準制御点Q2、…の動きの開始タイミングを設定するようにしたが、一例であってこれに限られるものではなく、適宜任意に変更可能であり、例えば、複数の基準制御点Q2、…の動きの終了タイミング等を設定するようにしても良い。
即ち、動き情報生成部306dは、第1動き情報d1及び第2動き情報d2の各々に係る複数の基準制御点Q1、Q2の動きを、基準制御点Qの基準位置に対する差分diffx、diffyを利用して組み合わせて新たな動き情報を生成する。具体的には、動き情報生成部306dは、第1動き情報d1及び第2動き情報d2における対応する基準制御点Q1、Q2毎に、第1動き情報d1に係る複数の基準制御点Q1、…の所定空間での座標位置(x, y)に、第2動き情報d2に係る複数の基準制御点Q2、…の基準位置に対する差分diffx、diffyを加えて、新たな動き情報としての合成動き情報dnを生成する。
このとき、動き情報生成部306dは、タイミング設定部306cにより設定されたタイミングを基準(例えば、開始タイミング等)として、第1動き情報d1及び第2動き情報d2のうち、一方の動き情報に係る複数の基準制御点Q、…の動きを他方の動き情報に係る複数の基準制御点Q、…の動きに組み合わせて、新たな動き情報を生成しても良い。
例えば、動き情報生成部306dは、所定の時間間隔毎に並べられた第1動き情報d1に係る複数の基準制御点Q1、…の所定空間での座標位置(x, y)に、タイミング設定部306cにより設定されたタイミングを第2動き情報d2に係る複数の基準制御点Q2、…の動きの開始タイミングとして、第2動き情報d2に係る複数の基準制御点Q2、…の基準位置に対する差分diffx、diffyを所定の時間間隔毎に加えて、合成動き情報dnに係る複数の基準制御点Qn、…の所定空間での座標位置(x, y)を算出する。
これにより、複数の基準制御点Qn、…の所定空間での座標位置(x, y)を示す情報が時間軸に沿って並べられた合成動き情報dnが生成される(図13参照)。なお、図13に示す合成動き情報dnにおける基準画像Pn(1フレーム目に相当する画像)として、第1基準画像P1と略同様のものを例示したが、一例であってこれに限られるものではなく、組み合わされる動き情報の内容やタイミング等によって適宜任意に変更可能である。
即ち、画像取得部306eは、背景と被写体とが存在する被写体存在画像から被写体が含まれる被写体領域が切り抜かれた被写体切り抜き画像(被写体画像)を取得する。具体的には、画像取得部306eは、被写体切抜部304により生成された被写体切り抜き画像の画像データと、当該被写体切り抜き画像の画像データと対応付けられているアルファマップを取得する。
なお、被写体切り抜き画像は、例えば、被写体としてのヒトを所定方向から見た状態を表す画像である。
即ち、制御点設定部306fは、例えば、ユーザによるユーザ端末2の操作入力部202の所定操作に基づいて指定されたユーザ所望の動き情報(例えば、合成動き情報dn等)に基づいて、被写体切り抜き画像の被写体領域内で複数の基準制御点Q、…の各々に対応する各位置に当該被写体領域の動きの制御に係る動き制御点を複数設定する。具体的には、制御点設定部306fは、被写体切り抜き画像の被写体領域内で、ユーザ所望の動き情報に規定されている基準画像(例えば、1フレーム目に相当する画像等)の複数の基準制御点Q、…の各々に対応する動き制御点を設定する。
例えば、制御点設定部306fは、ヒトの外形を模したモデル領域内にて、ヒトの「頭」、「首」、「右脇」、「右肘_中央」、「右手首」、「右手」、「左脇」、「左肘_中央」、「左手首」、「左手」、「胸」、「腰」、「左足_付け根」、「左膝_中央」、「左足首」、「左つま先」、「右足_付け根」、「右膝_中央」、「右足首」、「右つま先」の各々に相当する位置に設定されている基準制御点Qの各々に対応させて動き制御点をそれぞれ設定する。
さらに、制御点設定部306fは、動き情報に規定されている複数の基準制御点Q、…の全てについて、対応する動き制御点を設定しても良いし、被写体の中央部や各先端部等の代表的な所定数の基準制御点Qに対応する動き制御点のみ設定しても良い。
即ち、フレーム生成部306gは、動き情報(例えば、合成動き情報dn等)の複数の基準制御点Q、…の動きに基づいて、制御点設定部306fにより被写体切り抜き画像内に設定されている複数の動き制御点を動かし、当該動き制御点の動きに従って被写体領域を変形させたフレーム画像を複数生成する。具体的には、フレーム生成部306gは、例えば、合成動き情報dnの複数の基準制御点Q、…の動きに追従させるように、被写体切り抜き画像の被写体画像内に設定されている複数の動き制御点を移動させる。例えば、フレーム生成部306gは、合成動き情報dnに従って移動する複数の基準制御点Qn、…の所定空間での座標位置(x, y)を逐次取得して、当該基準制御点Qnの各々に対応する各動き制御点の座標位置を算出する。そして、フレーム生成部306gは、算出された座標位置に動き制御点を逐次移動させていく。このとき、フレーム生成部306gは、少なくとも一の動き制御点を基準として被写体領域内に設定される所定の画像領域(例えば、三角形や矩形のメッシュ状の領域)を移動させたり変形させることで、フレーム画像を生成する。
なお、動き制御点を基準とした所定の画像領域を移動させたり変形させる処理は、公知の技術であるので、ここでは詳細な説明を省略する。
即ち、動画再生部306hは、ユーザによるユーザ端末2の操作入力部202の所定操作に基づいて指定された演奏情報dmに基づいて所定の曲を自動的に演奏するとともに、当該所定の曲の所定のタイミングで複数のフレーム画像の各々を再生する。具体的には、動画再生部306hは、例えば、所定の曲の演奏情報dmのデジタルデータをD/Aコンバータによりアナログデータに変換して当該所定の曲を自動的に演奏させ、このとき、所定のタイミング(例えば、各小節の1拍目や各拍等)に同期させるように隣合う二つのフレーム画像を再生するとともに、隣合う二つのフレーム画像間における所定の曲の演奏の相対的な進行度合に応じて、当該進行度合に対応する各々の補間フレーム画像を再生する。
なお、動画再生部306hは、動画処理部306により指定された速さで被写体画像に係る複数のフレーム画像を再生しても良い。この場合には、動画再生部306hは、隣合う二つのフレーム画像を同期させるタイミングを変化させることで、所定の単位時間内に再生されるフレーム画像の数を変更して被写体画像の動きの速さを可変させる。
ここで、図4及び図5は、動画生成処理に係る動作の一例を示すフローチャートである。
なお、以下の説明にあっては、被写体存在画像の画像データから生成された被写体切り抜き画像及びアルファマップの画像データがサーバ3の記憶部305に記憶されているものとする。
図4に示すように、ユーザ端末2の中央制御部201のCPUは、ユーザによる操作入力部202の所定操作に基づいて、サーバ3により開設される動画生成用ページのアクセス指示が入力されると、当該アクセス指示を通信制御部206により所定の通信ネットワークNを介してサーバ3に送信させる(ステップS1)。
サーバ3の通信制御部303によって、ユーザ端末2から送信されたアクセス指示が受信されると、中央制御部301のCPUは、動画生成用ページのページデータを通信制御部303により所定の通信ネットワークNを介してユーザ端末2に送信させる(ステップS2)。
そして、ユーザ端末2の通信制御部206によって、動画生成用ページのページデータが受信されると、表示部203は、当該動画生成用ページのページデータに基づいて、動画生成用ページの画面(図示略)を表示する。
図5に示すように、サーバ3の中央制御部301のCPUは、ユーザによるユーザ端末2の操作入力部202の所定操作に基づいて、新たな動き情報の生成指示が入力されたか否かを判定する(ステップS4)。
なお、動き情報生成処理については、後述する。
具体的には、中央制御部301のCPUは、ユーザ端末2からの指示が、被写体画像の指定に関する内容の場合(ステップS6;被写体画像の指定)、処理をステップS71に移行させ、また、背景画像の指定に関する内容の場合(ステップS6;背景画像の指定)、処理をステップS81に移行させ、また、動き及び曲の指定に関する内容の場合(ステップS6;動き及び曲の指定)、処理をステップS91に移行させる。
ステップS6にて、ユーザ端末2からの指示が、被写体画像の指定に関する内容の場合(ステップS6;被写体画像の指定)、動画処理部306の画像取得部306eは、記憶部305に記憶されている被写体切り抜き画像の画像データの中からユーザにより指定された被写体切り抜き画像の画像データを読み出して取得する(ステップS71)。
次に、制御点設定部306fは、取得された被写体切り抜き画像の被写体領域内で動き制御点が既に設定されているか否かを判定する(ステップS72)。
その後、中央制御部301のCPUは、処理をステップS10に移行させる。ステップS10の処理の内容については、後述する。
ステップS6にて、ユーザ端末2からの指示が、背景画像の指定に関する内容の場合(ステップS6;背景画像の指定)、動画処理部306の動画再生部306hは、ユーザによる操作入力部202の所定操作に基づいて所望の背景画像の画像データを読み出して(ステップS81)、当該背景画像の画像データを動画像の背景として所定の格納手段に登録する(ステップS82)。
具体的には、サーバ3には、ユーザ端末2の表示部203に表示されている動画生成用ページの画面内の複数の画像データの中で、ユーザによる操作入力部202の所定操作に基づいて指定された何れか一の画像データの指定指示が、通信ネットワークN及び通信制御部303を介して入力される。動画再生部306hは、当該指定指示に係る背景画像の画像データを記憶部305から読み出して取得した後(ステップS81)、当該背景画像の画像データを動画像の背景として登録する(ステップS82)。
その後、中央制御部301のCPUは、処理をステップS10に移行させる。ステップS10の処理の内容については、後述する。
ステップS6にて、ユーザ端末2からの指示が、動き及び曲の指定に関する内容の場合(ステップS6;動き及び曲の指定)、動画処理部306は、ユーザによる操作入力部202の所定操作に基づいて動き情報や動きの速さを設定する(ステップS91)。
具体的には、ユーザ端末2の表示部203に表示されている動画生成用ページの画面内の複数の動きモデルのモデル名の中で、ユーザによる操作入力部202の所定操作に基づいて指定された何れか一のモデル名(例えば、自作の動き等)の指定指示が、通信ネットワークN及び通信制御部303を介してサーバ3に入力される。サーバ3の動画処理部306は、記憶部305に記憶されている複数の動き情報、…の中で、当該指定指示に係る動きモデルのモデル名と対応付けられている動き情報(例えば、合成動き情報dn等)を設定する。なお、動画処理部306は、複数の動き情報の中で、例えば、デフォルトとして設定されている動き情報やユーザにより前回指定された動き情報を自動的に指定するようにしても良い。
その後、動画処理部306の動画再生部306hは、設定された動き情報や動きの速さを動画像の動きの内容として所定の格納手段に登録する(ステップS92)。
具体的には、サーバ3には、ユーザ端末2の表示部203に表示されている動画生成用ページの画面内の複数の曲名の中で、ユーザによる操作入力部202の所定操作に基づいて指定された何れか一の曲名の指定指示が、通信ネットワークN及び通信制御部303を介して入力される。動画処理部306は、当該指定指示に係る曲名の曲を設定する。
その後、中央制御部301のCPUは、処理をステップS10に移行させる。ステップS10の処理の内容については、後述する。
ここで、動画像の生成が可能な状態でないと判定されると(ステップS10;NO)、中央制御部301のCPUは、処理をステップS6に戻し、ユーザ端末2からの指示の内容に応じて処理を分岐させる(ステップS6)。
一方、ステップS10にて、動画像の生成が可能な状態であると判定されると(ステップS10;YES)、図4に示すように、中央制御部301のCPUは、処理をステップS12に移行させる。
即ち、ステップS11にて、ユーザ端末2の中央制御部201が、ユーザによる操作入力部202の所定操作に基づいて入力された動画像のプレビュー指示を、通信制御部206により所定の通信ネットワークNを介してサーバ3に送信させる(ステップS11)。
そして、ステップS12にて、サーバ3の中央制御部301のCPUによって、動画像のプレビュー指示が入力されたと判定されると(ステップS12;YES)、動画処理部306の動画再生部306hは、設定済みの曲名に対応する演奏情報dmを動画像とともに自動的に演奏される情報として所定の格納手段に登録する(ステップS13)。
続けて、動画処理部306は、動画再生部306hによる所定の曲の演奏が終了したか否かを判定する(ステップS15)。
ここで、曲の演奏が終了していないと判定されると(ステップS15;NO)、動画処理部306のフレーム生成部306gは、動き情報に応じて変形させた被写体領域の画像のフレーム画像を生成する(ステップS16)。具体的には、フレーム生成部306gは、格納手段に登録されている動き情報に従って所定の時間間隔で移動する複数の基準制御点Q、…の所定空間での座標位置(x, y)をそれぞれ取得して、当該基準制御点Qの各々に対応する各動き制御点の座標位置を算出する。そして、フレーム生成部306gは、算出された座標位置に動き制御点を逐次移動させていくとともに、動き制御点の移動に応じて被写体領域の画像内に設定される所定の画像領域を移動させたり変形させることで、フレーム画像を生成する。
また、動画処理部306は、フレーム画像と背景画像とを公知の画像合成手法を用いて合成する。具体的には、動画処理部306は、例えば、背景画像の各画素のうち、アルファ値が「0」の画素は透過させ、アルファ値が「1」の画素はフレーム画像の対応する画素の画素値で上書きし、さらに、背景画像の各画素のうち、アルファ値が「0<α<1」の画素は1の補数(1−α)を用いてフレーム画像の被写体領域を切り抜いた画像(背景画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いてフレーム画像を生成した際に単一背景色とブレンドした値を計算し、当該値をフレーム画像から減算し、それを被写体領域を切り抜いた画像(背景画像×(1−α))と合成する。
次に、動画処理部306は、処理をステップS15に戻し、曲の演奏が終了したか否かを判定する(ステップS15)。
上記の処理は、ステップS15にて、曲の演奏が終了したと判定されるまで(ステップS15;YES)、繰り返し実行される。
そして、曲の演奏が終了したと判定されると(ステップS15;YES)、図5に示すように、中央制御部301のCPUは、処理をステップS4に戻し、新たな動き情報の生成指示が入力されたか否かを判定する(ステップS4)。
具体的には、音出力部204は、演奏情報dmに基づいて曲を自動的に演奏してスピーカから放音するとともに、表示部203は、当該自動的に演奏される曲の所定のタイミングでプレビュー動画を構成するフレーム画像を表示画面に表示する。
以下に、動画処理部306による動き情報生成処理について、図6〜図13を参照して詳細に説明する。
図6は、動き情報生成処理に係る動作の一例を示すフローチャートである。
次に、第2取得部306bは、ユーザによるユーザ端末2の操作入力部202の所定操作に基づいて指定されたユーザ所望の第2動き情報d2(例えば、「膝を曲げる動き」に対応する第2動き情報d2等)を記憶部305から読み出して取得する(ステップS32;図10参照)。
以下に、図7を参照して、座標位置合成処理について詳細に説明する。
図7は、座標位置合成処理に係る動作の一例を示すフローチャートである。
以下の座標位置合成処理では、第1動き情報d1に係る基準制御点Q1の動きが開始されてから50[ms]後から、第2動き情報d2に係る基準制御点Q2の動きが合成されるものとする。また、合成動き情報dnの生成途中の各種データは、図示しない格納手段に一時的に格納されるものとする。
具体的には、動き情報生成部306dは、第1動き情報d1に係る複数の基準制御点Q1、…の動きの開始時を「0」として、当該複数の基準制御点Q1、…の所定空間での座標位置(x, y)を示す情報を時間軸(横軸:単位[ms]等)に沿って配置する。そして、動き情報生成部306dは、タイミング設定部306cにより設定されたタイミングを第2動き情報d2に係る複数の基準制御点Q2、…の動きの開始タイミングとして、当該複数の基準制御点Q2、…の基準位置に対する差分diffx、diffyを示す情報を時間軸に沿って配置する。
そして、動き情報生成部306dは、タイマtのカウント値により指定された時点に対応する第1動き情報d1の複数の基準制御点Q1、…の座標位置(x, y)を示す情報があるか否かを判定する(ステップS43)。
この時点におけるタイマtのカウント値は、t=0であるので、ステップS43にて、複数の基準制御点Q1、…の座標位置(x, y)を示す情報があると判定され(ステップS43;YES)、動き情報生成部306dは、第1動き情報d1の複数の基準制御点Q1、…の当該時点における座標位置(x, y)を示す情報を取得して、合成動き情報dnの複数の基準制御点Qn、…の座標位置(x, y)として登録する(ステップS44)。
この時点におけるタイマtのカウント値は、t=0であるので、ステップS45にて、複数の基準制御点Q2、…の基準位置に対する差分diffx、diffyを示す情報がないと判定され(ステップS45;NO)、動き情報生成部306dは、タイマtのカウント値に10[ms]を加算(t=t+10)する(ステップS46)。
この時点におけるタイマtのカウント値は、t=10であるので、ステップS47にて、第1動き情報d1或いは第2動き情報d2の終了タイミングに到達していないと判定され(ステップS47;NO)、動き情報生成部306dは、処理をステップS43に戻す。
この時点におけるタイマtのカウント値は、t=10であるので、ステップS43にて、複数の基準制御点Q1、…の座標位置(x, y)を示す情報がないと判定され(ステップS43;YES)、動き情報生成部306dは、前回タイマtのカウント値により指定された時点(例えば、t=0等)における第1動き情報d1の複数の基準制御点Q1、…の座標位置(x, y)を、当該タイマtのカウント値により指定された時点(例えば、t=10等)における合成動き情報dnの複数の基準制御点Qn、…の座標位置(x, y)として登録する(ステップS48)。
この時点におけるタイマtのカウント値は、t=10であるので、ステップS45にて、複数の基準制御点Q2、…の基準位置に対する差分diffx、diffyを示す情報がないと判定され(ステップS45;NO)、動き情報生成部306dは、処理をステップS46に移行して、タイマtのカウント値に10[ms]を加算(t=t+10)する(ステップS46)。
この時点におけるタイマtのカウント値は、t=20であるので、ステップS47にて、第1動き情報d1或いは第2動き情報d2の終了タイミングに到達していないと判定され(ステップS47;NO)、動き情報生成部306dは、処理をステップS43に戻す。
そして、動き情報生成部306dは、第2動き情報d2の複数の基準制御点Q2、…の当該時点における基準位置に対する差分diffx、diffyを示す情報を取得する(ステップS49)。即ち、動き情報生成部306dは、複数の基準制御点Q2、…の100[ms]の位置に対応する差分diffx、diffyを示す情報を取得する。
続けて、動き情報生成部306dは、第1動き情報d1の複数の基準制御点Q1、…の当該時点(例えば、t=150等)における座標位置(x, y)に、取得された第2動き情報d2の複数の基準制御点Q2、…の基準位置に対する差分diffx、diffyを加えて、合成動き情報dnの複数の基準制御点Qn、…の当該時点における座標位置(x, y)を算出して登録する(ステップS50)。
即ち、上記の各処理を繰り返し実行する過程で、タイマtのカウント値が、t=250となると、第2動き情報d2自身の時間軸では200[ms]の位置となるので、ステップS49にて、動き情報生成部306dは、第2動き情報d2の複数の基準制御点Q2、…の200[ms]の位置に対応する差分diffx、diffyを示す情報を取得する。そして、ステップS50にて、動き情報生成部306dは、第1動き情報d1の複数の基準制御点Q1、…の当該時点(例えば、t=250等)における座標位置(x, y)に、取得された第2動き情報d2の複数の基準制御点Q2、…の基準位置に対する差分diffx、diffyを加えて、合成動き情報dnの複数の基準制御点Qn、…の当該時点における座標位置(x, y)を算出する。
上記の各処理を繰り返すことで、「右腕を上げる動き」と「膝を曲げる動き」とが組み合わされた「右腕を上げつつ膝を曲げる動き」に対応させて、複数の基準制御点Qn、…の所定空間での座標位置(x, y)を示す情報が時間軸に沿って並べられた合成動き情報dnが生成される。
なお、ステップS47において、タイマtのカウント値により指定された時点が第1動き情報d1或いは第2動き情報d2の終了タイミングを超えた場合にも、動き情報生成部306dは、第1動き情報d1或いは第2動き情報d2の終了タイミングに到達したと判定するようにしても良い。
具体的には、第1動き情報d1に係る複数の基準制御点Q1、…の所定空間での座標位置(x, y)に第2動き情報d2に係る複数の基準制御点Q2、…の基準位置に対する差分diffx、diffyを加えて新たな合成動き情報dnを生成するので、第2動き情報d2に係る複数の基準制御点Q2、…のうち、基準位置に対して変位しない基準制御点Q2を考慮する必要がなくなり、基準位置に対して変位する基準制御点Q2の変位量のみを第1動き情報d1に係る複数の基準制御点Q1、…の動きに適正に反映させるだけで新たな合成動き情報dnを生成することができ、ユーザが意図した動きの再現を適正に、且つ、簡便に行うことができる。
従って、複数の動き情報を用いて新たな合成動き情報dnの生成を簡便に、且つ、適正に行うことができる。
例えば、上記実施形態にあっては、動画生成処理にて、予め合成動き情報dnを生成した後で当該合成動き情報dnに基づいてフレーム画像を生成するようにしたが、合成動き情報dnを生成するタイミングは一例であってこれに限られるものではなく、適宜任意に変更可能である。即ち、例えば、動画生成処理にて、各フレーム画像の生成タイミングにて当該フレーム画像の生成に用いられる合成動き情報dnを逐次生成するようにしても良い。
さらに、サーバ3は、必ずしもフレーム生成部306gによりフレーム画像を生成する必要はなく、当該フレーム生成部306gを具備するか否かは適宜任意に変更可能である。
このとき、動き情報生成部306dは、第2取得部306bにより取得された第2動き情報d2に係る複数の基準制御点Q2、…の所定空間での座標位置(x, y)を示す情報から、複数の基準制御点Q2、…の所定空間での基準位置に対する差分diffx、diffyを示す情報を算出するようにしても良い。そして、動き情報生成部306dは、第1取得部306aにより取得された第1動き情報d1に係る複数の基準制御点Q1、…の所定空間での座標位置(x, y)に、算出された複数の基準制御点Q2、…の所定空間での基準位置に対する差分diffx、diffyを加えて、新たな動き情報を生成する。
なお、被写体切り抜き画像や動画像のデータには、ユーザによる所定の改変を禁止する制御情報を埋め込むようにしても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、第1取得処理ルーチン、第2取得処理ルーチン及び第1生成処理ルーチンを含むプログラムを記憶しておく。そして、第1取得処理ルーチンにより中央制御部301のCPUを、記憶手段に記憶されている所定空間内での複数の基準制御点Q、…の動きを示す複数の動き情報の中で、何れか一の動き情報を第1動き情報d1として取得する手段として機能させるようにしても良い。また、第2取得処理ルーチンにより中央制御部301のCPUを、複数の動き情報の中で、第1動き情報d1とは異なる他の動き情報を第2動き情報d2として取得する手段として機能させるようにしても良い。また、第1生成処理ルーチンにより中央制御部301のCPUを、第1動き情報d1及び第2動き情報d2の各々に係る複数の基準制御点Q1、Q2の動きを、基準制御点Qの基準位置に対する差分diffx、diffyを利用して組み合わせて新たな動き情報を生成する手段として機能させるようにしても良い。
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
静止画像の動きを制御するための動き制御点の設定に係る動き情報を生成する動き情報生成装置を用いた動き情報生成方法であって、
記憶手段に記憶されている所定空間内での複数の基準制御点の動きを示す複数の動き情報の中で、何れか一の動き情報を第1動き情報として取得する第1取得ステップと、
前記複数の動き情報の中で、前記第1動き情報とは異なる他の動き情報を第2動き情報として取得する第2取得ステップと、
前記第1動き情報及び前記第2動き情報の各々に係る前記複数の基準制御点の動きを、前記基準制御点の基準位置に対する差分を利用して組み合わせて新たな動き情報を生成する第1生成ステップと、
を含むことを特徴とする動き情報生成方法。
<請求項2>
前記第1動き情報は、前記複数の基準制御点の前記所定空間での座標位置を示す情報を時間軸に沿って並べた情報を含み、
前記第2動き情報は、前記複数の基準制御点の基準位置に対する差分を示す情報を時間軸に沿って並べた情報を含み、
前記第1生成ステップは、前記第1動き情報に係る前記複数の基準制御点の前記所定空間での座標位置に前記第2動き情報に係る前記複数の基準制御点の基準位置に対する差分を加えて、新たな動き情報を生成することを特徴とする請求項1に記載の動き情報生成方法。
<請求項3>
前記第1動き情報及び前記第2動き情報の各々に係る前記複数の基準制御点の動きを組み合わせるタイミングを設定する設定ステップを更に含み、
前記第1生成ステップは、前記設定ステップにて設定されたタイミングを基準として、前記第1動き情報及び前記第2動き情報のうち、一方の動き情報に係る前記複数の基準制御点の動きを他方の動き情報に係る前記複数の基準制御点の動きに組み合わせて、新たな動き情報を生成することを特徴とする請求項1又は2に記載の動き情報生成方法。
<請求項4>
前記第1生成ステップにて生成された新たな動き情報の複数の基準制御点の動きに基づいて、前記静止画像内に設定されている複数の動き制御点を動かしてフレーム画像を逐次生成する第2生成ステップを更に含むことを特徴とする請求項1〜3の何れか一項に記載の動き情報生成方法。
<請求項5>
前記静止画像は、背景と被写体とが存在する画像から被写体が含まれる被写体領域を切り抜いた画像を含むことを特徴とする請求項1〜4の何れか一項に記載の動き情報生成方法。
<請求項6>
静止画像の動きを制御するための動き制御点の設定に係る動き情報を生成する動き情報生成装置であって、
記憶手段に記憶されている所定空間内での複数の基準制御点の動きを示す複数の動き情報の中で、何れか一の動き情報を第1動き情報として取得する第1取得手段と、
前記複数の動き情報の中で、前記第1動き情報とは異なる他の動き情報を第2動き情報として取得する第2取得手段と、
前記第1動き情報及び前記第2動き情報の各々に係る前記複数の基準制御点の動きを、前記基準制御点の基準位置に対する差分を利用して組み合わせて新たな動き情報を生成する第1生成手段と、
を備えたことを特徴とする動き情報生成装置。
<請求項7>
静止画像の動きを制御するための動き制御点の設定に係る動き情報を生成する動き情報生成装置のコンピュータを、
記憶手段に記憶されている所定空間内での複数の基準制御点の動きを示す複数の動き情報の中で、何れか一の動き情報を第1動き情報として取得する第1取得手段、
前記複数の動き情報の中で、前記第1動き情報とは異なる他の動き情報を第2動き情報として取得する第2取得手段、
前記第1動き情報及び前記第2動き情報の各々に係る前記複数の基準制御点の動きを、前記基準制御点の基準位置に対する差分を利用して組み合わせて新たな動き情報を生成する第1生成手段、
として機能させることを特徴とするプログラム。
1 撮像装置
2 ユーザ端末
3 サーバ
301 中央制御部
305 記憶部
d1 第1動き情報
d2 第2動き情報
dn 合成動き情報
306 動画処理部
306a 第1取得部
306b 第2取得部
306c タイミング設定部
306d 動き情報生成部
306g フレーム生成部
Claims (8)
- 静止画像の動きを制御するための動き制御点の設定に係る動き情報を生成する動き情報生成装置を用いた動き情報生成方法であって、
前記静止画像の動きを生成するための第1動体モデルに設定されている第1基準制御点の動きを示す情報を第1動き情報として取得する第1取得ステップと、
前記静止画像の動きを生成するための第2動体モデルに設定されている第2基準制御点の動きを示す情報を第2動き情報として取得する第2取得ステップと、
前記第1動き情報及び前記第2動き情報の各々に係る前記第1基準制御点の動きと前記第2基準制御点の動きを組み合わせて基準制御点の動きを示す新たな動き情報を生成する第1生成ステップと、
を含むことを特徴とする動き情報生成方法。 - 前記第1動き情報は、前記第1基準制御点の所定空間での座標位置を示す情報を時間軸に沿って並べた情報を含み、
前記第2動き情報は、前記第2基準制御点の所定空間での座標位置に対して、所定の時間経過後の座標位置に対する差分を示す情報を時間軸に沿って並べた情報を含み、
前記第1生成ステップは、前記第1動き情報に係る前記第1基準制御点の前記所定空間での座標位置に前記第2動き情報に係る前記第2基準制御点の基準位置に対する差分を加えて、新たな動き情報を生成することを特徴とする請求項1に記載の動き情報生成方法。 - 前記第1動き情報及び前記第2動き情報の各々に係る前記第1基準制御点の動きと前記第2基準制御点の動きを組み合わせるタイミングを設定する設定ステップを更に含み、
前記第1生成ステップは、前記設定ステップにて設定されたタイミングを基準として、前記第1動き情報及び前記第2動き情報のうち、一方の動き情報に係る基準制御点の動きを他方の動き情報に係る基準制御点の動きに組み合わせて、新たな動き情報を生成することを特徴とする請求項1又は2に記載の動き情報生成方法。 - 前記第1生成ステップにて生成された前記新たな動き情報の前記基準制御点の動きに基づいて、前記静止画像内に設定されている動き制御点を動かしてフレーム画像を逐次生成する第2生成ステップを更に含むことを特徴とする請求項1〜3の何れか一項に記載の動き情報生成方法。
- 前記静止画像は、背景と被写体とが存在する画像から被写体が含まれる被写体領域を切り抜いた画像を含むことを特徴とする請求項1〜4の何れか一項に記載の動き情報生成方法。
- 前記第1基準制御点、前記第2基準制御点、及び前記基準制御点をそれぞれ複数備えたことを特徴とする請求項1〜5の何れか一項に記載の動き情報生成方法。
- 静止画像の動きを制御するための動き制御点の設定に係る動き情報を生成する動き情報生成装置であって、
前記静止画像の動きを生成するための第1動体モデルに設定されている第1基準制御点の動きを示す情報を第1動き情報として取得する第1取得手段と、
前記静止画像の動きを生成するための第2動体モデルに設定されている第2基準制御点の動きを示す情報を第2動き情報として取得する第2取得手段と、
前記第1動き情報及び前記第2動き情報の各々に係る前記第1基準制御点の動きと前記第2基準制御点の動きを組み合わせて基準制御点の動きを示す新たな動き情報を生成する第1生成手段と、
を備えたことを特徴とする動き情報生成装置。 - 静止画像の動きを制御するための動き制御点の設定に係る動き情報を生成する動き情報生成装置のコンピュータを、
前記静止画像の動きを生成するための第1動体モデルに設定されている第1基準制御点の動きを示す第1動き情報として取得する第1取得手段、
前記静止画像の動きを生成するための第2動体モデルに設定されている第2基準制御点の動きを示す第2動き情報として取得する第2取得手段、
前記第1動き情報及び前記第2動き情報の各々に係る前記第1基準制御点の動きと前記第2基準制御点の動きを組み合わせて基準制御点の動きを示す新たな動き情報を生成する第1生成手段、
として機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012078551A JP5906897B2 (ja) | 2012-03-30 | 2012-03-30 | 動き情報生成方法、動き情報生成装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012078551A JP5906897B2 (ja) | 2012-03-30 | 2012-03-30 | 動き情報生成方法、動き情報生成装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013210691A JP2013210691A (ja) | 2013-10-10 |
JP5906897B2 true JP5906897B2 (ja) | 2016-04-20 |
Family
ID=49528501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012078551A Expired - Fee Related JP5906897B2 (ja) | 2012-03-30 | 2012-03-30 | 動き情報生成方法、動き情報生成装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5906897B2 (ja) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4380042B2 (ja) * | 2000-09-04 | 2009-12-09 | ソニー株式会社 | アニメーション生成方法および装置 |
JP3753625B2 (ja) * | 2001-04-03 | 2006-03-08 | 株式会社国際電気通信基礎技術研究所 | 表情アニメーション生成装置および表情アニメーション生成方法 |
JP3755503B2 (ja) * | 2002-09-12 | 2006-03-15 | 三菱電機株式会社 | アニメーション制作システム |
JP4613313B2 (ja) * | 2005-04-01 | 2011-01-19 | 国立大学法人 東京大学 | 画像処理システムおよび画像処理プログラム |
JP5402166B2 (ja) * | 2009-03-31 | 2014-01-29 | カシオ計算機株式会社 | 画像合成装置及びプログラム |
WO2011045768A2 (en) * | 2009-10-15 | 2011-04-21 | Yeda Research And Development Co. Ltd. | Animation of photo-images via fitting of combined models |
-
2012
- 2012-03-30 JP JP2012078551A patent/JP5906897B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013210691A (ja) | 2013-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5434965B2 (ja) | 動画生成方法、動画生成装置及びプログラム | |
JP3601350B2 (ja) | 演奏画像情報作成装置および再生装置 | |
JP5454604B2 (ja) | 動画再生方法、動画再生装置及びプログラム | |
JP6942300B2 (ja) | コンピュータグラフィックスのプログラム、表示装置、送信装置、受信装置、動画生成装置、データ変換装置、データ生成装置、情報処理方法及び情報処理システム | |
JP5375897B2 (ja) | 画像生成方法、画像生成装置及びプログラム | |
JP5408205B2 (ja) | 制御点設定方法、制御点設定装置及びプログラム | |
JP2000311251A (ja) | アニメーション作成装置および方法、記憶媒体 | |
JP4981370B2 (ja) | 動画生成システム、及び動画生成方法 | |
JP6431259B2 (ja) | カラオケ装置、ダンス採点方法、およびプログラム | |
US9299180B2 (en) | Image creation method, image creation apparatus and recording medium | |
JP2012198380A (ja) | 表示制御装置 | |
JP5906897B2 (ja) | 動き情報生成方法、動き情報生成装置及びプログラム | |
JP2006196017A (ja) | アニメーション作成装置および方法、記憶媒体 | |
JP5894505B2 (ja) | 画像コミュニケーションシステム、画像生成装置及びプログラム | |
JP6313003B2 (ja) | カラオケ装置、画像出力方法、およびプログラム | |
JP5776442B2 (ja) | 画像生成方法、画像生成装置及びプログラム | |
JP5919926B2 (ja) | 画像生成方法、画像生成装置及びプログラム | |
JP5874426B2 (ja) | 制御点設定方法、制御点設定装置及びプログラム | |
JP5891883B2 (ja) | 画像生成方法、画像生成装置及びプログラム | |
JP2007316842A (ja) | モーション画像生成プログラム | |
JP6043610B2 (ja) | 合成動画コンテンツの生成システム | |
JP2005267564A (ja) | 映像合成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151215 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160223 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5906897 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |