JP5434965B2 - 動画生成方法、動画生成装置及びプログラム - Google Patents
動画生成方法、動画生成装置及びプログラム Download PDFInfo
- Publication number
- JP5434965B2 JP5434965B2 JP2011125663A JP2011125663A JP5434965B2 JP 5434965 B2 JP5434965 B2 JP 5434965B2 JP 2011125663 A JP2011125663 A JP 2011125663A JP 2011125663 A JP2011125663 A JP 2011125663A JP 5434965 B2 JP5434965 B2 JP 5434965B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving
- moving image
- movable
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Description
動体モデルに設定されている複数の可動点と、予め所定空間内における前記動体モデルの複数の可動点の動きを示す動き情報を記憶した動画生成装置を用いた動画生成方法であって、当該動画生成装置のコンピュータが、
静止画像を取得する取得ステップと、
前記取得ステップにて取得された静止画に対して、前記動体モデルと前記静止画像の大きさを合わせるように寸法の調整を行ない、前記動体モデルに設定されている複数の可動点を反映させる可動点反映ステップと、
前記可動点反映ステップにて反映された前記静止画像の前記複数の可動点を、前記動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成ステップと、
前記フレーム画像生成ステップにて生成された複数のフレームから動画像を生成する動画像生成ステップと、
を実行することを特徴としている。
動体モデルに設定されている複数の可動点と、
予め所定空間内における前記動体モデルの複数の可動点の動きを示す動き情報を記憶する記憶手段と、
静止画像を取得する取得手段と、
前記取得手段により取得された静止画像に対して、前記動体モデルと前記静止画像の大きさを合わせるように寸法の調整を行ない、前記動体モデルに設定されている複数の可動点を反映させる可動点反映手段と、
前記可動点反映手段により反映された前記静止画像の前記複数の可動点を、前記動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成手段と、
前記フレーム画像生成手段により生成された複数のフレームから動画像を生成する動画像生成手段と、
を備えたことを特徴としている。
動体モデルに設定されている複数の可動点と、予め所定空間内における前記動体モデルの複数の可動点の動きを示す動き情報を記憶する記憶手段を備える動画生成装置のコンピュータを、
静止画像を取得する取得手段、
前記取得手段により取得された静止画像に対して、前記動体モデルと前記静止画像の大きさを合わせるように寸法の調整を行ない、前記動体モデルに設定されている複数の可動点を反映させる可動点反映手段、
前記可動点反映手段により反映された前記静止画像の前記複数の可動点を、前記動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成手段、
前記フレーム画像生成手段により生成された複数のフレームから動画像を生成する動画像生成手段、
として機能させることを特徴としている。
図1は、本発明を適用した一実施形態の動画生成システム100の概略構成を示すブロック図である。
ユーザ端末2は、例えば、パーソナルコンピュータ等により構成され、サーバ3により開設されるWebページ(例えば、動画生成用ページ)にアクセスして、当該Webページ上で各種の指示を入力する。
図2に示すように、ユーザ端末2は、具体的には、中央制御部201と、通信制御部202と、表示部203と、音出力部204と、記録媒体制御部205と、操作入力部206等を備えている。
RAMは、例えば、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。
ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、ユーザ端末2で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。
即ち、表示部203は、例えば、サーバ3から送信され通信制御部202により受信されたWebページ(例えば、動画生成用ページ)のページデータに基づいて、対応するWebページを表示画面に表示する。具体的には、表示部203は、動画生成処理(後述)に係る各種の処理画面の画像データに基づいて、各種の処理画面を表示画面に表示する(図7(a)等参照)。
即ち、音出力部204は、例えば、サーバ3から送信され通信制御部202により受信された演奏情報に基づいて、当該演奏情報のデジタルデータをD/Aコンバータによりアナログデータに変換し、増幅器を介してスピーカから、所定の音色、音高、音長で曲を放音する。また、音出力部204は、一の音源(例えば、楽器)の音を放音しても良いし、複数の音源の音を同時に放音しても良い。
ここで、被写体存在画像P1とは、所定の背景内に主要な被写体が存在する画像のことである。また、記録媒体Cには、撮像装置1の画像処理部(図示略)により所定の符号化形式(例えば、JPEG形式等)に従って符号化された被写体存在画像P1の画像データが記録されている。
そして、通信制御部202は、入力された被写体存在画像P1の画像データをサーバ3に所定の通信ネットワークNを介して送信する。
なお、操作入力部206としてタッチパネル(図示略)を表示部203の表示画面に配設して、タッチパネルの接触位置に応じて各種の指示を入力するような構成としても良い。
サーバ3は、Web(World Wide Web)サーバとしてインターネット上にWebページ(例えば、動画生成用ページ)を開設する機能を具備するものであり、ユーザ端末2からのアクセスに応じて当該ユーザ端末2にWebページのページデータを送信する。また、サーバ3は、動画生成装置として、静止画像内で動き情報Mに係る複数の可動点Da、…に対応する各位置に動きの制御点Dbを複数設定し、指定された動き情報Mの複数の可動点Da、…の動きに追従させるように複数の制御点Db、…を動かして動画像Qを生成する。
図3に示すように、サーバ3は、具体的には、中央制御部301と、表示部302と、通信制御部303と、被写体切抜部304と、記憶部305と、動画処理部306等を備えて構成されている。
RAMは、例えば、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。
ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、サーバ3で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。
具体的には、通信制御部303は、例えば、動画生成処理(後述)にてユーザ端末2から所定の通信ネットワークNを介して送信された被写体存在画像P1の画像データを受信して、当該画像データを中央制御部301のCPUに出力する。
中央制御部301のCPUは、入力された被写体存在画像P1の画像データを被写体切抜部304に出力する。
即ち、被写体切抜部304は、公知の被写体切抜手法を用いて、被写体存在画像P1から被写体Sが含まれる領域が切り抜いた画像を生成する。具体的には、被写体切抜部304は、中央制御部301のCPUから出力された被写体存在画像P1の画像データを取得して、例えば、ユーザによるユーザ端末2の操作入力部206(例えば、マウス等)の所定操作に基づいて、表示部203に表示されている当該被写体存在画像P1上に描画された境界線(図示略)により当該被写体存在画像P1を区分する。そして、被写体切抜部304は、被写体存在画像P1の境界線により区分される被写体Sが含まれる被写体領域を抽出して、当該被写体領域のアルファ値を「1」とするとともに被写体Sの背景部分のアルファ値を「0」とし、当該被写体領域の画像を所定の単一色画像と合成した被写体切り抜き画像P2(図6(b)参照)の画像データを生成する。即ち、被写体切り抜き画像P2のうち、アルファ値が「1」の被写体領域の所定の背景に対する透過度が0%となり、一方、アルファ値が「0」の被写体Sの背景部分の所定の背景に対する透過度が100%となる。
また、被写体切り抜き画像P2の画像データとしては、例えば、RGBA形式の画像データを適用することができ、具体的には、RGB色空間で規定される各色に透過度(A)の情報が付加されている。なお、被写体切り抜き画像P2の画像データは、例えば、被写体存在画像P1の各画素について、被写体領域の画像を所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したアルファマップと対応付けられる構成であっても良い。
各動き情報Mは、所定空間、即ち、例えば、互いに直交する二軸(例えば、x軸、y軸等)により規定される二次元の平面空間やこれら二軸に加えて当該二軸に直交する軸(例えば、z軸等)により規定される三次元の立体的空間内における複数の可動点Da、…の動きを示す情報である。なお、動き情報Mは、二次元の平面空間を所定の回動軸周りに回転させることで複数の可動点Da、…の動きに奥行きをもたせるような情報であっても良い。
ここで、各可動点Daの位置は、動きのモデルとなる動体モデル(例えば、ヒトや動物等)の骨格の形状や関節の位置等を考慮してそれぞれ規定されている。また、可動点Daの個数は、動体モデルの形状や大きさ等に応じて適宜任意に設定可能である。
また、各動き情報Mは、所定空間内にて複数の可動点Da、…の全て若しくは少なくとも一つを移動させた座標情報を所定の時間間隔で連続して並べることで、複数の可動点Da、…の動きが連続して表されている(図8(a)参照)。具体的には、各動き情報Mは、例えば、複数の可動点Da、…を所定の踊りに対応させるように移動させた情報であり、複数の可動点Da、…の動きが連続して表された動体モデルのモデル名と対応付けてそれぞれ記憶されている。また、各動き情報Mは、動きの種類(例えば、ヒップホップ、ツイスト、ロボットダンス等)やバリエーション(例えば、ヒップホップ1〜3等)に応じて、複数の可動点Da、…の連続した動きを異ならせている。
ここで、複数の可動点Da、…の座標情報D1、D2、D3、…の各々は、例えば、基準となる可動点Daの座標情報(例えば、座標情報D1等)に対する各可動点Daの移動量を規定した情報であっても良いし、各可動点Daの絶対位置座標を規定した情報であっても良い。
なお、図8(a)に示した動き情報Mは、一例であってこれに限られるものではなく、動きの種類等は適宜任意に変更可能である。
このように、記憶部305は、予め所定空間内における複数の可動点Da、…の動きを示す動き情報Mを複数記憶する記憶手段を構成している。
演奏情報Tは、動画再生部306eにより動画像Qとともに自動的に演奏される情報である。即ち、演奏情報Tは、例えば、テンポ、拍子、音程、音階、調、発想標語等を異ならせて複数規定され、それぞれ曲名と対応付けて記憶されている。
また、各演奏情報Tは、例えば、MIDI(Musical Instruments Digital Interface)規格等に従って規定されたデジタルデータであり、具体的には、トラック数や四分音符の分解能(Tickカウント数)等が規定されたヘッダ情報と、各音源(例えば、楽器等)毎の演奏情報T等が規定されたトラック情報等を有している。また、トラック情報には、テンポ及び拍子の設定情報やNoteOn・Offのタイミング等が規定されている。
即ち、画像取得部306aは、静止画像として、背景と被写体Sとが存在する被写体存在画像P1から被写体Sが含まれる領域が切り抜かれた被写体切り抜き画像P2を取得する。具体的には、画像取得部306aは、被写体切抜部304により生成された被写体切り抜き画像P2の画像データを処理対象の静止画像として取得する。
即ち、制御点設定部306bは、画像取得部306aにより取得された被写体切り抜き画像P2の被写体画像Ps内で複数の可動点Da、…に対応する各位置に動きの制御点Dbを複数設定する。具体的には、制御点設定部306bは、記憶部305から動体モデル(例えば、ヒト)の動き情報Mを読み出して、被写体切り抜き画像P2の被写体画像Ps内で、当該動き情報Mに規定されている基準フレーム(例えば、1フレーム目等)の複数の可動点Da、…の各々が対応する位置を特定する。例えば、制御点設定部306bは、被写体画像Psがヒトを主要被写体Sとして切り抜いた画像である場合には(図7(b)参照)、ヒトの骨格の形状や関節の位置等を考慮して複数の可動点Da、…の各々が対応する位置を特定する。このとき、動体モデルと被写体画像Psについて、例えば、顔などの主要部の大きさを合わせるように寸法の調整(例えば、動体モデルの拡大や縮小、変形等)を行うようにしても良い。また、例えば、動体モデルと被写体画像Psを重ね合わせて被写体画像Psにおける複数の可動点Da、…の各々が対応する位置を特定しても良い。
そして、制御点設定部306bは、特定された複数の可動点Da、…の各々が対応する位置に動きの制御点Dbをそれぞれ設定する。
さらに、制御点設定部306bによる動きの制御点Dbの設定が自動的に行われた場合であっても、ユーザによる操作入力部の所定操作に基づいて制御点Dbの設定位置の修正(変更)を受け付けるようにしても良い。
即ち、動き指定部306cは、記憶部305に記憶されている複数の動き情報M、…の中で、何れか一の動き情報Mを指定する。具体的には、表示部203に表示されている所定画面内の複数の動きモデルのモデル名の中で、ユーザによるユーザ端末2の操作入力部206の所定操作に基づいて何れか一のモデル名(例えば、ヒップホップ1等)を指定する指示が通信ネットワークN及び通信制御部303を介して入力されると、動き指定部306cは、複数の動き情報M、…の中で、指定指示に係る動きモデルのモデル名と対応付けられている動き情報Mを指定する。
なお、動き指定部306cは、複数の動き情報M、…の中で、例えば、デフォルトとして設定されている動き情報Mやユーザにより前回指定された動き情報Mを自動的に指定するようにしても良い。
即ち、画像生成部306dは、動き指定部306cにより指定された動き情報Mの複数の可動点Da、…の動きに追従させるように、被写体切り抜き画像P2の被写体画像Ps内に設定されている複数の制御点Db、…を移動させて複数のフレーム画像F、…を逐次生成する。具体的には、画像生成部306dは、例えば、動き情報Mに従って所定の時間間隔で移動する複数の可動点Da、…の座標情報を逐次取得して、当該可動点Daの各々に対応する各制御点Dbの座標を算出する。そして、画像生成部306dは、算出された座標に制御点Dbを逐次移動させていくとともに、少なくとも一の制御点Dbを基準として被写体画像Ps内に設定される所定の画像領域(例えば、三角形や矩形のメッシュ状の領域)を移動させたり変形させることで、基準フレーム画像Fa(図8(b)参照)を生成する。これにより、例えば、動き情報Mの複数の可動点Da、…の各座標情報D1、D2、D3(図8(b)参照)等に対応する位置に制御点Dbが配設された基準フレーム画像Fa(図8(b)参照)がそれぞれ生成される。なお、図8(b)にあっては、各制御点Dbを仮想的に表したものであり、基準フレーム画像Faに実際に現れているものではない。
また、制御点Dbを基準とした所定の画像領域を移動させたり変形させる処理は、公知の技術であるので、ここでは詳細な説明を省略する。
具体的には、画像生成部306dは、隣合う二つの基準フレーム画像Fa、Fa間における、動画再生部306eにより演奏される所定の曲の演奏の進行度合を逐次取得して、当該進行度合に応じて、隣合う二つの基準フレーム画像Fa、Fa間で再生される補間フレーム画像Fbを逐次生成する。例えば、画像生成部306dは、MIDI規格の演奏情報Tに基づいてテンポの設定情報及び四分音符の分解能(Tickカウント数)を取得して、動画再生部306eにより演奏される所定の曲の演奏の経過時間をTickカウント数に変換する。続けて、画像生成部306dは、所定の曲の演奏の経過時間に対応するTickカウント数に基づいて、所定のタイミング(例えば、各小節の一拍目等)に同期させた隣合う二つの基準フレーム画像Fa、Fa間における所定の曲の演奏の相対的な進行度合を、例えば百分率で算出する。そして、画像生成部306dは、所定の曲の演奏の相対的な進行度合に応じて、当該隣合う二つの基準フレーム画像Fa、Faに対する重み付けを変えて補間フレーム画像Fbを生成する。
ここで、所定の曲の演奏の相対的な進行度合は、隣合う二つの基準フレーム画像Fa、Faの各々が同期した所定のタイミングどうしの間で、テンポや拍子の変更が行われて、算出された進行度合が前回算出された進行度合に対して減少した場合には、進行度合の減少度合が小さくなるように当該進行度合を補正するようにしても良い。これにより、曲の進行度合を考慮してより適正な補間フレーム画像Fbを生成することができる。
なお、補間フレーム画像Fbを生成する処理は、公知の技術であるので、ここでは詳細な説明を省略する。
即ち、複数の可動点Da、…の座標情報D1、D2、D3、…の各々が、例えば、基準となる可動点Daの座標情報(例えば、座標情報D1等)に対する各可動点Daの移動量を規定した情報の場合、基準となる可動点Daの座標情報以降の座標情報(例えば、座標情報D2、D3等)に対応させるように、それぞれの可動点Daの移動量に応じて移動させた制御点Dbの位置が、予め動き情報Mに規定されている可動点Daの位置に対して所定の距離以上離れてしまう。この結果、生成される基準フレーム画像Faが、動き情報Mに規定している可動点Daの動きを再現することができない虞がある。
そこで、基準となる可動点Daの座標情報以降の座標情報(例えば、座標情報D2、D3等)については、それぞれの可動点Daの移動量に、基準となる可動点Daと当該可動点Daに対応する制御点Dbとの距離を加算して、それぞれの可動点Daに対応する制御点Dbの座標を算出するようにしても良い。
即ち、動画再生部306eは、ユーザによるユーザ端末2の操作入力部206の所定操作に基づいて指定された演奏情報Tに基づいて所定の曲を自動的に演奏するとともに、当該所定の曲の所定のタイミングで複数のフレーム画像F、…の各々を再生する。具体的には、動画再生部306eは、所定の曲の演奏情報のデジタルデータをD/Aコンバータによりアナログデータに変換して当該所定の曲を自動的に演奏させ、このとき、所定のタイミング(例えば、各小節の1拍目や各拍等)に同期させるように隣合う二つの基準フレーム画像Fa、Faを再生するとともに、隣合う二つの基準フレーム画像Fa、Fa間における所定の曲の演奏の相対的な進行度合に応じて、当該進行度合に対応する各々の補間フレーム画像Fbを再生する。
なお、動画再生部306eは、速さ指定部306f(後述)により指定された速さで被写体画像Psに係る複数のフレーム画像F、…を再生しても良い。この場合には、動画再生部306eは、隣合う二つの基準フレーム画像Fa、Faを同期させるタイミングを変化させることで、所定の単位時間内に再生されるフレーム画像Fの数を変更して被写体画像Psの動きの速さを可変させる。
即ち、速さ指定部306fは、制御点設定部306bにより設定される複数の動きの制御点Dbの動きの速さを指定する。具体的には、サーバ3には、表示部203に表示されている所定画面内の被写体画像Psの複数の速さ(例えば、1/2倍、標準(等倍)、2倍等)の中で、ユーザによるユーザ端末2の操作入力部206の所定操作に基づいて何れか一の速さ(例えば、標準等)を指定する指示が、通信ネットワークN及び通信制御部303を介して入力される。速さ指定部306fは、複数の動きの速さの中で、当該指定指示に係る速さを被写体画像Psの動きの速さとして指定する。
これにより、所定の単位時間で切り替えられるフレーム画像F数が、例えば、1/2倍、等倍、2倍等に変更される。
ここで、図4及び図5は、動画生成処理に係る動作の一例を示すフローチャートである。また、図6(a)〜図6(c)は、動画生成処理に係る画像の一例を模式的に示す図である。また、図7(a)及び図7(c)は、動画生成処理におけるユーザ端末2の表示部203に表示される表示画面の一例を模式的に示す図であり、図7(b)は、可動点Daと制御点Dbとの対応関係の一例を模式的に示す図である。また、図8(a)は、動き情報Mの一例を模式的に示す図であり、図8(b)は、動画像Qを構成するフレーム画像Fの一例を模式的に示す図である。
なお、以下の説明にあっては、被写体存在画像P1の画像データから生成された被写体切り抜き画像P2(図6(b)参照)の画像データがサーバ3の記憶部305に記憶されているものとする。また、ヒトを動体モデルとした動き情報M(図8(a)参照)が記憶部305に記憶されているものとする。
サーバ3の通信制御部303によって、ユーザ端末2から送信されたアクセス指示が受信されると、中央制御部301のCPUは、動画生成用ページのページデータを通信制御部303により所定の通信ネットワークNを介してユーザ端末2に送信させる(ステップS2)。
そして、ユーザ端末2の通信制御部202によって、動画生成用ページのページデータが受信されると、表示部203は、当該動画生成用ページのページデータに基づいて、動画生成用ページの画面Pgを表示する(図7(a)参照)。
図5に示すように、サーバ3の中央制御部301のCPUは、ユーザ端末2からの指示の内容に応じて処理を分岐させる(ステップS4)。具体的には、中央制御部301のCPUは、ユーザ端末2からの指示が、被写体画像Psの指定に関する内容の場合(ステップS4;被写体画像の指定)、処理をステップS51に移行させ、また、制御点Dbの修正に関する内容の場合(ステップS4;制御点の修正)、処理をステップS61に移行させ、また、合成内容の修正に関する内容の場合(ステップS4;合成内容の修正)、処理をステップS71に移行させ、また、背景画像Pbの指定に関する内容の場合(ステップS4;背景画像の指定)、処理をステップS81に移行させ、また、動き及び曲の指定に関する内容の場合(ステップS4;動き及び曲の指定)、処理をステップS91に移行させる。
ステップS4にて、ユーザ端末2からの指示が、被写体画像Psの指定に関する内容の場合(ステップS4;被写体画像の指定)、動画処理部306の画像取得部306aは、記憶部305に記憶されている被写体切り抜き画像P2の画像データの中からユーザにより指定された被写体切り抜き画像P2の画像データを読み出して取得する(ステップS51)。
次に、制御点設定部306bは、取得された被写体切り抜き画像P2の被写体画像Ps内で動きの制御点Dbが既に設定されているか否かを判定する(ステップS52)。
具体的には、制御点設定部306bは、被写体切り抜き画像P2の画像データに基づいて、被写体画像Psの所定位置(例えば、中心やヒトの顔の位置等)を基準として被写体切り抜き画像P2をトリミングすることで被写体画像Psと動きモデル(例えば、ヒト)の大きさが等しくなるように補正する(ステップS53)。被写体切り抜き画像P2のトリミング後の画像P3を図6(c)に示す。
このとき、制御点設定部306bは、例えば、被写体画像Psがヒトの場合、当該ヒトの顔や背骨といった中心部がトリミング後の画像P3の左右方向の中心に沿って配設されるようにトリミングを行っても良い。
また、被写体切り抜き画像P2のトリミングは、例えば、RGBA形式の画像データの場合、RGB色空間で規定される被写体画像Psの各色の情報及び透過度(A)の情報について行われる。
具体的には、制御点設定部306bは、記憶部305から動体モデル(例えば、ヒト)の動き情報Mを読み出して、被写体切り抜き画像P2の被写体画像Ps内で、当該動き情報Mに規定されている複数の可動点Da、…の各々が対応する位置を特定した後、当該複数の可動点Da、…の各々が対応する位置に動きの制御点Dbをそれぞれ設定する。
そして、動画再生部306eは、当該被写体画像Psに対して設定された複数の制御点Db、…、並びに被写体画像Psの合成位置やサイズ等の合成内容を所定の格納手段(例えば、所定のメモリ等)に登録する(ステップS56)。
その後、中央制御部301のCPUは、処理をステップS10に移行させる。ステップS10の処理の内容については、後述する。
ステップS4にて、ユーザ端末2からの指示が、制御点Dbの修正に関する内容の場合(ステップS4;制御点の修正)、動画処理部306の制御点設定部306bは、ユーザによる操作入力部206の所定操作に基づいて動きの制御点Dbの位置を修正する(ステップS61)。
即ち、図4に示すように、ステップS11にて、ユーザ端末2の中央制御部201は、ユーザによる操作入力部206の所定操作に基づいて、設定済みの制御点Dbの修正指示が入力されたと判定すると(ステップS11;YES)、当該修正指示に対応する信号を通信制御部202により所定の通信ネットワークNを介してサーバ3に送信させる(ステップS3)。
そして、図5に示すように、動画処理部306の制御点設定部306bは、ユーザによる操作入力部206の所定操作に基づいて入力された所望の位置に動きの制御点Dbを設定する(ステップS61)。
その後、中央制御部301のCPUは、処理をステップS10に移行させる。ステップS10の処理の内容については、後述する。
ステップS4にて、ユーザ端末2からの指示が、合成内容の修正に関する内容の場合(ステップS4;合成内容の修正)、動画処理部306は、ユーザによる操作入力部206の所定操作に基づいて被写体画像Psの合成位置やサイズを設定する(ステップS71)。
即ち、図4に示すように、ステップS11にて、ユーザ端末2の中央制御部201は、ユーザによる操作入力部206の所定操作に基づいて、被写体画像Psの合成位置やサイズの修正指示が入力されたと判定すると(ステップS11;YES)、当該修正指示に対応する信号を通信制御部202により所定の通信ネットワークNを介してサーバ3に送信させる(ステップS3)。
そして、図5に示すように、動画処理部306は、ユーザによる操作入力部206の所定操作に基づいて、被写体画像Psの合成位置を所望の合成位置に設定したり、当該被写体画像Psのサイズを所望のサイズに設定する(ステップS71)。
その後、中央制御部301のCPUは、処理をステップS10に移行させる。ステップS10の処理の内容については、後述する。
ステップS4にて、ユーザ端末2からの指示が、背景画像Pbの指定に関する内容の場合(ステップS4;背景画像の指定)、動画処理部306の動画再生部306eは、ユーザによる操作入力部206の所定操作に基づいて所望の背景画像(他の画像)Pbの画像データを読み出して(ステップS81)、当該背景画像Pbの画像データを動画像Qの背景として所定の格納手段に登録する(ステップS82)。
具体的には、サーバ3には、ユーザ端末2の表示部203に表示されている動画生成用ページの画面Pg内の複数の画像データの中で、ユーザによる操作入力部206の所定操作に基づいて指定された何れか一の画像データの指定指示が、通信ネットワークN及び通信制御部303を介して入力される。動画再生部306eは、当該指定指示に係る背景画像Pb(図7(a)参照)の画像データを記憶部305から読み出して取得した後(ステップS81)、当該背景画像Pbの画像データを動画像Qの背景として登録する(ステップS82)。
その後、中央制御部301のCPUは、処理をステップS10に移行させる。ステップS10の処理の内容については、後述する。
ステップS4にて、ユーザ端末2からの指示が、動き及び曲の指定に関する内容の場合(ステップS4;動き及び曲の指定)、動画処理部306は、ユーザによる操作入力部206の所定操作に基づいて動き情報Mや動きの速さを設定する(ステップS91)。
具体的には、サーバ3には、ユーザ端末2の表示部203に表示されている動画生成用ページの画面Pg内の複数の動きモデルのモデル名の中で、ユーザによる操作入力部206の所定操作に基づいて指定された何れか一のモデル名(例えば、フラダンス等)の指定指示が、通信ネットワークN及び通信制御部303を介して入力される。動画処理部306の動き指定部306cは、記憶部305に記憶されている複数の動き情報M、…の中で、当該指定指示に係る動きモデルのモデル名と対応付けられている動き情報Mを設定する。また、サーバ3には、ユーザ端末2の表示部203に表示されている動画生成用ページの画面Pg内の複数の動きの速さの中で、ユーザによる操作入力部206の所定操作に基づいて指定された何れか一の速さ(例えば、標準等)の指定指示が、通信ネットワークN及び通信制御部303を介して入力される。動画処理部306の速さ指定部306fは、当該指定指示に係る速さを被写体画像Psの動きの速さとして設定する。
その後、動画処理部306の動画再生部306eは、設定された動き情報Mや動きの速さを動画像Qの動きの内容として所定の格納手段に登録する(ステップS92)。
具体的には、サーバ3には、ユーザ端末2の表示部203に表示されている動画生成用ページの画面Pg内の複数の曲名の中で、ユーザによる操作入力部206の所定操作に基づいて指定された何れか一の曲名の指定指示が、通信ネットワークN及び通信制御部303を介して入力される。動画処理部306は、当該指定指示に係る曲名の曲を設定する。
その後、中央制御部301のCPUは、処理をステップS10に移行させる。ステップS10の処理の内容については、後述する。
ここで、動画像Qの生成が可能な状態でないと判定されると(ステップS10;NO)、中央制御部301のCPUは、処理をステップS4に戻し、ユーザ端末2からの指示の内容に応じて処理を分岐させる(ステップS4)。
一方、動画像Qの生成が可能な状態であると判定されると(ステップS10;YES)、図4に示すように、中央制御部301のCPUは、処理をステップS13に移行させる。
即ち、ステップS11にて、ユーザ端末2の中央制御部201が、被写体画像Psの合成位置やサイズの修正指示が入力されていないと判定した後(ステップS11;NO)、ユーザによる操作入力部206の所定操作に基づいて入力された動画像Qのプレビュー指示を通信制御部202により所定の通信ネットワークNを介してサーバ3に送信させる(ステップS12)。
そして、ステップS13にて、サーバ3の中央制御部301のCPUによって、動画像Qのプレビュー指示が入力されたと判定されると(ステップS13;YES)、動画処理部306は、制御点Dbの位置や合成内容に修正があったか否かを判定する(ステップS14)。即ち、動画処理部306は、ステップS61にて、制御点Dbの位置が修正されたり、ステップS71にて、被写体画像Psの合成位置やサイズの修正が行われたか否かを判定する。
次に、動画処理部306の動画再生部306eは、設定済みの曲名に対応する演奏情報Tを動画像Qとともに自動的に演奏される情報として所定の格納手段に登録する(ステップS16)。
なお、ステップS14にて、制御点Dbの位置や合成内容に修正がなかったと判定されると(ステップS14;NO)、動画処理部306は、ステップS15の処理をスキップして、処理をステップS16に移行させる。
続けて、動画処理部306は、動画再生部306fによる所定の曲の演奏が終了したか否かを判定する(ステップS18)。
ここで、曲の演奏が終了していないと判定されると(ステップS18;NO)、動画処理部306の画像生成部306dは、動き情報Mに応じて変形させた被写体画像Psの基準フレーム画像Faを生成する(ステップS19;図8(b)参照)。具体的には、画像生成部306dは、格納手段に登録されている動き情報Mに従って所定の時間間隔で移動する複数の可動点Da、…の座標情報をそれぞれ取得して、当該可動点Daの各々に対応する各制御点Dbの座標を算出する。そして、画像生成部306dは、算出された座標に制御点Dbを逐次移動させていくとともに、制御点Dbの移動に応じて被写体画像Ps内に設定される所定の画像領域を移動させたり変形させることで、基準フレーム画像Faを生成する。
また、動画処理部306は、基準フレーム画像Faと背景画像(他の画像)Pbとを公知の画像合成手法を用いて合成する。具体的には、動画処理部306は、例えば、背景画像Pbの各画素のうち、アルファ値が「0」の画素は透過させ、アルファ値が「1」の画素は基準フレーム画像Faの対応する画素の画素値で上書きし、さらに、背景画像Pbの各画素のうち、アルファ値が「0<α<1」の画素は1の補数(1−α)を用いて基準フレーム画像Faの被写体領域を切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて基準フレーム画像Faを生成した際に単一背景色とブレンドした値を計算し、当該値を基準フレーム画像Faから減算し、それを被写体領域を切り抜いた画像(背景用画像×(1−α))と合成する。
また、動画処理部306は、補間フレーム画像Fbと背景画像(他の画像)Pbとを、上記基準フレーム画像Faの場合と同様に、公知の画像合成手法を用いて合成する。
次に、動画処理部306は、処理をステップS18に戻し、曲の演奏が終了したか否かを判定する(ステップS18)。
上記の処理は、ステップS18にて、曲の演奏が終了したと判定されるまで(ステップS18;YES)、繰り返し実行される。
そして、曲の演奏が終了したと判定されると(ステップS18;YES)、図5に示すように、中央制御部301のCPUは、処理をステップS4に戻し、ユーザ端末2からの指示の内容に応じて処理を分岐させる(ステップS4)。
具体的には、音出力部204は、演奏情報に基づいて曲を自動的に演奏してスピーカから放音するとともに、表示部203は、当該自動的に演奏される曲の所定のタイミングで基準フレーム画像Fa及び補間フレーム画像Fbからなるプレビュー動画を表示画面に表示する。
従って、複数の動き情報M、…の中で何れか一の動き情報Mを指定するという簡単な作業で、ユーザ所望の動きを再現した動画像Qを簡便に生成することができる。
例えば、上記実施形態にあっては、ユーザによるユーザ端末2の所定操作に基づいて、Webサーバとして機能するサーバ(動画生成装置)3によって動画像Qを生成するようにしたが、一例であってこれに限られるものではなく、動画生成装置の構成は適宜任意に変更可能である。即ち、動画像Qの生成に係る動画処理部306の機能をソフトウェアにより実現される構成として、ユーザ端末2にインストールすることで通信ネットワークNを必要とすることなく、当該ユーザ端末2単体で動画生成処理を行うようにしても良い。
なお、被写体切り抜き画像P2や動画像Qのデータには、ユーザによる所定の改変を禁止する制御情報を埋め込むようにしても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、設定処理ルーチン、指定処理ルーチン、フレーム画像生成処理ルーチン、動画像生成処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部301のCPUを、静止画像を取得する取得手段として機能させるようにしても良い。また、設定処理ルーチンにより中央制御部301のCPUを、取得手段により取得された静止画像内で複数の可動点Da、…に対応する各位置に動きの制御点Dbを複数設定する設定手段として機能させるようにしても良い。また、指定処理ルーチンにより中央制御部301のCPUを、記憶手段に記憶されている複数の動き情報M、…の中で、何れか一の動き情報Mを指定する指定手段として機能させるようにしても良い。また、フレーム画像生成処理ルーチンにより中央制御部301のCPUを、指定手段により指定された動き情報Mの複数の可動点Da、…の動きに基づいて、複数の制御点Dbを動かし、当該制御点Dbの動きに従って静止画像を変形させたフレーム画像Fを複数生成するフレーム画像生成手段として機能させるようにしても良い。また、動画像生成処理ルーチンにより中央制御部301のCPUを、フレーム画像生成手段により生成された複数のフレームFから動画像Qを生成する動画像生成手段として機能させるようにしても良い。
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
予め所定空間内における複数の可動点の動きを示す動き情報を複数記憶する記憶手段を備える動画生成装置を用いた動画生成方法であって、
静止画像を取得する取得ステップと、
前記取得ステップにて取得された静止画像内で前記複数の可動点に対応する各位置に動きの制御点を複数設定する設定ステップと、
前記記憶手段に記憶されている前記複数の動き情報の中で、何れか一の動き情報を指定する指定ステップと、
前記指定ステップにて指定された前記動き情報の前記複数の可動点の動きに基づいて、前記複数の制御点を動かし、当該制御点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成ステップと、
前記フレーム画像生成ステップにて生成された複数のフレームから動画像を生成する動画像生成ステップと、
を含むことを特徴とする動画生成方法。
<請求項2>
前記動き情報は、前記複数の可動点の動きが連続して表された動きモデルのモデル名と対応付けてそれぞれ記憶され、
前記指定ステップは、更に、
ユーザによる所定操作に応じた前記モデル名の指定に基づいて、当該モデル名と対応付けられている動き情報を指定することを特徴とする請求項1に記載の動画生成方法。
<請求項3>
前記動き情報は、前記複数の可動点を所定の踊りに対応させるように動かした動き情報を含むことを特徴とする請求項1又は2に記載の動画生成方法。
<請求項4>
前記取得ステップは、
前記静止画像として、背景と被写体とが存在する画像から被写体が含まれる領域が切り抜かれた切り抜き画像を取得し、
前記動画像生成ステップは、前記切り抜き画像から生成された複数のフレーム画像を他の画像に合成して動画像を生成することを特徴とする請求項1〜3の何れか一項に記載の動画生成方法。
<請求項5>
予め所定空間内における複数の可動点の動きを示す動き情報を複数記憶する記憶手段と、
静止画像を取得する取得手段と、
前記取得手段により取得された静止画像内で前記複数の可動点に対応する各位置に動きの制御点を複数設定する設定手段と、
前記記憶手段に記憶されている前記複数の動き情報の中で、何れか一の動き情報を指定する指定手段と、
前記指定手段により指定された前記動き情報の前記複数の可動点の動きに基づいて、前記複数の制御点を動かし、当該制御点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成手段と、
前記フレーム画像生成手段により生成された複数のフレームから動画像を生成する動画像生成手段と、
を備えたことを特徴とする動画生成装置。
<請求項6>
予め所定空間内における複数の可動点の動きを示す動き情報を複数記憶する記憶手段を備える動画生成装置のコンピュータを、
静止画像を取得する取得手段、
前記取得手段により取得された静止画像内で前記複数の可動点に対応する各位置に動きの制御点を複数設定する設定手段、
前記記憶手段に記憶されている前記複数の動き情報の中で、何れか一の動き情報を指定する指定手段、
前記指定手段により指定された前記動き情報の前記複数の可動点の動きに基づいて、前記複数の制御点を動かし、当該制御点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成手段、
前記フレーム画像生成手段により生成された複数のフレームから動画像を生成する動画像生成手段、
として機能させることを特徴とするプログラム。
1 撮像装置
2 ユーザ端末
3 サーバ
301 中央制御部
303 通信制御部
305 記憶部
306 動画処理部
306a 画像取得部
306b 制御点設定部
306c 動き指定部
306d 画像生成部
306e 動画再生部
C 記録媒体
M 動き情報
N 通信ネットワーク
Claims (13)
- 動体モデルに設定されている複数の可動点と、予め所定空間内における前記動体モデルの複数の可動点の動きを示す動き情報を記憶した動画生成装置を用いた動画生成方法であって、当該動画生成装置のコンピュータが、
静止画像を取得する取得ステップと、
前記取得ステップにて取得された静止画に対して、前記動体モデルと前記静止画像の大きさを合わせるように寸法の調整を行ない、前記動体モデルに設定されている複数の可動点を反映させる可動点反映ステップと、
前記可動点反映ステップにて反映された前記静止画像の前記複数の可動点を、前記動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成ステップと、
前記フレーム画像生成ステップにて生成された複数のフレームから動画像を生成する動画像生成ステップと、
を実行することを特徴とする動画生成方法。 - 前記動き情報は、前記複数の可動点の動きが連続して表された前記動体モデルのモデル名と対応付けてそれぞれ記憶され、
前記フレーム画像生成ステップは、ユーザによる所定操作に応じた前記モデル名と対応付けられている動き情報の前記複数の可動点の動きに基づいて、前記静止画像の前記複数の可動点を動かすことを特徴とする請求項1に記載の動画生成方法。 - 前記動き情報は、前記複数の可動点を所定のダンスに対応させるように動かした動き情報を含むことを特徴とする請求項1又は2に記載の動画生成方法。
- 前記取得ステップは、
前記静止画像として、背景と被写体とが存在する画像から被写体が含まれる領域が切り抜かれた切り抜き画像を取得し、
前記動画像生成ステップは、前記切り抜き画像から生成された複数のフレーム画像を他の画像に合成して動画像を生成することを特徴とする請求項1〜3の何れか一項に記載の動画生成方法。 - 前記フレーム画像生成ステップは、動画と共に再生する曲の進行度合いに応じてフレーム間の補間画像を生成することを特徴とする請求項1〜4の何れか一項に記載の動画生成方法。
- 前記動画生成装置は、前記動き情報を複数記憶し、
前記フレーム画像生成ステップは、前記可動点反映ステップにて反映された前記静止画像の前記複数の可動点を、前記複数の動き情報の中の何れか一つの動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成することを特徴とする請求項1〜5の何れか一項に記載の動画生成方法。 - 動体モデルに設定されている複数の可動点と、
予め所定空間内における前記動体モデルの複数の可動点の動きを示す動き情報を記憶する記憶手段と、
静止画像を取得する取得手段と、
前記取得手段により取得された静止画像に対して、前記動体モデルと前記静止画像の大きさを合わせるように寸法の調整を行ない、前記動体モデルに設定されている複数の可動点を反映させる可動点反映手段と、
前記可動点反映手段により反映された前記静止画像の前記複数の可動点を、前記動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成手段と、
前記フレーム画像生成手段により生成された複数のフレームから動画像を生成する動画像生成手段と、
を備えたことを特徴とする動画生成装置。 - 前記動き情報は、前記複数の可動点の動きが連続して表された前記動体モデルのモデル名と対応付けてそれぞれ記憶され、
前記フレーム画像生成手段は、ユーザによる所定操作に応じた前記モデル名と対応付けられている動き情報の前記複数の可動点の動きに基づいて、前記静止画像の前記複数の可動点を動かすことを特徴とする請求項7に記載の動画生成装置。 - 前記動き情報は、前記複数の可動点を所定のダンスに対応させるように動かした動き情報を含むことを特徴とする請求項7又は8に記載の動画生成装置。
- 前記取得手段は、
前記静止画像として、背景と被写体とが存在する画像から被写体が含まれる領域が切り抜かれた切り抜き画像を取得し、
前記動画像生成手段は、前記切り抜き画像から生成された複数のフレーム画像を他の画像に合成して動画像を生成することを特徴とする請求項7〜9の何れか一項に記載の動画生成装置。 - 前記フレーム画像生成手段は、動画と共に再生する曲の進行度合いに応じてフレーム間の補間画像を生成することを特徴とする請求項7〜10の何れか一項に記載の動画生成装置。
- 前記記憶手段は、前記動き情報を複数記憶し、
前記フレーム画像生成手段は、前記可動点反映手段により反映された前記静止画像の前記複数の可動点を、前記複数の動き情報の中の何れか一つの動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成することを特徴とする請求項7〜11の何れか一項に記載の動画生成装置。 - 動体モデルに設定されている複数の可動点と、予め所定空間内における前記動体モデルの複数の可動点の動きを示す動き情報を記憶する記憶手段を備える動画生成装置のコンピュータを、
静止画像を取得する取得手段、
前記取得手段により取得された静止画像に対して、前記動体モデルと前記静止画像の大きさを合わせるように寸法の調整を行ない、前記動体モデルに設定されている複数の可動点を反映させる可動点反映手段、
前記可動点反映手段により反映された前記静止画像の前記複数の可動点を、前記動き情報に基づいて動かし、当該可動点の動きに従って前記静止画像を変形させたフレーム画像を複数生成するフレーム画像生成手段、
前記フレーム画像生成手段により生成された複数のフレームから動画像を生成する動画像生成手段、
として機能させることを特徴とするプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011125663A JP5434965B2 (ja) | 2011-06-03 | 2011-06-03 | 動画生成方法、動画生成装置及びプログラム |
US13/483,343 US20120237186A1 (en) | 2011-03-06 | 2012-05-30 | Moving image generating method, moving image generating apparatus, and storage medium |
CN2012101738343A CN102811352A (zh) | 2011-06-03 | 2012-05-30 | 运动图像生成方法及运动图像生成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011125663A JP5434965B2 (ja) | 2011-06-03 | 2011-06-03 | 動画生成方法、動画生成装置及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012252597A JP2012252597A (ja) | 2012-12-20 |
JP2012252597A5 JP2012252597A5 (ja) | 2013-03-21 |
JP5434965B2 true JP5434965B2 (ja) | 2014-03-05 |
Family
ID=46828524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011125663A Expired - Fee Related JP5434965B2 (ja) | 2011-03-06 | 2011-06-03 | 動画生成方法、動画生成装置及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20120237186A1 (ja) |
JP (1) | JP5434965B2 (ja) |
CN (1) | CN102811352A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7396766B2 (ja) | 2020-03-02 | 2023-12-12 | 第一実業ビスウィル株式会社 | 整列供給装置 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5655713B2 (ja) * | 2011-06-03 | 2015-01-21 | カシオ計算機株式会社 | 動画再生装置、動画再生方法及びプログラム |
WO2014188235A1 (en) * | 2013-05-24 | 2014-11-27 | Nokia Corporation | Creation of a cinemagraph file |
JP2015011480A (ja) * | 2013-06-27 | 2015-01-19 | カシオ計算機株式会社 | 画像生成装置、画像生成方法及びプログラム |
CN106128355A (zh) * | 2016-07-14 | 2016-11-16 | 北京智能管家科技有限公司 | 一种led灯阵的显示方法及装置 |
KR102361570B1 (ko) | 2017-05-19 | 2022-02-11 | 구글 엘엘씨 | 환경 센서 데이터를 사용하는 효율적 이미지 분석 방법, 시스템 및 미디어 |
JP7087290B2 (ja) * | 2017-07-05 | 2022-06-21 | カシオ計算機株式会社 | 自律移動装置、自律移動方法及びプログラム |
CN109068069A (zh) * | 2018-07-03 | 2018-12-21 | 百度在线网络技术(北京)有限公司 | 视频生成方法、装置、设备及存储介质 |
JP7111088B2 (ja) | 2019-01-24 | 2022-08-02 | カシオ計算機株式会社 | 画像検索装置、学習方法及びプログラム |
CN110072047B (zh) * | 2019-01-25 | 2020-10-09 | 北京字节跳动网络技术有限公司 | 图像形变的控制方法、装置和硬件装置 |
CN110324534B (zh) * | 2019-07-10 | 2021-08-20 | 厦门美图之家科技有限公司 | 图像处理方法、装置及电子设备 |
CN113209618B (zh) * | 2021-06-01 | 2023-04-28 | 腾讯科技(深圳)有限公司 | 虚拟角色的控制方法、装置、设备及介质 |
US20220406337A1 (en) * | 2021-06-21 | 2022-12-22 | Lemon Inc. | Segmentation contour synchronization with beat |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1040407A (ja) * | 1996-07-24 | 1998-02-13 | Nippon Telegr & Teleph Corp <Ntt> | 動画生成方法および装置 |
JP3384314B2 (ja) * | 1997-12-02 | 2003-03-10 | ヤマハ株式会社 | 楽音応答画像生成システム、方法、装置、及び、そのための記録媒体 |
JP2007004732A (ja) * | 2005-06-27 | 2007-01-11 | Matsushita Electric Ind Co Ltd | 画像生成装置及び画像生成方法 |
JP2007018388A (ja) * | 2005-07-08 | 2007-01-25 | Univ Of Tokyo | モーション作成装置およびモーション作成方法並びにこれらに用いるプログラム |
US20070059676A1 (en) * | 2005-09-12 | 2007-03-15 | Jinnyeo Jeong | Interactive animation for entertainment and instruction using networked devices |
JP2007323293A (ja) * | 2006-05-31 | 2007-12-13 | Urumadelvi & Productions Inc | 画像処理装置及び画像処理方法 |
WO2009031155A2 (en) * | 2007-09-06 | 2009-03-12 | Yeda Research And Development Co. Ltd. | Modelization of objects in images |
JP5028225B2 (ja) * | 2007-11-06 | 2012-09-19 | オリンパスイメージング株式会社 | 画像合成装置、画像合成方法、およびプログラム |
JP2009128923A (ja) * | 2007-11-19 | 2009-06-11 | Brother Ind Ltd | 画像生成装置及びそのプログラム |
US20100118033A1 (en) * | 2008-11-10 | 2010-05-13 | Vistaprint Technologies Limited | Synchronizing animation to a repetitive beat source |
-
2011
- 2011-06-03 JP JP2011125663A patent/JP5434965B2/ja not_active Expired - Fee Related
-
2012
- 2012-05-30 CN CN2012101738343A patent/CN102811352A/zh active Pending
- 2012-05-30 US US13/483,343 patent/US20120237186A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7396766B2 (ja) | 2020-03-02 | 2023-12-12 | 第一実業ビスウィル株式会社 | 整列供給装置 |
Also Published As
Publication number | Publication date |
---|---|
CN102811352A (zh) | 2012-12-05 |
JP2012252597A (ja) | 2012-12-20 |
US20120237186A1 (en) | 2012-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5434965B2 (ja) | 動画生成方法、動画生成装置及びプログラム | |
JP5454604B2 (ja) | 動画再生方法、動画再生装置及びプログラム | |
JP5375897B2 (ja) | 画像生成方法、画像生成装置及びプログラム | |
JP2000172869A (ja) | 演奏画像情報作成装置および再生装置 | |
JP2011175598A (ja) | 手話アニメーション生成装置及び手話アニメーション生成プログラム | |
JP5408205B2 (ja) | 制御点設定方法、制御点設定装置及びプログラム | |
WO2018173791A1 (ja) | 画像処理装置および方法、並びにプログラム | |
JP2003044046A (ja) | 情報処理装置及び情報処理方法、並びに記憶媒体 | |
JP2006196017A (ja) | アニメーション作成装置および方法、記憶媒体 | |
JP2011221718A (ja) | 生成装置、生成方法、及びプログラム | |
JP5776442B2 (ja) | 画像生成方法、画像生成装置及びプログラム | |
JP5906897B2 (ja) | 動き情報生成方法、動き情報生成装置及びプログラム | |
JP5408206B2 (ja) | 画像生成方法、画像生成装置及びプログラム | |
JP5919926B2 (ja) | 画像生成方法、画像生成装置及びプログラム | |
JP5891883B2 (ja) | 画像生成方法、画像生成装置及びプログラム | |
JP5874426B2 (ja) | 制御点設定方法、制御点設定装置及びプログラム | |
JP3523784B2 (ja) | 対話型画像操作表示装置および方法並びにプログラム格納媒体 | |
JP6043610B2 (ja) | 合成動画コンテンツの生成システム | |
JP4967983B2 (ja) | 情報記録装置及びプログラム | |
JP5490480B2 (ja) | 動画作成装置、コンピュータプログラム及び記憶媒体 | |
JP4335087B2 (ja) | 音付映像の再生装置 | |
KR20070098364A (ko) | 3차원 영상 데이터를 코드화하여 저장하는 장치 및 방법 | |
JP2009206986A (ja) | 画像出力装置及び画像出力方法 | |
JP2006140867A (ja) | 映像編集装置およびその方法 | |
JP2006048901A (ja) | マルチメディア情報再生装置およびマルチメディア情報記録装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130131 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130618 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130827 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131003 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5434965 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |
|
LAPS | Cancellation because of no payment of annual fees |