JP4282583B2 - 動画編集装置及び方法 - Google Patents

動画編集装置及び方法 Download PDF

Info

Publication number
JP4282583B2
JP4282583B2 JP2004315379A JP2004315379A JP4282583B2 JP 4282583 B2 JP4282583 B2 JP 4282583B2 JP 2004315379 A JP2004315379 A JP 2004315379A JP 2004315379 A JP2004315379 A JP 2004315379A JP 4282583 B2 JP4282583 B2 JP 4282583B2
Authority
JP
Japan
Prior art keywords
trimming
moving image
image data
data
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004315379A
Other languages
English (en)
Other versions
JP2006129124A (ja
Inventor
貴則 山田
康洋 中村
伸男 楠本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2004315379A priority Critical patent/JP4282583B2/ja
Publication of JP2006129124A publication Critical patent/JP2006129124A/ja
Application granted granted Critical
Publication of JP4282583B2 publication Critical patent/JP4282583B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、動画編集装置及び方法、より詳細には、任意の形式の動画データに含まれる任意のターゲットを追跡してトリミング処理を行うための動画編集装置及びその方法に関する。
動画データ中から任意の物体(ターゲット)の周辺の矩形領域を切り出す映像編集技術として、ターゲットとなる物体を追跡することによって、トリミング領域を決める方法がある。一般に、ターゲットを追跡する方法として参照画像を用いてマッチングを行うことにより行うが、この方法は入力画像サイズが大きくなると計算量が爆発的に増えてしまうという欠点がある。
これを解決するため、例えば、特許文献1には、参照画像とのマッチングを、画像全域にわたってマッチングを計算するのではなく、操作者により指定された大きさの、対象物体付近の画像ブロックとのみマッチングを行うようにしたものが開示されている。
図10は、従来の手法による物体追跡の過程を示す図である。この手法では、まず、追跡する物体の静止画像を操作者の手で指定し、図10(A)に示すように、その領域を特定の大きさのブロックを格子状に分割する。そしてブロックの周辺領域においてマッチングを行い、特徴的なブロック、すなわち周辺領域のブロックとの類似度の低いブロックを選択する。図10(B)に選択されたブロックの例を示す。
次に、参照画像中のブロックに含まれる画像と、他時刻の画像中の周辺領域のマッチングを行い、移動ベクトルを計算する。各ブロックの移動ベクトルは図10(C)に示すようになる。しかし、この移動ベクトルは実際に物体が移動した場合のベクトルとは誤差があるため、物体移動がアフィン変換モデルで表現できると仮定し、アフィンパラメータを推定することで物体移動を推定し、物体を追跡する。図10(D)はアフィンパラメータを推定して物体位置推定を行った後のブロック位置を示す。
特開2000−132691号公報
しかしながら、上記特許文献1に記載の発明によれば、マッチングの計算量を軽減するが、それでもたとえば携帯端末のようなパフォーマンスの低いプラットフォームで使うには処理負荷が大きい。また、参照画像を指定する方法では、トリミングを行う対象物体が動画中で入れ替わったり変化したりする場合に対応するのは困難である。
本発明は、上述のごとき実情に鑑みてなされたものであり、動画データに含まれる複数の画像に対してトリミング領域を容易に指定できるようにすると共に、複数の画像に指定されたトリミング領域間を補間してトリミング処理を行えるようにすること、を目的としてなされたものである。すなわち、補間を行う際の計算量を少なくすることで前者の課題を解決し、参照画像を用いないことで後者の課題を解決することをその目的とする。
上記課題を解決するために、本発明の第1の技術手段は、任意の形式の動画データを編集するための動画編集装置であって、動画データを圧縮/伸張する動画圧縮伸張手段と、該動画圧縮伸張手段により伸張した動画データを表示する表示手段と、該表示手段に動画データを表示させながら、該動画データに含まれる複数の画像に対して、ユーザによる再生,停止,一時停止の操作入力を受け付け、停止中又は一時停止中において前記表示手段に表示される画像上でユーザがトリミング領域を指定するための操作入力手段と、該操作入力手段により前記複数の画像に指定されたトリミング領域間を補間するための複数の補間パターンを有するトリミング処理手段と、該トリミング処理手段によるトリミング処理後の動画データを記憶する記憶手段とを備え、前記トリミング処理手段は、前記複数の画像に指定されたトリミング領域間の時間及びその補間フレームの生成時間に基づいて算出される移動予測ベクトルと、前記動画圧縮伸張手段により伸張される前の前記動画データから取得される動きベクトルとの差分が閾値未満か否かを判定し、前記差分が閾値以上であると判定した場合、前記複数の補間パターンの中から、前記操作入力手段によりユーザが選択した補間パターンを用いて前記トリミング領域間を補間し、前記差分が閾値未満であると判定した場合、前記動きベクトルを用いて、前記トリミング領域間を補間することを特徴としたものである。
の技術手段は、第の技術手段において、前記表示手段は、トリミング処理前の動画データ,トリミング処理後の動画データのプレビューデータ,前記操作入力手段によるユーザインターフェイスを表示することを特徴としたものである。
の技術手段は、第の技術手段において、前記記憶手段は、前記トリミング処理前の動画データ及び前記トリミング処理後の動画データを記憶することを特徴としたものである。
の技術手段は、任意の形式の動画データを編集するための動画編集装置による動画編集方法であって、前記動画編集装置が、動画データを圧縮/伸張する動画圧縮伸張ステップと、該動画圧縮伸張ステップにて伸張した動画データを表示する表示ステップと、該表示ステップにて動画データを表示させながら、該動画データに含まれる複数の画像に対して、ユーザによる再生,停止,一時停止の操作入力を受け付け、停止中又は一時停止中において前記表示ステップにて表示される画像上でユーザがトリミング領域を指定する操作入力ステップと、該操作入力ステップにて前記複数の画像に指定されたトリミング領域間を補間するトリミング処理ステップと、該トリミング処理ステップにおけるトリミング処理後の動画データを記憶する記憶ステップとを備え、前記トリミング処理ステップは、前記複数の画像に指定されたトリミング領域間の時間及びその補間フレームの生成時間に基づいて算出される移動予測ベクトルと、前記動画圧縮伸張手段により伸張される前の前記動画データから取得される動きベクトルとの差分が閾値未満か否かを判定し、前記差分が閾値以上であると判定した場合、複数の補間パターンの中から、前記操作入力ステップにてユーザが選択した補間パターンを用いて前記トリミング領域間を補間し、前記差分が閾値未満であると判定した場合、前記動きベクトルを用いて、前記トリミング領域間を補間することを特徴としたものである。
本発明によれば、動画データに含まれる複数の画像に対してトリミング領域を容易に指定できるようにすると共に、複数の画像に指定されたトリミング領域間を補間してトリミング処理を行えるために、パターンマッチングなどの比較的計算負荷の高い処理を行わずにすみ、携帯電話のようなパフォーマンスの低いプラットフォームでも編集が可能となる。また、参照画像を用いないために、トリミングを行う対象物体が動画中で入れ替わったり変化したりする場合にも対応が可能となる。
本発明による動画編集装置の実施形態の一例を図1乃至図9に基づいて以下に説明する。
図1は、本発明の一実施形態に係る動画編集装置の構成例を示すブロック図で、図中、10は動画編集装置で、該動画編集装置10は、操作入力部(以下、GUI部)11、動作管理部12、動画圧縮伸張部13、トリミング処理部14、表示部18、記憶部19を備えている。この動画編集装置は動画再生装置としての役割も果たす。尚、本発明の動画編集装置10は、動画データを記録、再生する機能を備えた携帯端末などに好適に適用することができる。
動画圧縮伸張部13は、記憶部19から動画データ20を取得し、復号(伸張)して表示部18へ送信する。記憶部19から取得した動画データが音声など画像以外のデータを含む場合はそれらを分離する処理を行う。また、動画圧縮伸張部13は、伸張された動画データを符号化(圧縮)して記憶部19に格納する。トリミング処理部14は、動画圧縮伸張部13により伸張された動画データのトリミング処理を行うための手段で、領域決定部15、トリミングデータ記憶部16、トリミング画像生成部17から構成される。
図2は、領域決定部15の構成例を示すブロック図で、領域決定部15は、動きベクトル解析部151、フレーム間隔解析部152、領域補間部153を含むものとする。また、図3は、トリミングデータ記憶部16の構成例を示すブロック図で、トリミングデータ記憶部16は、後述する図4に示すトリミング情報161、トリミングされた動画データ162を格納し、記憶部19の記憶領域の一部であってもよい。領域決定部15は、GUI部11より入力される情報をトリミング情報161としてトリミングデータ記憶部16に格納する。また、領域決定部15は、トリミング情報161と、動画データより得られる動きベクトル情報に基づいて、動画データ中の物体を追跡しながらトリミング領域の補間を行う。
トリミング画像生成部17は、領域決定部15で決定されたトリミング領域の画像データをトリミングデータ記憶部16のバッファに書き込む。表示部18は、動画圧縮伸張部13において復号された(トリミング前の)動画データ、トリミングされた(トリミング後の)動画データ(プレビューデータ)、GUIなどを表示するためのLCDなどのディスプレイである。
記憶部19は、圧縮された状態の動画データ20を保持するための記録媒体であって、例えば、磁気ディスクや半導体メモリなどで構成される。また、GUI部11は、各種の操作入力を行うためにユーザインタフェースであって、トリミングを行うためのツール群を有する。また、GUI部11は、トリミング処理前の動画の再生、一時停止、停止、シークバーによる再生位置指定などの操作入力を可能とし、一時停止中または停止中において表示部18に表示される画像に対してトリミング領域の指定や、補間パターンの指定を行うための手段を備える。動作管理部12は、GUI部11、動画圧縮伸張部13、トリミング処理部14、表示部18を統括的に処理するための制御/管理部である。
ここで、トリミング処理部14は、動画データ20に含まれる複数の画像(フレーム)に指定されたトリミング領域間を補間するための補間パターンを、ユーザにより任意に編集できるようにしたり、新規登録することができるようにしてもよい。これらの補間パターンはトリミングデータ記憶部16などに予め登録されていてもよいし、トリミング領域を手動で編集している最中に作成したパターンを登録できるようにしてもよい。
図4は、図3に示したトリミング情報161の構成例を示す図で、トリミング情報161は、切り出し画像サイズ1612、トリミングの開始・終了時刻1613を保持し、また、対象ファイル名1611を記述しておく。トリミング領域を示す情報として、指定されたフレームの再生開始時刻からの時間tn、トリミング領域を示す代表座標Xn、前に指定されたトリミング領域との間の補間パターンPnの3つをまとめて記述しておく。尚、トリミングの先頭フレームの場合、補間パターンは指定されない。すなわち、補間パターンP1は指定されない。本例では、トリミング領域を示す代表座標として、指定領域の左上端座標を用いることとしている。
図5は、図1に示した動画編集装置10の動作例を説明するためのフロー図である。ここでは主にGUIを用いてトリミング領域を指定するシーケンスについて説明する。最初に、操作者は、動画編集装置10に対してトリミング元となる動画ファイルを指定し(ステップS1)、動画編集装置10は、指定された動画ファイルの情報を記憶部19から取得し(ステップS2)、取得した動画ファイルを動画圧縮伸張部13に読み込んで、その動画ファイルの再生時間、符号化方式などの情報を取得する(ステップS3)。以降、操作者からの操作指示をGUI部11で受け付けることにより、動画の再生、停止、一時停止、指定時間からの再生などを行えるものとする。
次に、操作者は、動画の再生などを行いながら、動画編集装置10に対してトリミングの開始時刻と終了時刻を指定する(ステップS4)。この操作を行わない場合は動画の先頭フレームから終端フレームまでをトリミング期間とする。動画編集装置10は、トリミングの開始時刻と終了時刻が指定されたら、最初のトリミングフレームを復号して表示部18に表示する(ステップS5)。
次に、操作者は、動画編集装置10に対して切り出す画像の(トリミング)サイズを指定する(ステップS6)。これは、数値で指定する方法や、QCIF,CIF,QVGAなど、あらかじめ指定されたものから選択する方法をとることができる。また、表示部18にトリミングするターゲット(対象)が表示されているならば、GUI部11に用意された領域選択ツールを用いて画像領域を選択することで指定することもできる。
次に、操作者は、表示部18に表示されているフレーム(画像)において、トリミング領域を指定する(ステップS7)。トリミング領域は、ターゲットとなる物体などの中心座標を領域選択ツールで選択することで指定することができる。指定された領域が画像の領域の外部に及ぶ場合には、内部に収まるように適宜補正することとする。ここで、操作者によってトリミング領域を指定されたフレーム数を示すパラメータをMとし、このパラメータMを1に初期化する(ステップS8)。これ以降、パラメータMは操作者がトリミング領域を指定する毎にインクリメントされる。
次に、操作者は、動画編集装置10により動画を再生し(ステップS9)、トリミング領域を指定するフレームを探す。これは、適当な時間間隔で指定してもよいし、ターゲットが移動方向や速度を変えたときに指定するなどするとよい。
操作者は、表示部18に表示されるフレーム(画像)を一時停止するかどうかを判断し(ステップS10)、トリミング領域を指定したいフレームが表示されたら一旦一時停止させ(YESの場合)、そのフレームに対してGUI部11の領域選択ツールによりトリミング領域を指定する(ステップS11)。動画編集装置10はパラメータMを1だけインクリメントする(ステップS12)。
次に、動画編集装置10は、前回指定されたトリミング領域と今回指定されたトリミング領域の間をどのように補間するか、すなわちターゲットがどのように移動したのかを示す補間パターンのリストを表示部18に表示させ、操作者はこの補間パターンリストから所望の補間パターンを選択する(ステップS13)。動画編集装置10は、操作者により選択された補間パターンにより、実際にどのようにトリミング領域間が補間されるのかをプレビュー表示し(ステップS14)、操作者は、このプレビュー表示に基づいて、選択した補間パターンでよいかどうかを判断し(ステップS15)、選択した補間パターンでよければ(YESの場合)、動画編集装置10は、指定されたトリミング領域の左上端座標、時間、補間パターンなどをトリミング情報として保存する(ステップS16)。また、上記ステップS15において、選択した補間パターンでよくない、修正等を行いたい場合(NOの場合)、ステップS13に戻り処理を繰り返す。
次に、操作者は、トリミング領域を継続して指定するかどうかを判断し(ステップS17)、継続して指定する場合(YESの場合)、動画の再生を再開し(ステップS18)、ステップS10に戻り処理を繰り返す。また、上記ステップS17において、継続して指定しない場合(NOの場合)、そのフレームをトリミング終了時刻であるものとし、トリミング処理を行う(ステップS19)。
また、上記ステップS10において、操作者は表示部18に表示されるフレームを一時停止しない場合(NOの場合)、動画編集装置10は、動画の再生中に指定されたトリミング期間の最後のフレームに達したかどうかを判断し(ステップS20)、最後のトリミングフレームに達していない場合(NOの場合)、ステップS10に戻り処理を繰り返す。また、上記ステップS20において、最後のトリミングフレームに達した場合(YESの場合)、そこで一時停止し、パラメータMを1だけインクリメントし(ステップS21)、操作者は最終フレームのトリミング領域を指定し(ステップS22)、補間パターンを選択し(ステップS23)、選択された補間パターンにより、実際にどのようにトリミング領域間が補間されるのかをプレビュー表示する(ステップS24)。
操作者は、上記プレビュー表示に基づいて、選択した補間パターンでよいかどうかを判断し(ステップS25)、選択した補間パターンでよければ(YESの場合)、動画編集装置10は、指定されたトリミング領域の左上端座標、時間、補間パターンなどをトリミング情報として保存し、トリミング処理を行う(ステップS19)。また、上記ステップS25において、選択した補間パターンでよくない、修正等を行いたい場合(NOの場合)、ステップS23に戻り処理を繰り返す。
本実施形態では、動画の再生と一時停止を繰り返しながら領域指定する方法を挙げたが、必ずしも時系列どおりに指定する必要はなく、シークバーを用いるなどして任意の位置に指定することもできる。ただし、すでに補間パターンが決まっている時刻範囲内に領域を指定した場合、補間パターンの再設定が必要となる。
図6は、トリミング領域を指定したときの補間パターンをイメージ化した状態を示す図で、図中、21はm−1番目に指定されたトリミング領域、22はトリミング領域間の補間パターン(トリミング領域の移動方向)、23はm番目に指定されたトリミング領域、24はm+1番目に指定されたトリミング領域、25はm+2番目に指定されたトリミング領域を示す。
図7は、直線的に補間する場合の補間パターンのイメージを示す図で、図中、31はm番目に指定されたトリミング領域、32はトリミング領域間の補間パターン、33はm+1番目に指定されたトリミング領域を示す。本例は、m番目に指定されたトリミング領域と、m+1番目に指定されたトリミング領域との間を補間パターン32で補間している。
図8は、図1に示した動画編集装置10の他の動作例を説明するためのフロー図である。ここでは図5に示した過程において指定されたトリミング情報161に基づいて補間を行うシーケンスについて説明する。尚、本例では指定されたトリミング領域間を直線的に補間する場合を代表例として説明する。また、図9は、指定された2フレーム間における補間処理の一例を示す図である。図9(A)は指定された2フレーム間の時間Tと画像フレーム生成時間ΔTの関係を示す図である。図9(B)は予測されるトリミング領域を示す図で、図中、41はm番目に指定されたトリミング領域、42は行動予測ベクトルUにより予測されるトリミング領域、43は動きベクトルによる行動予測ベクトルVmにより予測されるトリミング領域、44はm+1番目に指定されたトリミング領域を示す。ここで、トリミング処理は、トリミング領域を指定された2つのフレーム間の補間をすることを1単位とし、これを指定されたフレーム数−1回(M−1回)繰り返す。
図9(A)に2フレーム間の時間Tと画像フレームデータ生成時間ΔTを示し、図9(B)に2フレーム間で指定領域がどのように移動したかを示すベクトル(X,Y)を示すものとする。
図8において、まず、動画編集装置10は、2フレーム分のトリミング情報161を読み込み(ステップS31)、座標(X,Y)、2フレーム間のフレーム数N、時間Tを計算する(ステップS32)。1フレーム分の画像データを読み込み(ステップS33)、画像フレームデータ生成時間ΔTを算出し(ステップS34)、1フレームの移動予測ベクトルUを計算する(ステップS35)。この移動予測ベクトルUの計算は下記の式(1)で行う。
U=ΔT/T(X,Y) ・・・式(1)
しかし、上記移動予測ベクトルUのみを領域補間に用いると、ターゲットが等速で動いた場合を除いて、移動量に誤差が生じる。そこで、動画符号化に用いられている動きベクトルを利用してこの誤差を小さくする。今日利用されている動画像圧縮方式(MPEG−4、H.263など)では、多くの場合動きベクトルを用いており、これを利用することができる。しかし、この動きベクトルは、あくまでも画像の類似度の高さから算出されたものであり、必ずしも物体の移動方向を示しているとは限らないため、これが信頼できるときのみ用いることとする。
指定されたトリミング領域に含まれるマクロブロックの動きベクトルの平均値、あるいは指定されたトリミング領域の中心付近のマクロブロックの動きベクトルの平均値をVとし、−Vをターゲットの移動量の候補値Vmとする。ただし、動きベクトルは必ずしもターゲットの動作方向、動作量を示すものではないので、移動予測ベクトルUに近い値である場合のみ、これを信頼できる値であるものとして用い、そうでなければ用いない。これは、
|Vm−U|<k ・・・式(2)
但し、kは閾値
が成立するかどうかで判断する(ステップS36)。
上記ステップS36において、動きベクトルによる移動予測ベクトルVmとUの差の絶対値が閾値k未満の場合(YESの場合)、すなわち、動きベクトルによる移動予測ベクトルVmを用いる場合、補間するトリミング領域は前のトリミング領域からVm移動した領域とする(ステップS37)。また、動きベクトルによる移動予測ベクトルVmとUの差の絶対値が閾値k以上の場合(NOの場合)、すなわち、動きベクトルによる移動予測ベクトルVmを用いない場合、前のトリミング領域から、上記U移動した領域を補間領域とする(ステップS38)。ただし、Uの積算により移動すると仮定した場合のトリミング領域からの距離が一定値以上である場合にUを用いることとする。
次に、動画編集装置10は、補間領域が決定したら、その補間領域の画像データを表示部18のバッファに書き込み、表示部18でプレビュー表示させたり、動画圧縮伸張部13に渡し、ここで符号化してファイルとして記憶部19に格納する(ステップS39)。
次に、動画編集装置10は、指定されたフレームまでの補間が完了したかどうかを判断し(ステップS40)、補間が完了している場合(YESの場合)、トリミング終了時刻に達したかどうかを判断する(ステップS41)。また、上記ステップS40において、補間が完了していない場合(NOの場合)、ステップS33に戻り処理を繰り返す。
また、上記ステップS41において、トリミング終了時刻に達した場合(YESの場合)、そのまま終了し、トリミング終了時刻に達していない場合(NOの場合)、ステップS31に戻り処理を繰り返す。
以上が指定された2フレーム間でトリミングを行う方法であり、ステップS31からステップS41のステップをM−1回繰り返し、動画全体のトリミングを行う。
以上、本発明の動画編集装置における各機能を中心に各実施形態を説明してきたが、本発明は、動画編集装置における各ステップを実行する方法としても説明したように動画編集方法としての形態もとることができる。また、この動画編集装置として機能させるためのプログラムとしての形態も、また、そのプログラムを記録した記録媒体としての形態も可能である。
本発明の一実施形態に係る動画編集装置の構成例を示すブロック図である。 領域決定部の構成例を示すブロック図である。 トリミングデータ記憶部の構成例を示すブロック図である。 図3に示したトリミング情報の構成例を示す図である。 図1に示した動画編集装置の動作例を説明するためのフロー図である。 トリミング領域を指定したときの補間パターンをイメージ化した状態を示す図である。 直線的に補間する場合の補間パターンのイメージを示す図である。 図1に示した動画編集装置の他の動作例を説明するためのフロー図である。 指定された2フレーム間における補間処理の一例を示す図である。 従来の手法による物体追跡の過程を示す図である。
符号の説明
10…動画編集装置、11…操作入力部(GUI部)、12…動作管理部、13…動画圧縮伸張部、14…トリミング処理部、15…領域決定部、151…動きベクトル解析部、152…フレーム間隔解析部、153…領域補間部、16…トリミングデータ記憶部、161…トリミング情報、162…トリミングされた動画データ、1611…対象ファイル名、1612…切り出し画像サイズ、1613…トリミング開始・終了時刻、17…トリミング画像生成部、18…表示部、19…記憶部、20…動画ファイル、21…m−1番目に指定されたトリミング領域、22,32…補間パターン、23,31,41…m番目に指定されたトリミング領域、24,33,44…m+1番目に指定されたトリミング領域、25…m+2番目に指定されたトリミング領域、42…移動予測ベクトルUにより予測されるトリミング領域、43…動きベクトルによる移動予測ベクトルVmにより予測されるトリミング領域。

Claims (4)

  1. 任意の形式の動画データを編集するための動画編集装置であって、
    動画データを圧縮/伸張する動画圧縮伸張手段と、
    動画圧縮伸張手段により伸張した動画データを表示する表示手段と、
    表示手段に動画データを表示させながら、該動画データに含まれる複数の画像に対して、ユーザによる再生,停止,一時停止の操作入力を受け付け、停止中又は一時停止中において前記表示手段に表示される画像上でトリミング領域をユーザが指定するための操作入力手段と、
    該操作入力手段により前記複数の画像に指定されたトリミング領域間を補間するための複数の補間パターンを有するトリミング処理手段と、
    該トリミング処理手段によるトリミング処理後の動画データを記憶する記憶手段とを備え、
    前記トリミング処理手段は、前記複数の画像に指定されたトリミング領域間の時間及びその補間フレームの生成時間に基づいて算出される移動予測ベクトルと、前記動画圧縮伸張手段により伸張される前の前記動画データから取得される動きベクトルとの差分が閾値未満か否かを判定し、
    前記差分が閾値以上であると判定した場合、前記複数の補間パターンの中から、前記操作入力手段によりユーザが選択した補間パターンを用いて前記トリミング領域間を補間し、前記差分が閾値未満であると判定した場合、前記動きベクトルを用いて、前記トリミング領域間を補間することを特徴とする動画編集装置。
  2. 前記表示手段は、トリミング処理前の動画データ,トリミング処理後の動画データのプレビューデータ,前記操作入力手段によるユーザインターフェイスを表示することを特徴とする請求項に記載の動画編集装置。
  3. 前記記憶手段は、前記トリミング処理前の動画データ及び前記トリミング処理後の動画データを記憶することを特徴とする請求項2に記載の動画編集装置。
  4. 任意の形式の動画データを編集するための動画編集装置による動画編集方法であって、
    前記動画編集装置が、動画データを圧縮/伸張する動画圧縮伸張ステップと、
    該動画圧縮伸張ステップにて伸張した動画データを表示する表示ステップと、
    該表示ステップにて動画データを表示させながら、該動画データに含まれる複数の画像に対して、ユーザによる再生,停止,一時停止の操作入力を受け付け、停止中又は一時停止中において前記表示ステップにて表示される画像上でトリミング領域をユーザが指定する操作入力ステップと、
    該操作入力ステップにて前記複数の画像に指定されたトリミング領域間を補間するトリミング処理ステップと、
    該トリミング処理ステップにおけるトリミング処理後の動画データを記憶する記憶ステップとを備え、
    前記トリミング処理ステップは、前記複数の画像に指定されたトリミング領域間の時間及びその補間フレームの生成時間に基づいて算出される移動予測ベクトルと、前記動画圧縮伸張手段により伸張される前の前記動画データから取得される動きベクトルとの差分が閾値未満か否かを判定し、
    前記差分が閾値以上であると判定した場合、複数の補間パターンの中から、前記操作入力ステップにてユーザが選択した補間パターンを用いて前記トリミング領域間を補間し、前記差分が閾値未満であると判定した場合、前記動きベクトルを用いて、前記トリミング領域間を補間することを特徴とする動画編集方法
JP2004315379A 2004-10-29 2004-10-29 動画編集装置及び方法 Expired - Fee Related JP4282583B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004315379A JP4282583B2 (ja) 2004-10-29 2004-10-29 動画編集装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004315379A JP4282583B2 (ja) 2004-10-29 2004-10-29 動画編集装置及び方法

Publications (2)

Publication Number Publication Date
JP2006129124A JP2006129124A (ja) 2006-05-18
JP4282583B2 true JP4282583B2 (ja) 2009-06-24

Family

ID=36723314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004315379A Expired - Fee Related JP4282583B2 (ja) 2004-10-29 2004-10-29 動画編集装置及び方法

Country Status (1)

Country Link
JP (1) JP4282583B2 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11403069B2 (en) 2017-07-24 2022-08-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11487288B2 (en) 2017-03-23 2022-11-01 Tesla, Inc. Data synthesis for autonomous control systems
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11665108B2 (en) 2018-10-25 2023-05-30 Tesla, Inc. QoS manager for system on a chip communications
US11681649B2 (en) 2017-07-24 2023-06-20 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11734562B2 (en) 2018-06-20 2023-08-22 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11748620B2 (en) 2019-02-01 2023-09-05 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11790664B2 (en) 2019-02-19 2023-10-17 Tesla, Inc. Estimating object properties using visual image data
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11841434B2 (en) 2018-07-20 2023-12-12 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11893774B2 (en) 2018-10-11 2024-02-06 Tesla, Inc. Systems and methods for training machine models with augmented data

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2010108268A (ru) * 2007-08-09 2011-09-20 Конинклейке Филипс Электроникс Н.В. (Nl) Способ и устройство для создания измененного видео из входного видео
EP2308047A1 (en) 2008-06-27 2011-04-13 GVBB Holdings S.A.R.L Editing device and editing method
AU2008259357B2 (en) * 2008-12-18 2010-09-16 Canon Kabushiki Kaisha Automatic image cropping

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11487288B2 (en) 2017-03-23 2022-11-01 Tesla, Inc. Data synthesis for autonomous control systems
US11681649B2 (en) 2017-07-24 2023-06-20 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11403069B2 (en) 2017-07-24 2022-08-02 Tesla, Inc. Accelerated mathematical engine
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11797304B2 (en) 2018-02-01 2023-10-24 Tesla, Inc. Instruction set architecture for a vector computational unit
US11734562B2 (en) 2018-06-20 2023-08-22 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11841434B2 (en) 2018-07-20 2023-12-12 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US11893774B2 (en) 2018-10-11 2024-02-06 Tesla, Inc. Systems and methods for training machine models with augmented data
US11665108B2 (en) 2018-10-25 2023-05-30 Tesla, Inc. QoS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11908171B2 (en) 2018-12-04 2024-02-20 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11748620B2 (en) 2019-02-01 2023-09-05 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US11790664B2 (en) 2019-02-19 2023-10-17 Tesla, Inc. Estimating object properties using visual image data

Also Published As

Publication number Publication date
JP2006129124A (ja) 2006-05-18

Similar Documents

Publication Publication Date Title
JP4282583B2 (ja) 動画編集装置及び方法
US7893968B2 (en) Composite still-image creating device capable of creating a still image from moving images
US7800678B2 (en) Image processing device having blur correction function
US20060061672A1 (en) Image processing apparatus, program, and method for performing preprocessing for movie reproduction of still images
US8363726B2 (en) Electronic apparatus, motion vector detecting method, and program therefor
JP4504452B1 (ja) 映像視聴装置及び映像再生制御方法及び記録再生用プログラム
JP4898415B2 (ja) 動画像符号化装置及び動画像符号化方法
JP2006311414A (ja) 映像記録装置及び映像記録方法
JP4973935B2 (ja) 情報処理装置、情報処理方法、プログラム、および記録媒体
JPH11168685A (ja) 画像処理方法
JP4720626B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP2003023600A (ja) 画像処理装置、動画記録再生装置、画像処理方法、プログラム、及びコンピュータ読み取り可能な記憶媒体
JP5096883B2 (ja) 画像処理装置および画像録画再生装置
JP2007049651A (ja) 画像処理装置、及び制御方法
JP2015057877A (ja) 画像処理装置
JP4590337B2 (ja) 動画像符号化装置及び動画像符号化方法
JP2001103427A (ja) 圧縮画像再生装置及びプログラム記録媒体
JP4420061B2 (ja) 静止画合成装置、及び動画像からの静止画合成方法
JPWO2008129648A1 (ja) フレームレート変換装置、フレームレート変換方法及び動画像符号化装置
JP2008072608A (ja) 画像符号化装置及び画像符号化方法
JP2006211041A (ja) 動画再生装置及び撮像装置
JP5247210B2 (ja) 動画像符号化装置及び動画像符号化方法
JP3867737B2 (ja) データ処理装置および方法
JP2008154085A (ja) 動画像符号化装置及び動画像符号化方法
JP5553533B2 (ja) 画像編集装置およびその制御方法およびプログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090317

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090317

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130327

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees