JP4189555B2 - Moving picture editing apparatus and program thereof - Google Patents

Moving picture editing apparatus and program thereof Download PDF

Info

Publication number
JP4189555B2
JP4189555B2 JP2003157250A JP2003157250A JP4189555B2 JP 4189555 B2 JP4189555 B2 JP 4189555B2 JP 2003157250 A JP2003157250 A JP 2003157250A JP 2003157250 A JP2003157250 A JP 2003157250A JP 4189555 B2 JP4189555 B2 JP 4189555B2
Authority
JP
Japan
Prior art keywords
moving image
image data
data
determined
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003157250A
Other languages
Japanese (ja)
Other versions
JP2004363734A (en
Inventor
俊也 木曽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003157250A priority Critical patent/JP4189555B2/en
Publication of JP2004363734A publication Critical patent/JP2004363734A/en
Application granted granted Critical
Publication of JP4189555B2 publication Critical patent/JP4189555B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、動画像編集装置およびそのプログラムに係り、詳しくは、複数の動画データに対する編集動作を実行する動画像編集装置に関する。
【0002】
【従来の技術】
従来、動画像撮影装置として、典型的なものにデジタルカメラがある。このようなデジタルカメラによる撮影は、従来の銀塩カメラによる撮影と異なり、撮影時あるいは撮影後に撮影された画像データに対して、デジタル画像処理を行うことが可能である。
また、処理速度、記憶容量の増大などによる性能向上により静止画のみでなく動画の撮影も可能となってきている。
そして、撮影した動画ファイルが二つある場合(以下、動画ファイル1、動画ファイル2という)には、ユーザは動画ファイル1と動画ファイル2を合わせて一つの動画ファイルを作りたい場合がある。かかる場合には、手動により、単純に動画ファイル1と動画ファイル2をそのまま結合するか、あるいは動画編集を行い、動画ファイル1と動画ファイル2の間に場面転換の効果を与えて、動画ファイルの結合を行っている。
【0003】
また、下記特許公開公報には、自動的に動画を編集する画像処理システムが開示されている。この画像処理システムは、被写体が記録された動画データの所在を特定するための情報と被写体が記録された時刻とを対応付けるための管理情報を生成し、管理情報に基づいて編集して、特定の被写体について一貫性を持つ新たな動画データを自律的に生成可能とするものである。
【0004】
【特許文献】
公開特許公報 特開平10−215434号(段落「0023」および段落「0028」参照)
【0005】
【発明が解決しようとする課題】
しかしながら、従来のデジタルカメラにあっては、動画撮影を終了してしまうと1つの動画ファイルが生成されてしまうため、以下のような問題点があった。
(1)ユーザが間違って動画撮影を終了させてしまうと、すぐに動画撮影を開始しても、別のファイルとして記録されてしまうため、1つの動画ファイルとして記録したい場合には、ユーザが手動で編集をしなければならなかった。
(2)また、デジタルカメラで動画像を撮影した場合には、30秒ぐらいで撮影が停止してしまうため、関連のある連続した一連の動画像を撮影した場合であっても、複数の動画ファイルとして記録されてしまうという欠点があった。
(3)編集作業を行なうにしても、動画ファイルが複数ある場合には、手間と時間がかかるので、編集作業が大変であった。
また、このような問題は、上記した特許文献に開示されている技術によっても解決できるものではなかった。
【0006】
そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、複数の関連性のある動画データを自動的に一つの動画データとして編集することができる動画像編集装置およびそのプログラムを提供することを目的とする。
【0007】
【課題を解決するための手段】
上記目的達成のため、請求項1記載の発明による動画像編集装置は、第1の動画データを取得する第1動画データ取得手段と、
第2の動画データを取得する第2動画データ取得手段と、
前記第1の動画データの最終フレームデータと前記第2の動画データの各フレームデータとを開始フレームから順次比較する比較手段と、
前記比較手段によるデータの比較結果に基づいて、前記第1の動画データの最終部分と前記第2の動画データの開始部分とが重複しているか否かを判定する判定手段と、
前記判定手段により重複していると判定された場合には、前記第1の動画データと前記第2の動画データとを結合して1つの動画データに編集する結合手段と、
を備えたことを特徴とする。
【0008】
また、例えば、請求項2に記載されているように、前記第1動画データ取得手段、及び前記第2動画データ取得手段は、動画データを記録可能な記録媒体から動画データを取得するようにしてもよい。
また、例えば、請求項3に記載されているように、前記動画像編集装置は、
撮影対象物を撮影可能な動画像編集装置であって、
前記第1動画データ取得手段は、記録可能な記録媒体から動画データを取得し、前記第2動画データ取得手段は、撮影した動画データを取得するようにしてもよい。
【0009】
た、請求項に記載されているように、前記判定手段は、
前記比較手段による比較結果に基づき、動画データ同士が所定の範囲内にあると判断した場合は、重複していると判定するようにしてもよい。
また、請求項に記載されているように、前記所定の範囲内は、ユーザによって任意に設定できるようにしてもよい。
また、請求項に記載されているように、前記結合手段は、前記判定手段により前記第1の動画データの最終フレームデータと前記第2の動画データの開始フレームデータとが重複していると判定された場合は、前記第1の動画データの最終フレームデータの後に、前記第2の動画データの開始フレームデータを結合して1つの動画データに編集するようにしてもよい。
【0010】
た、請求項に記載されているように、前記結合手段は、
前記判定手段により重複していると判定された場合に、前記第2の動画データの重複している部分を削除して、第1の動画データの最終フレームデータの後に、削除した残りの第2の動画データを結合して1つの動画データにするようにしてもよい。
【0011】
また、例えば、請求項に記載されているように、前記比較手段によって比較するときは、比較するフレームデータに映し出されている対象物の位置、形状、又は大きさを比較するようにしてもよい。
また、請求項に記載されているように、前記結合手段によって結合するときには、1つに結合された動画データを記録媒体に記録し、結合の対象となる取得した動画データを記録媒体から削除するようにしてもよい。
【0012】
請求項10記載の発明によるプログラムは、コンピュータに、
第1の動画データを取得する第1動画データ取得機能と、
第2の動画データを取得する第2動画データ取得機能と、
前記第1の動画データの最終フレームデータと前記第2の動画データの各フレームデータとを開始フレームから順次比較する比較機能と、
前記比較機能によるデータの比較結果に基づいて、前記第1の動画データの最終部分と前記第2の動画データの開始部分とが重複しているか否かを判定する判定機能と、
前記判定機能により重複していると判定された場合には、前記第1の動画データと前記第2の動画データとを結合して1つの動画データに編集する結合機能と、
実現させることを特徴とする。
【0013】
【発明の実施の形態】
以下、本発明の実施の形態を、デジタルカメラに適用した一例として図面を参照して説明する。
【0014】
(第1の実施の形態)
図1は、デジタルカメラ1の概略構成を示すブロック図である。デジタルカメラ1は動画像編集装置を構成し、CCD2とDSP/CPU3とを有している。DSP/CPU3は、画像データの圧縮・伸張、音声データの処理を含む各種のデジタル信号処理機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。特に、メモリ・カード13に記録されている動画ファイル、つまり動画データをインターフェイス12、データバス9を介して取得し、DRAM10に記憶させる。この機能は、動画データ取得手段に相当する。この動画データ取得手段は、メモリ・カード13から第1の動画データ(以下、動画データ1という)と第2の動画データ(以下、動画データ2という)を取得する。なお、動画データ1と動画データ2は、任意に取得される。なお、このとき、取得した動画データに、動画データ1、動画データ2として取得されたことがわかるように識別記号を付す。
【0015】
また、DSP/CPU3は、取得した動画データ同士を比較する。このとき、動画データ1の最終フレームデータと動画データ2の開始フレームデータとを比較し、フレームデータの対象物の位置、形状、大きさを比較するようにしてもよい。この機能は比較手段に相当する。
そして、DSP/CPU3は、この比較結果に基づいて、2つのフレームデータの内容が一致するか否かを判定し、概略一致の場合には、動画データ1と動画データ2とを結合するとの判定を行なう。この機能は判定手段に相当する。
【0016】
さらに、DSP/CPU3は、結合と判定された場合には、DRAM10に記憶されている動画データ1と動画データ2とを結合させる。このとき、動画データ1の後に動画データ2を結合させ、この機能は結合手段に相当する。そして結合された動画データは、1つの動画ファイルとしてデータバス9、インターフェイス12を介して、メモリ・カード13に記録される。このとき、DSP/CPU3は、メモリ・カード13に記録されている、動画データ1と動画データ2を削除する。
【0017】
DSP/CPU3には、CCD2を駆動するTG(Timing Generator)4が接続されており、TG4には、CCD2から出力される被写体の光学像に応じたアナログの撮像信号が入力するユニット回路5が接続されている。ユニット回路5は、CCD2から出力される撮像信号を相関二重信号サンプリングして保持するCDS(Correlated Double Sampling)回路、その撮像信号を増幅するゲイン調整アンプ(AGC)、増幅後の撮像信号をデジタル信号に変換するA/D変換器(AD)から構成されており、CCD2の出力信号はユニット回路5を経てデジタル信号としてDSP/CPU3に送られる。
【0018】
DSP/CPU3には、表示装置6、キー入力部7、音声処理部8が接続されるとともに、アドレス・データバス9を介してDRAM10、内蔵フラッシュメモリ11、カード・インターフェイス12が接続されており、カード・インターフェイス12には、デジタルカメラ1の本体の図示しないスロットルに装着された着脱可能なメモリ・カード13が接続されている。
【0019】
表示装置6はカラーLCDとその駆動回路とを含み、撮影待機状態にあるときにはCCD2によって撮像された被写体画像をスルー画像として表示し、記録画像の再生時には保存メモリであるメモリ・カード13から読み出され伸張された記録画像を表示する。キー入力部7はシャッターボタン、動画撮影に使用する録画開始/終了ボタン、電源キー、MENUキー等の複数の操作キーを含み、使用者によるキー操作に応じたキー入力信号をDSP/CPU3に出力する。
【0020】
音声処理部8は、内蔵マイク、アンプ、A/D変換器、内蔵スピーカ、D/A変換器等を含み、音声付の静止画又は動画の撮影時には、内蔵マイクに入力した音声をデジタル信号に変換してDSP/CPU3へ送る。DSP/CPU3へ送られた音声データはDRAM10に順次蓄積され、最終的には、DSP/CPU3によって生成された画像データとともにメモリ・カード13に記憶される。また、音声処理部8は、音声付の静止画又は動画の再生時には、各映像に付属する音声データに基づく音声を再生して内蔵スピーカから音声出力する。また、必要に応じ、内蔵スピーカにより各種の報知音を報音する。
【0021】
DRAM10は、CCD2により撮像された後、デジタル化された被写体の画像データ等を一時記憶するバッファメモリ、DSP/CPU3のワーキングメモリとしても使用され、メモリ・カード13に記録されている動画ファイルをカードI/F12とアドレス・データバス9を介して記憶し、編集作業に必要な処理が行なわれる。
【0022】
内蔵フラッシュメモリ11には、DSP/CPU3による各部の制御に必要な制御プログラム、すなわちメモリ・カード13から動画ファイルを取得したり、編集作業、動画ファイルを比較し、結合するか否かを判定し、結合するためのプログラム等を含む各種の制御に必要なプログラム、及び各制御に必要なデータが記憶されており、DSP/CPU3は前記プログラムに従い動作する。
【0023】
すなわち、DSP/CPU3、アドレス・データバス9、カードI/F12、メモリ・カード13、DRAM10、内蔵フラッシュメモリ11は、第1動画データ取得手段、第2動画データ取得手段を構成し、DSP/CPU3、アドレス・データバス9、DRAM10、内蔵フラッシュメモリ11は、比較手段、判定手段、結合手段を構成する。
【0024】
次に、以上の構成からなるデジタルカメラ1における動作を説明する。図2はユーザが動画撮影モードを設定したときのDSP/CPU3の処理手順を示すフローチャートである。
ユーザがキー入力部7を操作して動画撮影モードに設定すると、撮影したいと思う景色、風景をデジタルカメラで撮影し、撮影した映像をメモリ・カード等に記録することができるようになる。
【0025】
DSP/CPU3は、上記動画撮影モードが設定されると、CCD2による撮影を開始して被写体のスルー画像を表示装置6に表示させる(ステップS1)。スルー画像とは、CCD2により撮像された対象物をDRAM10に記憶させ、その記憶された映像を表示画面に表示し、CCD2により撮像された対象物が変わることにより、DRAM10に記憶された映像が更新され、表示画面に表示される映像も変わることである。スルー表示状態では、DRAM10に記憶された映像をそのまま表示するが、メモリ・カード13にその映像のデータが記録されないので、その映像データが保存していない状態である。
次に、スルー画像が表示されている状態でユーザによりシャッターボタンが押下されたと判断すると(ステップS2)、所定のフレームレート(1/30秒の固定周期)で動画像(動画フレーム)を撮像し記憶する動画像撮影処理を開始する(ステップS3)。シャッターボタンが押下されるまで、ステップS2に留まり、スルー表示が継続する。
【0026】
シャッターボタンが押されるか(ステップS4)、または、動画撮影処理が開始してから30秒経過したら(ステップS5)、動画撮影処理は停止され(ステップS6)、それまでの間にバッファメモリ(DRAM10)上に展開されている動画データを用いて動画ファイルを生成し、メモリ・カード13に記憶する(ステップS7)。その後、ステップS1に戻る。
この動作を繰り返すことにより、メモリ・カード13に動画ファイルが順次記録され、この複数の動画ファイルがメモリ・カード13に記録される。また、このメモリ・カード13に記録された動画ファイルが、後述する編集の対象となる動画データ1、動画データ2となる。
ステップS4でシャッターボタンが押下されず、動画撮影処理が開始されてから30秒経過してなければ(ステップS5でNO)、ステップS4に戻り、シャッターボタン押下又は30秒経過するまで、動画撮影処理が続行される。
【0027】
次に、メモリ・カード13に記憶された動画ファイルの編集について説明する。この動画ファイルの編集は、1つの連続した映像が複数の動画ファイルに分かれて記録された場合に、自動的に、その連続性のある複数の動画ファイルを結合させて、一つの動画ファイルに編集するものである。
ユーザによりキー入力部7が操作されて動画像編集モードに設定されると、メモリ・カード13に記録されている動画データは、DSP/CPU3によって、カードI/F12、アドレス・データバス9を介して、DRAM10に記憶される。ここで、DRAM10に記憶される動画データはDSP/CPU3によって選択される。ここでは便宜上、2つの動画データしか選択していない。
【0028】
図3は、DRAM10に記憶された動画データを表しており、図3(a)、(b)の20、40は動画データの開始フレームであり、30、50は最終フレームである。そして、動画データは開始フレームと最終フレーム、その間に複数のフレームが存在する。また、tの矢印の方向は、時間の経過を表している。
【0029】
図3(a)は、DRAM10に記憶された動画データ1を、(b)は、動画データ2を表している。
また、図3(a)の60は、動画データ1の最終フレームのデータ(以下、フレームデータ)の画像を示したものであり、図3(b)の70は動画データ2の開始フレームデータの画像を示したものである。
動画データ1の最終フレームデータと動画2の開始フレームデータには、山100、家110、山と大地の境界線120からなる画像が現されている。
なお、動画データ2は、動画データ1から一番撮影時刻が近い動画データ、かつ、動画データ1の撮影時刻より後に撮影された動画データを選択するようにしてもよい。
【0030】
次に、図4のフローチャートに基づいて動画編集を説明する。
動画編集モードに設定されると、ステップS11でメモリ・カード13から動画データ1を取得する。このとき取得した動画データに、動画データ1として取得されたことがわかるように識別記号等を付す。次いでステップS12で取得した動画データ1の最終フレームデータを取得する。
次に、ステップS13で動画データ2を取得する。このとき、取得した動画データに、現在取得されている動画データ1に対する動画データ2として取得されたことがわかるように識別記号等を付す。ステップS14で取得した動画データ2の開始フレームを取得する。よって、この識別記号に基づいて、動画データ1、動画データ2として取得したかどうかを判断する。
【0031】
ステップS15で取得された動画データ1の最終フレームデータと動画データ2の開始フレームデータとを比較し、ステップ16で一致していないと判断した場合には、結合しないと判定しステップ18に進む。ステップS16で一致していると判断した場合には、結合と判定する。
例えば、図3(a)、(b)に示されている動画データは、動画データ1の最終フレームデータ30と動画データ2の開始フレームデータ50は一致しているので結合すると判定される。
【0032】
ステップS16で結合と判定した場合には、ステップ17に進み、動画データ1の後に動画データ2を結合する。図5は結合された動画データに示しており、80は動画データ1の最終フレーム30であったものであり、90は動画データ2の開始フレーム50であったものである。
この結合された動画データは、新たな動画ファイルとしてアドレス・データバス9、カードI/F12を介して、メモリ・カード13に記録される。
なお、識別記号等を用いているので、動画データを取得して、比較した場合には、再び同じ動画データを取得して比較することは無いので、重複した作業を行なわないで済み、新たな動画データを生成した場合でも、再び同じ動画データを生成することは無い。
また、この生成された動画ファイルをメモリ・カード13に記憶するときに、動画データ1と動画データ2として取得された動画データ(動画ファイル)をメモリ・カード13から削除するようにしてもよい。
すなわち、動画データ1と動画データ2を取得して、新たな動画データAを生成しても、再び同じ動画データを動画データ1、動画データ2と取得して、同じ動画データAを生成することは無いので、同一の動画データを幾つも生成することは無い。
【0033】
ステップS16で、結合しないと判定すると、ステップS18に進み、現在取得されている動画データ1に対する動画データ2として取得されていない動画データがメモリ・カード13にあるかどうかを判断する。あると判断された場合には、ステップS13に戻り、現在取得されている動画データ1に対する動画データ2として取得されていない動画データをメモリ・カード13から新たに取得する。無いと判断された場合には、ステップS19に進む。
ここで、現在取得されている動画データ1に対する動画データ2として既に取得された動画データは再び取得することは無いが、以下で説明するように、動画データ1として新たに動画データが取得されると、メモリ・カード13に記録されている動画データは、すべて動画データ2として取得されていない動画データになる。すなわち、動画データ2として取得されたか否かは、動画データ1を基準に判断する。
【0034】
ステップS17で動画ファイルを生成し、又はステップS18で、無いと判断された場合には、ステップS19に進み、動画データ1として取得されていない動画データがメモリ・カード13にあるかどうかを判断し、あると判断した場合には、ステップS11に戻り、新たな動画データをメモリ・カード13から取得し、同じ動作を繰り返す。無いと判断した場合には、動画編集モードを終了する。なお、動画データ1、動画データ2として取得したか否かの判断は、動画データに付された識別記号等に基づいて行なわれるので、再び同じ動画ファイルを取得して、同一の動画データを幾つも生成することはない。
また、ステップS17で新たな動画データを生成した場合には、この生成された動画データも、動画データ1、動画データ2として特定されていない動画データに含まれるので、ステップS17で新たに動画データを生成した場合には、動画編集モードを終了することは無い。これにより、3つ以上の動画データも連続性、関連性がある場合には、1つの動画データに自動編集することができる。
【0035】
次に、どのようにステップS15で比較し、ステップ16で判定するのかを図6、7を用いて説明する。
図6は、図4のステップS15の比較手段、ステップS16の判定手段のサブルーチンを示した図である。
図7(a)、(b)、(c)は、動画ファイルのフレームデータの画像を示すものである。
図7のフレームデータの画像は、山100、家110、山と大地の境界線120とから構成されており、図7(a)、(b)、(c)はすべて、同じ対象物であり、撮影した場所が違うものである。
【0036】
図6のステップS101では、動画データ1の最終フレームデータと動画データ2の開始フレームデータとの対象物をそれぞれ特定する。対象物を特定したものが、図7(d)、(e)、(f)となる。そして、ステップS102で対象物の位置、形状、大きさをそれぞれ取得する。この場合には、山、家のそれぞれの位置、形状、大きさを特定する。
次いで、ステップS103で、それぞれの、つまり動画データ1の最終フレームデータと動画データ2の開始フレームデータの対象物の位置、形状、大きさをそれぞれ比較する。
【0037】
次いで、ステップS104で対象物の位置を比較した結果、一致していると判断した場合には、ステップS105に進み、ステップS105で対象物の形状を比較した結果一致していると判断した場合には、ステップS106に進み、ステップS106で対象物の大きさを比較した結果、一致していると判断した場合は、ステップS107に進み、結合と判定する。そして、図4のステップS17に進む。また、ステップS104〜ステップS106で対象物の位置、形状、大きさが、一つでも一致していないと判断された場合は、図4のステップ18に進む。
【0038】
図7(a)が動画データ1の最終フレームデータの画像で、同図(b)が動画データ2の開始フレームデータの画像であるとすると、動画データ1の最終フレームデータと動画データ2の開始フレームデータは、山の位置、形状、大きさがそれぞれ一致しており、家の形状、大きさもそれぞれ一致しているが、家の位置が異なるので、結合と判定されない。
なお、対象物の位置、形状、大きさの一致は、完全同一でなくてもよい。この一致の範囲は、予め設定されていてもよく、また、ユーザが任意に設定できるようにしてもよい。また、対象物の位置、形状、大きさの一致の範囲をそれぞれ変えるようにして重み付けを行うようにしてもよい。例えば、対象物の位置に関する一致の範囲を広くするか、あるいは対象物の位置に関する判定を行わないようにした場合は、図7(a)と同図(b)は一致と判断されることになる。また、形状が一致すれば一致というようにしてもよいし、位置、形状、大きさの判断基準とは別の基準、例えば、色彩などによって判断させるようにしてもよい。
【0039】
このように、動画編集モードに設定されると、メモリ・カード13に記録されている動画データを動画データ1、動画データ2として取得し,DRAMに記憶する。次いで、DRAM10に動画データ1と動画データ2を記憶すると、動画データ1の最終フレームと動画データ2の開始フレームを取得し、2つのフレームデータを比較する。そして、比較の結果、2つのフレームデータが一致していると判断すると、動画データ1と動画データ2とを結合すると判定する。
次に、DRAM10に記憶されている動画データ1と動画データ2を結合させる。このとき結合の方法としては、動画データ1の後に動画データ2を結合させる。
次に、この結合された動画データは、アドレス・データバス9、カードI/F12を介して、メモリ・カード13に記録される。
これにより、連続性、関連性のある動画像が、1つの動画ファイルとして自動的に編集される。
【0040】
以上のように、第1の実施の形態においては、複数の動画ファイルに、連続性、関連性のある映像が分かれて記録されていても、自動的に連続性、関連性のある動画ファイルを1つの動画ファイルに編集するので、編集作業に伴う手間と、時間を大幅に軽減することができる。
また、一度動画撮影を終了してしまうと、1つの動画ファイルとして記録され、すぐに動画撮影を開始しても動画データは別の動画ファイルとして記録されてしまうが、連続性、関連性のある動画ファイル同士であれば、ユーザが間違って動画撮影を終了してしまっても、すぐに動画撮影を開始すれば、自動的に一つの動画ファイルに編集してくれる。
さらに、ユーザが故意に動画撮影を終了して、また、新たに動画撮影を開始しても、終了した動画像と開始した動画像が連続性、関連性があれば、自動的に編集してくれるので、例えば、撮影の対象物が風景、景色、植物等の動画像であれば、一つの動画像として編集してくれるので定期的に撮影すれば、景色の移り変わり、植物の成長等が一つの動画ファイルとして編集することができる。
【0041】
デジタルカメラによる動画の撮影は、約30秒経過と同時に動画像撮影が自動的に終了してしまうが、この場合でも、すぐに動画撮影を開始すれば、連続性、関連性のある映像を1つの動画ファイルとして編集することができる。
また、動画ファイルの編集をパソコン等で行なうことにより、データ容量の大きい複数の動画データを簡易に自動編集することができ、また、複数のデジタルカメラで同時に同じ場所で、撮影した動画ファイルも、連続性、関連性があれば1つの動画ファイルとして編集することができる。
【0042】
なお、第1の実施の形態では、デジタルカメラを使用して、自動編集を行なっているが、デジタルカメラに限られるものではなく、動画ファイルを記録したメモリ・カード13をパソコン等に読み込ませることにより、パソコン上で自動編集できることは言うまでもない。
また、メモリ・カード13に限らず、インターネット上から取得した動画ファイルをパソコン等にダウンロードすることにより自動的に編集することができるようにしてもよい。
【0043】
(第2の実施の形態)
次に、本発明の第2の実施の形態を説明する。第2の実施の形態の動画編集は、メモリ・カード13に記録された動画データと現在撮影中の動画データ、すなわち、既に記録された映像と、撮影している映像とが、連続性、関連性のあるものと判断すると、動画撮影の終了と同時に、記録された動画データと、今撮影が終わった動画データを結合して、一つの動画データとして、メモリ・カード13に記録するというものである。
よって、第2の実施の形態は、撮影中に編集作業を行なうので、動画編集モードというものは必要ない。
第2の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラを用いる。
DSP/CPU3は、CCD2により撮像された後、デジタル化された被写体の画像データをDRAM10に記憶させ、この機能が、撮影動画データ取得手段に相当する。
他の機能は第1の実施の形態と同様なので、説明を省く。
【0044】
第2の実施の形態の動画編集を図8、図9のフローチャートに従いながら説明する。
ユーザによりキー入力部7が操作され動画撮影モードに設定されると、ステップS21でCCDによる撮影を開始して被写体のスルー表示を表示装置6に表示させる。そして、ステップS22でスルー表示の状態でユーザによりシャッターボタンが押下されたと判断すると、ステップS23に進み、所定のフレームレート(1/30秒の固定周期)で動画像(動画フレーム)を撮影し記憶する動画像撮影処理を開始する。ステップS22でシャッターボタンが押下されていないと判断したら、シャッターボタンが押下されるまで、ステップS22に留まり、スルー表示が継続する。
【0045】
ステップS24で、動画像撮影処理を開始したときの開始フレームデータを取得する。次いで、ステップS25でメモリ・カード13から動画データを取得する。このとき、取得した動画データに、取得されたことがわかるように識別記号等を付す。次いで、ステップ26で取得した動画データの最終フレームデータを取得する。よって、この識別記号に基づいて、取得した動画データか否かが判断できる。
なお、新たな動画撮影が開始された場合には、この識別記号を消去する。
【0046】
ステップS27で、撮影を開始したときの開始フレームデータとメモリ・カード13から取得した動画データの最終フレームデータとを比較し、ステップS28で、この二つのデータが一致しているかどうかを判断する。一致の範囲は、予め設定されていてもよく、また、ユーザが任意に設定できるようにしてもよい。一致していると判断された場合には、結合と判定し、ステップS29に進み、一致していないと判断した場合には、結合しないと判定し、ステップS33に進む。
【0047】
ステップS28で結合と判定し、ステップS29に進むと、シャッターボタンが押下されたかどうかを判断し、押下されたと判断した場合は、ステップS31に進み、押下されていないと判断した場合は、ステップS30に進む。ステップS30で、動画像撮影処理を開始してから、30秒経過したかを判断し、経過した場合には、ステップS31進み、経過していないと判断した場合には、ステップS29に戻る。
【0048】
すなわち、シャッターボタンが押下されるまで、または、動画像撮影処理を開始してから30秒経過するまでは、動画像が撮影され、シャッターボタンが押下されるか、または、動画像撮影処理を開始してから30秒経過するとステップS31に進み、動画像撮影処理が停止される。
【0049】
ステップS31で動画像撮影処理が停止されると、ステップS32に進み、DRAM10に記憶されているメモリ・カード13から取得され、ステップS28で一致していると判断された最終フレームデータを含む動画データとバッファメモリに展開されている動画データを結合させる。このとき、メモリ・カード13から取得された動画データの後にバッファメモリに展開されている動画データを結合させる。次に、結合させた動画データを用いて一つの動画ファイルを生成し、メモリ・カード13に記録する。
このとき、メモリ・カード13から取得した動画データをメモリ・カード13から削除するようにしてもよい。
【0050】
ステップS28で一致していないと判定された場合は、ステップS33に進み、ステップS33で、メモリ・カード13の中に取得していない動画データがあるかどうかを判断し、あると判断した場合には、ステップS25に戻り、メモリ・カード13から新たな動画データを取得し、同じ作業を繰り返す。
ステップS33で、無いと判断された場合には、ステップS34に進み、シャッターボタンが押下されたかどうかを判断する。押下されたと判断された場合には、ステップS36に進み、押下されていないと判断された場合には、ステップS35に進む。
【0051】
ステップS35で、動画像撮影処理が開始されてから、30秒経過したかを判断し、30秒経過したと判断した場合には、ステップS36に進み、30秒経過していないと判断した場合には、ステップS34に戻る。
すなわち、シャッターボタンが押下されるまで、または、動画像撮影処理が開始されてから30秒経過するまでは動画像が撮影され、シャッターボタンが押下されるか、または、動画像撮影処理が開始されてから30秒経過するとステップS36に進み、動画像撮影処理が停止される。
【0052】
ステップS36に進むと、動画像撮影処理を停止し、ステップS37に進み、バッファメモリに展開されている動画データを用いて動画ファイルを生成し、メモリ・カード13に記録する。
すなわち、メモリ・カード13に一連の連続した関連性のある動画データが無いと判断し、撮影された動画データとメモリ・カード13に記憶されている動画データとの動画像編集を行なわずに、撮影された動画像をメモリ・カード13に記憶する。
【0053】
ステップS27で比較し、ステップS28で結合するか否かを判定するのは、第1の実施の形態で説明したように、フレームデータの対象物をそれぞれ特定し、対象物の位置、形状、大きさをそれぞれ比較し、一致するかを判定する。この場合、一致するか否かを判定する判定基準は、予め設定されていてもよく、ユーザが任意に設定することもできる。例えば、位置、形状、大きさが一致すれば一致と判断させたり、形状だけが、又は、別の要件、例えば色彩などが、一致すれば一致と判断させたりすることも可能である。
【0054】
このように、動画撮影処理が開始されると、メモリ・カード13に記録されている動画データを取得し、DRAM10に記憶する。次に、撮影中の動画データの開始フレームデータとメモリ・カード13から取得した動画データの最終フレームデータを取得し、2つのフレームデータを比較する。比較の結果、2つのフレームデータが一致すると判断した場合には、結合と判定する。一致していないと判断した場合には、結合しないと判定し、メモリ・カード13から新たな動画データを取得して、上述した比較、判定を行なう。
結合と判定し、動画撮影が終了した時点で、取得した動画データと、撮影が終わった動画データを結合させる。このとき結合の方法としては、取得した動画データの後に撮影が終わった動画データを結合させる。
【0055】
この結合された動画データは、アドレス・データバス9、カードI/F12を介して、メモリ・カード13に記録される。
このとき、メモリ・カード13から取得した動画データを削除するようにしてもよい。
また、撮影中の動画データとメモリ・カード13に記録されているすべての動画データとが一致していないと判断され、結合しないと判定された場合には、結合作業を行なうことなく、撮影された動画データを単体で、メモリ・カード13に記録する。すなわち、編集作業を行なうことはなく、普通に動画撮影の作業をしたことなる。
これにより、連続性、関連性のある動画像が、撮影中に自動的に編集することができる。
【0056】
以上のように、第2の実施の形態においては、撮影中に編集作業を行なうので、撮影中の映像が、メモリ・カード13に既に記録されている映像と、関連性、連続性のある場合には、自動的に、撮影の終了と共に記録されている映像と撮影を終了した映像を結合させて、一つの動画ファイルとして記録することができる。
また、撮影中に編集作業を行うので、編集作業に伴う手間と時間を無くすことができる。
さらに、一度動画撮影を終了してしまうと、1つの動画ファイルとして記録されてしまうが、すぐに動画撮影を開始すれば、撮影中に編集作業を行うので、記録した動画ファイルのデータと撮影をした動画データが結合されて、一つの動画ファイルとして記録することができる。
【0057】
デジタルカメラによる動画撮影は、約30秒経過と同時に動画像撮影が自動的に終了してしまうが、この場合でも、すぐに撮影を開始すれば、撮影中に編集作業を行うので、連続性、関連性のある画像を1つの動画ファイルとして記録することができる。
また、ユーザが故意に動画像撮影を終了して、ある程度時間が経過してから、動画像撮影を開始した場合でも、記録されている動画像と撮影中の動画像が、連続性、関連性があれば、撮影中に動画編集作業を行なうので、例えば、撮影の対象物が風景、景色、植物等の動画像であれば、定期的に撮影することにより、その都度、景色の移り変わり、植物の成長等が1つの動画ファイルとして記録することができる。
【0058】
(第3の実施の形態)
次に、本発明の第3の実施の形態を説明する。第3の実施の形態の動画編集は、メモリ・カード13に記録された複数の動画データの中で、重複した部分を持つ動画データ、すなわち重複した映像を持つ動画データ同士を、結合させるものである。
この結合の際は、どちらか一方の動画データの重複部分を削除して結合させる。
第3の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラを用いる。
ユーザによりキー入力部7が操作され動画像編集モードに設定されると、DSP/CPU3は、メモリ・カード13に記録されている動画データをカードI/F12、アドレス・データバス9を介してDRAM10に記憶する。ここでは便宜上、2つの動画データしか選択していない。
【0059】
図10は、DRAM10に記憶された2つの動画データを表わしており、図10(a)、(b)の200、400は動画データの開始フレームを表わしており、300、500は動画データの最終フレームを表わしている。そして、動画データは開始フレームと最終フレーム、その間に複数のフレームが存在する。また、tの矢印の方向は、時間の経過を表わしている。
また、図10(a)はDRAM10に記憶された動画データ1を、(b)は動画データ2を表わしている。
【0060】
第3の実施の形態の動画編集を、図11、図12のフローチャートに従いながら説明する。
動画編集モードに設定されると、ステップS51で、メモリ・カード13から動画データ1をファイル単位で取得する。このとき、取得した動画データ1に、動画データ1として取得されたことがわかるように識別記号等を付す。
次いで、ステップS52に進み、動画データ1の最終フレームデータを取得する。次いで、ステップS53に進み、メモリ・カード13から動画データ2をファイル単位で取得する。このとき、取得した動画データに、動画データ1に対する動画データ2として取得されたことがわかるように識別記号等を付す。
次いで、ステップS54で動画データ2の開始フレームデータを取得する。そして、ステップS55に進む。よって、この識別記号に基づいて、動画データ1、動画データ2として取得したかどうかを判断する。
【0061】
ステップS55で、取得した2つのフレームデータを比較し、ステップS56で、比較結果に基づき2つのフレームデータが一致するかどうかを判断する。この比較、判断の方法は第1の実施の形態で述べたとおり、対象物の位置、形状、大きさに基づいて判断させるようにしてもよい。また、色彩その他方法で判断させるようにしてもよい。
【0062】
ステップS56で、一致していないと判断すると、ステップS57に進み、比較した2つのフレームデータの中に動画データ2の最終フレームデータを含んでいるかどうかを判断する。
ステップS57で含んでいないと判断すると、ステップS58に進み、動画データ2の比較されたフレームデータの1つ後のフレームデータを取得し、ステップS55に戻る。すなわち、一致すると判断されるまで、動画データ2のフレームデータを取得し、動画データ2の最終フレームデータまで順次比較される。
ステップS57で2つの比較したフレームデータの中に動画データ2の最終フレームデータを含んでいると判断した場合には、動画データ1と動画データ2は重複している部分が無いと判断し、ステップS64に進んで、現在取得されている動画データ1に対する動画データ2として新たな動画データをメモリ・カード13から取得する。
【0063】
順次比較した結果、ステップS56で一致していると判断された場合には、ステップS59に進む。図10で示す、動画データ1の最終フレーム300と動画データ2のフレーム700のデータ同士が、仮に一致したとする。ステップS59で、2つの比較したフレームデータの中に動画データ2の開始フレームデータがあるかどうかを判断し、あると判断した場合には、ステップS63に進み、無いと判断した場合にはステップS60に進む。
図10の動画データ2のフレーム700の部分は、開始フレームではないので、ステップS59では、含まないと判断されるのでステップS60に進む。
【0064】
ステップS60に進むと、動画データ1の比較したフレームの1つ前のフレームのデータ(フレームデータ)と、動画データ2の比較したフレームの1つ前のフレームデータをそれぞれ取得し、ステップS61で2つのフレームデータを比較する。次いで、ステップS62に進み、2つのフレームデータが比較結果に基づいて一致するかどうかを判断する。一致していないと判断した場合にはステップS64に進み、一致していると判断した場合には、ステップS59に戻り、同じ動作を繰り返す。
【0065】
この動作を繰り返した結果、動画データ1のフレームデータと動画データ2のフレームデータとが、動画データ2の開始フレームまでそれぞれ一致していると判断した場合には、重複したデータがあるので、結合と判定し、ステップS63に進む。
すなわち、図10に示すように、動画データ1の最終フレームデータ300と動画データ2のフレームデータ700が一致し、次に、動画データ1のフレーム300の一つ前のフレームデータと動画データ2のフレーム700の一つ前のフレームデータとが一致し、このように順々に比較した結果、動画データ1のフレームデータ600と動画データ2の開始フレームデータ400まで一致している状態をいう。図10に示す斜線部が一致していると判断されたフレームデータである。
【0066】
一致していないと判断された場合には、動画データ1と動画データ2は重複した部分が無いと判断し、結合しないとの判定をし、ステップS64に進んで、現在取得されている動画データ1に対する動画データ2として、新たな動画データをメモリ・カード13から取得する。
動画データ2の開始フレームデータまで、動画データ1のフレームデータと動画データ2のフレームデータとがそれぞれ一致していると判定された場合は、つまり、ステップS59で動画データ2の開始フレームデータを含むと判断された場合には、動画データ1と動画データ2は重複したデータがあると判断し、結合と判定する。次いで、ステップS63に進む。
【0067】
以上の説明では、重複したデータがある場合を想定して説明しているが、重複したデータが無くても結合と判定する場合もある。
詳しく説明すると、ステップS52で取得した動画データ1の最終フレームデータと、ステップS54で取得した動画データ2の開始フレームデータとを比較した結果(ステップS55)、データ同士が一致した場合には(ステップS56)、一致したフレームデータは、当然に動画データ2の開始フレームデータを含むことになるので、結合と判定する(ステップS59)。
すなわち、第3の実施の形態の発明は、第1の実施の形態の発明を具備するものであり、重複したデータが無くても、連続性、関連性のある動画データは結合と判定される。
【0068】
次にステップS63に進み、動画データ1と動画データ2とを結合させて新たな動画ファイルを生成する。このとき、結合の方法は、動画データ2の重複部分を削除して、動画データ1の後に削除した残りの動画データ2を結合させる。つまり、図13に示す図のようになる。図13の800は動画データ1の開始フレーム200であった部分であり、900は動画データ1のフレーム600であった部分であり、かつ、動画データ2の開始フレーム400とほぼ同じデータを持つフレームである。1000は動画データ1の最終フレーム300であった部分であり、かつ、動画データ2のフレーム700とほぼ同じデータを持つフレームである。1100は動画データ2の最終フレーム500であった部分である。
また、図13の斜線部は、動画データ1と動画データ2とが重複していると判断されたデータを示すものである。
なお、この実施の形態では、動画データ2の重複部分を削除して結合しているが、動画データ1の重複部分を削除して動画データ1と動画データ2とを結合させてもよい。
【0069】
そして、この結合して新たに生成された動画ファイルは、アドレス・データバス9、カードI/F12を介して、メモリ・カード13に記録される。
なお、識別記号等を用いているので、動画データを取得して、比較した場合には、再び同じ動画データを取得して比較することは無いので、重複した作業を行なわないで済み、新たな動画データを生成した場合でも、再び同じ動画データを生成することは無い。
また、この生成された動画ファイルをメモリ・カード13に記憶するときに、動画データ1と動画データ2として取得された動画データ(動画ファイル)をメモリ・カード13から削除するようにしてもよい。
すなわち、動画データ1と動画データ2を取得して、新たな動画データAを生成しても、再び同じ動画データを動画データ1、動画データ2と取得して、同じ動画データAを生成することは無いので、同一の動画データを幾つも生成することは無い。
この作業が済むと、ステップS65に進む。
【0070】
ステップS62で一致していないと判定されるか、または、ステップS57で最終フレームデータを含んでいると判断されると、この動画データ1と動画データ2は重複しているデータが無いと判断して、ステップS64に進む。そして、現在取得されている動画データ1に対する動画データ2として取得されていない動画データが、メモリ・カード13にあるかどうかを判断し、あると判断された場合には、ステップS53に戻り、新たな動画データ2を取得する。ステップS64で、動画データ2として取得されていない動画データが無いと判断された場合には、ステップS65に進む。
ここで、現在取得されている動画データ1に対する動画データ2として既に取得された動画データは再び取得することは無いが、以下で説明するように、動画データ1として新たに動画データが取得されると、メモリ・カード13に記録されている動画データは、すべて動画データ2として取得されていない動画データになる。すなわち、動画データ2として取得されたか否かは、動画データ1を基準に判断する。
【0071】
ステップS65に進むと、動画データ1として取得されていない動画データが、メモリ・カード13にあるかどうかを判断し、あると判断された場合には、ステップS51に戻り、新たな動画データ1を取得する。ステップS65で動画データ1として取得されていない動画データが無いと判断された場合には、動画編集モードを終了する。
なお、動画データ1、動画データ2として取得した否かの判断は、動画データに付された識別記号等に基づいて行なわれるので、再び同じ動画ファイルを取得して、同一の動画データを幾つも生成することはない。
また、ステップS63で新たな動画データを生成した場合には、この生成された動画データも、動画データ1、動画データ2として特定されていない動画データに含まれるので、ステップS63で新たに動画データを生成した場合には、動画編集モードを終了することは無い。これにより、3つ以上の動画データも連続性、関連性がある場合には、1つの動画データに自動編集することができる。
【0072】
このように、動画編集モードに設定されると、メモリ・カード13に記録されている動画データを動画データ1、動画データ2として取得し、DRAM10に記憶する。次いで、DRAM10に動画データ1と動画データ2を記憶すると、動画データ1の最終フレームと動画データ2の開始フレームを取得し、2つのフレームデータを比較する。一致していないと判断された場合には、動画データ2の次のフレームデータを取得し、動画データ1の最終フレームデータと比較する。一致すると判断するまで、動画データ1の最終フレームデータと動画データ2のフレームデータとを比較し続ける。
【0073】
動画データ2の最終フレームデータまで一致していないと判断された場合には、動画データ1と動画データ2は重複している部分がないと判断し、新たな動画データをメモリ・カード13から動画データ2として取得し、上記した動作を繰り返す。
一致すると判断した場合には、一致すると判断された動画データ1の最終フレームデータと動画データ2のフレームデータを基準に、一つ前のフレームデータを動画データ1、動画データ2からそれぞれ取得して比較し一致するか否かを判定する。一致すると判断されると、さらに一つ前のフレームデータを、動画データ1、動画データ2からそれぞれ取得比較し、一致するか判断する。この比較判断は、動画データ2の開始フレームデータまで続ける。しかし、一回でも一致していないと判定したら動画データ1と動画データ2は重複する部分はないと判断し、新たな動画データをメモリ・カード13から動画データ2として取得し、上記した動作を繰り返す。
【0074】
比較し判断した結果、動画データ1の最終フレームデータと一致していると判定された動画データ2のフレームデータから動画データ2の開始フレームデータまでの各フレームデータと、動画データ1の各フレームデータとが一致していると判定した場合には、動画データ1と動画データ2は重複しているデータがあると判断し、動画データ1と動画データ2を結合させる。このとき動画データ2の重複した部分を削除して、動画データ1と削除した残りの動画データ2を結合させる。
結合した動画データに基づいて、新たな動画ファイルを生成し、メモリ・カード13に記録する。
なお、動画データ1の重複した部分を削除して、動画データ1と動画データ2とを結合するようにしてもよい。
このとき、動画データ1と動画データ2をメモリ・カード13から削除するようにしてもよい。
これにより、重複した動画データを含む動画データ同士を結合させるので、連続性、関連性のある動画像が、1つの動画ファイルとして編集される。
また、動画データ1と動画データ2とが重複したデータを持たなくても、動画データ1の最終フレームデータと動画データ2の開始フレームデータとが一致していれば、結合されるので、連続性、関連性のある動画像が、1つの動画ファイルとして編集される。
【0075】
以上のように、第3の実施の形態においては、重複したデータを含む動画データ同士を、自動的に編集するので、連続性、関連性のある動画データを1つの動画ファイルとして生成することができる。
また、重複しているデータがあるかどうかを自動的に判断してくれるので、編集作業に伴う手間と時間を大幅に減少させることができる。
さらに、複数のデジタルカメラ等で同時に同じ場所で撮影した複数の動画ファイルは、重複したデータを有する可能性が高く、かかる場合も、自動的に編集することができる。
加えて、動画ファイルの編集をパソコン等で行なうことにより、データ容量の大きい複数の動画データを簡易に自動編集することができる。
重複した動画データを持たなくても、連続性、関連性のある動画ファイル同士を自動的に編集することができるので、多彩な編集が可能となる。
【0076】
なお、この第3の実施の形態では、デジタルカメラを使用して、自動編集を行なっているが、デジタルカメラに限られるものではなく、動画ファイルを記録したメモリ・カード13をパソコン等に読み込ませることにより、パソコン上で自動編集できることは言うまでもない。
また、メモリ・カード13に限らず、インターネット上から取得した動画ファイルをパソコン等にダウンロードすることにより自動的に編集することができるようにしてもよい。
【0077】
本発明は、上記各実施の形態に限定されるものではなく、以下のような変形態様の実施が可能である。
(a)本発明の動画像編集装置は、パソコン等にCCDカメラを取り付けることにより、パソコンで映像を撮像し、パソコン上で動画像の自動編集を行なうものに適用してもよい。
(b)また、本発明の動画像編集装置は、撮影機能を有した携帯電話、時計その他の機器を用いて動画像の自動編集を行なうものに適用してもよい。
【0078】
【発明の効果】
請求項1記載の発明によれば、複数の動画データに、連続性、関連性のある映像が分かれて記録されていても、自動的に連続性、関連性のある動画データを1つの動画データに編集するので、編集作業に伴う手間と、時間を大幅に軽減することができる。
また、一度動画撮影を終了してしまうと、1つの動画データとして記録され、すぐに動画撮影を開始しても動画データは別の動画データとして記録されてしまうが、連続性、関連性のある動画データ同士であれば、ユーザが間違って動画撮影を終了してしまっても、すぐに動画撮影を開始すれば、自動的に一つの動画データに編集してくれる。
さらに、ユーザが故意に動画撮影を終了して、また、新たに動画撮影を開始しても、終了した動画像と開始した動画像が連続性、関連性があれば、自動的に編集してくれるので、例えば、撮影の対象物が風景、景色、植物等の動画像であれば、一つの動画像として編集してくれるので定期的に撮影すれば、景色の移り変わり、植物の成長等が一つの動画データとして編集することができる。
また、動画撮影を開始してから30秒経過すると自動的に動画撮影が終了してしまうが、この場合にも、すぐに撮影を開始すれば、自動的に1つの動画データに編集してくれる。
【0079】
請求項2記載の発明によれば、記録媒体に記録されている動画データを自動で編集してくれるので、デジタルカメラにかぎらず、記録媒体を読み取ることができるものであれば、携帯電話、パソコン等などの機器を用いて自動編集することができる。
また、動画データの編集をパソコン等で行なうことにより、容量の大きい複数の動画データを簡易に自動編集することができる。
請求項3記載の発明によれば、撮影中に編集作業を行なうので、撮影中の映像が、記録媒体に記録されている映像と、関連性、連続性のある場合には、自動的に、撮影の終了と共に記録されている映像と撮影中の映像を結合させて、一つの動画データとして生成することができる。
また、撮影中に編集作業を行うので、編集作業に伴う手間と時間を無くすことができる。
デジタルカメラによる動画撮影は、約30秒経過と同時に動画像撮影が自動的に終了してしまうが、この場合でも、すぐに撮影を開始すれば、撮影中に編集作業を行うので、連続性、関連性のある画像を1つの動画データとして記録することができる。
【0080】
請求項4記載の発明によれば、フレームデータ同士が所定の範囲内であれば重複していると判定するので、確実に連続した映像が1つの動画データとして編集することができる。
請求項記載の発明によれば、所定の範囲内を、ユーザが任意に設定することができるので、用途に適した編集が可能となる。
請求項記載の発明によれば、動画データ1の最終フレームの後に動画データ2の開始フレームが来るように編集するので、自然に連続した動画データを生成することができる。
【0081】
請求項記載の発明によれば、重複したデータを含む動画データ同士を、自動的に編集するので、連続性、関連性のある動画データを1つの動画データとして生成することができる。さらに、複数のデジタルカメラ等で同時に同じ場所で撮影した複数の動画データは、重複したデータを有する可能性が高く、かかる場合も、自動的に編集することができる。
【0082】
請求項記載の発明によれば、対象物の位置、形状、大きさを比較するので、フレームデータの比較がより確実にでき、連続したなめらかな映像を自動で編集することができる。
請求項記載の発明によれば、編集の基となった動画データ1と動画データ2を削除して、編集した動画データを生成するので、重複した動画データを記録媒体に記録しないですみ、同じ編集作業をしないで済む。
【0083】
請求項10記載の発明によれば、プログラムを用いることにより、既存するデジタルカメラ等の画像編集装置によって、本発明を実施することが可能となる。
【図面の簡単な説明】
【図1】本発明の実施の形態のデジタルカメラのブロック図である。
【図2】動画撮影モードの動作を示すフローチャートである。
【図3】動画データの構成を示す図である。
【図4】動画像編集モードの動作を示すフローチャートである。
【図5】動画データの編集後の構成を示す図である。
【図6】動画編集モードの比較、判断のサブルーチンを示すフローチャートである。
【図7】動画データのフレーム画像を示す図である。
【図8】動画撮影モードの動作を示すフローチャートである。
【図9】動画撮影モードの動作を示すフローチャートである。
【図10】動画データの構成を示す図である。
【図11】動画像編集モードの動作を示すフローチャートである。
【図12】動画像編集モードの動作を示すフローチャートである。
【図13】動画データの編集後の構成を示す図である。
【符号の説明】
1 デジタルカメラ
2 CCD
3 DSP/CPU
4 TG
5 ユニット回路
6 表示装置
7 キー入力部
8 音声処理部
9 データバス
10 DRAM
11 内蔵フラッシュメモリ
12 インターフェイス
13 メモリ・カード
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a moving image editing apparatus and a program thereof, and more particularly to a moving image editing apparatus that executes an editing operation on a plurality of moving image data.
[0002]
[Prior art]
Conventionally, there is a digital camera as a typical moving image photographing apparatus. Such shooting with a digital camera is different from shooting with a conventional silver salt camera, and digital image processing can be performed on image data shot during or after shooting.
In addition to performance improvements due to increased processing speed and storage capacity, it has become possible to shoot not only still images but also moving images.
When there are two captured moving image files (hereinafter referred to as moving image file 1 and moving image file 2), the user may want to create one moving image file by combining moving image file 1 and moving image file 2. In such a case, the moving image file 1 and the moving image file 2 are simply combined manually or the moving image editing is performed manually to provide a scene change effect between the moving image file 1 and the moving image file 2. We are joining.
[0003]
Further, the following patent publication discloses an image processing system that automatically edits a moving image. This image processing system generates management information for associating information for specifying the location of moving image data in which a subject is recorded with the time at which the subject is recorded, and edits the management information based on the management information, This makes it possible to autonomously generate new video data with consistency for the subject.
[0004]
[Patent Literature]
Japanese Patent Laid-Open No. 10-215434 (see paragraph “0023” and paragraph “0028”)
[0005]
[Problems to be solved by the invention]
However, the conventional digital camera has the following problems because one moving image file is generated when moving image shooting is finished.
(1) If the user mistakenly ends the movie shooting, even if the movie shooting is started immediately, it is recorded as a separate file. I had to edit at.
(2) When a moving image is shot with a digital camera, the shooting stops in about 30 seconds. Therefore, even when a series of related moving images are shot, a plurality of moving images There was a drawback of being recorded as a file.
(3) Even if the editing work is performed, if there are a plurality of moving image files, it takes time and effort, so the editing work is difficult.
Moreover, such a problem could not be solved even by the technique disclosed in the above-mentioned patent document.
[0006]
Therefore, the present invention has been made in view of such conventional problems, and provides a moving image editing apparatus capable of automatically editing a plurality of related moving image data as one moving image data, and a program thereof. The purpose is to do.
[0007]
[Means for Solving the Problems]
  In order to achieve the above object, a moving image editing apparatus according to the first aspect of the present invention comprises: first moving image data acquisition means for acquiring first moving image data;
  Second moving image data acquisition means for acquiring second moving image data;
  The first moving image dataLast frame data ofAnd the second video dataEach frame data in order from the start frameA comparison means for comparing;
  Based on the comparison result of the data by the comparison means, the first moving image dataLast part ofAnd the second video dataIs overlapping with the start ofDetermination means for determining whether or not,
  By the determination meansDuplicateA combination means for combining the first moving image data and the second moving image data and editing it into one moving image data;
  It is provided with.
[0008]
  Further, for example, as described in claim 2, the first moving image data acquisition unit and the second moving image data acquisition unit acquire moving image data from a recording medium capable of recording moving image data. Also good.
  For example, as described in claim 3, the moving image editing apparatus includes:
  A moving image editing apparatus capable of shooting a shooting object,
  The first moving image data acquisition means includesRecordableThe moving image data may be acquired from the recording medium, and the second moving image data acquisition unit may acquire the captured moving image data.
[0009]
  MaClaim4As described above, the determination means includes
  When it is determined that the video data is within a predetermined range based on the comparison result by the comparison means,DuplicateMay be determined.
  Claims5As described in the above, the predetermined range may be arbitrarily set by the user.
  Claims6As described above, the combining means is determined by the determining means.The last frame data of the first moving image data and the start frame data of the second moving image data overlap.If it is determined that the start frame data of the second moving image data is combined after the final frame data of the first moving image data, the moving image data may be edited into one moving image data.
[0010]
  MaClaim7The coupling means is as described in
  By the determination meansDuplicateIn the case where it is determined that the second moving image data is duplicated, the overlapping portion of the second moving image data is deleted, and after the final frame data of the first moving image data, the remaining second moving image data is combined to 1 One moving image data may be used.
[0011]
  Also, for example, the claim8As described above, when the comparison is performed by the comparison means, the position, shape, or size of the object displayed in the frame data to be compared may be compared.
  Claims9As described in the above, when combining by the combining means, the combined moving image data is recorded on the recording medium, and the acquired moving image data to be combined is deleted from the recording medium. Good.
[0012]
  Claim10The program according to the described invention isOn the computer,
  Get first video dataFirst video data acquisition functionWhen,
  Get second video dataSecond video data acquisition functionWhen,
  The first moving image dataLast frame data ofAnd the second video dataEach frame data in order from the start frameCompareComparison functionWhen,
  ComparisonfunctionThe first moving image data based on the data comparison result byLast part ofAnd the second video dataIs overlapping with the start ofWhether or notJudgment functionWhen,
  The determination functionByDuplicateIs determined, the first moving image data and the second moving image data are combined and edited into one moving image data.Combined functionWhen,
  Themake it happenIt is characterized by that.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings as an example applied to a digital camera.
[0014]
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of the digital camera 1. The digital camera 1 constitutes a moving image editing apparatus, and has a CCD 2 and a DSP / CPU 3. The DSP / CPU 3 is a one-chip microcomputer that has various digital signal processing functions including image data compression / decompression and audio data processing, and controls each part of the digital camera 1. In particular, a moving image file recorded on the memory card 13, that is, moving image data, is acquired via the interface 12 and the data bus 9 and stored in the DRAM 10. This function corresponds to moving image data acquisition means. The moving image data acquisition means acquires first moving image data (hereinafter referred to as moving image data 1) and second moving image data (hereinafter referred to as moving image data 2) from the memory card 13. Note that the moving image data 1 and the moving image data 2 are arbitrarily acquired. At this time, an identification symbol is attached to the acquired moving image data so that it can be understood that the acquired moving image data 1 and moving image data 2 are acquired.
[0015]
Further, the DSP / CPU 3 compares the acquired moving image data. At this time, the final frame data of the moving image data 1 and the start frame data of the moving image data 2 may be compared, and the position, shape, and size of the object of the frame data may be compared. This function corresponds to a comparison means.
Then, the DSP / CPU 3 determines whether or not the contents of the two frame data match based on the comparison result, and determines that the moving image data 1 and the moving image data 2 are combined in the case of the approximate match. To do. This function corresponds to determination means.
[0016]
Further, when the DSP / CPU 3 determines to combine, the moving image data 1 and the moving image data 2 stored in the DRAM 10 are combined. At this time, the moving image data 2 is combined after the moving image data 1, and this function corresponds to a combining means. The combined moving image data is recorded on the memory card 13 through the data bus 9 and the interface 12 as one moving image file. At this time, the DSP / CPU 3 deletes the moving image data 1 and the moving image data 2 recorded in the memory card 13.
[0017]
A TG (Timing Generator) 4 that drives the CCD 2 is connected to the DSP / CPU 3, and a unit circuit 5 that receives an analog imaging signal corresponding to the optical image of the subject output from the CCD 2 is connected to the TG 4. Has been. The unit circuit 5 is a CDS (Correlated Double Sampling) circuit that samples and holds an image pickup signal output from the CCD 2 by sampling a correlated double signal, a gain adjustment amplifier (AGC) that amplifies the image pickup signal, and digitally outputs the image pickup signal after amplification. It is composed of an A / D converter (AD) for converting it into a signal, and the output signal of the CCD 2 is sent to the DSP / CPU 3 through the unit circuit 5 as a digital signal.
[0018]
The DSP / CPU 3 is connected to a display device 6, a key input unit 7, and an audio processing unit 8, and to a DRAM 10, a built-in flash memory 11, and a card interface 12 through an address / data bus 9. A detachable memory card 13 attached to a throttle (not shown) of the main body of the digital camera 1 is connected to the card interface 12.
[0019]
The display device 6 includes a color LCD and its driving circuit, and displays the subject image captured by the CCD 2 as a through image when in the shooting standby state, and reads out from the memory card 13 as a storage memory when reproducing the recorded image. The expanded recorded image is displayed. The key input unit 7 includes a plurality of operation keys such as a shutter button, a recording start / end button used for moving image shooting, a power key, and a MENU key, and outputs a key input signal corresponding to a key operation by the user to the DSP / CPU 3. To do.
[0020]
The sound processing unit 8 includes a built-in microphone, an amplifier, an A / D converter, a built-in speaker, a D / A converter, and the like. When shooting a still image or a moving image with sound, the sound input to the built-in microphone is converted into a digital signal. The data is converted and sent to the DSP / CPU 3. The audio data sent to the DSP / CPU 3 is sequentially accumulated in the DRAM 10 and finally stored in the memory card 13 together with the image data generated by the DSP / CPU 3. The audio processing unit 8 reproduces audio based on audio data attached to each video and outputs the audio from the built-in speaker when reproducing a still image or moving image with audio. In addition, various notification sounds are reported by a built-in speaker as necessary.
[0021]
The DRAM 10 is used as a buffer memory for temporarily storing digitized subject image data and the like as a working memory of the DSP / CPU 3 after being imaged by the CCD 2, and a moving image file recorded on the memory card 13 is stored in the card. The data is stored via the I / F 12 and the address / data bus 9, and processing necessary for editing is performed.
[0022]
In the built-in flash memory 11, a control program necessary for control of each unit by the DSP / CPU 3, that is, a moving image file is acquired from the memory card 13, an editing operation and a moving image file are compared, and it is determined whether or not to combine them. In addition, a program necessary for various controls including a program for coupling, and data necessary for each control are stored, and the DSP / CPU 3 operates according to the program.
[0023]
That is, the DSP / CPU 3, the address / data bus 9, the card I / F 12, the memory card 13, the DRAM 10, and the built-in flash memory 11 constitute a first moving image data acquiring unit and a second moving image data acquiring unit, and the DSP / CPU 3 The address / data bus 9, the DRAM 10, and the built-in flash memory 11 constitute comparison means, determination means, and coupling means.
[0024]
Next, the operation of the digital camera 1 having the above configuration will be described. FIG. 2 is a flowchart showing the processing procedure of the DSP / CPU 3 when the user sets the moving image shooting mode.
When the user operates the key input unit 7 to set the moving image shooting mode, it is possible to photograph the scenery and scenery that the user wants to shoot with a digital camera and record the photographed video on a memory card or the like.
[0025]
When the moving image shooting mode is set, the DSP / CPU 3 starts shooting by the CCD 2 and displays a through image of the subject on the display device 6 (step S1). The through image is an object imaged by the CCD 2 is stored in the DRAM 10, the stored image is displayed on the display screen, and the object imaged by the CCD 2 is changed to update the image stored in the DRAM 10. The video displayed on the display screen also changes. In the through display state, the video stored in the DRAM 10 is displayed as it is, but since the video data is not recorded in the memory card 13, the video data is not saved.
Next, when it is determined that the user has pressed the shutter button while the through image is displayed (step S2), a moving image (moving image frame) is captured at a predetermined frame rate (fixed period of 1/30 seconds). The stored moving image shooting process is started (step S3). Until the shutter button is pressed, the process stays in step S2 and the through display continues.
[0026]
When the shutter button is pressed (step S4) or when 30 seconds have elapsed since the start of the moving image shooting process (step S5), the moving image shooting process is stopped (step S6). ) A moving image file is generated using the moving image data developed above and stored in the memory card 13 (step S7). Then, it returns to step S1.
By repeating this operation, moving image files are sequentially recorded on the memory card 13, and the plurality of moving image files are recorded on the memory card 13. The moving image files recorded on the memory card 13 are moving image data 1 and moving image data 2 to be edited later.
If the shutter button is not pressed in step S4 and 30 seconds have not elapsed since the start of the moving image shooting process (NO in step S5), the process returns to step S4, and the moving image shooting process is performed until the shutter button is pressed or 30 seconds have elapsed. Will continue.
[0027]
Next, editing of a moving image file stored in the memory card 13 will be described. When editing a video file, when a single continuous video is recorded in multiple video files, the video files are automatically combined into a single video file. To do.
When the user operates the key input unit 7 to set the moving image editing mode, the moving image data recorded on the memory card 13 is sent by the DSP / CPU 3 via the card I / F 12 and the address / data bus 9. And stored in the DRAM 10. Here, the moving image data stored in the DRAM 10 is selected by the DSP / CPU 3. Here, for convenience, only two moving image data are selected.
[0028]
FIG. 3 shows moving image data stored in the DRAM 10, and reference numerals 20 and 40 in FIGS. 3A and 3B denote start frames of the moving image data, and reference numerals 30 and 50 denote final frames. The moving image data includes a start frame and a final frame, and a plurality of frames between them. The direction of the arrow t represents the passage of time.
[0029]
FIG. 3A shows moving image data 1 stored in the DRAM 10, and FIG. 3B shows moving image data 2.
Also, 60 in FIG. 3A shows an image of the last frame data (hereinafter referred to as frame data) of the moving image data 1, and 70 in FIG. 3B shows the start frame data of the moving image data 2. An image is shown.
In the final frame data of the moving image data 1 and the start frame data of the moving image 2, an image including the mountain 100, the house 110, and the boundary line 120 between the mountain and the ground is shown.
Note that the moving image data 2 may be selected from moving image data having a shooting time closest to the moving image data 1 and moving image data shot after the shooting time of the moving image data 1.
[0030]
Next, moving image editing will be described based on the flowchart of FIG.
When the moving image editing mode is set, moving image data 1 is acquired from the memory card 13 in step S11. An identification symbol or the like is attached to the moving image data acquired at this time so that the moving image data 1 is acquired. Next, the final frame data of the moving image data 1 acquired in step S12 is acquired.
Next, the moving image data 2 is acquired at step S13. At this time, an identification symbol or the like is added to the acquired moving image data so that it can be understood that the acquired moving image data 2 is acquired as the moving image data 2 for the currently acquired moving image data 1. The start frame of the moving image data 2 acquired in step S14 is acquired. Therefore, based on this identification symbol, it is determined whether or not the video data 1 and the video data 2 have been acquired.
[0031]
The final frame data of the moving image data 1 acquired in step S15 and the start frame data of the moving image data 2 are compared. If it is determined in step 16 that they do not match, it is determined that they are not combined, and the process proceeds to step 18. If it is determined in step S16 that they match, it is determined that they are combined.
For example, the moving image data shown in FIGS. 3A and 3B are determined to be combined because the final frame data 30 of the moving image data 1 and the start frame data 50 of the moving image data 2 match.
[0032]
If it is determined in step S16 that the images are combined, the process proceeds to step 17 where the moving image data 2 is combined after the moving image data 1. FIG. 5 shows the combined moving image data, where 80 is the last frame 30 of the moving image data 1 and 90 is the starting frame 50 of the moving image data 2.
The combined moving image data is recorded as a new moving image file on the memory card 13 via the address / data bus 9 and the card I / F 12.
Since the identification symbol is used, when moving image data is acquired and compared, the same moving image data is not acquired and compared again. Even when moving image data is generated, the same moving image data is not generated again.
In addition, when the generated moving image file is stored in the memory card 13, the moving image data (moving image file) acquired as the moving image data 1 and the moving image data 2 may be deleted from the memory card 13.
That is, even if the moving image data 1 and the moving image data 2 are acquired and the new moving image data A is generated, the same moving image data is acquired again as the moving image data 1 and the moving image data 2 and the same moving image data A is generated. Because there is no, there is no generation of the same moving image data.
[0033]
If it is determined in step S16 that they are not combined, the process proceeds to step S18, and it is determined whether or not there is moving image data in the memory card 13 that is not acquired as moving image data 2 for the moving image data 1 that is currently acquired. If it is determined that there is, the process returns to step S13, and the moving image data not acquired as the moving image data 2 for the currently acquired moving image data 1 is newly acquired from the memory card 13. If it is determined that there is not, the process proceeds to step S19.
Here, the moving image data already acquired as the moving image data 2 with respect to the currently acquired moving image data 1 is not acquired again, but the moving image data is newly acquired as the moving image data 1 as described below. The moving image data recorded on the memory card 13 is all moving image data that is not acquired as the moving image data 2. That is, whether or not the video data 2 is acquired is determined based on the video data 1.
[0034]
If a moving image file is generated in step S17 or if it is determined in step S18 that there is no moving image file, the process proceeds to step S19 to determine whether there is moving image data not acquired as moving image data 1 in the memory card 13. If it is determined that there is, the process returns to step S11, new moving image data is acquired from the memory card 13, and the same operation is repeated. If it is determined that there is no video editing mode, the video editing mode is terminated. The determination as to whether or not the moving image data 1 and moving image data 2 have been acquired is made based on the identification symbol attached to the moving image data, so that the same moving image file is acquired again and several pieces of the same moving image data are obtained. Is not generated.
When new moving image data is generated in step S17, the generated moving image data is also included in moving image data not specified as moving image data 1 and moving image data 2. Therefore, new moving image data is added in step S17. Is generated, the moving image editing mode is not terminated. Thereby, when three or more moving image data also have continuity and relevance, they can be automatically edited into one moving image data.
[0035]
Next, how to compare in step S15 and determine in step 16 will be described with reference to FIGS.
FIG. 6 is a diagram showing a subroutine of the comparison unit in step S15 and the determination unit in step S16 in FIG.
7A, 7B, and 7C show images of frame data of a moving image file.
The image of the frame data in FIG. 7 includes a mountain 100, a house 110, and a boundary line 120 between the mountain and the earth. FIGS. 7A, 7B, and 7C are all the same objects. , The location where the photo was taken is different.
[0036]
In step S101 of FIG. 6, the objects of the final frame data of the moving image data 1 and the start frame data of the moving image data 2 are specified. The thing which specified the target object becomes FIG.7 (d), (e), (f). In step S102, the position, shape, and size of the object are acquired. In this case, the position, shape, and size of each mountain and house are specified.
Next, in step S103, the positions, shapes, and sizes of the objects of the final frame data of the moving image data 1 and the starting frame data of the moving image data 2 are respectively compared.
[0037]
Next, when it is determined that the object positions match as a result of comparing the positions of the objects in step S104, the process proceeds to step S105, and when it is determined that the object shapes match in step S105. Proceeds to step S106, and if it is determined that they match as a result of comparing the sizes of the objects in step S106, the process proceeds to step S107, where it is determined to be combined. Then, the process proceeds to step S17 in FIG. If it is determined in step S104 to step S106 that the position, shape, and size of the object do not match, the process proceeds to step 18 in FIG.
[0038]
7A is an image of the last frame data of the moving image data 1, and FIG. 7B is an image of the starting frame data of the moving image data 2, the last frame data of the moving image data 1 and the start of the moving image data 2 are assumed. In the frame data, the positions, shapes, and sizes of the mountains are the same, and the shapes and sizes of the houses are also the same. However, since the positions of the houses are different, it is not determined to be combined.
Note that the coincidence of the position, shape, and size of the object may not be completely the same. This matching range may be set in advance or may be arbitrarily set by the user. Further, weighting may be performed by changing the range of coincidence of the position, shape, and size of the object. For example, when the range of coincidence related to the position of the object is widened or the determination related to the position of the object is not performed, it is determined that FIG. 7A and FIG. Become. Further, if the shapes match, they may be matched, or may be determined based on criteria other than the criteria for determining position, shape, and size, such as color.
[0039]
As described above, when the moving image editing mode is set, the moving image data recorded on the memory card 13 is acquired as the moving image data 1 and the moving image data 2 and stored in the DRAM. Next, when the moving image data 1 and the moving image data 2 are stored in the DRAM 10, the final frame of the moving image data 1 and the start frame of the moving image data 2 are acquired, and the two frame data are compared. If it is determined as a result of the comparison that the two frame data are the same, it is determined that the moving image data 1 and the moving image data 2 are combined.
Next, the moving image data 1 and the moving image data 2 stored in the DRAM 10 are combined. At this time, as a combining method, moving image data 2 is combined after moving image data 1.
Next, the combined moving image data is recorded on the memory card 13 via the address / data bus 9 and the card I / F 12.
As a result, continuous and related moving images are automatically edited as one moving image file.
[0040]
As described above, in the first embodiment, even if continuous and related videos are separately recorded in a plurality of moving image files, the continuous and related moving image files are automatically generated. Since it is edited into one moving image file, the labor and time involved in the editing work can be greatly reduced.
Also, once video recording is finished, it is recorded as one video file, and even if video recording is started immediately, video data is recorded as another video file, but there is continuity and relevance If the video files are the same, even if the user ends the video recording by mistake, if the video recording is started immediately, it is automatically edited into one video file.
Furthermore, even if the user deliberately ends the movie shooting or starts a new movie shooting, if the finished moving image and the started moving image have continuity and relevance, they are automatically edited. For example, if the object to be photographed is a moving image of scenery, scenery, plants, etc., it will be edited as a single moving image, so if you shoot regularly, the scenery will change, the growth of plants will be one, etc. It can be edited as one video file.
[0041]
When shooting a movie with a digital camera, the moving image shooting automatically ends as soon as about 30 seconds elapse. It can be edited as one video file.
In addition, by editing video files on a computer, etc., you can easily and automatically edit multiple video data with a large data capacity. Also, video files shot at the same place with multiple digital cameras at the same time, If there is continuity and relevance, it can be edited as one video file.
[0042]
In the first embodiment, the digital camera is used to perform automatic editing. However, the present invention is not limited to the digital camera, and the memory card 13 in which the moving image file is recorded is read into a personal computer or the like. Needless to say, it can be automatically edited on a personal computer.
Further, not only the memory card 13 but also a moving image file acquired from the Internet may be automatically edited by downloading it to a personal computer or the like.
[0043]
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the video editing of the second embodiment, the video data recorded on the memory card 13 and the video data currently being shot, that is, the video that has already been recorded and the video that has been shot are related to continuity. If it is determined that there is a characteristic, simultaneously with the end of the movie shooting, the recorded movie data and the movie data that has just been shot are combined and recorded in the memory card 13 as one movie data. is there.
Therefore, in the second embodiment, since the editing work is performed during shooting, the moving image editing mode is not necessary.
The second embodiment also uses a digital camera having the same configuration as that shown in FIG.
The DSP / CPU 3 stores the digitized subject image data in the DRAM 10 after being imaged by the CCD 2, and this function corresponds to the photographed moving image data acquisition means.
Since other functions are the same as those of the first embodiment, description thereof is omitted.
[0044]
The moving image editing according to the second embodiment will be described with reference to the flowcharts of FIGS.
When the user operates the key input unit 7 to set the moving image shooting mode, shooting by the CCD is started in step S21 and a through display of the subject is displayed on the display device 6. If it is determined in step S22 that the user has pressed the shutter button in the through display state, the process proceeds to step S23, and a moving image (moving image frame) is captured and stored at a predetermined frame rate (fixed period of 1/30 seconds). The moving image shooting process is started. If it is determined in step S22 that the shutter button has not been pressed, the process stays in step S22 until the shutter button is pressed, and the through display continues.
[0045]
In step S24, start frame data when the moving image shooting process is started is acquired. Next, moving image data is acquired from the memory card 13 in step S25. At this time, an identification symbol or the like is attached to the acquired moving image data so that the acquired moving image data can be recognized. Next, the final frame data of the moving image data acquired in step 26 is acquired. Therefore, based on this identification symbol, it can be determined whether or not the acquired moving image data.
Note that when a new moving image shooting is started, this identification symbol is deleted.
[0046]
In step S27, the start frame data when shooting is started and the final frame data of the moving image data acquired from the memory card 13 are compared. In step S28, it is determined whether or not these two data match. The range of coincidence may be set in advance or may be arbitrarily set by the user. If it is determined that they match, it is determined to be combined, and the process proceeds to step S29. If it is determined that they do not match, it is determined not to be combined, and the process proceeds to step S33.
[0047]
In step S28, it is determined that the images are combined, and in step S29, it is determined whether or not the shutter button is pressed. If it is determined that the shutter button is pressed, the process proceeds to step S31. Proceed to In step S30, it is determined whether 30 seconds have elapsed since the start of the moving image shooting process. If it has elapsed, the process proceeds to step S31. If it is determined that it has not elapsed, the process returns to step S29.
[0048]
That is, a moving image is shot until the shutter button is pressed or 30 seconds after the moving image shooting process is started, and the shutter button is pressed or the moving image shooting process is started. When 30 seconds have elapsed, the process proceeds to step S31, and the moving image shooting process is stopped.
[0049]
When the moving image shooting process is stopped in step S31, the process proceeds to step S32, and the moving image data including the final frame data acquired from the memory card 13 stored in the DRAM 10 and determined to be the same in step S28. And the video data expanded in the buffer memory. At this time, the moving image data expanded in the buffer memory is combined after the moving image data acquired from the memory card 13. Next, one moving image file is generated using the combined moving image data, and is recorded in the memory card 13.
At this time, the moving image data acquired from the memory card 13 may be deleted from the memory card 13.
[0050]
If it is determined in step S28 that they do not match, the process proceeds to step S33, and in step S33, it is determined whether there is moving image data not acquired in the memory card 13, and if it is determined that there is Returns to step S25, acquires new moving image data from the memory card 13, and repeats the same operation.
If it is determined in step S33 that there is not, the process proceeds to step S34 to determine whether the shutter button has been pressed. If it is determined that the button has been pressed, the process proceeds to step S36. If it is determined that the button has not been pressed, the process proceeds to step S35.
[0051]
In step S35, it is determined whether 30 seconds have elapsed since the start of the moving image shooting process. If it is determined that 30 seconds have elapsed, the process proceeds to step S36, and if it is determined that 30 seconds have not elapsed. Returns to step S34.
That is, a moving image is shot until the shutter button is pressed or until 30 seconds elapses after the moving image shooting process is started, and the shutter button is pressed or the moving image shooting process is started. When 30 seconds have elapsed, the process proceeds to step S36, and the moving image shooting process is stopped.
[0052]
In step S36, the moving image shooting process is stopped, and in step S37, a moving image file is generated using the moving image data developed in the buffer memory and recorded in the memory card 13.
That is, it is determined that there is no series of continuously related moving image data in the memory card 13, and without performing moving image editing between the captured moving image data and the moving image data stored in the memory card 13, The captured moving image is stored in the memory card 13.
[0053]
The comparison in step S27 and the determination of whether or not to combine in step S28 are performed by specifying each object of the frame data and determining the position, shape, and size of the object as described in the first embodiment. Are compared to determine whether they match. In this case, the criterion for determining whether or not they match may be set in advance, or can be arbitrarily set by the user. For example, if the position, shape, and size match, it can be determined to match, or only the shape or another requirement such as color can be determined to match.
[0054]
As described above, when the moving image photographing process is started, the moving image data recorded in the memory card 13 is acquired and stored in the DRAM 10. Next, the start frame data of the moving image data being shot and the final frame data of the moving image data acquired from the memory card 13 are acquired, and the two frame data are compared. As a result of the comparison, if it is determined that the two frame data match, it is determined to be combined. If it is determined that they do not match, it is determined that they are not combined, new moving image data is acquired from the memory card 13, and the above-described comparison and determination are performed.
When it is determined to be combined and the moving image shooting is finished, the acquired moving image data and the moving image data after the shooting are combined. At this time, as a combining method, moving image data that has been shot is combined after the acquired moving image data.
[0055]
The combined moving image data is recorded on the memory card 13 via the address / data bus 9 and the card I / F 12.
At this time, the moving image data acquired from the memory card 13 may be deleted.
If it is determined that the moving image data being shot and all the moving image data recorded on the memory card 13 do not match, and if it is determined not to be combined, the moving image data is shot without performing the combining operation. The moving image data is recorded on the memory card 13 alone. That is, the editing operation is not performed, and the moving image shooting operation is normally performed.
As a result, continuous and related moving images can be automatically edited during shooting.
[0056]
As described above, in the second embodiment, the editing work is performed during shooting, so that the video being shot has relevance and continuity with the video already recorded on the memory card 13. Can automatically combine the video recorded at the end of shooting with the video that has been shot and record it as one moving image file.
In addition, since the editing work is performed during shooting, it is possible to eliminate the labor and time associated with the editing work.
In addition, once movie shooting is finished, it will be recorded as one movie file, but if you start movie shooting immediately, editing work will be performed during shooting, so the recorded movie file data and shooting will be Combined moving image data can be recorded as one moving image file.
[0057]
In video shooting with a digital camera, moving image shooting automatically ends as soon as about 30 seconds elapse, but even in this case, if you start shooting immediately, editing work will be performed during shooting, so continuity, Relevant images can be recorded as a single video file.
Even if the user intentionally ends moving image shooting and a certain amount of time elapses, even if the moving image shooting is started, the recorded moving image and the moving image being recorded are If there is, the video editing work will be done during shooting. For example, if the object to be shot is a moving image such as landscape, landscape, plant, etc. Can be recorded as one video file.
[0058]
(Third embodiment)
Next, a third embodiment of the present invention will be described. The moving image editing of the third embodiment is to combine moving image data having overlapping portions, that is, moving image data having overlapping images, among a plurality of moving image data recorded on the memory card 13. is there.
At the time of this combination, the overlapping part of either one of the moving image data is deleted and combined.
The third embodiment also uses a digital camera having the same configuration as that shown in FIG.
When the user operates the key input unit 7 to set the moving image editing mode, the DSP / CPU 3 transfers the moving image data recorded on the memory card 13 to the DRAM 10 via the card I / F 12 and the address / data bus 9. To remember. Here, for convenience, only two moving image data are selected.
[0059]
FIG. 10 shows two moving image data stored in the DRAM 10, 200 and 400 in FIGS. 10A and 10B represent start frames of the moving image data, and 300 and 500 represent the final moving image data. Represents a frame. The moving image data includes a start frame and a final frame, and a plurality of frames between them. The direction of the arrow t represents the passage of time.
FIG. 10A shows moving image data 1 stored in the DRAM 10 and FIG. 10B shows moving image data 2.
[0060]
The moving image editing according to the third embodiment will be described with reference to the flowcharts of FIGS.
When the moving image editing mode is set, moving image data 1 is obtained from the memory card 13 in units of files in step S51. At this time, an identification symbol or the like is attached to the acquired moving image data 1 so that the acquired moving image data 1 is acquired.
Next, the process proceeds to step S52, and the final frame data of the moving image data 1 is acquired. In step S53, the moving image data 2 is acquired from the memory card 13 in units of files. At this time, an identification symbol or the like is added to the acquired moving image data so that it can be understood that the acquired moving image data is acquired as moving image data 2 for moving image data 1.
Next, start frame data of the moving image data 2 is acquired in step S54. Then, the process proceeds to step S55. Therefore, based on this identification symbol, it is determined whether or not the video data 1 and the video data 2 have been acquired.
[0061]
In step S55, the acquired two frame data are compared, and in step S56, it is determined whether the two frame data match based on the comparison result. As described in the first embodiment, this comparison and determination method may be determined based on the position, shape, and size of the object. Moreover, you may make it judge with a color other method.
[0062]
If it is determined in step S56 that they do not match, the process proceeds to step S57, and it is determined whether or not the last frame data of the moving image data 2 is included in the two compared frame data.
If it is determined in step S57 that the frame data is not included, the process proceeds to step S58, where the frame data immediately after the compared frame data of the moving image data 2 is acquired, and the process returns to step S55. That is, the frame data of the moving image data 2 is acquired until it is determined that they match, and the final frame data of the moving image data 2 is sequentially compared.
If it is determined in step S57 that the two compared frame data include the final frame data of the moving image data 2, it is determined that there is no overlapping portion between the moving image data 1 and the moving image data 2; Proceeding to S 64, new moving image data is acquired from the memory card 13 as moving image data 2 for the currently acquired moving image data 1.
[0063]
As a result of the sequential comparison, if it is determined in step S56 that they match, the process proceeds to step S59. Assume that the data of the final frame 300 of the moving image data 1 and the frame 700 of the moving image data 2 shown in FIG. In step S59, it is determined whether there is start frame data of moving image data 2 in the two compared frame data. If it is determined that there is, the process proceeds to step S63. If it is determined that there is no start frame data, step S60 is determined. Proceed to
Since the frame 700 portion of the moving image data 2 in FIG. 10 is not a start frame, it is determined in step S59 that it is not included, and the process proceeds to step S60.
[0064]
In step S60, the data of the frame immediately before the frame compared with the moving image data 1 (frame data) and the frame data immediately before the frame compared with the moving image data 2 are respectively acquired. Compare two frame data. Next, the process proceeds to step S62, and it is determined whether or not the two frame data match based on the comparison result. If it is determined that they do not match, the process proceeds to step S64. If it is determined that they match, the process returns to step S59 and the same operation is repeated.
[0065]
As a result of repeating this operation, if it is determined that the frame data of the moving image data 1 and the frame data of the moving image data 2 match each other up to the start frame of the moving image data 2, there is overlapped data. And the process proceeds to step S63.
That is, as shown in FIG. 10, the last frame data 300 of the moving image data 1 and the frame data 700 of the moving image data 2 match, and then the frame data immediately before the frame 300 of the moving image data 1 and the moving image data 2 This is a state in which the frame data immediately before the frame 700 coincides and the frame data 600 of the moving image data 1 and the start frame data 400 of the moving image data 2 coincide as a result of comparison in this order. This is frame data determined to have the hatched portions shown in FIG.
[0066]
If it is determined that they do not match, it is determined that there is no overlapping portion between the moving image data 1 and the moving image data 2, it is determined that they are not combined, and the process proceeds to step S 64, where the currently acquired moving image data As the moving image data 2 for 1, new moving image data is acquired from the memory card 13.
When it is determined that the frame data of the moving image data 1 and the frame data of the moving image data 2 match each other up to the start frame data of the moving image data 2, that is, the start frame data of the moving image data 2 is included in step S59. If it is determined that the moving image data 1 and the moving image data 2 are duplicated, it is determined that they are combined. Next, the process proceeds to step S63.
[0067]
In the above description, the case where there is duplicate data has been described. However, there is a case where it is determined that the data is combined even if there is no duplicate data.
More specifically, as a result of comparing the final frame data of the moving image data 1 acquired in step S52 with the start frame data of the moving image data 2 acquired in step S54 (step S55), if the data match (step S56) Since the matched frame data naturally includes the start frame data of the moving image data 2, it is determined to be combined (step S59).
That is, the invention of the third embodiment includes the invention of the first embodiment, and even if there is no duplicate data, continuity and related moving image data are determined to be combined. .
[0068]
In step S63, the moving image data 1 and the moving image data 2 are combined to generate a new moving image file. At this time, the combining method deletes the overlapping portion of the moving image data 2 and combines the deleted moving image data 2 after the moving image data 1. That is, it is as shown in FIG. In FIG. 13, 800 is a portion that was the start frame 200 of the moving image data 1, 900 is a portion that was the frame 600 of the moving image data 1, and a frame having substantially the same data as the start frame 400 of the moving image data 2. It is. Reference numeral 1000 denotes a portion that was the last frame 300 of the moving image data 1 and a frame having substantially the same data as the frame 700 of the moving image data 2. Reference numeral 1100 denotes a portion that was the last frame 500 of the moving image data 2.
Further, the hatched portion in FIG. 13 indicates data determined that the moving image data 1 and the moving image data 2 are overlapped.
In this embodiment, the overlapping portion of the moving image data 2 is deleted and combined. However, the overlapping portion of the moving image data 1 may be deleted and the moving image data 1 and the moving image data 2 may be combined.
[0069]
The newly generated moving image file is recorded on the memory card 13 via the address / data bus 9 and the card I / F 12.
Since the identification symbol is used, when moving image data is acquired and compared, the same moving image data is not acquired and compared again. Even when moving image data is generated, the same moving image data is not generated again.
In addition, when the generated moving image file is stored in the memory card 13, the moving image data (moving image file) acquired as the moving image data 1 and the moving image data 2 may be deleted from the memory card 13.
That is, even if the moving image data 1 and the moving image data 2 are acquired and the new moving image data A is generated, the same moving image data is acquired again as the moving image data 1 and the moving image data 2 and the same moving image data A is generated. Because there is no, there is no generation of the same moving image data.
When this operation is completed, the process proceeds to step S65.
[0070]
If it is determined in step S62 that they do not match or if it is determined in step S57 that the final frame data is included, it is determined that there is no overlapping data in the moving image data 1 and the moving image data 2. Then, the process proceeds to step S64. Then, it is determined whether or not there is moving image data not acquired as moving image data 2 with respect to the moving image data 1 currently acquired in the memory card 13. Dynamic video data 2 is acquired. If it is determined in step S64 that there is no moving image data not acquired as moving image data 2, the process proceeds to step S65.
Here, the moving image data already acquired as the moving image data 2 with respect to the currently acquired moving image data 1 is not acquired again, but the moving image data is newly acquired as the moving image data 1 as described below. The moving image data recorded on the memory card 13 is all moving image data that is not acquired as the moving image data 2. That is, whether or not the video data 2 is acquired is determined based on the video data 1.
[0071]
In step S65, it is determined whether there is moving image data not acquired as moving image data 1 in the memory card 13. If it is determined that there is, the flow returns to step S51, and new moving image data 1 is stored. get. If it is determined in step S65 that there is no moving image data not acquired as moving image data 1, the moving image editing mode is terminated.
Note that the determination as to whether or not the video data 1 and video data 2 have been acquired is made based on the identification symbol or the like attached to the video data. Therefore, the same video file is acquired again, and several identical video data are obtained. Never generated.
When new moving image data is generated in step S63, the generated moving image data is also included in moving image data not specified as moving image data 1 and moving image data 2. Therefore, new moving image data is added in step S63. Is generated, the moving image editing mode is not terminated. Thereby, when three or more moving image data also have continuity and relevance, they can be automatically edited into one moving image data.
[0072]
Thus, when the moving image editing mode is set, moving image data recorded on the memory card 13 is acquired as moving image data 1 and moving image data 2 and stored in the DRAM 10. Next, when the moving image data 1 and the moving image data 2 are stored in the DRAM 10, the final frame of the moving image data 1 and the start frame of the moving image data 2 are acquired, and the two frame data are compared. If it is determined that they do not match, the next frame data of the moving image data 2 is acquired and compared with the final frame data of the moving image data 1. The comparison of the final frame data of the moving image data 1 and the frame data of the moving image data 2 is continued until it is determined that they match.
[0073]
If it is determined that the final frame data of the moving image data 2 does not match, it is determined that there is no overlapping portion between the moving image data 1 and the moving image data 2, and new moving image data is transferred from the memory card 13 to the moving image data 2. The data 2 is acquired and the above-described operation is repeated.
If it is determined that they match, the last frame data of the moving image data 1 and the frame data of the moving image data 2 that are determined to match are used as the reference to obtain the previous frame data from the moving image data 1 and the moving image data 2, respectively. A comparison is made to determine whether or not they match. If it is determined that they match, the previous frame data is obtained and compared from the moving image data 1 and the moving image data 2 to determine whether they match. This comparison determination continues until the start frame data of the moving image data 2. However, if it is determined that they do not match even once, it is determined that there is no overlapping portion between the moving image data 1 and the moving image data 2, and new moving image data is acquired as the moving image data 2 from the memory card 13, and the above operation is performed. repeat.
[0074]
As a result of the comparison and determination, each frame data from the frame data of the moving image data 2 determined to match the final frame data of the moving image data 1 to the start frame data of the moving image data 2, and each frame data of the moving image data 1 Is determined to match, the video data 1 and the video data 2 are determined to be duplicated, and the video data 1 and the video data 2 are combined. At this time, the overlapping portion of the moving image data 2 is deleted, and the moving image data 1 and the remaining deleted moving image data 2 are combined.
Based on the combined moving image data, a new moving image file is generated and recorded in the memory card 13.
Note that the overlapping portion of the moving image data 1 may be deleted and the moving image data 1 and the moving image data 2 may be combined.
At this time, the moving image data 1 and the moving image data 2 may be deleted from the memory card 13.
As a result, the moving image data including the overlapping moving image data are combined, so that moving images having continuity and relevance are edited as one moving image file.
Even if the moving image data 1 and the moving image data 2 do not have overlapping data, if the final frame data of the moving image data 1 and the start frame data of the moving image data 2 match, they are combined. The related moving images are edited as one moving image file.
[0075]
As described above, in the third embodiment, moving image data including duplicate data is automatically edited, so that moving image data having continuity and relevance can be generated as one moving image file. it can.
In addition, since it automatically determines whether there is duplicated data, it is possible to greatly reduce the labor and time involved in editing work.
Furthermore, a plurality of moving image files photographed at the same place with a plurality of digital cameras or the like are likely to have duplicate data, and in such a case, they can be automatically edited.
In addition, by editing a moving image file with a personal computer or the like, it is possible to easily and automatically edit a plurality of moving image data having a large data capacity.
Even if there is no duplicate video data, video files with continuity and relevance can be automatically edited, so a variety of editing is possible.
[0076]
In the third embodiment, automatic editing is performed using a digital camera. However, the present invention is not limited to a digital camera, and a memory card 13 on which a moving image file is recorded is read into a personal computer or the like. Needless to say, it can be automatically edited on a personal computer.
Further, not only the memory card 13 but also a moving image file acquired from the Internet may be automatically edited by downloading it to a personal computer or the like.
[0077]
The present invention is not limited to the above-described embodiments, and the following modified embodiments are possible.
(A) The moving image editing apparatus of the present invention may be applied to an apparatus that captures video with a personal computer and automatically edits the moving image on the personal computer by attaching a CCD camera to the personal computer or the like.
(B) The moving image editing apparatus of the present invention may be applied to a device that automatically edits a moving image using a mobile phone, a watch, or other equipment having a photographing function.
[0078]
【The invention's effect】
According to the first aspect of the present invention, even if a plurality of video data is recorded with continuous and related videos separately, the continuous and related video data is automatically converted into one video data. Therefore, the time and labor involved in the editing work can be greatly reduced.
Also, once video recording is finished, it is recorded as one video data, and even if video recording is started immediately, video data is recorded as another video data, but there is continuity and relevance If the video data is the same, even if the user ends the video recording by mistake, if the video recording starts immediately, the video data is automatically edited into one video data.
Furthermore, even if the user deliberately ends the movie shooting or starts a new movie shooting, if the finished moving image and the started moving image have continuity and relevance, they are automatically edited. For example, if the object to be photographed is a moving image of scenery, scenery, plants, etc., it will be edited as a single moving image, so if you shoot regularly, the scenery will change, the growth of plants will be one, etc. It can be edited as one video data.
In addition, when 30 seconds have elapsed since the start of movie shooting, movie shooting ends automatically. In this case, if shooting starts immediately, the movie data is automatically edited into one movie data. .
[0079]
  According to the invention described in claim 2, since the moving image data recorded on the recording medium is automatically edited, any mobile phone, personal computer can be used as long as the recording medium can be read without being limited to a digital camera. It can be automatically edited using a device such as.
  In addition, by editing the video data on a personal computer,capacityA large number of large video data can be easily and automatically edited.
  According to the invention described in claim 3, since the editing work is performed during shooting, if the video being shot has relevance and continuity with the video recorded on the recording medium, The video recorded at the end of shooting and the video being shot can be combined to generate one moving image data.
  In addition, since the editing work is performed during shooting, it is possible to eliminate the labor and time associated with the editing work.
  In video shooting with a digital camera, moving image shooting automatically ends as soon as about 30 seconds elapse, but even in this case, if you start shooting immediately, editing work will be performed during shooting, so continuity, Relevant images can be recorded as one moving image data.
[0080]
  Claim 4According to the invention, if the frame data are within a predetermined range,DuplicateTherefore, it is possible to reliably edit a continuous video as one moving image data.
  Claim5According to the described invention, since the user can arbitrarily set the predetermined range, editing suitable for the application can be performed.
  Claim6According to the described invention, editing is performed so that the start frame of the moving image data 2 comes after the final frame of the moving image data 1, so that it is possible to generate naturally continuous moving image data.
[0081]
  Claim7According to the described invention, video data including duplicate data is automatically edited, so that video data having continuity and relevance can be generated as one video data.The TheIn addition, multiple video data shot at the same location with multiple digital cameras, etc. are likely to have duplicate data, and even in such cases, it can be automatically edited.wear.
[0082]
  Claim8According to the described invention, since the position, shape, and size of the object are compared, comparison of frame data can be performed more reliably, and a continuous and smooth video can be automatically edited.
  Claim9According to the described invention, the moving image data 1 and moving image data 2 which are the basis of editing are deleted and the edited moving image data is generated. Therefore, it is not necessary to record the overlapping moving image data on the recording medium, and the same editing work is performed. You do n’t have to.
[0083]
  Claim10According to the described invention, the present invention can be implemented by an existing image editing apparatus such as a digital camera by using a program.
[Brief description of the drawings]
FIG. 1 is a block diagram of a digital camera according to an embodiment of the present invention.
FIG. 2 is a flowchart showing an operation in a moving image shooting mode.
FIG. 3 is a diagram illustrating a configuration of moving image data.
FIG. 4 is a flowchart showing an operation in a moving image editing mode.
FIG. 5 is a diagram illustrating a configuration after editing moving image data.
FIG. 6 is a flowchart showing a subroutine for comparison and determination in a moving image editing mode.
FIG. 7 is a diagram illustrating a frame image of moving image data.
FIG. 8 is a flowchart showing an operation in a moving image shooting mode.
FIG. 9 is a flowchart showing an operation in a moving image shooting mode.
FIG. 10 is a diagram illustrating a configuration of moving image data.
FIG. 11 is a flowchart showing an operation in a moving image editing mode.
FIG. 12 is a flowchart showing an operation in a moving image editing mode.
FIG. 13 is a diagram illustrating a configuration after editing moving image data.
[Explanation of symbols]
1 Digital camera
2 CCD
3 DSP / CPU
4 TG
5 Unit circuit
6 Display device
7 Key input part
8 Voice processing part
9 Data bus
10 DRAM
11 Built-in flash memory
12 interfaces
13 Memory card

Claims (10)

第1の動画データを取得する第1動画データ取得手段と、
第2の動画データを取得する第2動画データ取得手段と、
前記第1の動画データの最終フレームデータと前記第2の動画データの各フレームデータとを開始フレームから順次比較する比較手段と、
前記比較手段によるデータの比較結果に基づいて、前記第1の動画データの最終部分と前記第2の動画データの開始部分とが重複しているか否かを判定する判定手段と、
前記判定手段により重複していると判定された場合には、前記第1の動画データと前記第2の動画データとを結合して1つの動画データに編集する結合手段と、
を備えたことを特徴とする動画像編集装置。
First moving image data acquisition means for acquiring first moving image data;
Second moving image data acquisition means for acquiring second moving image data;
Comparison means for sequentially comparing the last frame data of the first moving image data and each frame data of the second moving image data from a start frame ;
Based on the comparison result of the data by the comparison means, determining means for determining said first end portion and the second starting portion and is not Luke duplicate the video data of the moving image data,
A combining unit that combines the first moving image data and the second moving image data and edits the moving image data into a single moving image data when it is determined by the determining unit that there is an overlap ;
A moving image editing apparatus comprising:
前記第1動画データ取得手段、及び前記第2動画データ取得手段は、
動画データを記録可能な記録媒体から動画データを取得することを特徴とする請求項1記載の動画像編集装置。
The first moving image data acquisition unit and the second moving image data acquisition unit are:
The moving image editing apparatus according to claim 1, wherein the moving image data is acquired from a recording medium capable of recording the moving image data.
前記動画像編集装置は、
撮影対象物を撮影可能な動画像編集装置であって、
前記第1動画データ取得手段は、記録可能な記録媒体から動画データを取得し、
前記第2動画データ取得手段は、撮影した動画データを取得することを特徴とする請求項1記載の動画編集装置。
The moving image editing apparatus includes:
A moving image editing apparatus capable of shooting a shooting object,
The first moving image data acquisition means acquires moving image data from a recordable recording medium,
The moving image editing apparatus according to claim 1, wherein the second moving image data acquisition unit acquires captured moving image data.
前記判定手段は、
前記比較手段による比較結果に基づき、動画データ同士が所定の範囲内にあると判断した場合は、重複していると判定することを特徴とする請求項1乃至の何れかに記載の動画像編集装置。
The determination means includes
The moving image according to any one of claims 1 to 3 , wherein when the moving image data is determined to be within a predetermined range based on a comparison result by the comparing means, it is determined that the moving image data overlap each other. Editing device.
前記所定の範囲内は、
ユーザによって任意に設定できることを特徴とする請求項記載の動画像編集装置。
Within the predetermined range,
5. The moving image editing apparatus according to claim 4 , wherein the moving image editing apparatus can be arbitrarily set by a user.
前記結合手段は、
前記判定手段により前記第1の動画データの最終フレームデータと前記第2の動画データの開始フレームデータとが重複していると判定された場合は、前記第1の動画データの最終フレームデータの後に、前記第2の動画データの開始フレームデータを結合して1つの動画データに編集することを特徴とする請求項1乃至の何れかに記載の動画像編集装置。
The coupling means includes
If it is determined by the determining means that the last frame data of the first moving image data and the start frame data of the second moving image data overlap , after the last frame data of the first moving image data , the moving picture editing apparatus according to any one of claims 1 to 5, characterized in that editing one of the moving image data to the start frame data combined with the second video data.
前記結合手段は、
前記判定手段により重複していると判定された場合に、前記第2の動画データの重複している部分を削除して、第1の動画データの最終フレームデータの後に、削除した残りの第2の動画データを結合して1つの動画データにすることを特徴とする請求項1乃至5の何れかに記載の動画像編集装置。
The coupling means includes
If it is determined by the determination means that the second moving image data is duplicated, the overlapping portion of the second moving image data is deleted, and the second remaining deleted second frame data after the last frame data of the first moving image data. moving picture editing apparatus according to any one of claims 1 to 5 by combining the video data, characterized in that a single moving image data.
前記比較手段によって比較するときは、
比較するフレームデータに映し出されている対象物の位置、形状、又は大きさを比較することを特徴とする請求項1乃至の何れかに記載の動画像編集装置。
When comparing by the comparison means,
Position of the comparison object being displayed on the frame data, shape, or comparing the magnitude moving picture editing apparatus according to any one of claims 1 to 7, characterized in.
前記結合手段によって結合するときには、
1つに結合された動画データを記録媒体に記録し、結合の対象となる取得した動画データを記録媒体から削除することを特徴とする請求項1乃至の何れかに記載の動画像編集装置。
When joining by the joining means,
Video data that is coupled to one recorded on the recording medium, the moving picture editing apparatus according to any one of claims 1 to 8, characterized in that to remove the moving image data obtained as the binding of the target from the recording medium .
コンピュータに、
第1の動画データを取得する第1動画データ取得機能と、
第2の動画データを取得する第2動画データ取得機能と、
前記第1の動画データの最終フレームデータと前記第2の動画データの各フレームデータとを開始フレームから順次比較する比較機能と、
前記比較機能によるデータの比較結果に基づいて、前記第1の動画データの最終部分と前記第2の動画データの開始部分とが重複しているか否かを判定する判定機能と、
前記判定機能により重複していると判定された場合には、前記第1の動画データと前記第2の動画データとを結合して1つの動画データに編集する結合機能と、
実現させるためのプログラム。
On the computer,
A first moving image data acquisition function for acquiring first moving image data ;
A second moving image data acquisition function for acquiring second moving image data ;
A comparison function for sequentially comparing the last frame data of the first moving image data and each frame data of the second moving image data from a start frame ;
Based on the comparison result of the data by the comparing function, a determination function whether the first final portion and the second starting portion and is not Luke duplicate the video data of the moving image data,
A combination function for combining the first moving image data and the second moving image data to edit into one moving image data when it is determined by the determination function that they are duplicated ;
A program to realize
JP2003157250A 2003-06-02 2003-06-02 Moving picture editing apparatus and program thereof Expired - Fee Related JP4189555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003157250A JP4189555B2 (en) 2003-06-02 2003-06-02 Moving picture editing apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003157250A JP4189555B2 (en) 2003-06-02 2003-06-02 Moving picture editing apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2004363734A JP2004363734A (en) 2004-12-24
JP4189555B2 true JP4189555B2 (en) 2008-12-03

Family

ID=34051070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003157250A Expired - Fee Related JP4189555B2 (en) 2003-06-02 2003-06-02 Moving picture editing apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP4189555B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100707205B1 (en) 2005-09-22 2007-04-13 삼성전자주식회사 Method and apparatus for detect play section in sports video
JP5173287B2 (en) * 2007-07-06 2013-04-03 キヤノン株式会社 Program recording apparatus and control method thereof

Also Published As

Publication number Publication date
JP2004363734A (en) 2004-12-24

Similar Documents

Publication Publication Date Title
JP4777180B2 (en) Imaging apparatus and control method thereof
JP4993012B2 (en) Imaging apparatus and image processing apparatus
JP2004201282A (en) Photographing device and photographing method
KR100971741B1 (en) Image pickup apparatus
JP2008199671A (en) Imaging device and program
JP4189556B2 (en) Moving image processing apparatus and program thereof
JP5743512B2 (en) Imaging apparatus and control method thereof
TW200425091A (en) Image sensing device, image edit method, and storage medium for recording image edit method
JP4208613B2 (en) Imaging device
JP4189555B2 (en) Moving picture editing apparatus and program thereof
JP6229356B2 (en) Imaging apparatus, imaging method, and program
JP2001309221A (en) Camera
JP4975264B2 (en) Movie imaging apparatus and program thereof
JP5836578B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2004221666A (en) Imaging recording apparatus
JP6665019B2 (en) Imaging device
JP5188277B2 (en) Imaging apparatus, control method therefor, and program
JP3559499B2 (en) Digital camera
JP2005072729A (en) Electronic camera and image photographing method
JP2003230090A (en) Electronic camera
JP2006314136A (en) Photographic device and photographing method
JP2005218126A (en) Photographing device and photographing method
JP2018038058A (en) Sound output device, imaging system, sound output method, and program
JP4699715B2 (en) Image / audio recording apparatus and reproducing apparatus
JP2014204235A (en) Content recording and reproducing device, content management method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080520

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080831

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110926

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4189555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120926

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130926

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees