JP4189556B2 - Moving image processing apparatus and program thereof - Google Patents
Moving image processing apparatus and program thereof Download PDFInfo
- Publication number
- JP4189556B2 JP4189556B2 JP2003167403A JP2003167403A JP4189556B2 JP 4189556 B2 JP4189556 B2 JP 4189556B2 JP 2003167403 A JP2003167403 A JP 2003167403A JP 2003167403 A JP2003167403 A JP 2003167403A JP 4189556 B2 JP4189556 B2 JP 4189556B2
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- image data
- data
- image file
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、動画像処理装置およびそのプログラムに係り、詳しくは、複数の動画データに対する編集動作を実行する動画像処理装置に関する。
【0002】
【従来の技術】
従来、動画像撮影装置として、典型的なものにデジタルカメラがある。このようなデジタルカメラによる撮影は、従来の銀塩カメラによる撮影と異なり、撮影時あるいは撮影後に撮影された画像データに対して、デジタル画像処理を行うことが可能である。
また、処理速度、記憶容量の増大などによる性能向上により静止画のみでなく動画の撮影も可能となってきている。
そして、撮影した動画ファイルが二つある場合(以下、動画ファイル1、動画ファイル2という)には、ユーザは動画ファイル1と動画ファイル2を合わせて一つの動画ファイルを作りたい場合がある。かかる場合には、手動により、単純に動画ファイル1と動画ファイル2をそのまま結合するか、あるいは動画編集を行い、動画ファイル1と動画ファイル2の間に場面転換の効果を与えて、動画ファイルの結合を行っている。
【0003】
また、下記特許公開公報には、自動的に動画を編集する画像処理システムが開示されている。この画像処理システムは、被写体が記録された動画データの所在を特定するための情報と被写体が記録された時刻とを対応付けるための管理情報を生成し、管理情報に基づいて編集して、特定の被写体について一貫性を持つ新たな動画データを自律的に生成可能とするものである。
【0004】
【特許文献】
公開特許公報 特開平10−215434号(段落「0023」および段落「0028」参照)
【0005】
【発明が解決しようとする課題】
しかしながら、従来のデジタルカメラにあっては、動画撮影を終了してしまうと1つの動画ファイルが生成されてしまうため、以下のような問題点があった。(a)ユーザが間違って動画撮影を終了させてしまうと、すぐに動画撮影を開始しても、別のファイルとして記録されてしまうため、1つの動画ファイルとして記録したい場合には、ユーザが手動で編集をしなければならなかった。
(b)また、デジタルカメラで動画像を撮影した場合には、30秒ぐらいで撮影が停止してしまうため、関連のある連続した一連の動画像を撮影した場合であっても、複数の動画ファイルとして記録されてしまうという欠点があった。
(c)編集作業を行なうにしても、動画ファイルが複数ある場合には、手間と時間がかかるので、編集作業が大変であった。
また、このような問題は、上記した特許文献に開示されている技術によっても解決できるものではなかった。
【0006】
そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、複数の関連性のある動画データを用いて自動的に一つの動画データに編集することができる動画像処理装置およびそのプログラムを提供することを目的とする。
【0007】
【課題を解決するための手段】
上記目的達成のため、第1の動画データを取得する第1取得手段と、第2の動画データを取得する第2取得手段と、前記第1の動画データの撮影から所定時間内に前記第2の動画データの撮影があるか否かを判定する判定手段と、前記判定手段により所定時間内に前記第2の動画データの撮影がないと判定された場合には、前記第1の動画データを 1 つの動画ファイルとして記憶手段に記憶させ、所定時間内に前記第2の動画データの撮影があると判定された場合には、前記第1の動画データを前記第2の動画データとを結合して1つの動画ファイルに編集するとともに前記記憶手段に記憶させる編集手段と、を備えたことを特徴とする。
【0012】
請求項10記載の発明によるプログラムは、第1の動画データを取得する処理と、第2の動画データを取得する処理と、前記第1の動画データの撮影から所定時間内に前記第2の動画データの撮影があるか否かを判定する処理と、この判定する処理により所定時間内に前記第2の動画データの撮影がないと判定された場合には、前記第1の動画データを動画ファイルとして記憶手段に記憶させ、所定時間内に前記第2の動画データの撮影があると判定された場合には、前記第1の動画データを前記第2の動画データとを結合して1つの動画ファイルに編集するとともに前記記憶手段に記憶させる処理と、を含み、コンピュータにより動画像の処理を実行することを特徴とする。
【0013】
(第1の実施の形態)
図1は、デジタルカメラ1の概略構成を示すブロック図である。デジタルカメラ1は動画像処理装置を構成し、CCD2とDSP/CPU3とを有している。DSP/CPU3は、画像データの圧縮・伸張、音声データの処理を含む各種のデジタル信号処理機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。なお、ワンチップマイコンは、図示しないがクロック回路も含み、クロック回路により時刻が監視され、時刻の計測も行う。
【0014】
特に、メモリ・カード13に記録されている動画ファイルの動画データをインターフェイス12、アドレス・データバス9を介して取得し、DRAM10に記憶させる。この機能は、取得手段に相当する。第1取得手段は第1の動画データ(以下、動画データ1という)を取得し、第2取得手段は第2の動画データ(以下、動画データ2という)を取得する。また、このとき、取得した動画データの動画ファイルに、動画ファイル1、動画ファイル2として取得されたことがわかるように識別記号等を付す。拡張子によって、識別するのもよい。
また、DSP/CPU3は、取得した動画データの撮影時刻の間隔が所定時間内か否かを判定する。この機能は、時刻判定手段に相当する。
【0015】
さらに、DSP/CPU3は、所定時間内と判定した場合には、取得した動画データ1と動画データ2とを結合させる。この機能は編集手段に相当する。そして結合されたデータは、1つの動画ファイルとしてア生成されアドレス・データバス9、インターフェイス12を介して、メモリ・カード13に記録される。このとき、DSP/CPU3は、メモリ・カード13に記録されている、動画ファイル1と動画ファイル2を削除するようにしてもよい。この機能は、消去手段に相当する。
【0016】
DSP/CPU3には、CCD2を駆動するTG(Timing Generator)4が接続されており、TG4には、CCD2から出力される被写体の光学像に応じたアナログの撮像信号が入力するユニット回路5が接続されている。ユニット回路5は、CCD2から出力される撮像信号を相関二重信号サンプリングして保持するCDS(Correlated Double Sampling)回路、その撮像信号を増幅するゲイン調整アンプ(AGC)、増幅後の撮像信号をデジタル信号に変換するA/D変換器(AD)から構成されており、CCD2の出力信号はユニット回路5を経てデジタル信号としてDSP/CPU3に送られる。
【0017】
DSP/CPU3には、表示装置6、キー入力部7、音声処理部8が接続されるとともに、アドレス・データバス9を介してDRAM10、内蔵フラッシュメモリ11、カード・インターフェイス12が接続されており、カード・インターフェイス12には、デジタルカメラ1の本体の図示しないスロットルに装着された着脱可能なメモリ・カード13が接続されている。
【0018】
表示装置6はカラーLCDとその駆動回路とを含み、撮影待機状態にあるときにはCCD2によって撮像された被写体画像をスルー画像として表示し、記録画像の再生時には保存メモリであるメモリ・カード13から読み出され伸張された記録画像を表示する。キー入力部7はシャッターボタン、動画撮影に使用する録画開始/終了ボタン、電源キー、MENUキー等の複数の操作キーを含み、使用者によるキー操作に応じたキー入力信号をDSP/CPU3に出力する。
【0019】
音声処理部8は、内蔵マイク、アンプ、A/D変換器、内蔵スピーカ、D/A変換器等を含み、音声付の静止画又は動画の撮影時には、内蔵マイクに入力した音声をデジタル信号に変換してDSP/CPU3へ送る。DSP/CPU3へ送られた音声データはDRAM10に順次蓄積され、最終的には、DSP/CPU3によって生成された画像データとともにメモリ・カード13に記憶される。また、音声処理部8は、音声付の静止画又は動画の再生時には、各映像に付属する音声データに基づく音声を再生して内蔵スピーカから音声出力する。また、必要に応じ、内蔵スピーカにより各種の報知音を報音する。
【0020】
DRAM10は、CCD2により撮像された後、デジタル化された被写体の画像データ等を一時記憶するバッファメモリ、DSP/CPU3のワーキングメモリとしても使用され、メモリ・カード13に記録されている動画ファイルの動画ファイル名、撮影時刻、動画データをカードI/F12とアドレス・データバス9を介して記憶し、編集作業に必要な処理が行なわれる。
【0021】
内蔵フラッシュメモリ11には、DSP/CPU3による各部の制御に必要な制御プログラム、すなわちメモリ・カード13から撮影時刻を取得したり、編集作業、すなわち、撮影時刻を比較し、結合するか否かを判定し、結合するためのプログラム等を含む各種の制御に必要なプログラム、及び各制御に必要なデータが記憶されており、DSP/CPU3は前記プログラムに従い動作する。
【0022】
すなわち、DSP/CPU3、アドレス・データバス9、カードI/F12、メモリ・カード13、DRAM10、内蔵フラッシュメモリ11は、第1取得手段、第2取得手段、編集手段を構成し、DSP/CPU3、アドレス・データバス9、DRAM10、内蔵フラッシュメモリ11は、時刻判定手段を構成する。
そして、撮像手段はデジタルカメラ1で構成される。
【0023】
次に、以上の構成からなるデジタルカメラ1における動作を説明する。図2はユーザが動画撮影モードを設定したときのDSP/CPU3の処理手順を示すフローチャートである。
ユーザがキー入力部7を操作して動画撮影モードに設定すると、撮影したいと思う景色、風景をデジタルカメラで撮影し、撮影した映像をメモリ・カード等に記録することができるようになる。
【0024】
DSP/CPU3は、上記動画撮影モードが設定されると、CCD2による撮影を開始して被写体のスルー画像を表示装置6に表示させる(ステップS1)。スルー画像とは、CCD2により撮像された対象物をDRAM10に記憶させ、その記憶された映像を表示画面に表示し、CCD2により撮像された対象物が変わることにより、DRAM10に記憶された映像が更新され、表示画面に表示される映像も変わることである。スルー表示状態では、DRAM10に記憶された映像をそのまま表示するが、メモリ・カード13にその映像のデータが記録されないので、その映像データが保存されていない状態である。
【0025】
次に、スルー画像が表示されている状態でユーザによりシャッターボタンが押下されたと判断すると(ステップS2)、動画撮影を開始したときの時刻を取得し(ステップS3)、所定のフレームレート(1/30秒の固定周期)で動画像(動画フレーム)を撮像し記憶する動画像撮影処理を開始する(ステップS4)。ステップS2でシャッターボタンが押下されていないと判断すると、シャッターボタンが押下されるまで、ステップS2に留まり、スルー表示が継続する。
【0026】
シャッターボタンが押されるか(ステップS5)、または、動画撮影処理が開始してから30秒経過したら(ステップS6)、動画撮影処理は停止され(ステップS7)、動画撮影を終了したときの時刻を取得し(ステップS8)、それまでの間にバッファメモリ(DRAM10)上に展開されている動画データ、動画撮影開始時刻データ、動画撮影終了時刻データを用いて動画ファイルを生成し、メモリ・カード13に記録する(ステップ9)。その後、ステップS1に戻る。この動作を繰り返すことにより、メモリ・カード13に動画ファイルが順次記録され、この複数の動画ファイルがメモリ・カード13に記録されることになる。また、このメモリ・カード13に記録された動画ファイルが、後述する編集の対象となる動画ファイル1、動画ファイル2となる。
【0027】
ステップS5でシャッターボタンが押下されず、動画撮影処理が開始されてから30秒経過してなければ(ステップS5で、NO)、ステップS4に戻り、シャッターボタン押下又は30秒経過するまで、動画撮影処理が続行される。
図3は、メモリ・カード13に記録された動画ファイルのデータの構成を示すものであり、動画ファイル名、動画撮影開始時刻データ、動画撮影終了時刻データ、動画データから構成される。動画ファイル名は、ファイルの生成と同時に自動的に決められてしまうが、ユーザが任意に名前を変更することもできる。動画データは撮影された映像のデータである。
【0028】
次に、メモリ・カード13に記憶された動画ファイルの編集について説明する。この動画ファイルの編集は、メモリ・カード13に記録された複数の動画ファイルがある場合に、動画ファイル同士の撮影時刻の差が所定時間内にある場合には、動画ファイル同士を結合し、連続性、関連性のある動画ファイルを一つの動画ファイルとして生成するというものである。
ユーザによりキー入力部7が操作されて動画像編集モードに設定されると、DSP/CPU3は、メモリ・カード13に記録されている動画ファイルの中から、動画ファイル1と動画ファイル2を特定する。そして、動画ファイル1として特定された動画ファイルの動画ファイル名、撮影終了時刻、動画データと、動画ファイル2として特定された動画ファイルの動画ファイル名、撮影開始時刻、動画データを、カードI/F12、アドレス・データバス9を介して、DRAM10に記憶させる。ここでは便宜上、2つの動画データしか特定していない。
【0029】
図4はメモリ・カード13に記録された動画ファイルのデータの一例を示すものである。
(a)は、動画ファイル1として特定された動画ファイルのデータを(b)は動画ファイル2として特定された動画ファイルのデータを示す。
動画ファイル1の動画ファイル名は、DSCF0010であり、撮影開始時刻は、2003年10月10日16時23分23秒32、撮影終了時刻は2003年10月10日16時35分33秒75である。動画データはAとする。
動画ファイル2の動画ファイル名は、DSCF0011であり、撮影開始時刻は、2003年10月10日16時35分35秒33、撮影終了時刻は、2003年10月10日16時55分27秒54である。動画データはBとする。
ここでは、図4に示す動画ファイル名、撮影開始終了時刻、動画データは便宜上のものであり、実際にはコンピュータに読み取り可能なデータで記録される。
なお、デジタルカメラでの撮影は30秒以上、撮像することができないが、上記した動画ファイル1と動画ファイル2は、本発明の動画像処理装置によって編集された動画ファイルである。
【0030】
次に、図5のフローチャートに基づいて動画編集を説明する。
ユーザがキー入力部7を操作して動画ファイル自動編集モードに設定すると、ステップS11でメモリ・カード13に記録されている動画ファイルの中から動画ファイル1を特定する。このとき特定した動画ファイルに、動画ファイル1として特定されたことがわかるように識別記号等を付す。次いで、ステップS12で動画ファイル1の撮影終了時刻を取得する。次いで、ステップS13に進み、メモリ・カード13に記録されている動画ファイルの中から動画ファイル2を特定する。このとき特定した動画ファイルに、動画ファイル1に対する動画ファイル2として特定されたことがわかるように識別記号等を付す。次いで、ステップS14で動画ファイル2の撮影開始時刻データを取得する。なお、同じ動画ファイルを、動画ファイル1、動画ファイル2として同時に特定することは無い。また、この識別記号等に基づいて、動画ファイル1、動画ファイル2として取得したかどうかを判断する。
【0031】
次に、ステップS15で取得した動画ファイル1の撮影終了時刻データと動画ファイル2の撮影開始時刻データとを比較する。この比較では、動画ファイル2の撮影開始時刻から動画ファイル1の撮影終了時刻を引く演算を行う。
図4に示される動画ファイル1と動画ファイル2の場合には、動画ファイル1の撮影終了時刻が2003年10月10日16時35分33秒75であり、動画ファイル2の撮影開始時刻が2003年10月10日16時35分35秒33であるので、上記した演算を行なうと、1秒58となる。
【0032】
次いで、ステップS16に進むと、比較結果に基づき動画ファイル1の撮影終了時刻と動画ファイル2の撮影開始時刻との差が所定時間内かどうかを判断し、所定時間内と判断した場合には、結合と判定し、所定時間外であれば結合しないと判定する。
例えば、所定時間が2秒と設定されていた場合は、上記した比較結果の1秒58は所定時間2秒以内にあるので、結合と判定する。また、所定時間が1秒と設定されていた場合には、結合しないと判定する。この所定時間は、予め設定されていてもよく、用途別(景色、観光、スポーツ等)に設定されていてもよい。また、ユーザによって任意に設定できるようにしてもよい。よって、ユーザの使用目的にあった自動編集ができる。
【0033】
ステップS16で結合と判定されるとステップS17に進み、動画ファイル1のデータと動画ファイル2のデータをメモリ・カード13から取得し、このデータをDRAM10に記憶する。そして、この記憶されたデータを結合して、新たな動画ファイルを生成する。例えば図4に示す動画ファイル1と動画ファイル2を結合して、新たな動画ファイルを生成する場合は、図6に示すような動画ファイルが生成される。
新たに生成した動画ファイルの動画ファイル名は、図に示されるように、動画ファイル1の動画ファイル名と動画ファイル2の動画ファイル名とが結合したDSCF0010.DSCF0011となる。
また、新たに生成した動画ファイルの撮影開始時刻は、図に示されるように、動画ファイル1の撮影開始時刻2003年10月10日16時23分23秒32となり、撮影終了時刻は、動画ファイル2の撮影終了時刻2003年10月10日16時55分27秒54となる。
【0034】
そして、動画データは、図6に示されるように、動画ファイル1の動画データA(以下、動画データ1)の後に動画ファイル2の動画データB(以下、動画データ2)とを結合したABとなる。
この結合した動画ファイルを、データバス9、カードI/F12を介して、メモリ・カード13に記録する。
なお、識別記号等を用いているので、動画ファイル1、動画ファイル1に対する動画ファイル2として特定した2つの動画ファイルを、再び同じように、動画ファイル1、動画ファイル1に対する動画ファイル2として特定することは無い。
また、この生成された動画ファイルをメモリ・カード13に記録するときに、動画ファイル1、動画ファイル2として特定された動画ファイルをメモリ・カード13から削除するようにしてもよい。
これにより、動画ファイル1と動画ファイル2を編集して、例えば、新たな動画ファイルXを生成したら、再び同じ動画ファイルを動画ファイル1、動画ファイル2として特定して、同じ動画ファイルXを幾つも生成することが無くなる。すなわち同じ動画ファイルを幾つも生成しないで済む。
そして、ステップS19に進む。
【0035】
ステップS16で結合しないと判定されると、ステップS18に進み、現在特定されている動画ファイル1に対する動画ファイル2として特定されていない動画ファイルがメモリ・カード13にあるかどうか判断し、あると判断した場合には、ステップS13に戻り、現在特定されている動画ファイル1に対する動画ファイル2として特定されていない動画ファイルを新たに特定する。そして、上記した動作を繰り返す。
ここで、動画ファイル2として既に特定した動画ファイルは再び特定することは無いが、以下で説明するように、動画ファイル1として新たな動画ファイルが特定されると、メモリ・カード13に記録されている動画ファイルはすべて動画ファイル2として特定されていない動画ファイルになる。すなわち、動画ファイル2として特定されているか否かは、動画ファイル1を基準に判断する。
【0036】
ステップS18で現在特定されている動画ファイル1に対する動画ファイル2として特定されていない動画ファイルがメモリ・カード13に無いと判断した場合は、ステップS19に進む。
ステップS19では、動画ファイル1として特定されていない動画ファイルがメモリ・カード13にあるかどうかを判断し、あると判断した場合には、ステップS11に戻り、動画ファイル1として特定されていない動画ファイルを新たに特定し、上記した動作を繰り返す。ここで、動画ファイル1として既に特定された動画ファイルは特定しない。なお、動画ファイル1、2の特定の判断は、動画ファイルに付された識別記号等に基づいて行なわれる。
ステップS19で無いと判断された場合には動画ファイル自動編集モードを終了する。
【0037】
なお、動画ファイル1、動画ファイル2として特定したか否かの判断は、動画データに付された識別記号等に基づいて行なわれるので、再び同じ動画ファイルを特定して、同一の動画ファイルを幾つも生成することはないが、ステップS17で新たに動画ファイルを生成した場合には、この新たに生成した動画ファイルも、動画ファイル1、動画ファイル2として特定されていない動画ファイルに含まれる。したがって、ステップS17で新たに動画ファイルを生成した場合には、すぐに、動画ファイル自動編集モードが終了することはない。よって、連続した動画データを有する3つ以上の動画ファイルにも対応することができる。
【0038】
このように、ユーザがキー入力部7を操作して動画ファイル自動編集モードに設定すると、メモリ・カード13に記録されている動画ファイルは、動画ファイル1、動画ファイル2として特定される。この特定された動画ファイル1の撮影終了時刻データと動画ファイル2の撮影開始時刻データは、DRAM10に記憶される。
次いで、DRAM10に記憶された動画ファイル1の撮影終了時刻データと動画ファイル2の撮影開始時刻データは比較される。この比較は、動画ファイル2の撮影開始時刻から動画ファイル1の撮影終了時刻を引く演算によって行なわれる。
この比較結果に基づき、動画ファイル1と動画ファイル2を結合するか否かの判定が行なわれる。この判定は、比較により求められた時間が所定時間範囲内にあるか否かで判断され、所定時間内と判断すると結合と判定され、所定時間外と判断すると結合しないと判断される。
【0039】
結合しないと判定された場合には、新たにメモリ・カード13から動画ファイル2を特定し、上記した動作を繰り返される。
結合と判定されると、動画ファイル1のデータと動画ファイル2のデータをメモリ・カード13から取得し、このデータはDRAM10に記憶される。そして、記憶されたデータは結合される。つまり、動画ファイル1の動画ファイル名と動画ファイル2の動画ファイル名を結合されたものが、新たに生成された動画ファイルの動画ファイル名となり、動画ファイル1の撮影開始時刻が新たに生成された動画ファイルの撮影開始時刻となり、動画ファイル2の撮影終了時刻が新たに生成された動画ファイルの撮影終了時刻となる。また、動画ファイル1の動画データと動画ファイル2の動画データを結合したものが、新たに生成された動画ファイルの動画データとなる。なお、この動画データの結合は、動画データ1の後に動画データ2を結合する。
次いで、この結合されたデータは、アドレス・データバス9、カードI/F12を介して、メモリ・カード13に記録される。
これにより、連続性、関連性のある動画像が、1つの動画ファイルとして自動的に編集される。なお、同じ動画ファイルを幾つも生成することは無い。
【0040】
以上のように、第1の実施の形態においては、複数の動画ファイルに、連続性、関連性のある映像が分かれて記録されていても、動画ファイルの撮影時刻の間隔が所定時間内と判断した場合には、動画ファイル1のデータと動画ファイル2のデータとを結合するので、自動的に連続性、関連性のある動画データを1つの動画ファイルに編集することができ、編集作業に伴う手間と、時間を大幅に軽減することができる。
また、一度動画撮影を終了してしまうと、1つの動画ファイルとして生成され、すぐに動画撮影を開始しても動画データは別の動画ファイルとして記録されてしまうが、動画ファイルの撮影時刻の間隔が所定時間内にあれば結合編集するので、ユーザが間違って動画撮影を終了してしまっても、すぐに動画撮影を開始すれば、自動的に1つの動画ファイルとして自動編集することができる。
【0041】
デジタルカメラによる動画の撮影は、約30秒経過と同時に動画像撮影が自動的に終了してしまうが、この場合でも、すぐに動画撮影を開始すれば、連続性、関連性のある映像を1つの動画ファイルとして編集することができる。
また、動画ファイルの編集をパソコン等で行なうことにより、データ容量の大きい複数の動画データを簡易に自動編集することができる。
【0042】
(第2の実施の形態)
次に、本発明の第2の実施の形態を説明する。
第2の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラを用いる。
第2の実施の形態は、第1の実施の形態の構成の機能を追加したものであり、以下の点で、各構成の機能が多少異なる。
【0043】
DSP/CPU3は、動画ファイル1の動画データと動画ファイル2の動画データをメモリ・カード13からカードI/F12、アドレス・データバス9を介してDRAM10に記憶し、この記憶した動画ファイル1の動画データと動画ファイル2の動画データを比較する。このとき、動画ファイル1の動画データの最終フレームデータと動画ファイル2の動画データの開始フレームデータを比較するようにしてもよい。この機能はデータ比較手段に相当する。
そして、データの比較結果に基づいて、2つのフレームデータの画像が所定範囲内で一致するか否かを判定する。この機能は、判定手段に相当する。
第1の実施の形態で説明した、時刻判定手段が所定時間内と判定し、かつ、前記判定手段が一致すると判定した場合には、動画データ1と動画データ2とを結合させる。この機能は、編集手段に相当する。
他の機能は第1の実施の形態と同様なので、説明を省く。
【0044】
以上の構成及び機能を有するデジタルカメラ1における動画編集についての説明をする。第2の実施の形態の動画編集は、第1の実施の形態の動画編集とほぼ同様であるが、動画ファイル同士の撮影時刻の差が所定時間内にあると判断して場合は、動画ファイルの動画データ同士を比較し、データが一致した場合に、動画ファイル同士を結合して、連続性、関連性のある動画ファイルを1つの動画ファイルとして生成するというものである。
【0045】
図7はメモリ・カード13に記録された動画ファイルの動画データの構成を示すものであり、図7(a)は動画ファイル1の動画データ(以下、動画データ1という)、(b)は動画ファイル2の動画データ(以下、動画データ2という)を示すものである。図7(a)の20、30は、それぞれ動画データ1の開始フレーム、最終フレームを示すものである。(b)の40、50は、それぞれ動画データ2の開始フレーム、最終フレームを示すものである。また、tは時間の経過を示すものである。
図7の60は動画データ1の最終フレームの画像を示すものであり、70は動画データ2の開始フレームの画像を示すものである。
動画データ1の最終フレームと動画データ2の開始フレームの画像は、山100、家110、山と大地の境界線120から構成されている。
【0046】
次に、図8のフローチャートに基づいて動画編集を説明する。
ユーザによりキー入力部7が操作され動画ファイル自動編集モードに設定されると、ステップS21でメモリ・カード13に記録されている動画ファイルの中から動画ファイル1を特定する。このとき特定した動画ファイルに、動画ファイル1として特定されたことがわかるように識別記号等を付す。次いで、ステップS22で動画ファイル1の撮影終了時刻データを取得する。次に、ステップS23でメモリ・カード13に記録されている動画ファイルの中から動画ファイル2を特定する。このとき特定した動画ファイルに、動画ファイル1に対する動画ファイル2として特定されたことがわかるように識別記号等を付す。次いで、ステップS24で動画ファイル2の撮影開始時刻データを取得する。
【0047】
なお、動画ファイル1、2は任意に特定され、同じ動画ファイルを動画ファイル1、動画ファイル2として同時に特定することは無い。また、この識別記号等に基づいて、動画ファイル1、動画ファイル2として取得したかどうかを判断する。
次に、ステップS25で取得した動画ファイル1の撮影終了時刻データと動画ファイル2の撮影開始時刻データとを比較する。この比較では、動画ファイル2の撮影開始時刻から動画ファイル1の撮影終了時刻を引く演算を行なう。この比較は第1の実施の形態で述べたとおりである。
【0048】
次いで、ステップS26に進むと、比較結果に基づき動画ファイル1の撮影終了時刻と動画ファイル2の撮影開始時刻との差が所定時間内かどうかを判断する。この判断は、第1の実施の形態で述べたとおりである。
ステップS26で所定時間内と判断するとステップS27に進み、所定時間内では無いと判断するとステップS32に進む。
所定時間内と判断されてステップS27に進むと、動画データ1の最終フレームデータ(最終フレームの画像のデータ)をメモリ・カード13から取得する。次いで、ステップS28に進み、動画ファイル2の開始フレームデータ(開始フレームの画像のデータ)を取得する。そして、ステップS29に進む。
【0049】
ステップS29に進むと、取得した動画データ1の最終フレームデータと動画データ2の開始フレームデータとを比較する。次いでステップS30に進み、比較結果に基づいて、2つのフレームデータが一致するかどうかを判断し、一致すると判断した場合に結合と判定し、一致しないと判断した場合には、結合しないと判定する。例えば、図7に示されている動画データ1と動画データ2は、動画データ1の最終フレームの画像60と動画データ2の開始フレームの画像70は一致していないので結合しないと判定する。
この比較、判定の方法は後で詳細に述べる。
【0050】
ステップS30で結合と判定するとステップS31に進む。ステップS31では、動画ファイル1のデータと動画ファイル2のデータをメモリ・カード13から取得し、このデータはDRAM10に記憶する。そして、記憶されたデータは結合して、新たな動画ファイルを生成する。この結合は、第1の実施の形態で説明したとおりである。すなわち、新たに生成した動画ファイルの動画ファイル名は、動画ファイル1の動画ファイル名と動画ファイル2の動画ファイル名を結合したものとなる。また、撮影開始時刻は、動画ファイル1の撮影開始時刻となり、撮影終了時刻は、動画ファイル2の撮影終了時刻となる。そして動画データは動画データ1と動画データ2とが結合したものとなる。なお、この動画データの結合は、動画データ1の後に動画データ2を結合する。
【0051】
図9は結合して新たに生成した動画ファイルの動画データを示す図である。図9の80は動画ファイル1の最終フレーム30であった部分であり、90は動画ファイル2の開始フレーム40であった部分である。
そして、この結合した動画ファイルをアドレス・データバス9、カードI/F12を介して、メモリ・カード13に記録する。
【0052】
なお、識別記号等を用いているので、動画ファイル1、動画ファイル1に対する動画ファイル2として特定した2つの動画ファイルを、再び同じように、動画ファイル1、動画ファイル1に対する動画ファイル2として特定することは無い。
また、この生成された動画ファイルをメモリ・カード13に記録するときに、動画ファイル1、動画ファイル2として特定された動画ファイルをメモリ・カード13から削除するようにしてもよい。
これにより、動画ファイル1と動画ファイル2を編集して、例えば、新たな動画ファイルXを生成したら、再び同じ動画ファイルを動画ファイル1、動画ファイル2として特定して、同じ動画ファイルXを幾つも生成することが無くなる。すなわち同じ動画ファイルを幾つも生成しないで済む。
そして、ステップS33に進む。
【0053】
ステップS26で所定時間内にないと判断され、又は、ステップS30で結合しないと判定された場合には、ステップS32に進み、メモリ・カード13の中に現在特定されている動画ファイル1に対する動画ファイル2として特定していない動画ファイルがあるかどうかを判断し、あると判断した場合には、ステップS23に戻り、現在特定している動画ファイル1に対する動画ファイル2として特定されていない動画ファイルを新たに特定する。そして、上記した動作を繰り返す。
【0054】
ここで、現在特定されている動画ファイル1に対する動画ファイル2として既に特定した動画ファイルは再び特定することは無いが、以下で説明するように、動画ファイル1として新たに動画ファイルが特定されると、メモリ・カード13に記録されている動画ファイルはすべて動画ファイル2として特定されていない動画ファイルになる。すなわち、動画ファイル2として特定されているか否かは、動画ファイル1を基準に判断する。
ステップS32でメモリ・カード13の中に現在特定されている動画ファイル1に対する動画ファイル2として特定していない動画ファイルが無いと判断した場合には、ステップS33に進む。
【0055】
ステップS33では、動画ファイル1として特定していない動画ファイルがメモリ・カード13の中にあるかどうかを判断し、あると判断した場合には、ステップS21に戻り、動画ファイル1として特定していない動画ファイルを新たに特定する。
ステップS33でメモリ・カード13の中に動画ファイル1として特定していない動画ファイルがないと判断した場合には、動画ファイル自動編集モードを終了する。
【0056】
なお、動画ファイル1、動画ファイル2として特定したか否かの判断は、動画データに付された識別記号等に基づいて行なわれるので、再び同じ動画ファイルを特定して、同一の動画ファイルを幾つも生成することはないが、ステップS31で新たに動画ファイルを生成した場合には、この新たに生成した動画ファイルも、動画ファイル1、動画ファイル2として特定されていない動画ファイルに含まれる。したがって、ステップS31で新たに動画ファイルを生成した場合には、すぐに、動画ファイル自動編集モードが終了することはない。よって、連続した動画データを有する3つ以上の動画ファイルにも対応することができる。
【0057】
次に、どのようにステップS29で比較し、ステップS30で結合するか否かを判定するのかを図10、11を用いて説明する。
図10は、図8のステップS29の比較、ステップS30の結合判定のサブルーチンを示した図である。
図11(a)、(b)は動画ファイルのフレームの画像を示すものである。
図11のフレーム画像は、山100、家110、山と大地の境界線120から構成されており、図11(a)、(b)はすべて、同じ対象物であり、撮影した場所が違うものである。
【0058】
次に、図10のサブルーチンにしたがって、データの比較、判定の説明をする。
動画データ1の最終フレームデータによって映し出される画像が図11(a)であり、動画データ2の開始フレームデータによって映し出される画像が同図(b)であるとする。
まず、ステップS101では、フレームデータ(フレームの画像データ)によって映し出される画像の対象物を特定する。
すなわち、動画データ1の最終フレームデータと動画データ2の開始フレームデータとによって映し出される画像の対象物をそれぞれ特定すると、それぞれ図11の(c)、(d)に示したような画像となる。そして、ステップS102で特定された対象物の位置、形状、大きさをそれぞれ取得する。
次いで、ステップS103で、動画データ1の最終フレームデータと動画データ2の開始フレームデータの特定された対象物の位置、形状、大きさをそれぞれ比較する。
【0059】
次いで、ステップS104で特定された対象物の位置をそれぞれ比較した結果、一致していると判断した場合は、ステップS105に進む。ステップS105では、特定した対象物の形状をそれぞれ比較した結果、一致していると判断した場合は、ステップS106に進む。ステップS106では、特定された対象物の大きさをそれぞれ比較した結果、一致していると判断した場合は、ステップS107に進み、結合すると判定する。そして、図8のステップS31に進む。また、ステップS104〜ステップS106で特定された対象物の位置、形状、大きさが1つでも一致していないと判断した場合は結合しないと判定し、図8のステップS32に進む。
【0060】
図11(c)と同図(d)の対象物を比較、すなわち、特定された対象物の位置、形状、大きさを比較すると、特定した動画データ1の最終フレームデータと特定された動画データ2の開始フレームデータに映し出された画像は、山の位置、形状、大きさが一致しており、家の形状、大きさも一致しているが、家の位置が異なるので、ステップS104で、位置が一致していないと判断し、ステップS32へ進むので、結合と判定しない。
なお、特定された対象物の位置、形状、大きさの一致の範囲は、完全一致でなくてもよい。この一致の範囲は、予め設定されていてもよく、また用途別(景色、観光、スポーツ等)に設定されていてもよく、ユーザが任意に設定できるようにしてもよい。また、対象物の位置、形状、大きさの一致の範囲をそれぞれ変えるようにして重み付けを行うようにしてもよい。例えば、対象物の位置に関する一致の範囲を広くするか、あるいは対象物の位置に関する判定を行なわないようにした場合は、図11(a)と同図(b)は、一致と判断するように設定することもできる。また、形状が一致すれば一致と判断するようにしてもよいし、位置、形状、大きさの判断基準とは別の基準、例えば、色彩などによって判断させるようにしてもよい。
【0061】
このように、動画ファイル自動編集モードに設定されると、メモリ・カード13に記録されている動画ファイルは、動画ファイル1、動画ファイル2として特定される。そして、この特定された動画ファイル1の撮影終了時刻と動画ファイル2の撮影開始時刻は、DRAM10に記憶される。
次いで、DRAM10に記憶された動画ファイル1の撮影終了時刻データと動画ファイル2の撮影開始時刻データは比較される。この比較は、動画ファイル2の撮影開始時刻から動画ファイル1の撮影終了時刻を引く演算によって行なわれる。
【0062】
この比較結果に基づき、動画ファイル1と動画ファイル2の撮影時刻の差が所定時間内にあるか否かが判断される。所定時間内に無いと判断した場合は、新たにメモリ・カード13から動画ファイル2を特定し、上記した動作が繰り返される。
所定時間内にあると判断すると、メモリ・カード13から動画ファイル1の最終フレームデータと動画ファイル2の開始フレームデータを取得し、取得したフレームデータ同士が比較される。この比較は、フレームデータによって映し出される画像の対象物を特定し、特定された対象物の位置、形状、大きさを比較する。
【0063】
この比較の結果に基づいて、特定された対象物の位置、形状、大きさが一致すると判断されると結合と判定される。特定された対象物の位置、形状、大きさが一致しないと判断されると、結合しないと判定される。結合しないと判定されると、メモリ・カード13から新たに動画ファイル2を特定し、上記した動作を繰り返す。
結合と判定されると、動画ファイル1のデータと動画ファイル2のデータをメモリ・カード13から取得し、このデータをDRAM10に記憶する。そして、記憶したデータは結合される。つまり、動画ファイル1の動画ファイル名と動画ファイル2の動画ファイル名とを結合したものが、新たに生成された動画ファイルの動画ファイル名となり、動画ファイル1の撮影開始時刻が新たに生成された動画ファイルの撮影開始時刻となり、動画ファイル2の撮影終了時刻が新たに生成された動画ファイルの撮影終了時刻となる。
【0064】
また、動画ファイル1の動画データと動画ファイル2の動画データを結合したものが、新たに生成された動画ファイルの動画データとなる。なお、この動画データの結合は、動画データ1の後に動画データ2を結合する。
そして、この結合された動画ファイルのデータは、アドレス・データバス9、カードI/F12を介して、メモリ・カード13に記録される。
なお、同じ動画ファイルを幾つも生成することは無い。
これにより、確実に連続性、関連性のある動画ファイルが、1つの動画ファイルとして自動的に編集することができる。
【0065】
以上のように、第2の実施の形態においては、複数の動画ファイルに、連続性、関連性のある映像が分かれて記録されていても、動画ファイルの撮影時刻の間隔が所定時間内であり、かつ、動画ファイル1の動画データと動画ファイル2の動画データとが一致していると判断した場合には、動画ファイル1のデータと動画ファイル2のデータを結合するので、確実に連続性、関連性のある動画データだけを1つの動画ファイルとして自動編集することができ、編集作業に伴う手間と、時間を大幅に軽減することができる。
また、一度動画撮影を終了してしまうと、1つの動画ファイルとして記録され、すぐに動画撮影を開始しても動画データは別の動画ファイルとして記録されてしまうが、動画ファイルの撮影時刻が所定時間内であり、かつ、動画データ同士が一致していると判断すると結合編集するので、ユーザが間違って動画撮影を終了してしまっても、すぐに動画撮影を開始すれば、確実に連続性、関連性のある動画ファイルだけを自動的に1つの動画ファイルに編集することができる。
【0066】
デジタルカメラによる動画の撮影は、約30秒経過と同時に動画像撮影が自動的に終了してしまうが、この場合でも、すぐに動画撮影を開始すれば、確実に連続性、関連性のある映像だけを1つの動画ファイルとして編集することができる。また、動画ファイルの編集をパソコン等で行なうことにより、データ容量の大きい複数の動画データを簡易に自動編集することができる。
【0067】
(第3の実施の形態)
次に、本発明の第3の実施の形態を説明する。
第3の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラを用いるが、各構成の機能が以下の点で多少異なる。
DSP/CPU3は、計測された時間が所定時間を経過したか否かを判断する。この機能は、経過判断手段に相当する。なお、ユーザによって、予めデジタルカメラの時刻設定(セット)が行なわれ、デジタルカメラには時刻セットのための操作ボタンも取り付けられている。
また、DSP/CPU3は、一定時間が経過したと判断するまでは、撮影した動画データをDRAM10に記憶(保持)し続ける。この機能はデータ記憶手段に相当する。
そして、一定時間が経過する前に、動画撮影が新たに開始されたか否かを判断する。この機能は、撮像判断手段に相当する。
【0068】
一定時間が経過する前に、新たに撮影が開始されたと判断したら、DRAM10に記憶し続けられた(保持しておいた)動画データの後に続けて、新たに撮影を開始した動画データをDRAM10に記憶させる。この機能は、編集手段に相当する。
なお、一定時間経過する前に、新たに撮影が開始されていないと判断したら、このDRAM10に記憶された動画データをメモリ・カード13に記録する。この機能は、第1の記録手段に相当する。この第1の記録手段は、一定時間経過する前に、メモリ・カード13に記録するようにしてもよい。
【0069】
以上の構成及び機能を有するデジタルカメラ1における動画編集について説明する。第3の実施の形態の動画編集は、撮影が終了してから時間を計測し、一定時間内は撮影した動画データを記憶しておき、一定時間内に再度撮影が開始されたと判断した場合は、既に記憶した動画データの後に、撮影動画データを記憶して、連続性、関連性のある複数の動画データを1つの動画ファイルとして生成するものである。
【0070】
第3の実施の形態の動画編集を、図12のフローチャートに従いながら説明する。
ユーザによりキー入力部7が操作され動画撮影モードに設定されると、ステップS51で、CCD2による撮影を開始して被写体のスルー画像を表示装置6に表示させる。次いで、ステップS52に進み、スルー画像が表示されている状態で、ユーザによりシャッターボタンが押下されたと判断すると、所定のフレームレート(1/30秒の固定周期)で動画像(動画フレーム)を撮像し記憶する動画像撮影処理を開始する。ステップS52でシャッターボタンが押下されていないと判断すると、シャッターボタンが押下されるまで、ステップS52に留まり、スルー表示が継続する。
ステップS53で動画撮影処理が開始されたら、ステップS54に進み、シャッターボタンが押下されたか否かを判断する。押下されていないと判断すると、ステップS55に進み、動画撮影を開始してから30秒経過したか否かを判断する。30秒経過していないと判断すると、ステップS54に戻り、動画撮影処理を継続する。ステップS54でシャッターボタンが押下されるか、又はステップS55で30秒経過したと判断した場合には、ステップS56に進み、動画撮影処理を停止する。つまり、動画撮影処理を開始されてから、シャッターボタンが押下されるか、又は動画撮影処理を開始してから30秒経過すると動画撮影処理を停止し、それまでは、動画撮影処理を継続する。
【0071】
ステップS56に進むと動画撮影処理を停止する。このとき撮影して得られた動画データをメモリ・カード13に記録することなく、DRAM10に一定時間記憶しておく。ステップS57に進み、タイマーをスタートさせる。次いで、ステップS58に進み、スルー画像を表示させる。
次いで、ステップS59に進み、タイマーの計測時間が一定時間を経過したか否かを判断する。この一定時間は、予め設定されていてもよく、用途別(風景、観光、スポーツ等)ごとに一定時間を変えて設定してもよい。また、ユーザが任意に設定できるようにしてもよい。これにより、使用目的にあった動画編集が可能となる。
【0072】
一定時間が経過していないと判断すると、ステップS60に進み、シャッターボタンが押下されたか否かを判断する。押下されていないと判断すると、ステップS59に戻り、スルー表示を継続する。ステップS60でシャッターボタンが押下されたと判断すると、ステップS53に戻り、動画撮影処理を開始する。
動画撮影処理を開始すると、撮影して得られる現在の撮影中の動画データは、DRAM10に一時的に記憶している動画データの後に続けて記憶される。なお、撮影が終わった時点で、一時的に記憶している動画データと、撮影が終わった動画データを結合するようにしてもよい。
【0073】
つまり撮影が終了しても、一定時間内は動画データをメモリ・カード13に記録することなく、DRAM10に記憶し続け、一定時間内に撮影が開始された場合には、DRAM10に記憶した動画データと新たに撮影して得られた動画データを結合して、一定時間経過後にメモリ・カード13に記録するものである。よって、一定時間内に再び撮影が開始された場合には、結合した動画データをメモリ・カード13に記録することなく上記した結合の動作を繰り返す。なお、この結合は、撮影時刻順に動画データを結合する。
よって、上記した動作を繰り返すことにより、撮影処理を停止しても、一定時間内に動画撮影を開始すれば、何回でも、動画撮影によって得られた複数(3つ以上)の動画データをDRAM10に記憶するので、1つの動画データ(動画ファイル)として編集することができる。
【0074】
なお、第3の実施の形態の変形例として、動画撮影が終了したら一定時間経過する前に、動画データをメモリ・カード13に記録して(第1の記録手段)、一定時間経過する前に動画撮影が開始されると、該記録した動画データを読み出して、撮影して得られた動画データと読み出した動画データとを結合させてもよい。この結合させた動画データをメモリ・カード13に記録させる(第2の記録手段)。
また、一定時間内に撮影が開始されたら、第2の実施の形態で述べたように、DRAM10に記憶した、又はメモリ・カード13に記録した動画データと、撮影して得られた動画データを比較して、一致していると判定した場合のみ結合するようにしてもよい。
さらに、タイマーを使わずに、DRAM10に記憶した、又はメモリ・カード13に記録した動画データの撮影時刻と撮影して得られた動画データの撮影時刻とを読み出して、2つの撮影時刻の間隔が一定時間内であれば結合するようにしてもよい。
【0075】
ステップS59で、タイマーの計測時間が一定時間を経過したと判断した場合には、ステップS61に進み、DRAM10に記憶した動画データを用いて動画ファイルを生成し、アドレス・データバス9、カードI/F12を介して、メモリ・カード13に記録される。
ここでDRAM10に記憶されている動画データは、一回の動画撮影処理で得られた動画データの場合もあり、また数回の動画撮影処理で得られた複数(2つ以上)の動画データを結合して得られた動画データの場合もある。
【0076】
このように、動画撮影処理を停止しても、一定時間内は、撮影した動画データをDRAM10に記憶され続ける。なお、この一定時間はユーザによって任意に設定することもできる。
そして、一定時間内に動画撮影処理が再び開始されると、現在撮影中又は撮影が終了した動画データは、DRAM10に一定時間記憶されている撮影した動画データと結合されて、一定時間経過後にメモリ・カード13に記録される。よって、一定時間内に再び撮影が開始された場合には、メモリ・カード13に記録することなく上記した結合の動作を行なう。
この動作を繰り返すことにより、動画撮影処理を停止しても、一定時間内に再度撮影処理を開始すれば、何回でも続けて動画データはDRAM10に記憶される。
動画撮影処理を停止してから一定時間内に動画撮影処理が開始されない場合に、DRAM10に記憶された動画データを用いて、初めて動画ファイルを生成し、メモリ・カード13に記録する。
これにより、連続性、関連性のある複数の動画データを1つの動画ファイルとして自動的に編集される。
【0077】
以上のように、第3の実施の形態においては、動画撮影処理を停止しても、撮影した動画データは一定時間記憶され、一定時間内に再度動画撮影処理が開始されれば、撮影動画データは、一定時間記憶されている動画データの後に続けて記憶されるので、連続性、関連性のある複数の動画データが記録媒体に記録する前に1つの動画データとして編集することができる。
また、一定時間が経過する前は記録媒体に記録せずに、自動で編集作業を行なうので、編集作業の手間と時間をなくすことができ、無駄な動画ファイルを作成しないで済む。また、生成される動画ファイルの数を抑制することができるので、ユーザによる動画ファイルの識別、整理がし易くなる。
【0078】
本発明は、上記各実施の形態に限定されるものではなく、以下のような変形態様の実施が可能である。
(a)本発明の動画像処理装置は、パソコン等にCCDカメラを取り付けることにより、パソコンで映像を撮像し、パソコン上で動画像の自動編集を行なうものに適用してもよい。
(b)また、本発明の動画像処理装置は、撮影機能を有した携帯電話、時計、PDA、静止画撮像機能付きムービーカメラその他の機器を用いて動画像の自動編集を行なうものに適用してもよい。
【0079】
【発明の効果】
本願発明によれば、自動的に連続性、関連性のある複数の動画データを1つの動画データに編集することができ、編集作業に伴う手間と時間を大幅に軽減することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態のデジタルカメラのブロック図である。
【図2】動画撮影モードの動作を示すフローチャートである。
【図3】動画ファイルのデータの構成を示す図である。
【図4】動画ファイルのデータの構成を示す一例である。
【図5】動画ファイル自動編集モードの動作を示すフローチャートである。
【図6】編集後の動画ファイルのデータの構成を示す図である。
【図7】動画データの構成を示す図である。
【図8】動画ファイル自動編集モードの動作を示すフローチャートである。
【図9】編集後の動画データの構成を示す図である。
【図10】動画ファイル自動編集モードの比較、判断のサブルーチンを示すフローチャートである。
【図11】動画データのフレーム画像を示す図である。
【図12】動画撮影モードでの動画編集を示すフローチャートである。
【符号の説明】
1 デジタルカメラ
2 CCD
3 DSP/CPU
4 TG
5 ユニット回路
6 表示装置
7 キー入力部
8 音声処理部
9 データバス
10 DRAM
11 内蔵フラッシュメモリ
12 インターフェイス
13 メモリ・カード[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a moving image processing apparatus and a program thereof, and more particularly to a moving image processing apparatus that executes an editing operation on a plurality of moving image data.
[0002]
[Prior art]
Conventionally, there is a digital camera as a typical moving image photographing apparatus. Such shooting with a digital camera is different from shooting with a conventional silver salt camera, and digital image processing can be performed on image data shot during or after shooting.
In addition to performance improvements due to increased processing speed and storage capacity, it has become possible to shoot not only still images but also moving images.
When there are two captured moving image files (hereinafter referred to as moving
[0003]
Further, the following patent publication discloses an image processing system that automatically edits a moving image. This image processing system generates management information for associating information for specifying the location of moving image data in which a subject is recorded with the time at which the subject is recorded, and edits the management information based on the management information, This makes it possible to autonomously generate new video data with consistency for the subject.
[0004]
[Patent Literature]
Japanese Patent Laid-Open No. 10-215434 (see paragraph “0023” and paragraph “0028”)
[0005]
[Problems to be solved by the invention]
However, the conventional digital camera has the following problems because one moving image file is generated when moving image shooting is finished. (A) If the user mistakenly terminates the movie shooting, the movie is immediately recorded, but is recorded as a separate file. I had to edit at.
(B) Also, when a moving image is shot with a digital camera, shooting stops in about 30 seconds, so even if a series of related moving images are shot, a plurality of moving images There was a drawback of being recorded as a file.
(C) Even if the editing work is performed, if there are a plurality of moving image files, it takes time and effort, so the editing work is difficult.
Moreover, such a problem could not be solved even by the technique disclosed in the above-mentioned patent document.
[0006]
Therefore, the present invention has been made in view of such conventional problems, and a moving image processing apparatus capable of automatically editing a single moving image data using a plurality of related moving image data and a program thereof The purpose is to provide.
[0007]
[Means for Solving the Problems]
To achieve the above purpose,First acquisition means for acquiring the first moving image data, second acquisition means for acquiring the second moving image data, and shooting of the second moving image data within a predetermined time from the shooting of the first moving image data. And determining means for determining whether or not the second moving image data is not shot within a predetermined time by the determining means. 1 When the second moving image data is determined to be captured within a predetermined time, the first moving image data is combined with the second moving image data. And editing means for editing into a single moving image file and storing it in the storage means.
[0012]
A program according to the invention of
[0013]
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of the
[0014]
In particular, moving image data of a moving image file recorded on the
Further, the DSP /
[0015]
Furthermore, the DSP /
[0016]
A TG (Timing Generator) 4 that drives the
[0017]
The DSP /
[0018]
The display device 6 includes a color LCD and its driving circuit, and displays the subject image captured by the
[0019]
The
[0020]
The
[0021]
The built-in
[0022]
That is, the DSP /
The imaging means is composed of the
[0023]
Next, the operation of the
When the user operates the
[0024]
When the moving image shooting mode is set, the DSP /
[0025]
Next, when it is determined that the user has pressed the shutter button while the through image is displayed (step S2), the time when the moving image shooting is started is acquired (step S3), and a predetermined frame rate (1 / A moving image photographing process for capturing and storing a moving image (moving image frame) at a fixed period of 30 seconds is started (step S4). If it is determined in step S2 that the shutter button is not pressed, the process stays in step S2 until the shutter button is pressed, and the through display continues.
[0026]
When the shutter button is pressed (step S5) or when 30 seconds have elapsed since the start of the moving image shooting process (step S6), the moving image shooting process is stopped (step S7), and the time when the moving image shooting is ended is set. Acquired (step S8), a moving image file is generated using the moving image data, moving image shooting start time data, and moving image shooting end time data that have been developed in the buffer memory (DRAM 10) so far, and the memory card 13 (Step 9). Then, it returns to step S1. By repeating this operation, moving image files are sequentially recorded on the
[0027]
If the shutter button is not pressed in step S5 and 30 seconds have not elapsed since the start of the moving image shooting process (NO in step S5), the process returns to step S4, and moving image shooting is performed until the shutter button is pressed or 30 seconds have elapsed. Processing continues.
FIG. 3 shows the structure of the data of the moving image file recorded in the
[0028]
Next, editing of a moving image file stored in the
When the user operates the
[0029]
FIG. 4 shows an example of moving picture file data recorded on the
(A) shows the data of the moving image file specified as the moving
The video file name of the
The video file name of the
Here, the movie file name, shooting start / end time, and movie data shown in FIG. 4 are for convenience, and are actually recorded as computer-readable data.
Note that although the digital camera cannot capture images for 30 seconds or longer, the above-described moving
[0030]
Next, moving image editing will be described based on the flowchart of FIG.
When the user operates the
[0031]
Next, the shooting end time data of the moving
In the case of the
[0032]
Next, when proceeding to step S16, based on the comparison result, it is determined whether or not the difference between the shooting end time of the moving
For example, if the predetermined time is set to 2 seconds, the
[0033]
If it is determined in step S16 that they are combined, the process proceeds to step S17, where the data of the moving
The moving image file name of the newly generated moving image file is DSCF0010.DSCF0011 in which the moving image file name of the moving
Also, as shown in the figure, the shooting start time of the newly generated moving image file is the shooting start time of the moving
[0034]
Then, as shown in FIG. 6, the moving image data includes AB obtained by combining moving image data A of moving image file 1 (hereinafter referred to as moving image data 1) and moving image data B of moving image file 2 (hereinafter referred to as moving image data 2). Become.
The combined moving image file is recorded on the
Since the identification symbol or the like is used, the two moving image files specified as the moving
Further, when the generated moving image file is recorded on the
Thereby, when the moving
Then, the process proceeds to step S19.
[0035]
If it is determined not to be combined in step S16, the process proceeds to step S18, where it is determined whether or not there is a moving image file on the
Here, the moving image file already specified as the moving
[0036]
If it is determined in step S18 that there is no moving image file in the
In step S19, it is determined whether there is a moving image file not specified as moving
If it is determined not to be step S19, the moving image file automatic editing mode is terminated.
[0037]
The determination as to whether or not the
[0038]
As described above, when the user operates the
Next, the shooting end time data of the moving
Based on the comparison result, it is determined whether or not the moving
[0039]
If it is determined not to be combined, the moving
If it is determined to be combined, the data of the moving
Next, the combined data is recorded in the
As a result, continuous and related moving images are automatically edited as one moving image file. Note that the same movie file is not generated many times.
[0040]
As described above, in the first embodiment, even when continuous and related videos are separately recorded in a plurality of video files, the shooting time interval of the video files is determined to be within a predetermined time. In this case, since the data of the
Also, once movie shooting is finished, it is generated as one movie file, and even if movie shooting is started immediately, movie data is recorded as another movie file. Since the combined editing is performed within a predetermined time, even if the user ends the moving image shooting by mistake, if the moving image shooting is started immediately, it can be automatically edited as one moving image file.
[0041]
When shooting a movie with a digital camera, the moving image shooting automatically ends as soon as about 30 seconds elapse. It can be edited as one video file.
Further, by editing a moving image file with a personal computer or the like, a plurality of moving image data having a large data capacity can be easily and automatically edited.
[0042]
(Second Embodiment)
Next, a second embodiment of the present invention will be described.
The second embodiment also uses a digital camera having the same configuration as that shown in FIG.
In the second embodiment, the function of the configuration of the first embodiment is added, and the function of each configuration is slightly different in the following points.
[0043]
The DSP /
Then, based on the data comparison result, it is determined whether or not the images of the two frame data match within a predetermined range. This function corresponds to determination means.
When the time determination unit described in the first embodiment determines that the time is within a predetermined time and the determination unit determines that they match, the moving
Since other functions are the same as those of the first embodiment, description thereof is omitted.
[0044]
A description will be given of moving image editing in the
[0045]
FIG. 7 shows the structure of the moving image data of the moving image file recorded on the
In FIG. 7, 60 indicates the image of the last frame of the moving
The image of the last frame of the moving
[0046]
Next, moving image editing will be described based on the flowchart of FIG.
When the user operates the
[0047]
The moving
Next, the shooting end time data of the moving
[0048]
Next, in step S26, based on the comparison result, it is determined whether or not the difference between the shooting end time of the moving
If it is determined in step S26 that the time is within the predetermined time, the process proceeds to step S27. If it is determined that the time is not within the predetermined time, the process proceeds to step S32.
When it is determined that the time is within the predetermined time and the process proceeds to step S27, the final frame data of the moving image data 1 (image data of the final frame) is acquired from the
[0049]
In step S29, the acquired final frame data of the moving
This comparison and determination method will be described in detail later.
[0050]
If it is determined to be combined in step S30, the process proceeds to step S31. In step S31, the data of the moving
[0051]
FIG. 9 is a diagram showing moving image data of a moving image file newly generated by combining. In FIG. 9, 80 is a portion that was the
Then, the combined moving image file is recorded on the
[0052]
Since the identification symbol or the like is used, the two moving image files specified as the moving
Further, when the generated moving image file is recorded on the
Thereby, when the moving
Then, the process proceeds to step S33.
[0053]
If it is determined in step S26 that it is not within the predetermined time, or if it is determined not to be combined in step S30, the process proceeds to step S32, and the moving image file corresponding to the moving
[0054]
Here, the moving image file that has already been specified as the moving
If it is determined in step S32 that there is no moving image file not specified as the moving
[0055]
In step S33, it is determined whether there is a moving image file not specified as moving
If it is determined in step S33 that there is no moving image file not specified as the moving
[0056]
The determination as to whether or not the
[0057]
Next, how to compare in step S29 and determine whether or not to combine in step S30 will be described with reference to FIGS.
FIG. 10 is a diagram showing a comparison subroutine in step S29 in FIG. 8 and a combination determination subroutine in step S30.
FIGS. 11A and 11B show images of frames of a moving image file.
The frame image in FIG. 11 is composed of a
[0058]
Next, data comparison and determination will be described in accordance with the subroutine of FIG.
Assume that the image shown by the final frame data of the moving
First, in step S101, an object of an image to be projected is specified by frame data (frame image data).
That is, when the object of the image projected by the final frame data of the moving
Next, in step S103, the position, shape, and size of the specified object of the final frame data of the moving
[0059]
Next, as a result of comparing the positions of the objects identified in step S104, if it is determined that they match, the process proceeds to step S105. If it is determined in step S105 that the shapes of the identified objects are matched, the process proceeds to step S106. In step S106, if the sizes of the identified objects are compared, and if it is determined that they match, the process proceeds to step S107, where it is determined to be combined. Then, the process proceeds to step S31 in FIG. If it is determined that even one of the positions, shapes, and sizes of the objects specified in steps S104 to S106 does not match, it is determined that they are not combined, and the process proceeds to step S32 in FIG.
[0060]
Comparing the objects shown in FIG. 11C and FIG. 11D, that is, comparing the position, shape, and size of the specified object, the final frame data of the specified moving
It should be noted that the range of coincidence of the position, shape and size of the identified object need not be completely coincident. This matching range may be set in advance, may be set for each use (landscape, sightseeing, sports, etc.), and may be arbitrarily set by the user. Further, weighting may be performed by changing the range of coincidence of the position, shape, and size of the object. For example, when the range of coincidence related to the position of the object is widened or the determination related to the position of the object is not performed, FIG. 11A and FIG. It can also be set. Further, if the shapes match, it may be determined that they match, or may be determined based on criteria other than the criteria for determining position, shape, and size, such as color.
[0061]
As described above, when the moving image file automatic editing mode is set, the moving image files recorded on the
Next, the shooting end time data of the moving
[0062]
Based on the comparison result, it is determined whether or not the difference between the shooting times of the moving
If it is determined that it is within the predetermined time, the final frame data of the moving
[0063]
Based on the result of this comparison, if it is determined that the position, shape, and size of the specified objects match, it is determined that the objects are combined. If it is determined that the position, shape, and size of the identified object do not match, it is determined that they are not combined. If it is determined not to be combined, the moving
If it is determined to be combined, the data of the moving
[0064]
Also, a combination of the moving image data of the moving
The data of the combined moving image file is recorded on the
Note that the same movie file is not generated many times.
Thereby, a moving image file having continuity and relevance can be surely automatically edited as one moving image file.
[0065]
As described above, in the second embodiment, even when continuous and related videos are separately recorded in a plurality of video files, the shooting time interval of the video files is within a predetermined time. In addition, when it is determined that the moving image data of the moving
Also, once movie shooting is finished, it is recorded as one movie file. Even if movie shooting is started immediately, movie data is recorded as another movie file, but the shooting time of the movie file is predetermined. If it is within the time and the video data is determined to match, editing will be combined, so even if the user ends the video recording by mistake, if the video recording starts immediately, the continuity is sure , It is possible to automatically edit only related video files into one video file.
[0066]
When shooting a movie with a digital camera, moving image shooting automatically ends as soon as about 30 seconds elapse, but even in this case, if you start movie shooting immediately, you will definitely have continuity and related images. Can only be edited as one video file. Further, by editing a moving image file with a personal computer or the like, a plurality of moving image data having a large data capacity can be easily and automatically edited.
[0067]
(Third embodiment)
Next, a third embodiment of the present invention will be described.
The third embodiment also uses a digital camera having the same configuration as that shown in FIG. 1, but the functions of each configuration are slightly different in the following points.
The DSP /
Further, the DSP /
Then, before a certain time elapses, it is determined whether or not moving image shooting is newly started. This function corresponds to an imaging determination unit.
[0068]
If it is determined that shooting is newly started before a certain period of time elapses, moving image data newly started to be shot is stored in the
If it is determined that a new shooting has not started before the predetermined time has elapsed, the moving image data stored in the
[0069]
Video editing in the
[0070]
The moving image editing according to the third embodiment will be described with reference to the flowchart of FIG.
When the user operates the
When the moving image shooting process is started in step S53, the process proceeds to step S54 to determine whether or not the shutter button has been pressed. If it is determined that the button has not been pressed, the process proceeds to step S55, and it is determined whether or not 30 seconds have elapsed since the start of moving image shooting. If it is determined that 30 seconds have not elapsed, the process returns to step S54 to continue the moving image shooting process. If it is determined in step S54 that the shutter button has been pressed, or if it is determined in step S55 that 30 seconds have elapsed, the process proceeds to step S56, and the moving image shooting process is stopped. That is, after the moving image shooting process is started, the moving image shooting process is stopped when 30 seconds have elapsed after the shutter button is pressed or the moving image shooting process is started, and the moving image shooting process is continued until then.
[0071]
In step S56, the moving image shooting process is stopped. The moving image data obtained by photographing at this time is stored in the
Next, the process proceeds to step S59, and it is determined whether or not the timer measurement time has passed a predetermined time. This fixed time may be set in advance, or may be set by changing the fixed time for each use (landscape, sightseeing, sports, etc.). Moreover, you may enable it to set arbitrarily by a user. Thereby, the moving image editing suitable for the purpose of use becomes possible.
[0072]
If it is determined that the predetermined time has not elapsed, the process proceeds to step S60 to determine whether or not the shutter button has been pressed. If it is determined that the button has not been pressed, the process returns to step S59 to continue the through display. If it is determined in step S60 that the shutter button has been pressed, the process returns to step S53 to start moving image shooting processing.
When the moving image shooting process is started, moving image data currently being shot obtained by shooting is stored after the moving image data temporarily stored in the
[0073]
In other words, even if shooting is finished, the moving image data is not recorded in the
Therefore, by repeating the above-described operation, even if the shooting process is stopped, a plurality of (three or more) pieces of moving image data obtained by moving image shooting can be obtained any number of times by starting moving image shooting within a predetermined time. Therefore, it can be edited as one moving image data (moving image file).
[0074]
Note that as a modification of the third embodiment, the moving image data is recorded on the memory card 13 (first recording means) before the elapse of a certain time after the moving image shooting is completed, and before the elapse of the certain time. When moving image shooting is started, the recorded moving image data may be read and the moving image data obtained by shooting and the read moving image data may be combined. The combined moving image data is recorded on the memory card 13 (second recording means).
When shooting is started within a certain time, as described in the second embodiment, the moving image data stored in the
Further, without using a timer, the shooting time of the moving image data stored in the
[0075]
If it is determined in step S59 that the predetermined time has elapsed, the process proceeds to step S61, where a moving image file is generated using the moving image data stored in the
Here, the moving image data stored in the
[0076]
As described above, even when the moving image shooting process is stopped, the shot moving image data is continuously stored in the
When the moving image shooting process is started again within a predetermined time, the moving image data currently being shot or has been shot is combined with the shot moving image data stored in the
By repeating this operation, even if the moving image shooting process is stopped, the moving image data is continuously stored in the
When the moving image shooting process is not started within a predetermined time after the moving image shooting process is stopped, a moving image file is generated for the first time using the moving image data stored in the
Thereby, a plurality of moving image data having continuity and relevance are automatically edited as one moving image file.
[0077]
As described above, in the third embodiment, even if the moving image shooting process is stopped, the captured moving image data is stored for a certain period of time, and if the moving image shooting process is started again within a certain time, the captured moving image data Is stored after the moving image data stored for a certain period of time, so that a plurality of moving image data having continuity and relevance can be edited as one moving image data before being recorded on the recording medium.
Further, since the editing operation is automatically performed without recording on the recording medium before a certain time elapses, it is possible to eliminate the labor and time of the editing operation, and it is not necessary to create a useless moving image file. Moreover, since the number of moving image files to be generated can be reduced, it becomes easy for the user to identify and organize the moving image files.
[0078]
The present invention is not limited to the above-described embodiments, and the following modified embodiments are possible.
(A) The moving image processing apparatus of the present invention may be applied to an apparatus in which an image is captured by a personal computer and a moving image is automatically edited on the personal computer by attaching a CCD camera to the personal computer or the like.
(B) The moving image processing apparatus of the present invention is applied to a device that automatically edits moving images using a mobile phone having a photographing function, a clock, a PDA, a movie camera with a still image capturing function, or other devices. May be.
[0079]
【The invention's effect】
According to the present invention, it is possible to automatically edit a plurality of moving image data having continuity and relevance into one moving image data, and the labor and time involved in the editing work can be greatly reduced.
[Brief description of the drawings]
FIG. 1 is a block diagram of a digital camera according to an embodiment of the present invention.
FIG. 2 is a flowchart showing an operation in a moving image shooting mode.
FIG. 3 is a diagram illustrating a data structure of a moving image file.
FIG. 4 is an example showing a data structure of a moving image file.
FIG. 5 is a flowchart showing an operation in a moving image file automatic editing mode.
FIG. 6 is a diagram showing a data structure of a moving image file after editing.
FIG. 7 is a diagram illustrating a configuration of moving image data.
FIG. 8 is a flowchart showing an operation in a moving image file automatic editing mode.
FIG. 9 is a diagram illustrating a configuration of moving image data after editing.
FIG. 10 is a flowchart showing a subroutine for comparison and determination in a moving image file automatic editing mode.
FIG. 11 is a diagram illustrating a frame image of moving image data.
FIG. 12 is a flowchart showing moving image editing in a moving image shooting mode.
[Explanation of symbols]
1 Digital camera
2 CCD
3 DSP / CPU
4 TG
5 Unit circuit
6 Display device
7 Key input part
8 Voice processing part
9 Data bus
10 DRAM
11 Built-in flash memory
12 interfaces
13 Memory card
Claims (10)
第2の動画データを取得する第2取得手段と、
前記第1の動画データの撮影から所定時間内に前記第2の動画データの撮影があるか否かを判定する判定手段と、
前記判定手段により所定時間内に前記第2の動画データの撮影がないと判定された場合には、前記第1の動画データを 1 つの動画ファイルとして記憶手段に記憶させ、所定時間内に前記第2の動画データの撮影があると判定された場合には、前記第1の動画データを前記第2の動画データとを結合して1つの動画ファイルに編集するとともに前記記憶手段に記憶させる編集手段と、
を備えたことを特徴とする動画像処理装置。 First acquisition means for acquiring first moving image data;
Second acquisition means for acquiring second video data;
Determining means for determining whether or not there is shooting of the second moving image data within a predetermined time from shooting of the first moving image data;
If it is determined by the determining means that the second moving image data is not shot within a predetermined time, the first moving image data is stored in the storage means as one moving image file, and the first moving image data is stored within the predetermined time. When it is determined that there is shooting of the second moving image data, the first moving image data is combined with the second moving image data to be edited into one moving image file and stored in the storage unit When,
A moving image processing apparatus comprising:
前記第1の動画データと前記第2の動画データとの撮影時刻の間隔が所定時間内にあるか否かを判定する時刻判定手段を含み、
前記編集手段は、
前記時刻判定手段により所定時間内にあると判定された場合に前記第1の動画データと前記第2の動画データとを結合して1つの動画ファイルに編集することを特徴とする請求項1記載の動画像処理装置。 The determination means includes
A time determination means for determining whether or not a shooting time interval between the first moving image data and the second moving image data is within a predetermined time;
The editing means includes
2. The first moving image data and the second moving image data are combined and edited into one moving image file when it is determined by the time determination means that the time is within a predetermined time. Moving image processing apparatus.
前記第1の動画データの撮影終了時刻と前記第2の動画データの撮影開始時刻とを取得し、この取得された2つの撮影時刻の間隔が所定時間内か否かを判定することを特徴とする請求項2記載の動画像処理装置。 The determination means includes
It acquires the shooting end time of the first moving image data and the shooting start time of the second moving image data, and determines whether or not the interval between the two acquired shooting times is within a predetermined time. The moving image processing apparatus according to claim 2.
前記第1の動画データの後に前記第2の動画データを結合することを特徴とする請求項1乃至4の何れかに記載の動画像処理装置。The editing means includes
The moving image processing apparatus according to claim 1, wherein the second moving image data is combined after the first moving image data.
前記データ比較手段による比較結果に基づいて、前記第1の動画データと前記第2の動画データとが一致するか否かを判定する判定手段と、
を設け、
前記編集手段は、
前記判定手段により一致すると判定され、かつ、前記判定手段により所定時間内と判定された場合は、前記第1の動画データと前記第2の動画データとを結合して1つの動画データに編集することを特徴とする請求項1乃至5の何れかに記載の動画像処理装置。 Furthermore, data comparison means for comparing the first moving image data and the second moving image data;
Determining means for determining whether or not the first moving image data and the second moving image data match based on a comparison result by the data comparing means;
Provided,
The editing means includes
When it is determined by the determination means that they match and the determination means determines that the time is within a predetermined time, the first moving image data and the second moving image data are combined and edited into one moving image data. The moving image processing apparatus according to claim 1, wherein the moving image processing apparatus is an image processing apparatus.
前記第1の動画データの最終フレームデータと前記第2の動画データの開始フレームデータとを比較することを特徴とする請求項6記載の動画像処理装置。The data comparison means includes
7. The moving image processing apparatus according to claim 6, wherein the last frame data of the first moving image data is compared with start frame data of the second moving image data.
前記一時記憶手段に記憶された前記第1の動画データと前記第2の動画データとを結合した1つの動画データを記憶する前記記憶手段とを備えることを特徴とする請求項1乃至7の何れかに記載の動画像処理装置。8. The storage device according to claim 1, further comprising a storage unit that stores one moving image data obtained by combining the first moving image data and the second moving image data stored in the temporary storage unit. The moving image processing apparatus according to claim 1.
第2の動画データを取得する処理と、
前記第1の動画データの撮影から所定時間内に前記第2の動画データの撮影があるか否かを判定する処理と、
この判定する処理により所定時間内に前記第2の動画データの撮影がないと判定された場合には、前記第1の動画データを動画ファイルとして記憶手段に記憶させ、所定時間内に前記第2の動画データの撮影があると判定された場合には、前記第1の動画データを前記第2の動画データとを結合して1つの動画ファイルに編集するとともに前記記憶手段に記憶させる処理と、を含み、コンピュータにより動画像の処理を実行することを特徴とするプログラム。Processing for obtaining the first video data;
A process of acquiring second video data;
A process of determining whether or not there is shooting of the second moving image data within a predetermined time from shooting of the first moving image data ;
If it is determined by the determination process that the second moving image data is not shot within a predetermined time, the first moving image data is stored in a storage unit as a moving image file, and the second moving image data is stored within the predetermined time. If it is determined that there is shooting of the moving image data, the first moving image data is combined with the second moving image data to be edited into one moving image file and stored in the storage unit ; And a program for executing moving image processing by a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003167403A JP4189556B2 (en) | 2003-06-12 | 2003-06-12 | Moving image processing apparatus and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003167403A JP4189556B2 (en) | 2003-06-12 | 2003-06-12 | Moving image processing apparatus and program thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2005006059A JP2005006059A (en) | 2005-01-06 |
JP2005006059A5 JP2005006059A5 (en) | 2006-06-22 |
JP4189556B2 true JP4189556B2 (en) | 2008-12-03 |
Family
ID=34093220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003167403A Expired - Fee Related JP4189556B2 (en) | 2003-06-12 | 2003-06-12 | Moving image processing apparatus and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4189556B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009099190A (en) | 2007-10-16 | 2009-05-07 | Sony Corp | Recording apparatus, recording method, and program |
JP6098796B2 (en) * | 2012-03-14 | 2017-03-22 | パナソニックIpマネジメント株式会社 | Image processing apparatus, imaging apparatus, and computer program |
JP6142551B2 (en) * | 2013-01-31 | 2017-06-07 | 株式会社ニコン | Image editing apparatus and image editing program |
WO2016125318A1 (en) | 2015-02-02 | 2016-08-11 | オリンパス株式会社 | Image pickup device, display method, and program |
US10645335B2 (en) | 2017-03-22 | 2020-05-05 | Panasonic Intellectual Property Management Co., Ltd. | Imaging apparatus for generating a single file of two shooting periods |
JP6399145B2 (en) * | 2017-04-27 | 2018-10-03 | 株式会社ニコン | Image editing apparatus and moving image display method |
JP2019004506A (en) * | 2018-09-06 | 2019-01-10 | 株式会社ニコン | Image editing apparatus and moving image display method |
-
2003
- 2003-06-12 JP JP2003167403A patent/JP4189556B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005006059A (en) | 2005-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8482624B2 (en) | Image pickup device with still picture pickup function during moving picture pickup operation | |
US7411623B2 (en) | Photographed image recording and reproducing apparatus with simultaneous photographing function | |
JP4777180B2 (en) | Imaging apparatus and control method thereof | |
CN101841649A (en) | The digital camera of the rest image of record paper sound | |
JP4993012B2 (en) | Imaging apparatus and image processing apparatus | |
JP2008199671A (en) | Imaging device and program | |
JP2012100216A (en) | Camera and moving image capturing program | |
JP4189556B2 (en) | Moving image processing apparatus and program thereof | |
JP6229356B2 (en) | Imaging apparatus, imaging method, and program | |
JP2001309221A (en) | Camera | |
JP4654947B2 (en) | Movie processing apparatus and program thereof | |
JP4975264B2 (en) | Movie imaging apparatus and program thereof | |
JP5836578B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JP4189555B2 (en) | Moving picture editing apparatus and program thereof | |
JP5188277B2 (en) | Imaging apparatus, control method therefor, and program | |
JP2007013472A (en) | Imaging apparatus, its control method, program and storage medium | |
JP2005072729A (en) | Electronic camera and image photographing method | |
JP3559499B2 (en) | Digital camera | |
JP4322144B2 (en) | Image shooting device | |
JP2006314136A (en) | Photographic device and photographing method | |
JP2004088518A (en) | Imaging/recording apparatus, image reproducing apparatus, and image recording/reproducing control program | |
JP2005218126A (en) | Photographing device and photographing method | |
JP2006217111A (en) | Moving image photographing apparatus and method | |
JP2007124713A (en) | Electronic camera | |
JP2018038058A (en) | Sound output device, imaging system, sound output method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060420 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060420 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080520 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080818 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080831 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110926 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4189556 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120926 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130926 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |