JP2015057877A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2015057877A
JP2015057877A JP2014121913A JP2014121913A JP2015057877A JP 2015057877 A JP2015057877 A JP 2015057877A JP 2014121913 A JP2014121913 A JP 2014121913A JP 2014121913 A JP2014121913 A JP 2014121913A JP 2015057877 A JP2015057877 A JP 2015057877A
Authority
JP
Japan
Prior art keywords
moving image
image data
recording
editing
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014121913A
Other languages
English (en)
Other versions
JP6410483B2 (ja
JP2015057877A5 (ja
Inventor
博之 星加
Hiroyuki Hoshika
博之 星加
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014121913A priority Critical patent/JP6410483B2/ja
Priority to US14/453,038 priority patent/US9595292B2/en
Priority to RU2014132557/07A priority patent/RU2584687C2/ru
Priority to CN201410389256.6A priority patent/CN104349062B/zh
Publication of JP2015057877A publication Critical patent/JP2015057877A/ja
Publication of JP2015057877A5 publication Critical patent/JP2015057877A5/ja
Application granted granted Critical
Publication of JP6410483B2 publication Critical patent/JP6410483B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8045Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8211Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 簡単且つ適切に編集位置を指定する。
【解決手段】 ユーザからの編集位置の変更のための所定の指示に応じて動画ファイルの編集位置を変更する指定手段を備え、前記指定手段は、複数の記録指示により記録された複数の動画データが結合されている一つの動画データを含む第1の動画ファイルの編集位置を指定する場合、所定の指示に応じて、複数の動画データの結合位置に対応した位置の何れかに編集位置を変更し、一つの記録指示により記録された一つの動画データを含む第2の動画ファイルの編集位置を指定する場合、所定の指示に応じて、動画データの所定数のフレームを単位として編集位置を変更する。
【選択図】 図1

Description

本発明は、画像処理装置に関する。
従来、画像処理装置として、被写体を撮像し、得られた画像に基づいて動画データを生成して記録媒体に記録する撮像装置が知られている。画像処理装置の例としては、デジタルカメラ、携帯電話、コンピュータなどが知られている。たとえばコンピュータにおいては、動画データを編集したり圧縮したりするものが知られている(たとえば特許文献1)。
特開平8−186789号
しかしながら、従来の画像処理装置においては、動画データの編集はたとえばフレーム単位で行われており、動画データの種類に応じて最適な編集単位にはなっておらず、ユーザの編集作業が不便であるという問題があった。
そこで、本発明は、ユーザの編集作業の利便性を向上させることができる画像処理装置を提供することを目的とする。
本発明は、記録媒体に記録された動画ファイルに含まれる動画データの編集位置を指定する手段であって、ユーザからの前記編集位置の変更のための所定の指示に応じて前記編集位置を変更する指定手段と、前記指定手段により指定された前記編集位置に応じて、前記動画ファイルの編集処理を行う処理手段とを備え、前記指定手段は、複数の記録指示により記録された複数の動画データが結合されている一つの動画データを含む第1の動画ファイルの編集位置を指定する場合、前記所定の指示に応じて、前記第1の動画ファイルに含まれる前記複数の動画データの結合位置に対応した位置の何れかに前記編集位置を変更し、一つの記録指示により記録された一つの動画データを含む第2の動画ファイルの編集位置を指定する場合、前記所定の指示に応じて、前記第2の動画ファイルに含まれる動画データの所定数のフレームを単位として前記編集位置を変更する構成とした。
編集対象の動画に応じて、ユーザが簡単且つ適切に編集位置を指定することができる様になる。
撮像装置の構成を示す図である。 動画ファイルの構成を示す図である。 動画ファイルの編集処理を示すフローチャートである。 動画ファイルの編集処理を示すフローチャートである。 動画ファイルの編集画面を示す図である。 編集処理における保存処理を示すフローチャートである。
以下、図面を参照して本発明の実施例を詳細に説明するが、この発明は以下の実施の形態に限定されない。なお、以下の実施の形態は特許請求の範囲に係る発明を限定するものでなく、また実施の形態で説明されている特徴の組み合わせの全てが発明の解決手段に必須のものとは限らない。
なお、本実施例において説明される各機能ブロックは必ずしも個別のハードウェアである必要はない。すなわち、例えばいくつかの機能ブロックの機能は、1つのハードウェアにより実行されても良い。また、いくつかのハードウェアの連係動作により1つの機能ブロックの機能または、複数の機能ブロックの機能が実行されても良い。また、各機能ブロックの機能は、CPUがメモリ上に展開したコンピュータプログラムにより実行されても良い。
(実施例1)
本実施例では、撮像装置を例にとって説明するが、動画データを編集することができる装置であればどのような装置でも良い。たとえば、携帯電話、スマートフォン、タブレット型情報端末、ノート型情報端末、コンピュータ等であってもよい。
本実施例の撮像装置は、撮像部、符号化(復号化)部、を有する。撮像部は、レンズにより取得された被写体の光学像を光電変換し、得られたアナログ画像信号をデジタル画像信号に変換する。そして、符号化(復号化)部は、撮像部により得られたデジタル画像信号を符号化する。動画記録開始の指示があると、符号化(復号化)部は、順次取得される画像信号を動画として符号化し、記録再生部は、符号化された動画データを記録媒体に記録する。また、動画再生開始の指示があると、記録再生部は、記録媒体に記録された動画データを再生し、(符号化)復号化部は、再生された動画データを復号化して、表示装置に表示させる。また、本実施例の撮像装置は、動画編集の指示があると、再生された動画データの編集をする。
また、本実施例の撮像装置は、動画編集の際には、動画データの種類に応じて、編集の単位(フレーム数)や、編集位置を指定するインジケータの動作を切り替える。具体的には、チャプタが設定されている動画ファイルであるか否かに応じて、編集の単位やインジケータの動作を切り替える。または、動画ファイルが、複数の記録指示により記録され、且つ、連結された複数の動画データを含むか否かに応じて、編集の単位やインジケータの表示動作を切り替える。
このような構成とすることで、本実施例の撮像装置は、ユーザの編集作業の利便性を向上させることができる。
以下、このような撮像装置について説明する。
<全体構成>
まず、図1を用いて、本実施例の撮像装置100の構成を説明する。
本実施例の撮像装置100は、図1に示すように、CPU101と、RAM102と、ROM103と、操作部104とを有する。また、撮像装置100は、撮像部110と、画像処理部111と、マイクユニット120と、音声処理部121と、スピーカユニット122とを有する。また、撮像装置100は、符号化処理部130と、表示部140と、表示制御部141と、記録再生部150と、記録媒体151と、通信部160とを有する。なお、CPUは、Central Processing Unitの略称である。RAMは、Random Access Memoryの略称である。ROMは、Read Only Memoryの略称である。本実施例の撮像装置100においては、動画圧縮方式としてH.264やH.265の圧縮方式を用いるものとするがどのような種類の圧縮方式を用いてもよい。また、音声圧縮方式としてAACやAC3の圧縮方式を用いるものとするがどのような種類の圧縮方式を用いてもよい。
本実施例の撮像装置100において、CPU101は、RAM102をワークメモリとして用い、ROM103に記録された各種プログラムをRAM102に展開し、プログラムに応じて撮像装置100の各ブロックを制御する。操作部104は、例えば、電源ボタン、記録ボタン、ズーム調整ボタン、オートフォーカスボタン、メニュー表示ボタン、モード切替スイッチ、決定ボタン等の各種操作を入力するスイッチ類を有する。また、カーソルキー、ポインティングデバイス、タッチパネル、ダイヤル等のどのようなタイプの操作子であってもよい。操作部104は、ユーザによりこれらのキーやボタン、タッチパネルが操作されるとCPU101に操作信号を送信する。操作部104の各操作部材は、表示部140に表示される種々の機能アイコンとして実現されることも可能である。ユーザはこれらの機能アイコンを選択、操作することが可能である。機能アイコンに対し、場面ごとに適宜機能が割り当てられる。これにより、機能アイコンは各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部140に表示される。ユーザは、表示部140に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。なお、操作部104は、表示部140に対する接触を検知可能なタッチパネルであってもよい。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。
撮像部110は、レンズにより取り込まれた被写体の光学像を、絞りにより光量を制御して、CCDセンサやCMOSセンサ等の撮像素子により画像信号に変換し、得られたアナログ画像信号をデジタル画像信号に変換して一時的にRAM102に記憶する。RAM102に記憶されたデジタル画像信号は、その後、画像処理部111に送信される。画像処理部111は、デジタル画像信号のホワイトバランスや色、明るさなどを、ユーザにより設定された設定値や画像の特性から自動的に判定した設定値などに基づいて調整する画質調整処理を行う。そして、画像処理部111は、処理済みのデジタル画像信号を再びRAM102に記憶する。また、画質調整処理済みまたは未処理のデジタル画像信号を、後述の表示制御部141に送信し、表示部140に撮像中の画像として表示することもできる。また、再生時においては、画像処理部111は、記録媒体151から記録再生部150によって読出され、符号化処理部130において復号化された静止画ファイルや動画ファイルに含まれる画像データの画質調整等を行う。そして、画質調整済みまたは未処理のデジタル画像信号を、後述の表示制御部141に送信し、表示部140に画像として表示することもできる。
符号化処理部130では、記録時においては、画像処理部111により処理されRAM102に記憶されたデジタル画像信号に対して、画像圧縮処理を行い、圧縮された動画データや静止画データを生成し、RAM102に一時的に記憶する。また、再生時においては、記録媒体151から読出された画像ファイルの圧縮された動画データや静止画データを復号してデジタル画像信号を抽出し、RAM102に記憶していく処理を行う。本実施例では、符号化処理部130は、動画データをH.264方式に従い符号化する。また、画像処理部111は、静止画データを、JPEG方式に従って符号化する。なお、H.264等の動画の符号化方式においては、各フレームのデータを、フレーム内予測符号化、及びフレーム間予測符号化を用いて符号化する。一般に、フレーム内予測符号化により符号化されたフレームをIピクチャと呼ぶ。また、前方のフレームを参照フレームとして用い、参照フレームとの差分(予測誤差)を用いてフレーム間符号化された画像データをPピクチャと呼ぶ。また、前方及び後方のフレームを参照フレームとして用い、参照フレームとの差分を用いてフレーム間符号化された画像データをBピクチャと呼ぶ。
マイクユニット120は、たとえば、撮像装置100のハウジング内に内蔵された無指向性のマイクとAD変換部を有する。マイクユニット120では、マイクにより周囲の音声を集音(収音)し、取得したアナログ音声信号をAD変換部で、デジタル信号に変換してRAM102に一時的に記憶させる。RAM102に記憶されたデジタル音声信号は、その後、音声処理部121に送信される。音声処理部121では、記録時においては、RAM102に記憶されたデジタル音声信号を読みだして、レベルの適正化処理や雑音低減処理等の処理を行い、処理をしたデジタル音声信号を再びRAM102に記憶する。また、音声処理部121は、必要に応じて、音声信号を圧縮する処理を行う。本実施例では、音声圧縮方式として、AC3、AAC等の公知の音声圧縮方式を用いている。また、音声処理部121は、再生時においては、記録媒体151から記録再生部150によって読出された音声ファイルや動画ファイルに含まれる圧縮音声データ復号する処理や音声レベルの適正化処理を行う。そして、音声処理部121は、処理された音声データを順次RAM102に記憶する。スピーカユニット122は、スピーカとDA変換部とを有する。スピーカユニット122では、音声処理部121によりRAM102に記憶されたデジタル音声信号を読出してアナログ音声信号に変換し、アナログ音声信号によりスピーカから音声を出力する。
表示部140は、例えば、液晶表示デバイス、または有機EL表示デバイスなどを有し、表示制御部141の制御により画像を表示する。表示部140は、LEDディスプレイなど、ユーザに画像を提供することができればどのようなものであっても良い。表示制御部141は、画像処理部111により処理され、RAM102に記憶されたデジタル画像信号に基づいて、表示部140に画像を表示する。また、表示制御部141は、表示部140に表示するデジタル画像信号に基づく映像信号に対し、マトリクス変換、ブライト調整、コントラスト調整、ガンマ調整、クロマゲイン調整、シャープネス調整等の画像信号処理を行ってもよい。
記録再生部150は、動画記録時においては、RAM102に記憶されている、符号化処理部130により生成された動画データ、静止画データ及び、音声処理部121で生成された音声データをよみだす。そして、記録再生部150は、読み出した動画データと音声データを、撮影日等の各種情報とともに、動画ファイルとして記録媒体151に書き込む。また、記録再生部150は、静止画記録時においては、RAM102に記憶されている静止画データを撮影日等の各種情報とともに静止画ファイルとして記録媒体151に記録する。記録再生部150は、動画ファイルを記録媒体151に記録する際は、圧縮動画データと音声データとからなるデータストリームを形成し、順次記録媒体151に記録する。また、記録再生部150は、記録媒体151に記録されたデータに対し、ファイルヘッダ等の管理情報を付加する。記録再生部150は、記録媒体151に記録された動画ファイルや静止画ファイルを、FATやexFAT等のファイルシステムに従って管理する。また、記録再生部150は、再生時においては、記録媒体151に記録された動画ファイルや静止画ファイルを、ファイルシステムに従って読出す。CPU101は、読出された動画ファイルや静止画ファイルに含まれるヘッダ(管理情報)を解析し、圧縮された動画データ、音声データ、静止画データを抽出する。抽出された圧縮動画データ、静止画データは、RAM102に記憶されて、符号化処理部130により復号される。また、圧縮された音声データは、音声処理部121により伸長される。なお、本実施例では、動画記録モードにおいて記録される動画データと音声データは、MP4ファイル形式の動画ファイルとして記録される。MP4ファイルでは、動画や音声データに加えて、この動画や音声データを再生するために必要な管理情報が一つのファイルに格納される。また、本実施例では、静止画データはJPEGファイル形式の静止画ファイルとして記録される。
また、記録媒体151は、撮像装置に内蔵された記録媒体でも、取外し可能な記録媒体でもよい。例えば、記録媒体151は、ハードディスク、光ディスク、光磁気ディスク、CD−R、DVD−R、磁気テープ、不揮発性の半導体メモリ、フラッシュメモリ、などのあらゆる方式の記録媒体を含む。取り外し可能な記録媒体を用いる場合には、記録再生部150は、それらの取り外し可能な記録媒体を装着、排出するための機構を含む。
また、通信部160は、撮像装置100とは異なる外部装置との間で、制御信号や動画ファイル、静止画ファイル、各種データ等を送受信する。通信部160の通信方式は、有線、無線を問わず、どのような方式であっても良い。
ここで、前述の画像処理部111、音声処理部121、符号化処理部130、表示し制御部141、記録再生部150は、それぞれ、前述の各機能を実行するプログラムを搭載したマイクロコンピュータであってもよい。また、CPU101がこれらの機能の少なくとも一部を実行するようにしてもよい。
なお、本実施例では記録媒体151のファイル管理システムは組み込み機器で一般的に使用されているFATファイルシステムを使用するものとして説明をする。FATファイルシステムの技術自体は公知であるので、本実施例の特徴的な動作でのみその説明をする。また、ファイルシステムとして、FATファイルフォーマットであるNTFSやexFATなどを用いても良い。
<基本動作>
次に、本実施例の撮像装置100の動作について説明する。
本実施例の撮像装置100において、CPU101は、ユーザによって操作部104が操作され電源を投入する指示が操作部104から入力されると、不図示の電源供給部を撮像装置100の各ブロックに電源を供給するように制御する。
次に、CPU101は、操作部104により設定されたカメラのモードが、再生モードであるか、静止画記録モード、動画記録モードであるかを判定する。また、本実施例の撮像装置100は、再生モードにおいて、任意の動画ファイルの動画データを編集することができる。また、撮像装置100は、静止画記録モードにおいて、静止画の記録指示のタイミングに対応する動画データを生成して記録媒体に記録することができる。たとえば、撮像装置100は、静止画記録のタイミングの前の数秒の画像に基づいて動画データを作成して記録媒体に記録する。また、静止画記録のタイミングをまたぐ前後の数秒の画像に基づいて動画データを作成してもよいし、静止画記録のタイミングの後の数秒の画像に基づいて動画データを作成してもよい。静止画記録のタイミングに対応する動画データは、記録媒体に記録されている動画ファイルの動画データに続けて再生されるように記録媒体に記録される。たとえば、静止画記録のタイミングに対応する、1日分の動画データが連結され、一つの動画ファイルに格納される。なお、連結、不連結は、日付に基づいて決定されてもよいし、ユーザが任意に指定したタイミングで不連結としてもよいし、時間や場所に基づいて不連結にしてもよい。
まず、動画記録モードについて説明する。
操作部104により設定されたモードが、動画記録モードである場合、CPU101は、撮像装置100の各ブロックを制御し、以下の動作を実行させる。
まず、撮像部110は、得られたデジタル画像信号をRAM102に送信し、一時的に記憶させる。次に、画像処理部111は、設定された撮影設定に従って、RAM102に記憶されたデジタル画像信号に、前述の各種画質調整処理を行い、処理をしたデジタル画像信号を再びRAM102に記憶する。また、表示制御部141は、RAM102に記憶された処理済みのデジタル画像信号または未処理のデジタル画像信号を読み出して表示部140に表示させる。
すなわち、操作部104から動画記録開始の指示が入力されるまでは、表示部140に撮像部110により撮像された画像に基づく画像が表示される。
次に、このような記録待機状態において、操作部104から動画記録開始の指示が入力されると、撮像部110は、得られたデジタル画像信号をRAM102に送信し、一時的に記憶させる。なお、本実施例では、動画記録モードにおいて、撮像部110は、1フレームが横1920画素×縦1080画素、30フレーム毎秒の動画データを出力する。次に、画像処理部111は、設定された撮影設定に従って、RAM102に記憶されたデジタル画像信号に、前述の各種画質調整処理を行い、処理をしたデジタル画像信号を再びRAM102に記憶する。また、表示制御部141は、RAM102に記憶された処理済みのデジタル画像信号または未処理のデジタル画像信号を読み出して表示部140に表示させる。さらに、符号化処理部130は、画像処理部111によって処理されたデジタル画像信号を符号化するための符号化処理を行う。
また、音声処理部121は、マイクユニットから入力されたデジタル音声信号に対して種々の調整処理を適用し、処理をしたデジタル音声信号を再びRAM102に記憶する。さらに、必要に応じて、予め設定された音声用の符号化方式に従って符号化処理を実行し、得られた符号化された音声データをRAM102に記憶させる。なお、以後の説明では、音声データについては説明を省略するが、動画データとともに処理されるものとする。
次に、記録再生部150は、RAM102に一時記憶されている符号化済みの動画データを、記録媒体151のファイルシステムに適合する動画ファイルとして記録する。また、CPU101により生成された必要な管理情報を動画ファイルに含めて記録する。
CPU101は、動画記録終了の指示が入力されるまでは、これら一連の処理を撮像装置100の各ブロックに実行させる。
次に、操作部104から動画記録終了の指示が入力されると、符号化処理部130は、記録終了の指示が入力されるまでのデジタル画像信号を符号化し終わるまで動作し、その後動作を終了する。また、記録再生部150も、RAM102に一時記憶されている符号化済みの動画データを記録媒体151に記録し終わるまで動作し、その後、動作を終了する。それ以外の撮像部110、画像処理部111、表示部140、表示制御部141、は動作を継続する。
以上のように、本実施例の撮像装置100は、動画記録モードにおいて動画ファイルを記録媒体151に記録する。
次に、静止画記録モードについて説明する。
操作部104により設定されたモードが、静止画記録モードである場合、CPU101は、撮像装置100の各ブロックを制御し、以下の動作を実行させる。
まず、撮像部110は、得られたデジタル画像信号をRAM102に送信し、一時的に記憶させる。次に、画像処理部111は、撮影のための設定に従って、RAM102に記憶されたデジタル画像信号に、前述の各種画質調整処理を行い、処理をしたデジタル画像信号を再びRAM102に記憶する。また、表示制御部141は、RAM102に記憶された処理済みのデジタル画像信号または未処理のデジタル画像信号を読み出して表示部140に表示させる。
すなわち、操作部104から静止画記録の指示が入力されるまでは、表示部140に撮像部110により撮像された画像に基づく画像が表示される。
次に、このような記録待機状態において、操作部104から静止画記録の指示が入力されると、撮像部110は、静止画の記録指示に対応した、1画面のデジタル画像信号をRAM102に送信し、一時的に記憶させる。次に、画像処理部111は、撮影のための設定に従って、RAM102に記憶されたデジタル画像信号に、前述の各種画質調整処理を行い、処理をしたデジタル画像信号を再びRAM102に記憶する。また、表示制御部141は、RAM102に記憶された処理済みのデジタル画像信号または未処理のデジタル画像信号を読み出して表示部140に表示させる。さらに、符号化処理部130は、画像処理部111によって処理されたデジタル画像信号を静止画として符号化するための符号化処理を行う。
次に、記録再生部150は、RAM102に一時記憶されている符号化済みの静止画データを、記録媒体151のファイルシステムに適合する静止画ファイルとして記録する。また、CPU101により生成された必要な管理情報を静止画ファイルに含めて記録する。
以上のように、本実施例の撮像装置100は、静止画記録モードにおいて静止画ファイルを記録媒体151に記録する。
ここで、静止画記録モードにおいて、1回の静止画の記録指示のタイミングに応じて所定時間の動画データを記録する場合の動作についてさらに説明を行う。ユーザにより、所定時間の動画記録が設定された場合、CPU101は、記録待機状態において、静止画記録の指示が入力される前に、予め、撮像部110により得られた画像データを動画として符号化してRAM102に記憶させる。CPU101は、また、マイクユニット120により得られた音声データを音声処理部121により符号化してRAM102に記憶させる。そして、最新の所定時間(例えば4秒)分の動画データ及び音声データがRAM102に保持されるようにする。そして、静止画記録の指示に応じて、RAM102に記憶されている、最新の4秒の動画データと音声データが記録媒体に記録される。さらに、1日単位で、これら所定時間分の動画データを連結させることで、1日分のダイジェストムービーが生成される。なお、連結させる単位は日付け、動画データの再生時間、動画ファイルの容量等によって変更されても構わない。このように、操作部104からの静止画の記録指示に応じて記録された、複数の所定時間分の動画データを含む動画ファイルを生成することができる。以下においては、静止画の記録指示の前の、記録待機状態において撮像部110により撮影された画像に基づく動画データを記録媒体に記録する場合について説明する。CPU101は、撮像装置100の各ブロックを制御し、以下の動作を実行させる。なお、以下の説明では、静止画記録モードにおいて、一つの静止画の記録指示により記録される、所定時間分の動画データをチャプタと呼ぶ。
まず、静止画記録モードが設定されると、撮像部110は、得られたデジタル画像信号をRAM102に送信し、一時的に記憶させる。次に、画像処理部111は、撮影のための設定に従って、RAM102に記憶されたデジタル画像信号に、前述の各種画質調整処理を行い、処理をしたデジタル画像信号を再びRAM102に記憶する。また、表示制御部141は、RAM102に記憶された処理済みのデジタル画像信号または未処理のデジタル画像信号を読み出して表示部140に表示させる。このとき、同時に符号化復号化部130は、画像処理部111によって処理されたデジタル画像信号を動画として符号化して動画データを生成するための符号化処理を行う。また、CPU101は、マイクユニット120により得られた音声データを音声処理部121により符号化する。
そして、CPU101は、符号化した動画データと音声データとをRAM102に順次記憶してゆく。RAM102には、例えば、最新の4秒分の動画データと、この動画データに対応した音声データが記憶される。4秒分の動画データと音声データがRAM102に記憶された後は、RAM102に記憶されている動画データと音声データのうち古い動画データから順に破棄され、新しい動画データと音声データが記憶される。なお、RAM102に記憶された動画データを破棄するのではなく、古い動画データから順に上書きされるようにしてもよい。すなわち、静止画の記録指示が入力されるまでの間、RAM102には直近の4秒分の動画データと音声データが記憶されることになる。
次に、静止画の記録指示が入力されると、CPU101は、前述した静止画記録モードにおける静止画の記録動作を行うとともに、さらに、撮像装置100の各ブロックを制御して以下の動作を行わせる。
CPU101は、静止画の記録指示に応じて、RAM102に対する動画データと音声データの書き込みを停止させる。そして、その時点でRAM102に記憶された4秒分の符号化済みの動画データと音声データを記録媒体151に記録するように記録再生部150を制御する。この4秒分の動画データと音声データは、静止画の記録指示の直前の4秒間に得られたデータである。このとき、CPU101は、記録再生部150を制御し、記録媒体151に記録されている動画ファイルのうち、過去の静止画の記録指示に応じて記録された動画データを含む動画ファイルを検出する。そして、CPU101は、記録再生部150を制御し、検出された動画ファイルに格納された動画データのうち、最後に再生される動画データに続けて、今回記録する動画データが再生されるように記録する。
具体的には、記録再生部150は、まず今回の静止画の記録指示に対応する所定時間分の動画データを記録媒体151に記録する。そして、記録再生部150は、ファイルシステムにおけるFATを変更することにより、今回記録した動画データを、検出された動画ファイルと連結する。次に、検出された動画ファイルに格納された動画データのうち最後に再生される動画データの次に今回の静止画の記録指示に対応する動画データが再生されるように、動画ファイルのファイルヘッダに含まれる管理情報を変更する。
さらに、記録再生部150は、動画ファイルのファイルヘッダに、今回記録した、所定時間分の動画データの接続部分を示すチャプタ情報を書き込む。このチャプタ情報により、動画ファイルにおける、各所定時間分の動画データの接続部分が認識可能となる。そのため、接続部分を再生位置として指定することにより、そのチャプタ情報に対応する位置から動画を頭出しして再生させることができるようになる。本実施例では、動画ファイルに格納された動画データの先頭からチャプタに対応する位置までの経過時間、或いは、チャプタに対応する位置の動画データの読み出しアドレスが、チャプタ情報として記録される。
このように、本実施例の撮像装置100は、静止画の記録指示に応じたタイミングで撮像された、所定時間分の動画データを記録媒体151に記録する。また、撮像装置100は、この所定時間分の動画データを、既に記録媒体151に記録されている動画ファイルの動画データに連結させる。この動画ファイルは、複数の記録指示により、間隔をあけて撮影され、連結された複数の動画データを含んでいるものとなる。ここで、本実施形態では、動画データを符号化するための符号化単位としてのGOPを15フレームとしている。そして、少なくとも1つのチャプタに対応する動画データは、複数のGOPを含む。そして、本実施形態では、GOPを単位として1チャプタの動画データの記録を停止する。そのため、1GOPの途中にチャプタの境界が含まれない。即ち、静止画モードにおいて記録される動画データは、GOPを単位として記録停止位置が決定される。
なお、静止画の記録指示の前後に対応する動画データを記録する場合には、静止画記録の後に、更に、撮像部110によって撮像された画像を動画として圧縮して動画データを生成して、静止画記録開始前の動画データと連結した状態で記録媒体に記録する。また、静止画記録開始の指示の後に対応する動画データを記録する場合には、静止画記録の後に再び撮像部110によって撮像された画像を動画として圧縮して動画データを生成して、記録媒体に記録する。いずれの場合も、記録媒体に記録された動画ファイルの動画データに連結するように動画データを記録する。
次に、再生モードについて、説明する。
操作部104により再生モードが設定されると、CPU101は、再生状態に移行させるように制御信号を撮像装置100の各ブロックに送信し、以下のような動作をさせる。
記録再生部150は、記録媒体151に記録された、符号化された動画データと符号化された音声データとからなる動画ファイルを読み出す。CPU101は読み出された符号化された動画データと符号化された音声データとを、RAM102に記憶する。そして、CPU101は、符号化された動画データを復号するように符号化処理部130を制御する。また、CPU101は、符号化された音声データを復号するように音声処理部121を制御する。
そして、CPU101は、符号化処理部130によって復号された動画データの各フレームデータを表示制御部141に送り、表示部140に各フレームの画像を表示させる。また、音声処理部121で、復号された音声データをスピーカユニット122に送信し、音声データに対応する音声を出力させる。
以上のように、本実施例の撮像装置100は、再生モードにおいて動画ファイルを再生して、動画ファイルの動画データに基づく画像を表示部140に表示する。
本実施例の撮像装置100は、再生モードにおいて、さらに動画ファイルの動画データを編集することができる。この編集動作については、後述する。
<動画データについて>
続いて、動画ファイルの構造について説明する。ここでは、動画記録モードで記録された動画ファイルと、静止画記録モードで記録された動画ファイルの構造について説明する。図2は、各動画ファイルの動画データの各フレームを時系列に並べて表現したものである。
図2において、動画ファイル210は、動画記録モードで記録された動画ファイルを示しており、動画ファイル220は、静止画記録モードで記録された動画ファイルを示している。動画記録モードで記録された動画ファイル210は、撮像部110により得られた画像データを動画データとして符号化した動画データを含む。動画ファイル210は、1回の記録開始の指示から記録停止の指示までの時間に対応する動画データを含む。一方、静止画記録モードで記録された動画ファイル220は、異なるタイミングで出力された複数の記録指示により記録された、複数の所定時間分の動画データを含む。言い換えれば、動画記録モードで記録された動画ファイル210は、連結されていない動画データを含み、静止画記録モードで記録された動画ファイル220は、連結された動画データを含む。そして、静止画記録モードで記録された動画ファイル220に対しては、所定時間分の動画データの単位でチャプタが設定されている。
動画ファイル210には、たとえば1秒間に30フレームの動画データが格納されている。また、動画ファイル210には、全体として12秒分、360フレームの動画データが格納されている。また、前述したように、動画ファイル210は、動画記録モードでの一回の記録指示により記録された12秒の動画データを含む。動画ファイル210には、チャプタ情報は格納されていない。
動画ファイル220には、たとえば1秒間に30フレームの動画データが格納されている。また、動画ファイル220には、全体として12秒分、360フレームの動画データが格納されている。この動画ファイル220には、静止画記録モードにおいて、3回の静止画の記録指示に対応した、三つの所定時間(4秒)分の動画データが連結された状態で格納されている。すなわち、動画ファイル220には、いずれも異なるタイミングで出力された記録指示により記録された4秒の動画データ動画データ221、動画データ222、動画データ223が、連結された状態で格納される。
この動画ファイル220は、動画データ221から動画データ223に対応するそれぞれの動画データを示すチャプタ情報が、ファイルヘッダ等の管理領域に格納されている。なお、チャプタ情報は、対応するチャプタの動画の先頭からの時間や、対応するチャプタの動画の先頭からの位置により表現されている。すなわち、チャプタ情報を参照することで、チャプタに対応する動画データの先頭を特定することができる。例えば、動画ファイル220の再生中にユーザにより頭出しの指示があった場合、チャプタ情報に基づいて、直前、或いは、次のチャプタの先頭にスキップさせることが可能となる。
<動画ファイルの編集>
次に、動画ファイルの編集時の動作について説明する。ここでは、図2の動画ファイル210、動画ファイル220の編集を行う場合の動作について説明する。ここでいう編集処理はたとえば、動画ファイルに含まれる動画データの一部分を切り取り、保存をおこなう処理を含む。
図3A、図3Bは、本実施例の動画ファイルの編集動作を示すフローチャートである。図3A、図3Bの処理は、CPU101が、撮像装置100の各ブロックを制御することで実行される動作を示している。なお、図3Aの処理は、再生モードにおいて動画ファイルの編集開始の指示が入力されたことに応じて開始する。
まず、CPU101は、記録媒体151に格納されている複数の動画ファイルの先頭部分のデータを読みだすように記録再生部150を制御する。記録再生部150は、読みだされた動画ファイルを、RAM102に格納する(S301)。
次に、CPU101は、RAM102に格納された複数の動画ファイルの先頭の動画データを符号化処理部130に復号させる(S302)。復号化された先頭の動画データはYCbCrの輝度、色差成分の画像データである。符号化処理部130は、この復号化された画像データをRAM102に格納する。
次に、CPU101は、表示制御部141を制御し、RAM102に格納された画像データを読み出し、複数の動画ファイルの代表画像として表示部140に表示させる(S303)。これにより、複数の動画ファイルの代表画像の一覧画面を表示部140に表示させることができる。図4(a)は、動画ファイルの代表画像の一覧画面を示している。図4(a)において、画像401は、図2の動画ファイル210の代表画像を示している。また、画像403は、図2の動画ファイル220の代表画像を示している。また、カーソル402は、選択中の画像を示すためのカーソルである。図4(a)においては、画像401が選択されている状態を示している。ユーザは操作部104を操作することによりカーソル402を移動させることができる。
次に、CPU101は、ユーザによる操作部104の操作をチェックし、カーソル402を移動させて、表示された複数の動画ファイルの代表画像のうちの選択された代表画像を確認する(S304)。
次に、CPU101は、操作部104の決定ボタンが押されたか否かを判定する。すなわち、CPU101は、カーソル402がいずれかの代表画像を選択した状態で決定ボタンが押されたか否かを判定する(S305)。これにより編集対象の動画ファイルが決定されることになる。なお、決定ボタンが押されない場合は、S304に処理を戻す。
次に、CPU101は、選択された代表画像に対応する動画ファイルのファイルヘッダを記録媒体151から読み出すように記録再生部150を制御する。記録再生部150は、読みだしたファイルヘッダをRAM102に記憶させる(S306)。
次に、CPU101は、RAM102に記憶されたファイルヘッダに含まれる管理情報を解析し、動画ファイルの動画再生情報の取得を行う(S307)。動画再生情報は、以下の情報を含む。
・総フレーム数:TotalFrame
・チャプタ総数:TotalChapNum
・各チャプタの先頭フレームの位置:ChapList[i](iは0〜TotalChapNum−1)
・GOP数:GopNum
なお、ファイルヘッダを解析してもチャプタ情報が存在しなかった場合は、TotalChapNumには0がセットされる。
たとえば、図2における動画ファイル210であれば、チャプタが設定されていないので、動画再生情報は以下の通りとなる。
・TotalFrame=360
・TotalChapNum=0
・ChapList[0]=0、
・GopNum=15
一方、図2における動画ファイル220であれば、チャプタが設定されており、3つのチャプタを有するので、動画再生情報は以下の通りとなる。
・TotalFrame=360
・TotalChapNum=3
・ChapList[0]=0、ChapList[1]=120、ChapList[2]=240
・GopNum=15
次に、CPU101は、選択された動画データにおける切り取り開始位置に対応したフレーム(以下イン点)を示す変数EditStartFrameに0を設定する。また、CPU101は、切り取り終了位置に対応したフレーム(以下アウト点)を示す変数EditEndFrameにTtalFrame−1(ここでは359)を設定する(S308)。
次に、CPU101は、表示部140に編集用のユーザインタフェース画面を表示するように表示制御部141を制御する(S309)。図4(b)は編集画面を示している。図4(b)において、タイムバー411は、選択された動画ファイルに含まれる動画データの再生時間を示す画像である。タイムバー411の左端から右端までが動画データの全再生時間を示している。タイムバー411は、ユーザによって指定された編集位置(イン点、アウト点)に対応したフレームが、動画全体のどの位置に相対的に存在しているかを示すための画像である。開始インジケータ412は、動画データの切り取り開始位置を指定するためのインジケータである。開始インジケータ412は、後述のように、ユーザによるイン点の移動指示によりタイムバー411上を移動する。ユーザは、開始インジケータ412を移動させることにより任意のフレームをイン点として指定することができる。また、終了インジケータ413は、切り取り終了位置を指定するためのインジケータである。終了インジケータは、後述のように、ユーザによるアウト点の移動指示によりタイムバー411上を移動する。ユーザは、終了インジケータを移動させることにより任意のフレームをアウト点として指定することができる。
編集処理において、イン点より前の動画データが消去される。また、アウト点より後の動画データが消去される。
なお、ウィンドウ410には、イン点、或いは、アウト点のうち、直近に指定されたフレームに対応する画像が表示される。また、図4Bにおいて、アイコン414は切り取り開始位置の指定動作に切り替える指示を行うためのアイコン、アイコン415は切り取り終了位置の指定動作に切り替える指示を行うためのアイコンである。また、アイコン416は保存を指示するためのアイコンであり、アイコン417は現在の処理を終了し、前の処理に戻ることを指示するためのアイコンである。カーソル418は、ユーザがアイコン414−417の何れかを選択するために用いられる。
図4(b)の画面419は、ユーザが操作部104によりアイコン414を指定して、切り取り開始位置の設定動作に切り替えた場合に表示される画面である。また、画面420は、ユーザが操作部104によりアイコン415を指定して、切り取り終了位置の設定動作に切り替えた場合に表示される画面である。
次に、CPU101は、編集の終了の指示が操作部104から入力されたか否かを判定する。編集の終了の指示が入力された場合には、処理をS301に戻す。
一方、S310で編集の終了の指示が入力されなかった場合は、CPU101は、操作部104からの入力により、イン点の設定指示があったか否かを判定する(S311)。イン点の設定指示があった場合は、処理をS315に移す。
一方、S311でイン点の設定指示が無い場合は、CPU101は、操作部104から入力により、アウト点の設定指示があったか否かを判定する(S312)。アウト点の設定指示があった場合は、処理をS326に移す。
一方、S312でアウト点の設定指示が無い場合は、CPU101は、操作部104からの入力により、保存が指示されたか否かを判定する(S313)。保存が指示されなかった場合は、処理をS309に戻す。一方、保存が指示された場合は、処理をS314に移す。なお、S314の保存処理については後述する。
本実施例では、編集対象の動画ファイルにチャプタを示す情報が含まれているか否かに応じて、イン点、及び、アウト点の移動指示があった場合の、開始インジケータ412、終了インジケータ413の移動量が変わる。以下、この動作について具体的に説明を行う。ユーザは、例えば、切り取り開始位置の設定画面を表示した状態で、操作部104における十字キーの左右ボタンを操作することにより、イン点の変更を指示することができる。また、ユーザは、例えば、切り取り終了位置の設定画面を表示した状態で、操作部104における十字キーの左右ボタンを操作することにより、アウト点の変更を指示することができる。CPU101は、ユーザにより指定されたイン点、アウト点の位置を記憶する。
S311で切り取り開始位置の設定が指示された場合、CPU101は、画面419のように、切り取り開始位置の設定用の画面を表示部140に表示させる。次に、CPU101は、操作部104が操作されて、イン点の移動が指示されたか否かを判別する(S315)。なお、切り取り開始位置の設定用画面に切り替えた直後の開始インジケータ412の表示位置は、タイムバー411の左端とする。イン点の移動が指示された場合、CPU101は、S307にて取得したTotalChapNumが0であるか否かを判定する(S316)。TotalChapNumが0であった場合は処理をS317に移し、TotalChapNumが0でなかった場合は処理をS322に移す。編集対象の動画ファイルが、図2の動画210のようにチャプタが設定されていない動画ファイルである場合、TotalChapNumが0となる。一方で、編集対象の動画ファイルが、図2の動画220のようにチャプタが設定されている動画ファイルである場合、TotalChapNumは0ではなく、チャプタ数を示す値が格納される。
なお、ここでは、TotalChapNumに基づいて、編集対象の動画ファイルにチャプタが設定されているか否かを判別したが、これ以外の方法を用いてもよい。例えば、動画ファイルに格納された動画データが、複数の所定時間の動画データから構成されるか否かを示す情報をファイルのヘッダに格納しておき、この情報を用いて判定を行うようにしてもよい。或いは、チャプタが設定されているか否かに応じて動画ファイルのファイル名を変更する構成とし、ファイル名に基づいて判定する構成としてもよい。
S316で、TotalChapNumが0である場合、CPU101は、EditStartFrame+1の値がTotalFrameを超えているか判定する(S317)。EditStartFrame+1の値がTotalFrameを超えていればS318に、そうでない場合はS319に処理を進める。
S317で、EditStartFrame+1の値がTotalFrameを超えている場合、CPU101は、EditStartFrameにTotalFrame−1を設定する(S318)。一方、S317で、EditStartFrame+1の値がTotalFrameを超えていない場合、CPU101は、EditStartFrameに所定値(ここでは1)を加算する(S319)。この処理により、イン点の位置が変更される。
そして、CPU101は、設定されたEditStartFrameの値に応じて開始インジケータ412の位置を移動する(S320)。開始インジケータ412の移動先の座標は以下のように求められる。即ち、図4(e)に示すように、表示部104に表示されるタイムバー411の横幅をTimeBarWidth、開始インジケータ412のタイムバー411の左端を0とした相対座標をxsとする。この場合、開始インジケータの座標xsは、
xs=(EditStartFrame×TimeBarWidth)/TotalFrame
となる。
次に、CPU101は、編集対象の動画ファイルのEditStartFrameに対応するフレームを復号するのに必要なデータを読出すように記録再生部150を制御し、符号化処理部130により復号させる。そして、符号された画像をウィンドウ410に表示するように表示制御部141を制御する(S321)。即ち、ユーザにより指定されたイン点に対応する画像が表示される。たとえば、ユーザにより、イン点を画面の右方向(動画における後ろ方向)に移動させる指示が入力された場合、図4(b)の画面410の状態から、開始インジケータ412が右方向に移動され、図4(b)の画面419の状態になる。
一方、S316で、TotalChapNumが0でない場合、CPU101は、ChapListからEditStartFrameよりも大きいチャプタ開始フレームを探す(S322)。例えば、動画220において、現在のEditStartFrameが0である場合、次のチャプタ開始位置としてChapList[1]=120、が探索される。ここでは、探索されたフレームをNextChapterFrameと呼ぶものとする。
次に、CPU101は、探索されたNextChapterFrameをEditStartFrameに設定する(S323)。すなわち、EditStartFrameに120が設定される。
その後、CPU101は、処理をS320、S321に進める。この場合の表示画面の状態遷移を示したものが、図4(c)の画面430、434である。画面430は、編集対象として、動画220のように、チャプタが設定された動画が選択された場合に、S309で表示される編集画面を示している。そして、この状態で、イン点の右方向への移動が指示された場合、画面430の状態から、開始インジケータ412が右方向に移動され、画面434の状態となる。図4(c)に示すように、編集対象の動画が、チャプタが設定された動画である場合、イン点の移動の指示に応じて、開始インジケータ412が各チャプタの開始フレームに対応した位置へ移動する。また、画面430に表示された画像430Aは、選択された動画の先頭のフレームを示す画像である。一方、画面434に表示された画像434Aは、開始インジケータ412の位置、すなわち、EditStartFrame=120に対応するフレームを示す画像である。
このようにイン点を変更した後、或いは、S315でイン点の変更指示が無かった場合、CPU101は、前の処理に戻るためのアイコン417が操作され、戻る指示があったか否かを判別する(S324)。戻る指示が無い場合は、S315に処理を戻す。また、戻る指示があった場合、CPU101は、現在のEditStartFrameの値をRAM102に保存し(S325)、S309に戻って編集画面を表示部140に表示する。
一方、S312で、ユーザから切り取り終了位置の設定が指示された場合、CPU101は、画面420のように、切り取り終了位置の設定用の画面を表示部140に表示させる。次に、CPU101は、操作部104が操作されて、アウト点の移動が指示されたか否かを判別する(S326)。なお、切り取り終了位置の設定用画面に切り替えた直後の終了インジケータ413の表示位置は、タイムバー411の右端とする。アウト点の移動が指示された場合、CPU101は、S307にて取得したTotalChapNumが0であるか否かを判定する(S327)。TotalChapNumが0であった場合は処理をS328に移し、TotalChapNumが0でなかった場合は処理をS333に移す。ここで、編集対象の動画ファイルが、図2の動画210のようにチャプタが設定されていない動画ファイルである場合、TotalChapNumが0となる。一方、編集対象の動画ファイルが、図2の動画220のように、チャプタが設定されている動画ファイルである場合、TotalChapNumは0ではなく、チャプタ数を示す値が格納される。
S327で、TotalChapNumが0である場合、CPU101は、EditEndFrame−1が0より小さいか否かを判定する(S328)。EditEndFrame−1が0より小さい場合はS329に、そうでなければS331に処理を進める。
S328で、EditEndFrame−1の値が0より小さい場合、CPU101は、EditEndFrameに0を設定する(S329)。一方、S328で、EditEndFrame−1の値が0より小さくない場合、CPU101は、EditEndFrameから1を減算する(S330)。
そして、CPU101は、設定されたEditEndFrameの値に応じて終了インジケータ413の位置を移動する(S331)。終了インジケータ413の移動先の座標は、開始インジケータと同様、以下のように求められる。図4(e)に示す様にタイムバー411の画像表示装置上の横幅をTimeBarWidth、終了インジケータ413のタイムバー411の左端を0とした相対座標をxeとする。この場合、終了インジケータ413の座標xeは、
xe=(EditEndFrame×TimeBarWidth)/TotalFrame
となる。
次に、CPU101は、編集対象の動画ファイルのEditEndFrameに対応するフレームを復号するのに必要なデータを読出すように記録再生部150を制御し、符号化処理部130により復号させる。そして、CPU101は、復号された画像をウィンドウ410に表示するように表示制御部141を制御する(S332)。たとえば、ユーザにより、アウト点を画面の左方向(動画における前方向)に移動させる指示が入力された場合、図4(a)の画面410の状態から、終了インジケータ413が左方向に移動され、画面420の状態になる。
一方、S327で、TotalChapNumが0でない場合、CPU101は、ChapListからEnditEndFrameよりも小さいチャプタ開始フレームを探す。例えば、動画220において、EditEndFrameが359である場合、ChapList[2]=240、が探索される。ここでは、探索されたフレームをPrevChapFrameと呼ぶものとする。
次に、CPU101は、探索されたPrevChapFrameをEditEndFrameに設定する。すなわち、EditEndFrameに240が設定される。
その後、CPU101は、処理をS331、S332に進める。この場合の表示画面の状態遷移を示したものが、図4(c)の画面430、436である。画面430は、編集対象として、動画220のように、チャプタが設定された動画が選択された場合に、S309で表示される画面を示している。そして、この状態で、アウト点の左方向への移動が指示された場合、画面430の状態から、終了インジケータ413が左方向に移動され、画面436の状態となる。図4(c)に示すように、編集対象の動画が、チャプタが設定された動画である場合、アウト点の移動の指示に応じて、終了インジケータ413が各チャプタの開始フレームに対応した位置へ移動する。また、画面430に表示された画像430Aは、選択された動画の先頭のフレームを示す画像である。一方、画面436に表示された画像436Aは、終了インジケータ413の位置、すなわち、EditEndFrame=240に対応するフレームを示す画像である。
このようにアウト点を変更した後、或いは、S326でアウト点の変更指示が無かった場合、CPU101は、前の処理に戻るためのアイコン417が操作され、戻る指示があったか否かを判別する(S335)。戻る指示が無い場合は、S326に処理を戻す。また、戻る指示があった場合、CPU101は、現在のEditEndFrameの値をRAM102に保存し(S336)、S309に戻って編集画面を表示部140に表示する。
このように、編集対象の動画が、チャプタの設定されていない動画ファイルである場合は、切り取り開始位置または終了位置の移動指示に応じて、切り取り開始位置、終了位置を1フレームずつ変更する。また、切り取り開始位置または終了位置の移動指示に応じて、開始インジケータ412、終了インジケータ413の表示位置を1フレーム分ずつ移動させる。なお、本実施例においては、切り取り開始位置、終了位置を1フレームずつ移動したが、2フレームずつ移動させてもよい。或いは、切り取り開始位置、終了位置を15フレーム分ずつ移動させてもよいし、1秒分ずつ移動させてもよい。
一方で、編集対象の動画が、チャプタの設定されている動画ファイルである場合、切り取り開始位置または終了位置の移動指示に応じて、切り取り開始位置、終了位置を、チャプタの先頭に変更する。また、切り取り開始位置または終了位置の移動指示に応じて、開始インジケータ412、終了インジケータ413がチャプタの開始位置に移動する。すなわち、チャプタの設定されている動画ファイルについては、ユーザは、簡単な操作で、切り取り開始位置や終了位置をチャプタ単位で設定することが可能となる。特に、動画220のように、連結された動画データからなる動画ファイルの場合には、1回の記録指示により記録される動画の単位で、容易に編集位置を設定することができる。
次に、S314の保存処理について、図5のフローチャートを用いて説明する。本実施例の撮像装置100は、動画データの編集において、動画ファイルの動画データを復号化せずに編集する第1の編集モードと、動画ファイルの動画データを復号化して編集する第2の編集モードとを有している。図5においては、S507、S508の処理が第1の編集モードの処理に対応し、S509が第2の編集モードの処理に対応する。図5の処理は、CPU101が撮像装置100の各ブロックを制御することで実行される動作である。
CPU101は、保存処理が開始されるとまず、保存が指示された、編集対象の動画ファイルのTotalChapNumが0であるか否かを判定する(S501)。TotalChapNumが0である場合は処理をS502に移し、TotalChapNumが0でない場合は処理をS503に移す。ここで、編集対象の動画が、図2の動画210のようにチャプタが設定されていない動画ファイルである場合、TotalChapNumが0となる。一方で、編集対象の動画が、図2の動画220のように、チャプタが設定されている動画ファイルである場合、TotalChapNumに対し、チャプタ数に対応した値が格納される。
S501で、TotalChapNumが0である場合、CPU101は、表示部140に、保存確認画面1を表示させる。保存確認画面1は、図4(d)の画面444に示すような画面である。具体的には、保存アイコン440、再圧縮して保存アイコン441、キャンセルアイコン442が表示される。ユーザは操作部104を操作してカーソル443を移動させることにより、これらのアイコンの何れかを選択することができる。また、切り取り開始位置から切り取り終了位置まで、編集対象の動画を再生させるための指示を入力するためのアイコン421が表示される。ユーザがアイコン421を操作して、動画の再生が指示された場合、CPU101は、編集対象の動画ファイルにおける、切り取り開始位置から、切り取り終了位置までの動画データを再生し、表示部140に表示させる。
一方、S501で、TotalChapNumが0でない場合、CPU101は、表示部140に、保存確認画面2を表示させる。保存確認画面2は、図4(d)の画面445に示すような画面である。具体的には、保存アイコン440、キャンセルアイコン442が表示されている。なお、保存確認画面2では、再圧縮して保存アイコン441が表示されない。すなわち、動画220のようにチャプタが設定されている動画ファイルの場合、再圧縮して保存する処理を選択することができないようにしている。
S502またはS503において、保存確認画面を表示部140させると、CPU101は、次に保存アイコン440が選択されたか否かを判定する(S504)。保存アイコン440が選択された場合は、処理をS507へ、選択されていない場合は、処理をS505へ移行させる。
S504で、保存アイコン430選択されていない場合、CPU101は、再圧縮して保存アイコン441が選択されたか否かを判定する(S505)。再圧縮して保存アイコン441が選択された場合は処理をS509へ、選択されていない場合は、処理をS506へ移行させる。なお、保存確認画面2が表示されている場合には、再圧縮して保存アイコン441が表示されていないので、処理をS506に移行させる。
S505で、再圧縮して保存アイコン441が選択されていない場合は、CPU101は、キャンセルアイコン442が選択されたか否かを判定する。キャンセルアイコン442が選択された場合は処理を図3のS309へ、選択されていない場合は、処理をS504へ移行させる。
続いて、S504で、保存アイコン440が選択された場合について説明する。CPU101は、切り取り開始位置と切り取り終了位置を、それぞれ、GOP単位の位置となるように変更する処理を行う。即ち、CPU101は、S307で取得した、動画ファイルのGop数(GopNum)と、S325、S336でそれぞれ保存されたEditStartFrame、EditEndFrameを検出する。そして、CPU101は、切り取り開始位置がGOPの整数倍のフレームでない場合、その直前のGOP境界の位置に変更する。また、切り取り終了位置がGOPの整数倍のフレームでない場合、次のGOPの境界の位置に変更する。
すなわち、CPU101は、以下の式を用いて切り取り開始位置、切り取り終了位置を設定する。
切り取り開始位置=floor(EditStartFrame/GopNum)×GopNum
切り取り終了位置=ceil(EditEndFrame/GopNum)×GopNum
たとえば、図3の処理により設定されたEditStartFrameが25であった場合は、EditStartFrameが15として算出される。また、終了インジケータによって指定されたEditEndFrameが189であった場合は、EditEndFrameが195として算出される。
H.264やMPEG方式では、動画の符号化単位がGOPである。再圧縮をせずに動画を編集するため、本実施例では、切り取り開始位置と切り取り終了位置を、GOP単位となるように変更する。
次に、CPU101は、記録媒体151から、編集対象の動画ファイルを読み出すように記録再生部150を制御する。そして、読みだされた動画ファイルの動画データの切り取り開始位置から切り取り終了位置までのフレームに対応する動画データと音声データを切り出す。そして、CPU101は、切り出した動画データと音声データと、必要なヘッダ情報とから、新たな動画ファイルを生成し、記録媒体151に記録するように記録再生部150を制御する。その後、処理をS301に移行させる。このように動画を編集する場合には、動画データを復号化し、必要なフレームのみを抽出して再符号化する作業が不要なため、編集後の動画ファイルを容易に生成することができる。
次に、S505で、再圧縮して保存アイコン441が選択された場合は、CPU101は、切り取り開始位置から切り取り終了位置までのフレームを含む動画ファイルを生成する。そのために、CPU101は、選択された動画ファイルを記録媒体151から読み出すように記録再生部150を制御する。そして、読みだされた動画ファイルをRAM102に格納する。そして、RAM102に格納された動画データと音声データを順次、符号化処理部130に復号化させる。そして、復号化された動画データと音声データをRAM102に格納(または、記録媒体151に格納)させる。そして、復号化された動画データのうち、切り取り開始位置から切り取り終了位置に対応する動画データと、対応する音声データとを符号化処理部130より符号化する。このように、再圧縮された動画データと音声データが生成される。次に、CPU101は、再圧縮された動画データと音声データに必要なヘッダを付加した動画ファイルを記録媒体151に記録するように記録再生部150を制御する。そして、処理をS301に戻す。このように、再圧縮を行う場合には、編集対象の動画ファイルの動画データを一旦復号化し、再符号化させる。そのため、切り取り開始位置より前、切り取り終了位置より後のフレームの画像を含まない動画データを生成することができる。すなわち、フレーム単位での編集を行うことができる。
なお、本実施例では、保存確認画面2が表示されている場合、すなわち、動画ファイル220のようにチャプタが設定されている動画ファイルを編集する場合には、前述したようにチャプタ単位で、開始インジケータ、終了インジケータが移動する。ここで、前述したように、動画ファイル220には、静止画記録モードにおいて、複数の記録指示により記録された動画データが、連結された状態で格納されている。そして、1GOPの途中にチャプタの境界が含まれない。すなわち、切り取り開始位置、切り取り終了位置は、もともと、GOPの単位で編集できる位置に設定される。そのため、再圧縮の必要がない。従って、保存確認画面2においては、再圧縮して保存のアイコンが表示されないようにしている。
以上説明したように、本実施例の撮像装置100においては、動画編集を行う際に、選択された動画ファイルに応じて、編集位置の変更のための指示があった場合の移動量を変える。
具体的には、チャプタが設定されていない動画ファイルを編集する場合には、切り取り開始位置、停止位置の移動指示により、所定数のフレーム単位で切り取り開始位置、停止位置を移動する。また、移動された切り取り開始位置、停止位置に応じて、インジケータの位置も変更して表示される。一方、チャプタが設定されている動画ファイルを編集する場合には、切り取り開始位置、停止位置の移動指示により、チャプタの開始位置に切り取り開始位置、停止位置が移動する。そのため、ユーザは、簡単な操作で、編集対象の動画に適した、編集のための切り取り開始位置、停止位置を設定することができるようになる。即ち、チャプタの設定されていない動画ファイルを編集する場合には、所定のフレーム単位で動画を編集することができる。一方、チャプタの設定されている動画ファイルを編集する場合には、チャプタ単位で動画を編集することができる。そのため、ユーザは、動画編集をより容易に行うことができるようになる。
(他の実施形態)
上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。
また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。

Claims (13)

  1. 記録媒体に記録された動画ファイルに含まれる動画データの編集位置を指定する手段であって、ユーザからの前記編集位置の変更のための所定の指示に応じて前記編集位置を変更する指定手段と、
    前記指定手段により指定された前記編集位置に応じて、前記動画ファイルの編集処理を行う処理手段とを備え、
    前記指定手段は、複数の記録指示により記録された複数の動画データが結合されている一つの動画データを含む第1の動画ファイルの編集位置を指定する場合、前記所定の指示に応じて、前記第1の動画ファイルに含まれる前記複数の動画データの結合位置に対応した位置の何れかに前記編集位置を変更し、一つの記録指示により記録された一つの動画データを含む第2の動画ファイルの編集位置を指定する場合、前記所定の指示に応じて、前記第2の動画ファイルに含まれる動画データの所定数のフレームを単位として前記編集位置を変更することを特徴とする画像処理装置。
  2. 編集対象の動画データの再生時間における、前記編集位置を示すインジケータを表示装置に表示する表示制御手段を備え、
    前記表示制御手段は、前記指定手段により変更された前記編集位置に応じて、前記表示装置に表示される前記インジケータの位置を変更することを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の動画ファイルに格納された一つの動画データにおいては、それぞれが所定時間の複数の動画データが結合されていることを特徴とする請求項1に記載の画像処理装置。
  4. 前記指定手段は、編集対象の動画ファイルが、前記第1の動画ファイルと前記第2の動画ファイルの何れであるかを判別し、判別の結果に基づいて、前記所定の指示による、前記編集位置の変更動作を決めることを特徴とする請求項1に記載の画像処理装置。
  5. 前記編集処理は、前記編集位置よりも前の動画データを前記記録媒体から消去する処理と、前記編集位置よりも後の動画データを前記記録媒体から消去する処理とを含むことを特徴とする請求項1に記載の画像処理装置。
  6. 前記編集位置は、第1の位置と、第2の位置とを含み、
    前記編集処理は、前記第1の位置よりも前の動画データを前記記録媒体から消去する処理と、前記第2の位置よりも後の動画データを前記記録媒体から消去する処理とを含み、
    前記指定手段は、一つの前記動画ファイルについて、前記第1の位置と前記第2の位置とを共に指定することを特徴とする請求項5に記載の画像処理装置。
  7. 前記記録媒体に動画データを記録する記録手段を備え、
    前記記録手段は、一つの前記記録指示により所定時間の前記動画データを記録する第1の記録モードと、前記記録指示により動画データの記録を開始し、記録停止の指示に応じて前記動画データの記録を停止する第2の記録モードとを有し、
    前記第1の記録モードにおいて記録される前記動画データが前記第1の動画ファイルに格納され、前記第2の記録モードにおいて記録される前記動画データが前記第2の動画ファイルに格納されることを特徴とする請求項1に記載の画像処理装置。
  8. 記録媒体に記録された動画ファイルに含まれる動画データの編集位置を指定する手段であって、ユーザからの前記編集位置の変更のための所定の指示に応じて前記編集位置を変更する指定手段と、
    前記指定手段により指定された前記編集位置に応じて、前記動画ファイルの編集処理を行う処理手段とを備え、
    前記指定手段は、前記動画データの頭出しのための位置が設定されている場合、前記所定の指示に応じて、前記頭出しのための位置の何れかに前記編集位置を変更し、前記動画データの頭出しのための位置が設定されていない場合、前記所定の指示に応じて、前記所定数のフレームを単位として前記編集位置を変更することを特徴とする画像処理装置。
  9. 前記頭出しの位置は、前記動画データにおける所定時間間隔で設定されていることを特徴とする請求項8に記載の画像処理装置。
  10. 前記指定手段は、編集対象の動画ファイルに含まれる動画データの頭出しのための位置が設定されているか否かを判別し、判別の結果に基づいて、前記所定の指示による、前記編集位置の変更動作を決めることを特徴とする請求項8に記載の画像処理装置。
  11. 前記記録媒体に動画データを記録する記録手段を備え、
    前記記録部は、一つの前記記録指示により所定時間の前記動画データを記録する第1の記録モードと、前記記録指示により動画データの記録を開始し、記録停止の指示に応じて前記動画データの記録を停止する第2の記録モードとを有し、
    前記第1の記録モードにおいて記録される動画データが、前記頭出しの位置が設定された動画データとして記録され、前記第2の記録モードにおいて記録される動画データが、前記頭出しの位置が設定されていない動画データとして記録されることを特徴とする請求項8に記載の画像処理装置。
  12. 記録媒体に記録された動画ファイルに含まれる動画データの編集位置を指定する工程であって、ユーザからの前記編集位置の変更のための所定の指示に応じて前記編集位置を変更する指定工程と、
    前記指定工程により指定された前記編集位置に応じて、前記動画ファイルの編集処理を行う処理工程とを有し、
    前記指定工程において、複数の記録指示により記録された複数の動画データが結合されている一つの動画データを含む第1の動画ファイルの編集位置を指定する場合、前記所定の指示に応じて、前記第1の動画ファイルに含まれる前記複数の動画データの結合位置に対応した位置の何れかに前記編集位置を変更し、一つの記録指示により記録された一つの動画データを含む第2の動画ファイルの編集位置を指定する場合、前記所定の指示に応じて、前記第2の動画ファイルに含まれる動画データの所定数のフレームを単位として前記編集位置を変更することを特徴とする画像処理方法。
  13. 記録媒体に記録された動画ファイルに含まれる動画データの編集位置を指定する工程であって、ユーザからの前記編集位置の変更のための所定の指示に応じて前記編集位置を変更する指定工程と、
    前記指定工程により指定された前記編集位置に応じて、前記動画ファイルの編集処理を行う処理工程とを有し、
    前記指定工程において、前記動画データの頭出しのための位置が設定されている場合、前記所定の指示に応じて、前記頭出しのための位置の何れかに前記編集位置を変更し、前記動画データの頭出しのための位置が設定されていない場合、前記所定の指示に応じて、前記所定数のフレームを単位として前記編集位置を変更することを特徴とする画像処理方法。
JP2014121913A 2013-08-09 2014-06-12 画像処理装置 Active JP6410483B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014121913A JP6410483B2 (ja) 2013-08-09 2014-06-12 画像処理装置
US14/453,038 US9595292B2 (en) 2013-08-09 2014-08-06 Image processing apparatus
RU2014132557/07A RU2584687C2 (ru) 2013-08-09 2014-08-06 Устройство обработки изображения
CN201410389256.6A CN104349062B (zh) 2013-08-09 2014-08-08 图像处理设备和图像处理方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013166506 2013-08-09
JP2013166506 2013-08-09
JP2014121913A JP6410483B2 (ja) 2013-08-09 2014-06-12 画像処理装置

Publications (3)

Publication Number Publication Date
JP2015057877A true JP2015057877A (ja) 2015-03-26
JP2015057877A5 JP2015057877A5 (ja) 2017-07-20
JP6410483B2 JP6410483B2 (ja) 2018-10-24

Family

ID=52448749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014121913A Active JP6410483B2 (ja) 2013-08-09 2014-06-12 画像処理装置

Country Status (4)

Country Link
US (1) US9595292B2 (ja)
JP (1) JP6410483B2 (ja)
CN (1) CN104349062B (ja)
RU (1) RU2584687C2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019009558A (ja) * 2017-06-22 2019-01-17 株式会社東芝 画像処理装置、画像編集システム及び画像処理方法
WO2023121154A1 (en) * 2021-12-24 2023-06-29 Samsung Electronics Co., Ltd. A method and system for capturing a video in a user equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008044518A1 (fr) * 2006-10-05 2008-04-17 Sony Corporation Dispositif de traitement de données, procédé de traitement de données et programme informatique
JP2009055618A (ja) * 2008-09-25 2009-03-12 Casio Comput Co Ltd 電子カメラ、及び電子カメラの制御プログラム
JP2009272873A (ja) * 2008-05-07 2009-11-19 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2010093687A (ja) * 2008-10-10 2010-04-22 Sony Corp 画像処理装置と画像処理方法および撮像装置とコンピュータ・プログラム
JP2011019084A (ja) * 2009-07-09 2011-01-27 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2012161012A (ja) * 2011-02-02 2012-08-23 Canon Inc 動画記録装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08186789A (ja) 1994-12-28 1996-07-16 Canon Inc 動画像データの編集方法及びその装置
JP3529599B2 (ja) * 1997-09-02 2004-05-24 株式会社東芝 符号化装置における編集可能点挿入方法および符号化装置
JP4060519B2 (ja) * 2000-08-15 2008-03-12 富士フイルム株式会社 平版印刷版の製造装置及び製造方法
JP4932493B2 (ja) * 2004-12-27 2012-05-16 パナソニック株式会社 データ処理装置
JP4791129B2 (ja) 2005-10-03 2011-10-12 ルネサスエレクトロニクス株式会社 画像符号化装置、画像符号化方法及び画像編集装置
JP4662148B2 (ja) 2005-11-11 2011-03-30 ソニー株式会社 送信装置、受信装置、送信方法、受信方法、送信プログラム、受信プログラム及び映像コンテンツのデータ構造
JP4207072B2 (ja) 2006-04-07 2009-01-14 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
US8639087B2 (en) * 2006-05-29 2014-01-28 Gvbb Holdings S.A.R.L. Moving image editing system and moving image editing method
JP4781176B2 (ja) * 2006-06-26 2011-09-28 キヤノン株式会社 映像再生装置及びその制御方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP4321628B2 (ja) * 2007-05-31 2009-08-26 ソニー株式会社 記憶装置、記憶方法および記憶プログラム、ならびに、データ処理装置、データ処理方法およびデータ処理プログラム
JP4924228B2 (ja) * 2007-06-19 2012-04-25 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP4519929B2 (ja) 2008-06-13 2010-08-04 株式会社東芝 情報処理装置およびリカバリ処理方法
JP5618702B2 (ja) * 2010-08-24 2014-11-05 キヤノン株式会社 記録装置及び記録方法
JP2012060280A (ja) 2010-09-07 2012-03-22 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008044518A1 (fr) * 2006-10-05 2008-04-17 Sony Corporation Dispositif de traitement de données, procédé de traitement de données et programme informatique
JP2009272873A (ja) * 2008-05-07 2009-11-19 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2009055618A (ja) * 2008-09-25 2009-03-12 Casio Comput Co Ltd 電子カメラ、及び電子カメラの制御プログラム
JP2010093687A (ja) * 2008-10-10 2010-04-22 Sony Corp 画像処理装置と画像処理方法および撮像装置とコンピュータ・プログラム
JP2011019084A (ja) * 2009-07-09 2011-01-27 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2012161012A (ja) * 2011-02-02 2012-08-23 Canon Inc 動画記録装置

Also Published As

Publication number Publication date
US9595292B2 (en) 2017-03-14
CN104349062A (zh) 2015-02-11
CN104349062B (zh) 2017-09-22
US20150043895A1 (en) 2015-02-12
JP6410483B2 (ja) 2018-10-24
RU2014132557A (ru) 2016-02-27
RU2584687C2 (ru) 2016-05-20

Similar Documents

Publication Publication Date Title
US9124860B2 (en) Storing a video summary as metadata
US8432965B2 (en) Efficient method for assembling key video snippets to form a video summary
US8446490B2 (en) Video capture system producing a video summary
JP2010153947A (ja) 画像生成装置、画像生成プログラム及び画像表示方法
JP5783737B2 (ja) 撮像装置および動画記録装置の制御方法
JP2013258510A (ja) 撮像装置並びにその制御方法及びプログラム
JP2008227744A (ja) ビデオサーバ及びビデオ編集システム
JP6410483B2 (ja) 画像処理装置
JP2012156587A (ja) 動画記録装置
JP2006309868A (ja) 再生装置および制御方法
JP5683301B2 (ja) 画像記録装置
JP5713701B2 (ja) 動画記録装置
JP6071357B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2008097727A (ja) 動画再生装置
JP6207203B2 (ja) 表示制御装置、表示制御装置の制御方法、プログラム及び記録媒体
JP6071358B2 (ja) 画像処理装置、画像処理方法、プログラム
JP6463967B2 (ja) 撮像装置及びその制御方法
JP6071399B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP6049369B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP5889459B2 (ja) 記録装置
JP6218489B2 (ja) 画像処理装置
JP2006295411A (ja) カメラ装置
JP2017121001A (ja) 画像処理装置、画像処理方法及びプログラム
JP2015035752A (ja) 画像処理装置
JP2013090008A (ja) 画像編集装置、カメラ及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170609

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180925

R151 Written notification of patent or utility model registration

Ref document number: 6410483

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151