JP4775322B2 - データ処理装置、データ処理方法およびデータ処理プログラム、ならびに、記録装置、記録方法および記録プログラム - Google Patents

データ処理装置、データ処理方法およびデータ処理プログラム、ならびに、記録装置、記録方法および記録プログラム Download PDF

Info

Publication number
JP4775322B2
JP4775322B2 JP2007141315A JP2007141315A JP4775322B2 JP 4775322 B2 JP4775322 B2 JP 4775322B2 JP 2007141315 A JP2007141315 A JP 2007141315A JP 2007141315 A JP2007141315 A JP 2007141315A JP 4775322 B2 JP4775322 B2 JP 4775322B2
Authority
JP
Japan
Prior art keywords
content data
data
candidate
division
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007141315A
Other languages
English (en)
Other versions
JP2008300906A5 (ja
JP2008300906A (ja
Inventor
篤 前
憲一郎 有留
幸雄 磯部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007141315A priority Critical patent/JP4775322B2/ja
Priority to US12/050,556 priority patent/US8687942B2/en
Priority to CN2008100982527A priority patent/CN101315802B/zh
Publication of JP2008300906A publication Critical patent/JP2008300906A/ja
Publication of JP2008300906A5 publication Critical patent/JP2008300906A5/ja
Application granted granted Critical
Publication of JP4775322B2 publication Critical patent/JP4775322B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/40Combinations of multiple record carriers
    • G11B2220/41Flat as opposed to hierarchical combination, e.g. library of tapes or discs, CD changer, or groups of record carriers that together store one title

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Image Analysis (AREA)

Description

この発明は、大容量の記録媒体に記録されたコンテンツデータを複数の記録媒体に分割してダビングする処理を行うデータ処理装置、データ処理方法およびデータ処理プログラム、ならびに、記録装置、記録方法および記録プログラムに関する。
近年では、記録媒体に記録された、例えば動画データからなるコンテンツデータを他の記録媒体にダビングできるようにした機器の普及が加速している。このような、ダビングが可能な機器は、大容量の記録媒体を内蔵し、この内蔵記録媒体に記録されたコンテンツデータを着脱可能な記録媒体(リムーバブルメディアと呼ぶ)にダビングすることで、外部に持ち出し可能としたり、アーカイブ化したりするのが一般的な利用法となる。
特許文献1には、記録媒体として内蔵ハードディスクと記録可能なタイプのDVDとを用いるようにした記録装置が記載されている。
特開2006−344321
内蔵記録媒体の記録容量は、リムーバブルメディアの記録容量に対して遙かに大きい場合が一般的である。また、近年では動画データのビットレートも、画像の高精細化などに伴い上昇傾向にある。そのため、1のリムーバブルメディアに記録しきれないデータ容量を持つコンテンツデータも増えてきている。
一例として、機器の内蔵記録媒体として数10GB(Giga Byte)乃至数100GB、若しくはそれ以上の記録容量を有するハードディスクを用い、この機器において、内蔵ハードディスクに記録されたコンテンツデータを、例えば記録可能なタイプのDVDや、機器に対して挿抜可能とされた不揮発性の半導体メモリにダビングする。
例えばダビングを行おうとしてるコンテンツデータのデータ容量がダビング先のリムーバブルメディアの記録容量よりも大きいなどのように、ダビングするコンテンツデータが1のリムーバブルメディアに記録しきれない場合のダビング制御について、幾つかの仕様が考えられている。
第1の例として、ダビングするコンテンツデータがダビング先の1のリムーバブルメディアに記録しきれないとされた場合に、ダビング動作を不可とする方法が考えられる。この場合には、例えば、ダビング対象のコンテンツデータのデータ容量がダビング先のリムーバブルメディアの記録容量よりも大きいのでダビングが不可であることをユーザに通知すると共に、ユーザ操作によるコンテンツデータの分割に誘導する。
第2の例として、機器側においてリムーバブルメディアの記録容量に応じてコンテンツデータを分割し、分割されたコンテンツデータを、複数のリムーバブルメディアにそれぞれダビングする方法が考えられる。この場合には、例えば、先ず最初のリムーバブルメディアにダビング可能なデータ容量だけコンテンツデータをダビングし、ダビングが中断されため追加のリムーバブルメディアが必要であることをユーザに通知する。
ところが、上述した第1の例の場合、コンテンツデータを1のリムーバブルメディアに記録可能なように分割する処理を、ユーザがマニュアル操作により行う必要があり、煩わしいという問題点があった。さらに、コンテンツデータ上における1のリムーバブルメディアに記録可能な境界が分かり難く、コンテンツデータのどの位置で分割すれば良いのか容易には分からないという問題点があった。
また、上述した第2の例の場合、コンテンツデータの分割位置が機器側により自動的に決められるため、分割位置の設定に関して、ユーザが面倒な操作を行う必要が無い。しかしながら、この第2の例の場合、分割位置が自動的に設定されてしまうため、コンテンツデータの重要な位置でリムーバブルメディアを交換しなければならない事態になるおそれがあるという問題点があった。例えば、コンテンツデータが動画データの場合、感動シーンの途中が分割位置に設定され、リムーバブルメディアの交換を行うようにされてしまう事態が考えられる。
したがって、この発明の目的は、コンテンツデータを自動的に分割して複数のリムーバブルメディアにダビングする際に、分割位置を適切に設定することができるようにしたデータ処理装置、データ処理方法およびデータ処理プログラム、ならびに、記録装置、記録方法および記録プログラムを提供することにある。
上述した課題を解決するために、第1の発明は、コンテンツデータを分割するようにしたデータ処理装置において、コンテンツデータは動画データを含み、動画データに含まれる顔画像の情報である解析結果がコンテンツデータに関連付けられ、評価関数と動画データの解析結果とに基づき、コンテンツデータの分割候補位置での評価値を算出する評価値算出部と、評価値算出部で算出される評価値と閾値とを比較する比較部と、コンテンツデータの所定単位毎に分割候補位置を取得する分割候補位置取得部と、比較部による比較結果に基づきコンテンツデータ上の分割位置を決定する制御部とを有し、評価値算出部は、ユーザから見えるコンテンツデータ内の再生の単位であるチャプタの先頭から所定の再生時間を経過した第1の位置と、チャプタの終端から所定の再生時間を遡った第2の位置とに基づき、チャプタの先頭から第1の位置までの区間と、第2の位置からチャプタの終端までの区間とに分割位置が決定されないように、評価値を算出するようにし、制御部は、比較部による比較の結果、第1の分割候補位置での評価値が閾値を超えない場合には、分割候補位置取得部により第2の分割候補位置を取得し、第1の分割候補位置での評価値が閾値を超える場合には、第1の分割候補位置に基づきコンテンツデータの分割位置を決定するデータ処理装置である。
第2の発明は、動画データを含み、動画データを解析した解析結果が関連付けられているコンテンツデータを、分割するための分割位置を決定するようにしたデータ処理装置において、コンテンツデータの分割候補位置に対応する評価値を算出する評価値算出部と、評価値算出部で算出される評価値と閾値とを比較する比較部と、比較部による比較結果に応じて分割候補位置に基づき分割位置を決定する制御部とを有し、評価値算出部は、動画データに含まれる顔画像の情報に基づき評価値を算出し、制御部は、分割候補位置に対応する評価値が閾値を超えるか否かに応じて、分割位置を決定し、ユーザから見えるコンテンツデータ内の再生の単位であるチャプタの先頭と、先頭から所定の再生時間経過した第1の位置との間の区間、または、チャプタの終端と、終端から所定の再生時間遡った第2の位置との間の区間に、分割位置が決定されないようにするデータ処理装置である。
第3の発明は、コンテンツデータを分割するようにしたデータ処理装置におけるデータ処理方法において、コンテンツデータは動画データを含み、動画データに含まれる顔画像の情報である解析結果がコンテンツデータに関連付けられ、評価関数と動画データの解析結果とに基づき、コンテンツデータの分割候補位置での評価値を算出し、算出される評価値と閾値とを比較し、コンテンツデータの所定単位毎に分割候補位置を取得し、較の結果に基づきコンテンツデータ上の分割位置を決定し、ユーザから見えるコンテンツデータ内の再生の単位であるチャプタの先頭から所定の再生時間を経過した第1の位置と、チャプタの終端から所定の再生時間を遡った第2の位置とに基づき、チャプタの先頭から第1の位置までの区間と、第2の位置からチャプタの終端までの区間とに分割位置が決定されないように、評価値を算出するようにし、比較の結果、第1の分割候補位置での評価値が閾値を超えない場合には、第2の分割候補位置を取得し、第1の分割候補位置での評価値が閾値を超える場合には、第1の分割候補位置に基づきコンテンツデータの分割位置を決定するデータ処理方法である。
第4の発明は、動画データを含み、動画データを解析した解析結果が関連付けられているコンテンツデータに、コンテンツデータを分割するための分割位置を設定するようにしたデータ処理装置におけるデータ処理方法において、コンテンツデータの分割候補位置に対応する評価値を算出し、算出される評価値と閾値とを比較し、較の結果に基づきコンテンツデータ上の分割位置を決定し、動画データに含まれる顔画像の情報に基づき評価値を算出し、分割候補位置に対応する評価値が閾値を超えるか否かに応じて、分割候補位置に基づいて分割位置を決定し、ユーザから見えるコンテンツデータ内の再生の単位であるチャプタの先頭と、先頭から所定の再生時間経過した第1の位置との間の区間、または、チャプタの終端と、終端から所定の再生時間遡った第2の位置との間の区間に、分割位置が決定されないようにするデータ処理方法である。
第5の発明は、コンテンツデータを分割するようにしたデータ処理方法を、コンピュータに実行させるデータ処理プログラムにおいて、コンテンツデータは動画データを含み、動画データに含まれる顔画像の情報である解析結果がコンテンツデータに関連付けられ、評価関数と動画データの解析結果とに基づき、コンテンツデータの分割候補位置での評価値を算出し、算出される評価値と閾値とを比較し、コンテンツデータの所定単位毎に分割候補位置を取得し、較の結果に基づきコンテンツデータ上の分割位置を決定し、ユーザから見えるコンテンツデータ内の再生の単位であるチャプタの先頭から所定の再生時間を経過した第1の位置と、チャプタの終端から所定の再生時間を遡った第2の位置とに基づき、チャプタの先頭から第1の位置までの区間と、第2の位置からチャプタの終端までの区間とに分割位置が決定されないように、評価値を算出するようにし、比較の結果、第1の分割候補位置での評価値が閾値を超えない場合には、第2の分割候補位置を取得し、第1の分割候補位置での評価値が閾値を超える場合には、第1の分割候補位置に基づきコンテンツデータの分割位置を決定するデータ処理方法を、コンピュータに実行させるデータ処理プログラムである。
第6の発明は、動画データを含み、動画データを解析した解析結果が関連付けられているコンテンツデータに、コンテンツデータを分割するための分割位置を設定するようにしたデータ処理方法を、コンピュータに実行させるデータ処理プログラムにおいて、コンテンツデータの分割候補位置に対応する評価値を算出し、算出される評価値と閾値とを比較し、較の結果に基づきコンテンツデータ上の分割位置を決定し、動画データに含まれる顔画像の情報に基づき評価値を算出し、分割候補位置に対応する評価値が閾値を超えるか否かに応じて、分割候補位置に基づいて分割位置を決定し、ユーザから見えるコンテンツデータ内の再生の単位であるチャプタの先頭と、先頭から所定の再生時間経過した第1の位置との間の区間、または、チャプタの終端と、終端から所定の再生時間遡った第2の位置との間の区間に、分割位置が決定されないようにするデータ処理方法を、コンピュータに実行させるデータ処理プログラムである。
第7の発明は、記録媒体に記録されたコンテンツデータを他の記録媒体にダビングするようにした記録装置において、コンテンツデータは動画データを含み、動画データに含まれる顔画像の情報である解析結果がコンテンツデータに関連付けられ、筐体に対して固定的に用いられる第1の記録媒体からコンテンツデータを再生する再生部と、着脱可能な第2の記録媒体にコンテンツデータを記録する記録部と、第1の記録媒体から再生されたコンテンツデータに対して第2の記録媒体に記録可能なデータ容量の範囲内で分割候補位置を設定し、評価関数と解析結果とに基づきコンテンツデータの分割候補位置での評価値を算出する評価値算出部と、評価値算出部で算出される評価値と閾値とを比較する比較部と、コンテンツデータの所定単位毎に分割候補位置を取得する分割候補位置取得部と、比較部による比較結果に基づきコンテンツデータ上の分割位置を決定し、第1の記録媒体に記録されるコンテンツデータを、分割位置まで第2の記録媒体にダビングするように再生部および記録部を制御する制御部とを有し、評価値算出部は、ユーザから見えるコンテンツデータ内の再生の単位であるチャプタの先頭から所定の再生時間を経過した第1の位置と、チャプタの終端から所定の再生時間を遡った第2の位置とに基づき、チャプタの先頭から第1の位置までの区間と、第2の位置からチャプタの終端までの区間とに分割位置が決定されないように、評価値を算出するようにし、制御部は、比較部による比較の結果、第1の分割候補位置での評価値が閾値を超えない場合には、分割候補位置取得部によりコンテンツデータ上で第1の分割候補位置に対して先頭側の第2の分割候補位置を取得し、第1の分割候補位置での評価値が閾値を超える場合には、第1の分割候補位置に基づきコンテンツデータの分割位置を決定する記録装置である。
第8の発明は、記録媒体に記録されたコンテンツデータを他の記録媒体にダビングするようにした記録装置において、コンテンツデータは動画データを含み、動画データに含まれる顔画像の情報である解析結果がコンテンツデータに関連付けられ、筐体に対して固定的に用いられる第1の記録媒体からコンテンツデータを再生する再生部と、着脱可能な第2の記録媒体にコンテンツデータを記録する記録部と、第1の記録媒体から再生されたコンテンツデータに対して第2の記録媒体に記録可能なデータ容量の範囲内で分割候補位置を設定し、コンテンツデータの分割候補位置での評価値を算出する評価値算出部と、評価値算出部で算出される評価値と閾値とを比較する比較部と、比較部による比較結果に応じて分割候補位置に基づき分割位置を決定する制御部とを有し、評価値算出部は、動画データに含まれる顔画像の情報に基づき評価値を算出し、制御部は、分割候補位置に対応する評価値が閾値を超えるか否かに応じて、分割位置を決定し、ユーザから見えるコンテンツデータ内の再生の単位であるチャプタの先頭と、先頭から所定の再生時間経過した第1の位置との間の区間、または、チャプタの終端と、終端から所定の再生時間遡った第2の位置との間の区間に、分割位置が決定されないようにする記録装置である。
第9の発明は、記録媒体に記録されたコンテンツデータを他の記録媒体にダビングするようにした記録装置における記録方法において、コンテンツデータは動画データを含み、動画データに含まれる顔画像の情報である解析結果がコンテンツデータに関連付けられ、筐体に対して固定的に用いられる第1の記録媒体からコンテンツデータを再生し、着脱可能な第2の記録媒体にコンテンツデータを記録し、第1の記録媒体から再生されたコンテンツデータに対して第2の記録媒体に記録可能なデータ容量の範囲内で分割候補位置を設定し、評価関数と解析結果とに基づきコンテンツデータの分割候補位置での評価値を算出し、算出される評価値と閾値とを比較し、コンテンツデータの所定単位毎に分割候補位置を取得し、較の結果に基づきコンテンツデータ上の分割位置を決定し、第1の記録媒体に記録されるコンテンツデータを、分割位置まで第2の記録媒体にダビングするように制御し、ユーザから見えるコンテンツデータ内の再生の単位であるチャプタの先頭から所定の再生時間を経過した第1の位置と、チャプタの終端から所定の再生時間を遡った第2の位置とに基づき、チャプタの先頭から第1の位置までの区間と、第2の位置からチャプタの終端までの区間とに分割位置が決定されないように、評価値を算出するようにし、比較の結果、第1の分割候補位置での評価値が閾値を超えない場合には、コンテンツデータ上で第1の分割候補位置に対して先頭側の第2の分割候補位置を取得し、第1の分割候補位置での評価値が閾値を超える場合には、第1の分割候補位置に基づきコンテンツデータの分割位置を決定する記録装置における記録方法である。
第10の発明は、記録媒体に記録されたコンテンツデータを他の記録媒体にダビングするようにした記録装置における記録方法において、コンテンツデータは動画データを含み、動画データに含まれる顔画像の情報である解析結果がコンテンツデータに関連付けられ、筐体に対して固定的に用いられる第1の記録媒体からコンテンツデータを再生し、着脱可能な第2の記録媒体にコンテンツデータを記録し、第1の記録媒体から再生されたコンテンツデータに対して第2の記録媒体に記録可能なデータ容量の範囲内で分割候補位置を設定し、コンテンツデータの分割候補位置での評価値を算出し、算出される評価値と閾値とを比較し、較の結に応じて分割候補位置に基づき分割位置を決定し、動画データに含まれる顔画像の情報に基づき評価値を算出し、分割候補位置に対応する評価値が閾値を超えるか否かに応じて、分割位置を決定し、ユーザから見えるコンテンツデータ内の再生の単位であるチャプタの先頭と、先頭から所定の再生時間経過した第1の位置との間の区間、または、チャプタの終端と、終端から所定の再生時間遡った第2の位置との間の区間に、分割位置が決定されないようにする記録装置における記録方法である。
第11の発明は、記録媒体に記録されたコンテンツデータを他の記録媒体にダビングするようにした記録方法を、コンピュータに実行させる記録プログラムにおいて、コンテンツデータは動画データを含み、動画データに含まれる顔画像の情報である解析結果がコンテンツデータに関連付けられ、筐体に対して固定的に用いられる第1の記録媒体からコンテンツデータを再生し、着脱可能な第2の記録媒体にコンテンツデータを記録し、第1の記録媒体から再生されたコンテンツデータに対して第2の記録媒体に記録可能なデータ容量の範囲内で分割候補位置を設定し、評価関数と解析結果とに基づきコンテンツデータの分割候補位置での評価値を算出し、算出される評価値と閾値とを比較し、コンテンツデータの所定単位毎に分割候補位置を取得し、較の結果に基づきコンテンツデータ上の分割位置を決定し、第1の記録媒体に記録されるコンテンツデータを、分割位置まで第2の記録媒体にダビングするように制御し、ユーザから見えるコンテンツデータ内の再生の単位であるチャプタの先頭から所定の再生時間を経過した第1の位置と、チャプタの終端から所定の再生時間を遡った第2の位置とに基づき、チャプタの先頭から第1の位置までの区間と、第2の位置からチャプタの終端までの区間とに分割位置が決定されないように、評価値を算出するようにし、比較の結果、第1の分割候補位置での評価値が閾値を超えない場合には、コンテンツデータ上で第1の分割候補位置に対して先頭側の第2の分割候補位置を取得し、第1の分割候補位置での評価値が閾値を超える場合には、第1の分割候補位置に基づきコンテンツデータの分割位置を決定す記録方法を、コンピュータに実行させる記録プログラムである。
第12の発明は、記録媒体に記録されたコンテンツデータを他の記録媒体にダビングするようにした記録方法を、コンピュータに実行させる記録プログラムにおいて、コンテンツデータは動画データを含み、動画データに含まれる顔画像の情報である解析結果がコンテンツデータに関連付けられ、筐体に対して固定的に用いられる第1の記録媒体からコンテンツデータを再生し、着脱可能な第2の記録媒体にコンテンツデータを記録し、第1の記録媒体から再生されたコンテンツデータに対して第2の記録媒体に記録可能なデータ容量の範囲内で分割候補位置を設定し、コンテンツデータの分割候補位置での評価値を算出し、算出される評価値と閾値とを比較し、較の結に応じて分割候補位置に基づき分割位置を決定し、動画データに含まれる顔画像の情報に基づき評価値を算出し、分割候補位置に対応する評価値が閾値を超えるか否かに応じて、分割位置を決定し、ユーザから見えるコンテンツデータ内の再生の単位であるチャプタの先頭と、先頭から所定の再生時間経過した第1の位置との間の区間、または、チャプタの終端と、終端から所定の再生時間遡った第2の位置との間の区間に、分割位置が決定されないようにする記録方法を、コンピュータに実行させる記録プログラムである。
少なくとも一の発明によって、コンテンツデータの分割位置を適切に決定することができる。
少なくとも一の発明によって、第1の記録媒体に記録されるコンテンツデータを、適切な位置まで第2の記録媒体にダビングすることができる。
少なくとも一の発明によれば、コンテンツデータの分割位置を適切に決定することができる効果がある。
少なくとも一の発明によれば、第1の記録媒体に記録されるコンテンツデータを、適切な位置まで第2の記録媒体にダビングすることができる効果がある。
以下、この発明の実施の第1の形態を、図面を参照しながら説明する。この発明の実施の第1の形態では、例えばコンテンツデータのダビングなどにおいてコンテンツデータを分割する必要が生じた場合、分割位置を、ダビング先の記録媒体の記録容量を考慮すると共に、コンテンツデータに基づき算出された評価値に基づき設定するようにしている。
評価値は、コンテンツデータを分割させたくない位置では低い値若しくは0となり、分割可能な位置ではより高い値となるように設定する。評価値に基づき最終的な分割位置を求めることで、一連のシーンの途中でコンテンツデータが分割されてしまう事態を避けることができる。
図1〜図3を用いて、この発明の実施の第1の形態による分割位置決定方法について、概略的に説明する。図1に例示されるように、ダビング元の記録媒体1に記録されている、例えば動画データからなるコンテンツデータ2を、ダビング先の記録媒体3A、3B、・・・に分割してダビングする場合について考える。
一例として、ダビング元の記録媒体1は、数10GB〜数100GB、またはそれ以上の記録容量を有し、機器に対して固定的に用いられるハードディスクといった記録媒体であり、ダビング先の記録媒体3A、3B、・・・は、記録可能なタイプのDVD(Digital Versatile Disc)といった光ディスクであるものとする。ダビング先の記録媒体3A、3B、・・・が記録可能なタイプのDVDである場合、直径12cm、単層のもので略4.7GBの記録容量を有し、ハードディスクである記録媒体1に対して記録容量が非常に小さい。
図2は、記録媒体1に記録されるコンテンツデータ2の、この発明の実施の第1の形態による一例の分割方法を示す。記録媒体1に対して、コンテンツデータ2が記録されると共に、当該コンテンツデータ2に対応するメタデータ11が記録される。この図2の例では、コンテンツデータ2は、複数のチャプタ#1、#2および#3からなる。
なお、ここでは、ユーザから見えるコンテンツデータ内の再生の単位を、チャプタと呼び、チャプタは、1の動画データに対して設定したマークによって定義されるものとする。例えば、動画データの先頭および終端には、必ずマークが設けられるものとし、さらに、動画データの途中の、再生開始可能位置に対して所定にマークを設定することができる。互いに隣り合うマークとマークとにより、チャプタが定義される。ユーザは、コンテンツデータの再生位置をチャプタ単位で指定することができる。マークを示す情報は、動画データを格納する動画データファイル内に保持してもよいし、動画データファイルに対して所定に関連付けられた他のファイルに格納されていてもよい。また、チャプタは、それぞれ独立した動画データファイルとしてもよい。
この図2の例では、メタデータ11は、コンテンツデータ2を構成する動画データから人間の顔の画像を検出した結果に基づく顔情報12A、12B、12Cおよび12Dが格納される。例えば、コンテンツデータ2を構成する動画データに対してフレーム単位で顔画像の検出を行い、連続したフレームで顔画像が検出された先頭フレームと、終了フレームとを、1つの顔情報としてメタデータ11に格納し、顔検出開始位置と顔検出終了位置とを管理する。なお、動画データから顔画像を検出する方法については、後述する。
図2の例では、チャプタ#1において、位置a1で顔画像が検出され、区間aの間、顔画像が連続的に検出され、位置a2で顔画像が検出されなくなっている。これら位置a1および位置a2の情報が顔情報12Aとされる。また、チャプタ#2において、位置b1で顔画像が検出され、区間bの間、顔画像が連続的に検出され、位置b2で顔画像が検出されなくなっている。これら位置b1および位置b2の情報が顔情報12Bとされる。チャプタ#2において、さらに、位置c1で顔画像が検出され、区間cの間、顔画像が連続的に検出され、位置c2で顔画像が検出されなくなっている。これら位置c1および位置c2の情報が顔情報12Cとされる。チャプタ#3において、位置d1で顔画像が検出され、区間dの間、顔画像が連続的に検出され、位置d2で顔画像が検出されなくなっている。これら位置d1および位置d2の情報が顔情報12Dとされる。
ここで、ダビング先の記録媒体(記録媒体3Aとする)に記録可能なデータ容量対し、図2に例示されるように、チャプタ#1の先頭から、チャプタ#1の全体とチャプタ#2の位置Pまでのデータ量が対応しているものとする。この場合、従来であれば、この位置Pでチャプタ#2を分割し、チャプタ#1の全体と、チャプタ#2の先頭から位置Pまでの区間とを記録媒体3Aにダビングし、チャプタ#2の位置Pから後を、次の記録媒体3Bにダビングしていた。この方法では、チャプタ#2において、顔画像が連続的に検出されている区間cの途中ダビングが中断されで、ダビング先の記録媒体が交換されてしまうことになる。
そこで、この発明の実施の第1の形態では、この位置Pから顔画像の検出が途切れた位置b1および位置c1の間まで遡り、この位置を分割位置Divに設定する。ダビング先の記録媒体3Aには、図3Aに例示されるようにチャプタ#1の全体と、チャプタ#2の分割位置Divまでが記録される。次のダビング先記録媒体3Bには、図3Bに例示されるように、チャプタ#2の分割位置Div以降からのデータが記録される。このように、一連のシーンを分断することなく、複数の記録媒体に対する分割ダビングを行うことができる。
なお、上述では、単に顔画像が検出されたか否かの判断のみに基づいて顔情報を生成しているが、これはこの例に限定されない。検出された顔画像に基づき顔の識別処理をさらに行うようにすると、より好ましい。例えば、図4に例示されるように、検出された顔画像に基づき人物E、人物Fおよび人物Gをそれぞれ識別し、顔情報を生成することができる。また、図4の例のように、顔情報が管理する顔検出開始位置および顔検出終了位置は、顔情報同士で区間が重複するように管理することができると共に、同一人物(図4の例では人物E)に対し、複数の異なる顔検出開始位置および顔検出終了位置の組を管理することもできる。
図4の例では、人物Eに関し、位置e1で検出された顔画像が区間eの間、検出され、位置e2で検出されなくなっている。そして、位置e3で再び顔画像が検出され、区間e’を経て位置e4で検出されなくなっている。人物Eに関し、位置e1およびe2の情報が顔情報12Eとして管理され、位置e3およびe4の情報が顔情報12Fとして管理されている。また、人物Fに関し、位置f1で検出された顔画像が区間fの間、検出され、位置f2に検出されなくなっている。人物Fに関し、位置f1および位置f2の情報が顔情報12Gとして管理されている。同様に、人物Gに関し、位置g1で検出された顔画像が区間gの間、検出され、位置g2に検出されなくなっている。人物Gに関し、位置g1および位置g2の情報が顔情報12Hとして管理されている。
さらに、位置g1から位置f1の間、人物Eと人物Gとが重複して検出され、位置f1から位置e2の間、人物E、人物Fおよび人物Gが重複して検出されている。位置e2から位置f2の間は、人物Fおよび人物Gとが重複して検出されている。顔情報12E〜12Hに基づき、これらの重複区間を管理することができる。
次に、図5のフローチャートを用いて、上述した図2を参照しながら、この実施の第1の形態によるコンテンツデータに対する分割位置Divの一例の設定処理について説明する。この実施の第1の形態では、動画データからなるコンテンツデータについて、所定の評価関数f(x)を用いて評価値を所定間隔毎に求め、評価値を閾値と比較することで、分割位置Divの設定を行う。評価関数f(x)の詳細については後述するが、ここでは、評価関数f(x)として、顔画像の検出個数に基づき評価値を求める評価関数f1(x)を用いる。
評価関数f1(x)は、例えば式(1)のように定義することができる。
1(x)=1/(その位置での検出顔数+1)+(チャプタ境界なら1) ・・・(1)
この式(1)によれば、コンテンツデータ内の評価を行う位置において、顔画像が1つでも検出されれば、評価関数f1(x)の値は、1未満となる(その位置がチャプタ境界ではない場合)。したがって、閾値を例えば1としておけば、顔画像が検出されない位置を求めることができる。
説明は図5に戻り、最初のステップS10で、ダビング先の記録媒体の記録容量や、当該記録媒体に適用されるフォーマットにおいて規定される上限値などに基づき、コンテンツデータの分割候補位置の初期値が設定される。図2の例では、ダビング先記録媒体に記録可能なデータ量に対応する位置Pが、コンテンツデータ2の分割候補位置の初期位置とされる。分割候補位置の初期位置は、これに限らず、ダビング先記録媒体に記録可能なデータ量の範囲内であれば、他の位置でもよい。
次のステップS11で、現在分割候補位置として設定されている位置について、評価関数f(x)を用いて評価値を算出する。図2の例では、位置Pは、顔情報12Cに基づき位置c1および位置c2の間、すなわち区間c内であって、1個の顔画像が検出されていることが分かる。また、位置Pは、チャプタ境界ではない。したがって、式(1)に基づきf1(x)=1/(1+1)=1/2とされ、評価値が1/2とされる。
次のステップS12で、ステップS11で求められた評価値と閾値とが比較され、評価値が閾値以上でるあるか否かが判断される。若し、評価値が閾値未満であると判断されれば、処理はステップS13に移行される。現在の分割候補位置が位置Pであるこの例では、閾値を1とした場合、図2の位置Pにおける評価値が1/2であるので、評価値が閾値未満とされ、処理はステップS13に移行される。
ステップS13では、分割候補位置が所定単位分だけ、戻される。例えば、現在の分割候補位置が位置Pであるこの例では、コンテンツデータ2を構成する動画データにおいて、位置Pから時系列的に前の位置に、分割候補位置が所定単位分だけ戻される。
一例として、当該動画データがフレーム間圧縮を行っていないデータであれば、所定単位をフレームとすることができ、位置Pに対応するフレームの1つ前のフレームが新たな分割候補位置とされる。また例えば、コンテンツデータ2を構成する動画データを、MPEG2(Moving Pictures Experts Group 2)方式のように、フレーム内符号化に基づくピクチャであるI(Intra-coded)ピクチャと、予測符号化に基づくピクチャであるP(Predictive-coded)ピクチャB(Bi-directionally predictive coded)ピクチャとを用いてフレーム間圧縮を行い、単独でデコード可能なIピクチャを最低1枚含むそれ自身で完結したグループ(GOP:Group Of Picture)を、独立してアクセス可能な最小単位とするストリームで構成することができる。GOPの先頭には、所定のコードが配置される。この場合には、所定単位をGOPとすることができ、GOP単位で分割候補位置が戻される。
なお、ステップS13の処理はこれらに限らず、フレーム間圧縮を行わない例では分割候補位置を複数フレーム分、戻してもよいし、フレーム間圧縮を行う例でも、複数GOP分、戻すようにしてもよい。
ステップS13で分割候補位置が戻されると、処理はステップS12に移行され、ステップS13で位置を戻された新たな分割候補位置について、評価値の算出が行われる。
一方、ステップS12で、ステップS11で算出された評価値が閾値以上であると判断されたら、処理はステップS14に移行され、現在の分割候補位置が最終的な分割位置Divに設定される。すなわち、顔画像の検出個数に基づき評価値を求めるこの例では、検出される顔画像の個数が0となった場合に、式(1)の値がf1(x)=1/(0+1)=1となり、評価値が1とされ、閾値以上の値となる。
図2の例では、初期状態で位置Pにあった分割候補位置が上述のステップS11〜ステップS13の処理により所定単位分毎に順次戻され、位置c1を過ぎ、且つ、位置b2に達しない位置、すなわち、位置c1および位置b2の間で、顔画像が検出されなくなる。位置c1および位置b2の間は、チャプタ境界ではないので、上述の式(1)に基づく計算により評価値が1とされ、閾値以上の値とされる。
上述では、顔画像の検出個数に基づき評価値を求める式を評価関数f(x)として用いたが、これはこの例に限定されない。図6は、評価関数f(x)と、評価関数f(x)から算出された評価値に対する閾値の例を示す。
図6において、動画データに関する評価関数f(x)の例として、上述した式(1)の他に、下記の式(2)、式(3)および式(4)が例示されている。また、この例では、式(1)〜(4)について、評価値に対する閾値がそれぞれ1に設定されている。
2(x)=1/(分割位置の検出顔数+1)+(チャプタ境界なら1)+(顔検出数の変化点なら1) ・・・(2)
3(x)=笑い顔の検出開始位置なら1 ・・・(3)
4(x)=特定の人物が検出されたら1 ・・・(4)
式(2)について、上述した図4を例にとると、顔画像が検出された位置e1〜位置g2の間において、検出される顔画像の個数が変化する位置g1、位置f1、位置e2および位置f2が評価値1以上となり、それぞれ分割可能位置とされる。
また、式(3)および式(4)については、笑い顔や特定の人物が検出された位置を分割可能とすることを意味する。笑い顔や特定の人物の検出は、例えば顔画像を検出しメタデータ11を作成する段階で笑い顔や特定の人物を予め検出しておき、検出結果をメタデータ11に格納しておくことが考えられる。これに限らず、図5のステップS11の処理を行う際に、笑い顔や特定の人物の検出を行うようにもできる。笑い顔や特定の人物を画像データから検出する方法に関しては、後述する。
動画データは、所定の音声データと同期して再生されることが一般的である。すなわち、コンテンツデータ2には、動画データと共に、当該動画データと同期して再生されるべき音声データを格納することができる。図6において、音声データに関する評価関数f(x)の例として、下記の式(5)および式(6)が例示されている。また、この例では、式(5)および(6)について、評価値に対する閾値がそれぞれ1に設定されている。
5(x)=30dB(デシベル)以下の音量が連続する時間/10秒 ・・・(5)
6(x)=笑い声の検出開始位置なら1 ・・・(6)
式(5)は、所定以下に静かな状態が10秒以上連続したら、分割可能とすることを意味する。式(6)は、笑い声が検出された位置を分割可能位置とすることを意味する。笑い声の検出は、音声データを周波数解析して人間の笑い声に特有の周波数成分が所定レベル以上に含まれているか否かを判断することで可能である。
図6において、その他の評価関数f(x)の例として、下記の式(7)および式(8)が例示されている。また、式(7)および式(8)について、評価値に対する閾値は、それぞれ1に設定されている。
7(x)=動画データおよび/または音声データが低ビットレートだったら1 ・・・(7)
8(x)=チャプタの先頭からの再生時間と、チャプタ終端から時系列を遡った再生時間とが共に10分以上なら1+(チャプタ境界なら1) ・・・(8)
式(7)は、動画データや音声データがビットレート可変で圧縮符号化されている場合、動画データであれば、ビットレートが低い部分は、動きが少なく平坦な画像が続いている部分であると考えられる。また、音声データであれば、ビットレートが低い部分は、音の動きの少ない部分、例えば静かな部分や高周波成分の少ない部分であると考えられる。このような部分で、分割を可能とする。
式(8)は、上述した式(1)〜式(7)に基づきチャプタを分割した際に、再生時間が短すぎるチャプタが生成されないように、分割位置Divを制限するものである。図7を用いて、より具体的に説明する。先ず、図7Aに例示されるように、ダビング元の記録媒体1に記録されるコンテンツデータ2を、チャプタ#1からダビング先の記録媒体3Aに記録する場合ついて考える。チャプタ#1は、再生時間で1時間分のデータ量を有するものとし、ダビング先の記録媒体3Aは、例えば再生時間で1時間20分に相当するデータ量を記録可能であるものとする。
ここで、上述した図5のフローチャートの処理に従って分割候補位置を求めた結果、図7Aのように、チャプタ#2の先頭から再生時間で10秒目の位置に、最終的な分割位置Divが設定されたものとする。この場合、チャプタ#2は、先頭側の10秒分のデータからなるチャプタ#2’と、それ以降の部分とに分割され、ダビング先の記録媒体3Aには、図7Bに例示されるように、チャプタ#1の全部とチャプタ#2’とが記録されることになる。ダビング元の記録媒体1におけるチャプタ#2の分割位置Div以降の部分は、別の記録媒体にダビングされることになる。このように、1のチャプタが非常に短い部分とそれ以外の部分とに分割され、それぞれ異なる記録媒体に記録される状態は、ユーザの利便性を損なうおそれが大きい。
そこで、図7Cに例示されるように、チャプタの両端側に対して、分割を禁止する区間を設ける。上述した式(8)によれば、チャプタの先頭から再生時間で10分を経過した位置から、当該チャプタの後端から再生時間で10分前の位置までの区間で、評価値が1とされ、閾値を例えば1とした場合、当該区間に分割位置Divを設定可能とされる。例えば、上述の式(8)において評価値が1以外の場合に評価値を0とし、他の評価関数f(x)から算出される評価値との論理積を取ることで、チャプタの先頭側の再生時間で10分間に相当する区間と、後端側の再生時間で10分間に相当する区間とにおいて、評価値が常に0となり、これらの区間に対して分割位置Divが設定されず、これらの区間での分割が禁止される。
上述した図6に例示される8種類の評価関数f1(x)〜f8(x)に関し、式(1)〜式(7)で示される評価関数f1(x)〜f7(x)は、そのうち1つのみを用いてもよいし、複数を組み合わせて用いてもよい。複数を組み合わせて用いる場合には、用いる評価関数から算出される評価値に対して論理和を取ることが考えられる。例えば、ステップS12において、組み合わせて用いられる評価関数f(x)のうち何れか1つの評価関数f(x)による評価値が閾値以上となったと判断された場合に、処理をステップS14に移行させて最終的な分割位置Divを設定する。
なお、評価関数f(x)の性質によっては、最終的な分割位置Divを、評価値が閾値を超えた位置に対して若干、前後させた方が好ましい場合も有り得る。このような場合の最終的な分割位置Divの設定方法は、機器の仕様により異なってよい。
一方、式(8)で示される評価関数f8(x)については、上述のように、他の評価関数f(x)で算出された評価値との論理積を取ることが考えられる。これに限らず、評価関数f8(x)を単独で用いてもよい。
なお、図6に例示した各評価関数は、一例であって、これに限られるものではない。例えば評価対象を同一として形態の異なる評価関数も考えられる。また、評価対象の種類も、上述の例に限定されない。
さらに、評価値や閾値も、上述の例に限定されない。例えば、上述した評価関数f1(x)〜f7(x)のうち複数を組み合わせて用い、分割候補位置においてこれら評価関数f1(x)〜f7(x)による評価値を加算することが考えられる。このとき、閾値は、1に限らず、1より大きい値とすることが考えられる。さらにまた、評価関数f1(x)〜f7(x)に対し、所定に重み付けを行うことも考えられる。
また、重み付けは評価関数f(x)間に行うのに限らず、例えばある評価関数f(x)の評価対象に対して行ってもよい。一例として、式(1)を用いて説明した、顔画像の検出個数に基づく評価関数f1(x)において、図4を用いて説明したように複数の異なる顔画像を識別するような場合に、識別された顔画像毎、すなわち、顔画像により識別される人物毎に重み付けを行うことが考えられる。図4の例では、人物Eに対して最も大きな重み付けを行い、人物Gに対して最も小さな重み付けを行うなどが考えられる。識別された顔画像を予め所定に登録しておき、登録された顔画像に対して予め重み付けを行うようにできる。これに限らず、ダビング処理時などに、重み付けを行う顔画像を指定するようにもできる。
次に、この発明の実施の第1の形態の変形例について説明する。上述した実施の第1の形態では、図5のフローチャートに従い評価値を算出しながら(ステップS11)、算出された評価値を閾値と比較し(ステップS12)、比較結果に基づき分割候補位置を戻していく(ステップS13)ようにしている。このとき、評価値が閾値以上となる位置が分割候補位置の初期位置側に無く、分割候補位置を戻しすぎてダビング開始位置付近まで達してしまうような場合や、記録媒体のデータ容量の範囲内に評価値が閾値以上となる位置が無いような場合が起こり得る。このような場合、当然のことながら、分割位置Divを設定することができない。
例えば、評価関数として、上述した式(1)を用いて顔画像が検出された個数に基づき評価値を算出する評価関数f1(x)を用いた場合について考える。この場合、図8に例示されるように、動画データに常に1乃至複数の人物の顔画像が含まれていれば、評価値は、常に0を超え1未満の値となる。図8の例では、区間hおよび区間jでは2人分の顔画像が含まれるので評価値がf1(x)=1/(1+2)=1/3とされ、区間iでは3人分の顔画像が含まれるので評価値がf1(x)=1/(1+3)=1/4とされ、区間kおよび区間mでは4人分の顔画像が含まれるので評価値がf1(x)=1/(1+4)=1/5とされ、さらに、区間lでは、1人分の顔画像が含まれるので評価値がf1(x)=1/(1+1)=1/2とされる。
このように、この図8の例では評価値が1/5乃至1/2とされ、閾値を1とした時、評価値が閾値以上になることがない。したがって、位置Pを分割候補位置の初期位置として図5のフローチャートの処理を行い、分割候補位置を所定単位毎に戻していっても、最終的な分割位置Divとして採用可能な位置を検出することができない。
この実施の第1の形態の変形例においては、評価値を算出しながら分割候補位置を戻していく際に、評価値と分割候補位置とを対応付けてテーブルに保存する。そして、分割候補位置を所定量戻しても評価値が閾値以上にならない場合に、このテーブルを参照して、それまでに算出した評価値のうち最も値が大きい、すなわち最も評価の高い位置を、最終的な分割位置Divとして採用するようにしている。
図9および図10を用いて、この実施の第1の形態の変形例によるコンテンツデータの分割位置Divの一例の設定処理について説明する。図9は、実施の第1の形態の変形例によるコンテンツデータの分割位置Divの一例の設定処理を示すフローチャートである。なお、ここでは、評価関数として、顔画像の検出個数に基づき評価値を求める、上述した評価関数f1(x)を用い、閾値が1であるものとする。また、図10は、評価関数f1(x)を用いた場合の、コンテンツデータにおける評価値の一例の状態を示す。
先ず、最初のステップS20において、分割候補位置計算回数nを0に初期化し、次のステップS21で、ダビング先の記録媒体の記録容量や、当該記録媒体に適用されるフォーマットにおいて規定される上限値などに基づき、コンテンツデータ2の分割候補位置の初期値が設定され、処理がステップS22に移行される。図10の例では、位置Pが分割候補位置の初期位置とされている。
ステップS22では、現在分割候補位置として設定されている位置について、評価関数f(x)を用いて評価値を算出する。算出された評価値は、現在の分割候補位置と対応付けられて、テーブルに保存される(ステップS24)。そして、処理はステップS24に移行され、分割候補位置計算回数nが1だけインクリメントされる。
次のステップS25では、ステップS22で求められた評価値と閾値とが比較され、評価値が閾値以上でるあるか否かが判断される。若し、評価値が閾値以上であると判断されれば、処理はステップS28に移行され、現在の分割候補位置が最終的な分割位置Divとして設定される。
一方、ステップS25で、評価値が閾値未満であると判断されれば、処理はステップS26に移行される。ステップS26では、分割候補位置計算回数nが所定値(例えば100)以上であるか否かが判断される。若し、分割候補位置計算回数nが所定値未満であると判断されれば、処理はステップS29に移行され、分割候補位置が所定単位分だけ、戻される。そして、処理がステップS22に戻され、ステップS29で位置を戻された新たな分割候補位置について、評価値の算出が行われる。
図10の例では、コンテンツデータにおいて、分割候補位置の初期位置Pより前側では常に顔画像が含まれているため、評価関数としてf1(x)を用いた場合、評価値は常に1未満となり、閾値を1としたとき、評価値が閾値を超えない。したがって、分割候補位置計算回数nが所定値になるまで、処理が繰り返されることになる。
一方、ステップS26で、分割候補位置計算回数nが所定値以上であると判断されれば、処理はステップS27に移行される。ステップS27では、ステップS23でテーブルに保存された評価値および分割候補位置の組に基づき、最も評価値が高い組の分割候補位置が選択される。そして、処理が上述したステップS28に移行され、ステップS27で選択された分割候補位置が最終的な分割位置Divとして設定される。
テーブルには、分割候補位置の初期位置Pから、当該初期位置Pから分割候補位置を所定回数戻した位置までの範囲、すなわち、図10において斜線で示される範囲について、評価値および分割候補位置が保存されている。ステップS27では、このテーブルに保存された範囲において、最も評価値が高い部分を検索する。図10の例では、区間lにおいて評価値が1/2とされ、テーブルに保存された範囲において最も高い値とされている。したがって、区間lに対して、最終的な分割位置Divが設定される。なお、区間lのどの位置に分割位置Divを設定するかは、仕様などにより異なってよい。
なお、上述では、図9のフローチャートの処理においてステップS22〜ステップS26およびステップS29からなるループを繰り返した回数(分割候補位置計算回数n)に基づき、分割候補位置を戻す処理を制限しているが、これはこの例に限定されない。例えば、分割候補位置を戻す処理の制限は、分割候補位置を戻された分のデータサイズに基づいて行ってもよいし、分割候補位置を戻された分の再生時間に基づいて行うことも考えられる。
次に、この発明に適用可能な記録装置について説明する。図11は、この発明の実施の第1の形態に適用可能な記録装置100の一例の構成を示す。この図11に例示される記録再生装置100は、外部から入力される動画データおよび音声データを内蔵される記録媒体に記録すると共に、内蔵される記録媒体に記録される動画データおよび音声データを、例えば脱着可能な他の記録媒体にダビングすることができるように構成されている。
適用可能な圧縮符号化や多重化の方式としては、様々に考えられる。ここでは、動画データおよび音声データを、MPEG2方式により圧縮符号化し、多重化方式としては、例えばMPEG2システムズを適用するものとして説明する。
記録装置100は、UI(User Interface)部113、記録部101および制御部104からなり、記録部101は、信号処理部102、ストリームバッファ127および記録制御部103からなる。
制御部104は、例えばCPU(Central Processing Unit)110、ROM(Read Only Memory)111およびRAM(Random Access Memory)112を有し、CPU110は、CROM111に予め記憶されたプログラムやデータに基づき、RAM112をワークメモリとして用いてこの記録装置100の記録部101の各部を制御する。なお、制御部104と記録部101の各部とを接続する経路は、繁雑さを避けるために、図11では省略している。
CPU110上で動作するプログラムにより、この記録装置100で用いられるファイルシステムが提供される。例えば、CPU110は、このファイルシステムに基づき、後述する各記録媒体にデータが記録される際の、記録媒体の物理的なアドレスと当該データが格納されるファイルとの関連付けを行うと共に、各データが格納されるファイルの論理的な管理情報を生成する。
UI部113は、この記録装置100の動作をユーザが操作するための操作子が所定に設けられ、操作子に対する操作に応じた制御信号を出力する。この制御信号は、CPU110に供給される。CPU110は、ユーザ操作に応じてUI部113から供給された制御信号に基づきなされるプログラムの処理により、記録再生部50の各部の動作を制御する。また、UI部113は、簡易的な表示部を有し、所定の表示、例えばダビングを行うチャプタを示す情報などを表示することができるようになっている。
例えば、UI部113に対してなされた操作に応じて、記録装置100による、後述するハードディスク129に対してデータを記録する動作の開始および停止の動作や、ハードディスク129からデータを再生する再生動作がCPU110により制御される。また例えば、UI部113に対してなされた操作に応じて、チャプタが所定に設定される。
信号処理部102は、ビデオエンコーダ122、オーディオエンコーダ123およびマルチプレクサ124、ならびに、画像解析部125および音声解析部126を含む。
ビデオエンコーダ122は、複数フレームの動画データを格納可能なバッファメモリを有し、端子120を介して入力されたベースバンドの動画データを、このバッファメモリを用いて圧縮符号化して出力する。MPEG2方式に準じて圧縮符号化がなされるこの例では、例えば、DCT(Discrete Cosine Transform)によりフレーム内圧縮を行うと共に、動きベクトルを用いたフレーム間圧縮を行い、さらにエントロピー符号化を行い圧縮効率を高める。ビデオエンコーダ122で圧縮符号化された動画データは、MPEG2エレメンタリストリーム(ES)として出力される。
オーディオエンコーダ123は、端子121を介して入力されたベースバンドの音声データを所定の圧縮符号化方式により圧縮符号化して出力する。音声データを圧縮符号化せず、ベースバンドのデータのまま用いることも考えられる。
マルチプレクサ124は、例えば、MPEG2システムズに準じて多重化が行われるこの例では、MPEG2のプログラムストリームを用いて、供給された圧縮動画データおよび圧縮音声データを時分割で多重化する。例えば、マルチプレクサ124は、バッファメモリを有し、供給された圧縮動画データおよび圧縮音声データを一旦バッファメモリに格納する。バッファメモリに格納された圧縮動画データは、所定に分割されヘッダが付加されて、PES(Packetized Elementary Stream)パケット化される。圧縮音声データも同様に、所定に分割されヘッダが付加されてPESパケット化される。ヘッダには、パケットに格納されるデータの再生時刻を示すPTS(Presentation Time Stamp)や復号時刻を示すDTS(Decoding Time Stamp)といった、MPEG2システムズに規定される所定の情報が格納される。PESパケットは、所定に分割され、固定長のパックに格納される。パックには、パックの内容を示す所定のヘッダ情報が付加される。
ストリームバッファ127は、マルチプレクサ124から供給されたパックを一時的に格納する。ストリームバッファ127に対するパックの読み書きのタイミングを所定に制御することで、後述する各記録媒体に対するアクセス速度と、音声データおよび動画データのエンコードなどの信号処理速度との間の整合性をとる。
記録再生制御部128は、複数の記録媒体に対するデータの記録および再生を制御する。この図11の例では、記録再生制御部128に対して固定的にハードディスク129が接続される。さらに、記録再生制御部128は、記録可能なタイプのDVD150(以下、DVD150と略称する)に対する記録再生に対応するドライブ装置130が接続されると共に、記憶内容が書き換え可能で、且つ、記憶内容が不揮発性の、脱着可能なメモリ151が装着可能とされている。記録再生制御部128は、例えばCPU110といった上位からの命令に基づき、指定された記録媒体について、指定されたアドレスに対するデータの書き込みや、指定されたアドレスからのデータの読み出しを行う。
なお、ここでは、記録再生制御部128にハードディスク129と、ドライブ装置130と、メモリ151とが接続されるように説明したが、これはこの例に限定されない。ハードディスク129、ドライブ装置130およびメモリ151のうち何れか1つが省略されていてもよい。また、ドライブ装置130を複数台接続するようにしてもよいし、同様に複数のメモリ151を同時に装着可能としてもよい。さらに、上述ではドライブ装置130が記録可能なタイプのDVDに対応するものとして説明したが、これはこの例に限定されず、例えばより大容量を実現したBlu−ray Disc(ブルーレイディスク:登録商標)に対応するようにしてもよい。
信号処理部102において、画像解析部125は、例えばバッファメモリを有し、入力された動画データをバッファメモリに溜め込んで解析し、動画データに関する種々の情報を得る。画像解析部125は、例えば入力された動画データをフレーム毎に解析し、フレーム画像に含まれる顔画像を検出する。CPU110は、画像解析部125によりフレーム画像から顔画像が検出されたら、例えば顔画像が検出されたフレームの時刻情報(例えばPTS)をマルチプレクサ124から取得し、当該顔画像に対応するメタデータ(顔情報)を作成する。作成された顔情報は、一旦RAM112に記憶される。画像解析部125の処理を、CPU110上で動作するプログラムで実現するようにしてもよい。
画像データから顔部分を特定し、特定された顔部分の特徴を抽出する技術は、様々に提案されされており、また、既に実用化されている技術も多い。例えば、非特許文献「K.C.Yow and R.Cipolla,"Feature-based human face detection,"Image and Vision Computing,Vol.15,No.9, pp 713-735(1997)」には、目、鼻、口を検出してその位置から顔を検出する手法が記載されている。目、鼻、口の検出は、一例として、画像データに対して所定のフィルタ処理を施して輪郭線を抽出し、瞳や唇、鼻孔の輪郭モデルと比較してそれぞれの位置を特定する方法が考えられる。
顔情報を数値化することで、特定の顔画像を抽出することが可能となる。例えば、予め特定の人物の顔情報を数値化して保存しておく。そして、画像データから顔画像が抽出されたら、当該顔画像を数値化し、保存されている数値化された顔情報と比較する。
顔情報の数値化は、例えば、様々な顔パターンを登録した顔情報辞書を予め用意し、この顔情報辞書に登録された顔パターンと、ユーザが顔を撮影した顔画像データから目、鼻、口の位置情報とを比較して行うことが考えられる。一例として、顔情報辞書に登録された顔パターンと、ユーザの顔画像データから抽出された目、鼻、口の位置情報とを比較して類似度を求め、顔情報辞書に登録される顔パターンのうち最も類似度の大きい顔パターンを抽出し、当該顔パターンを示す情報と類似度情報とを、当該ユーザの顔の特徴データとして用いる。類似度は、例えば顔情報辞書に基づく情報とユーザの顔画像データに基づく情報との差分を用いることができる。また、この顔パターンを用いることで、笑い顔などの表情の解析を行うことが考えられる。
信号処理部102において、音声解析部126は、例えばバッファメモリを有し、入力された音声データをバッファメモリに溜め込んで解析し、音声データに関する種々の情報を得る。例えば、音声解析部126は、入力された音声データに対して時間、周波数および強度で解析し、解析結果に基づき、当該音声データに人間の声が含まれているか否か、人間の声の場合、笑い声であるか否かを判断することが考えられる。CPU110は、音声解析部126により音声データから人声や笑い声などが検出されたら、これらが検出された時刻情報(例えばPTS)をマルチプレクサ124から取得し、当該音声データに対応するメタデータを作成する。作成されたメタデータは、一旦RAM112に記憶される。音声解析部126の処理を、CPU110上で動作するプログラムで実現するようにしてもよい。
なお、音声データに基づき人物を特定することも可能である。例えば、上述した音声データに対する時間、周波数および強度による解析により声紋パターンを得て、人物の識別を行うことが考えられる。これに限らず、任意の発音に基づき話者を特定するテキスト独立型話者認識の手法を用いて得られた情報を、ユーザの声音による本人識別情報としてもよい。テキスト独立型話者認識の方法としては、ベクトル量子化歪みによる方法や、HMM(Hidden Markov Model)およびGMM(Gaussian Mixture Model)による方法などが提案されている。
このような構成を有する記録装置100における動作について説明する。なお、ここでは、端子120および121から供給された動画データおよび音声データを、ハードディスク129に記録するものとして説明する。
ベースバンドの動画データが端子120から記録部101に入力され、信号処理部102に供給される。そして、この動画データは、ビデオエンコーダ122に供給される。例えばCPU110による記録開始の命令に応じて、ビデオエンコーダ122は、供給された動画データの圧縮符号化を開始する。ビデオエンコーダ122は、ベースバンドの動画データを圧縮符号化してMPEG2のエレメンタリストリーム(ES)として出力する。このエレメンタリストリームは、マルチプレクサ124に供給される。
一方、画像解析部125は、ビデオエンコーダ122に供給された動画データを解析し、例えばフレーム単位で顔画像の検出を行う。顔画像の検出は、フレーム毎に限らず、複数フレームおきでもよい。顔画像が検出されると、例えばCPU110によりマルチプレクサ124から顔画像が検出されたフレームに対応する時刻情報が取得され、顔情報が生成される。生成された顔情報は、メタデータとしてRAM112に記憶される。
ベースバンドの音声データが端子121から記録部101に入力され、信号処理部102に供給される。そして、この音声データは、オーディオエンコーダ123に供給される。オーディオエンコーダ123は、上述のCPU110による記録開始命令に応じて、供給された音声データの圧縮符号化を開始する。オーディオエンコーダ123で圧縮符号化された音声データは、マルチプレクサ124に供給される。
一方、音声解析部126は、オーディオエンコーダ123に供給された音声データに対して、例えば時間、周波数および強度などを解析する。CPU110は、この解析結果に基づき、例えば当該音声データに人声が含まれているか否か、含まれている場合、それが笑い声か否かなどを判断する。人声や笑い声が音声データから検出されると、CPU110によりマルチプレクサ124から人声や笑い声が検出された部分に対応する時刻情報が取得される。取得された情報は、当該音声データのメタデータとして、RAM112に記憶される。
マルチプレクサ124は、それぞれ圧縮符号化されて供給された動画データおよび音声データを所定の方式で多重化し、1本のデータストリームとして出力する。例えば、マルチプレクサ124は、バッファメモリを有し、供給された圧縮動画データおよび圧縮音声データを一旦バッファメモリに格納する。
バッファメモリに格納された圧縮動画データは、所定に分割されヘッダが付加されて、PESパケット化される。圧縮音声データも同様に、所定に分割されヘッダが付加されてPESパケット化される。ヘッダには、PTSやDTSといった、MPEG2システムズに規定される所定の情報が格納される。PESパケットは、所定に分割され、固定長のパックに格納される。マルチプレクサ124から出力されたパックは、ストリームバッファ127に一旦溜め込まれる。
記録再生制御部128は、ストリームバッファ127に溜め込まれたデータのデータ量を監視し、ストリームバッファ127に所定量以上のデータが溜め込まれると、ストリームバッファ127からハードディスク129の記録単位毎にデータを読み出してハードディスク129に書き込む。また、ハードディスク129に書き込まれたストリームデータに対応するメタデータがRAM112から読み出され、当該ストリームデータに所定に関連付けられて、ハードディスク129に書き込まれる。なお、メタデータは、例えばストリームデータのハードディスク129に対する書き込みの終了後に、ハードディスク129に対して書き込むことが考えられる。
なお、記録されるビデオストリームに対して、マークを打ちチャプタを生成することができる。例えば、ユーザは、図示されないモニタ装置に映出される、記録を行う動画データの映像に基づき、所望のタイミングでUI部113に対してマークを打つための所定の操作を行う。UI部113は、この操作に応じて制御信号を出力し、CPU110に供給する。CPU110は、この制御信号に応じて信号処理部102から対応する時刻情報を取得し、マーク情報としてRAM112に記憶する。RAM112に記憶されたマーク情報は、例えば上述のメタデータと共に、ストリームデータに関連付けられてハードディスク129に書き込まれる。
次に、記録装置100による、ハードディスク129に書き込まれたコンテンツデータの、他の記録媒体(例えばDVD150)に対する一例のダビング処理について、図12のフローチャートを用いて説明する。先ず、ステップS40で、ダビングを行うコンテンツデータが選択される。例えば、CPU110は、ハードディスク129に記録されるコンテンツデータの情報を所定に取得し、UI部113が有する図示されない表示装置に表示させる。コンテンツデータの情報は、例えばチャプタ単位で一覧表示させることが考えられる。ユーザは、この表示装置に表示されたコンテンツの情報に基づきUI部113に対して所定に操作を行い、ダビングを行いたいコンテンツデータを選択する。
ステップS41で、ダビング先の記録媒体、例えばDVD150がドライブ装置130に装填される。CPU110は、ドライブ装置130に装填されたこのDVD150の記録可能容量を、例えばファイルシステムにより取得する(ステップS42)。そして、次のステップS43で、CPU110は、ステップS40で選択された、ダビングを行うコンテンツデータのデータ量と、ステップS42で取得されたダビング先の記録媒体であるDVD150の記録可能容量とを比較する。
若し、ステップS43の比較の結果、ダビングを行うコンテンツデータのデータ量がダビング先の記録媒体の記録可能容量よりも大きいと判断された場合、ダビングを行うコンテンツデータを、ダビング先の記録媒体に記録可能なように分割する必要がある。そこで、処理はステップS44に移行され、上述した図5または図9を用いて説明した処理に従い、コンテンツデータの分割位置Divを決定する。ここでは、説明のため、図5を用いて説明した方法に従い分割位置Divを決定するものとする。
すなわち、ステップS42で取得された、ダビング先の記録媒体の記録可能容量に基づき、コンテンツデータの分割候補位置の初期値が設定される(図5のステップS10)。そして、現在分割候補位置として設定されている位置について、所定の評価関数f(x)を用いて評価値を算出ながら(図5のステップS11)、算出された評価値を閾値と比較し(図5のステップS12)、比較結果に基づき分割候補位置を戻していく(図5のステップS13)。この例では、動画データをMPEG2方式で圧縮符号化しているので、例えばGOP単位で分割候補位置が戻される。GOPの位置は、例えば、パックヘッダやPESパケットのヘッダ情報などから求めることができる。
分割候補位置が戻されると(図5のステップS13)、位置を戻された新たな分割候補位置について、評価値の算出が行われる(図5のステップS12)。
一方、算出された評価値が閾値以上であると判断されたら(図5のステップS12)、現在の分割候補位置が最終的な分割位置Divに設定される(図5のステップS14)。
図12の説明に戻り、このようにして分割位置Divが設定されたら、ステップS45で、ダビング元の記録媒体であるハードディスク129から、ダビング先の記録媒体であるDVD150に対して、コンテンツデータのダビング処理が行われる。例えば、CPU110は、ハードディスク129に記録されたコンテンツデータを、ダビング開始位置から読み出すと共に、読み出されたコンテンツデータをDVD150に記録するように記録再生制御部128に命令を出す。なお、ダビング開始位置は、選択されたコンテンツデータの最初のダビング時は、例えば、最初に選択されたコンテンツデータの先頭とする。
なお、上述したステップS43で、ダビングを行うコンテンツデータのデータ量がダビング先の記録媒体の記録可能容量よりも小さいと判断された場合には、ステップS43から直接的にステップS45に処理が移行され、ダビング処理が実行される。
ステップS45で、分割位置Divまでダビング処理が終了したら、処理はステップS46に移行され、選択されたコンテンツデータ全てについてダビング処理が終了したか否かが判断される。若し、終了したと判断されれば、一連の処理が終了される。
一方、ダビング処理が終了してない、すなわち、選択されたコンテンツデータについて、未だダビングされていないデータがあると判断されたら、処理はステップS47に移行され、ダビング先記録媒体を交換してダビング処理を継続させる旨を促すような通知がなされる。通知は、例えばUI部113が有する図示されない表示装置を用いて行うことができる。
ステップS47の通知の後、処理がステップS41に戻され、交換されたダビング先記録媒体に対し、ステップS45でダビングが終了された分割位置Divをダビング開始位置としたダビング処理が行われる。
なお、上述では、この発明の実施の第1の形態に適用できる符号化方式としてMPEG2を例にとって説明したが、これはこの例に限定されない。すなわち、この発明は、動画データに関し、所定単位でストリームの位置を指定し、指定された位置の画像を解析可能であれば、他の符号化方式にも適用可能なものである。例えば、MPEG4や、H.264|AVC(ITU−T(International Telecommunication Union-Telecommunication Standarization Sector)勧告H.264あるいはISO(International Organization for Standarization)/IEC(International Electrotechnical Commission)国際標準14496−10(MPEG−4パート10)Advanced Video Codingに規定される符号化方式)、クイックタイムムービー(QuickTime Movie:登録商標)、WMV(Windows Media Video:登録商標)、DivX(登録商標)など、様々な符号化方式にこの発明の実施の第1の形態を適用することが考えられる。これは、後述する実施の第2および第3の形態についても同様である。
次に、この発明の実施の第2の形態について説明する。この実施の第2の形態では、この発明を、撮像素子と、被写体からの光を撮像素子に入射させる光学系とを有し、撮像素子で撮像された撮像信号に基づきビデオデータを記録媒体に記録するようにした、ビデオカメラ装置に適用した。
図13は、この発明の実施の第2の形態によるビデオカメラ装置200の一例の構成を示す。記録系、再生系および制御系の構成は、図11を用いて説明した記録装置100の構成を略そのまま適用できるので、図11と共通する部分には同一の符号を付し、詳細な説明を省略する。
図13の構成において、カメラ部210は、映像信号に関する構成として、光学系211、撮像素子212、撮像信号処理部213、カメラ制御部214および表示部215を有し、音声信号に関する構成として、マイクロフォン(MIC)216および音声信号処理部217を有する。制御部104は、カメラ部210の各部との間で各種制御信号や情報のやりとりを行い、カメラ部210の動作を制御する。また、制御部104は、ユーザ操作に応じてUI部113から供給される制御信号に基づき、カメラ部210の動作を制御する。なお、ビデオカメラ装置200として構成される場合、記録開始操作および記録停止操作は、例えば、UI部113に設けられた単一の記録スイッチを用い、当該記録スイッチが押下される毎に記録開始および記録停止が交互に指示されるようになされるのが一般的である。
カメラ部210において、光学系211は、被写体からの光を撮像素子212に導くためのレンズ系、絞り調整機構、フォーカス調整機構、ズーム機構、シャッタ機構などを備える。絞り調整機構、フォーカス調整機構、ズーム機構およびシャッタ機構の動作は、制御部104から供給される制御信号に基づき、カメラ制御部214により制御される。
撮像素子212は、例えばCCD(Charge Coupled Device)からなり、光学系211を介して照射された光を光電変換により電気信号に変換し、所定の信号処理を施し撮像信号として出力する。撮像信号処理部213は、撮像素子から出力された撮像信号に対して所定の信号処理を施し、ベースバンドの動画データとして出力する。撮像素子212をCMOS(Complementary Metal-Oxide Semiconductor)イメージャを用いて構成することも可能である。
例えば撮像信号処理部213は、撮像素子212から出力された撮像信号に対して、CDS(Correlated Double Sampling)回路により画像情報を有する信号だけをンプリングすると共に、ノイズを除去し、AGC(Auto Gain Control)回路によりゲインを調整する。そして、A/D変換によりディジタル信号に変換する。また、撮像信号処理部213は、このディジタル信号に対して検波系の信号処理を施し、R(赤色)、G(緑色)およびB(青色)各色の成分を取り出し、γ補正やホワイトバランス補正などの処理を行い、最終的に1本のベースバンドの動画データとして出力する。
また、撮像信号処理部213は、撮像素子212から出力された撮像信号の情報を制御部104に送る。制御部104は、この情報に基づき光学系211を制御するための制御信号を生成し、カメラ制御部214に供給する。カメラ制御部214は、この制御信号に基づきフォーカス調整機構や絞り調整機構などの制御を行う。
さらに、撮像信号処理部213は、撮像素子212から出力された撮像信号に基づき、例えばLCD(Liquid Crystal Display)を表示素子として用いた表示部215に映出させる映像信号を生成する。
一方、マイクロフォン216は、周囲の音声を収音して電気信号に変換して出力する。マイクロフォン216から出力された音声信号は、音声信号処理部217に供給される。音声信号処理部217は、供給された音声信号を、リミッタを介してからA/D変換を施して音声データとし、ノイズ除去や音質補正など所定の音声信号処理を施してベースバンドの音声データとして出力する。
カメラ部210の撮像信号処理部213から出力されたベースバンドの動画データは、端子120を介して記録部101に供給され、ビデオエンコーダ122に入力される。また、音声信号処理部217から出力されたベースバンドの音声データは、端子121を介して記録部101に供給され、オーディオエンコーダ123に入力される。
記録停止状態からUI部113に設けられた記録スイッチが押下されると、記録開始を指示する制御信号がUI部113から制御部104に供給され、制御部104の制御に基づきカメラ部310から出力されたベースバンドのディジタルビデオ信号および音声データのハードディスク129への記録が開始される。
すなわち、既に説明したように、動画データおよび音声データは、ビデオエンコーダ122およびオーディオエンコーダ123でそれぞれ所定に圧縮符号化される。圧縮符号化された動画データおよび音声データは、マルチプレクサ124で所定にパケット化され、さらにパック化、多重化されてストリームデータとされる。ストリームデータは、ストリームバッファ127を介して記録再生制御部128に供給され、ハードディスク129に対してコンテンツデータとして記録される。
また、動画データおよび音声データは、ビデオエンコーダ122およびオーディオエンコーダ123での圧縮符号化処理と共に、画像解析部125および音声解析部126でそれぞれ所定に解析処理が行われる。すなわち、上述したように、動画データは、画像解析部125で画像解析され、解析結果に基づき制御部104により顔画像の検出、顔画像が検出されたコンテンツデータ上の時刻を示す時刻情報の取得などの処理が行われる。同様に、音声データは、音声解析部126で解析され、解析結果に基づき制御部104により人声の抽出や、笑い声の抽出がなされ、これらの情報が抽出されたコンテンツデータ上の時刻を示す時刻情報の取得などの処理が行われる。
制御部104は、画像解析部125や音声解析部126による解析処理に基づき取得された情報から、ハードディスク129に記録されるコンテンツデータに対応するメタデータを生成する。生成されたメタデータは、コンテンツデータのハードディスク129への記録に伴い、当該コンテンツデータと関連付けられてハードディスク129に記録される。
ハードディスク129への記録開始および記録終了に伴い、コンテンツデータに対してマークが打たれ、チャプタが設定される。これに限らず、例えばユーザのUI部113に対する処理の操作に応じて、撮影中の任意のタイミングでマークを打ち、チャプタを設定することができる。マーク情報は、当該コンテンツデータを関連付けられてハードディスク129に記録される。
ハードディスク129に記録されたコンテンツデータの、他の記録媒体、例えばDVD150やメモリ151へのダビング処理は、上述した実施の第1の形態によるダビング処理と何ら変わるところがないため、ここでの詳細な説明を省略する。
次に、この発明の実施の第3の形態について説明する。この実施の第3の形態は、この発明によるダビング処理を、図14に概略的に示されるような一般的な構成のコンピュータ300で実現する例である。すなわち、この発明によるダビング処理は、上述した実施の第1の形態による記録装置100のような、ビデオエンコーダ122、オーディオエンコーダ123およびマルチプレクサ124といった、動画データや音声データに対する圧縮符号化や多重化処理を行う構成を有していなくても、実現可能である。
この場合、動画データおよび/または音声データからなるコンテンツデータは、他の機器で生成されたデータをコンピュータ300が有するハードディスクなどの記録媒体にコピーして用いることが考えられる。メタデータは、当該他の機器で予め生成して、コンピュータ300にコピーしてもよいし、コンピュータ300においてコンテンツデータを解析してメタデータを生成することもできる。この場合には、コンピュータ300上で、コンテンツデータに含まれる、圧縮符号化された動画データや音声データを一旦デコードする必要がある。
図14において、バス310に対してCPU311、RAM312、ROM313、表示制御部314および通信インターフェース(I/F)315がそれぞれ接続される。さらに、バス310に対して、入力I/F320、メモリI/F322、リード/ライト制御部333およびデータI/F325がそれぞれ接続される。入力I/F320には、例えばキーボード321Aやマウス321Bといった入力デバイスが接続される。リード/ライト制御部333は、ハードディスク330といったストレージ装置や、装填されたディスク状記録媒体に対するデータの読み書きを行うドライブ装置324が接続される。
CPU311は、ROM313に記憶される基本プログラムや、ハードディスク330に格納されるプログラムに従い、RAM312をワークメモリとして用い、このコンピュータ300全体の制御を行ったり、アプリケーションソフトウェアを実行したりする。表示制御部314は、CPU311で所定のプログラムに従い生成された表示制御信号に基づき、ディスプレイ315に表示可能な形式の信号を生成し、ディスプレイ315に供給する。通信I/F316は、所定のプロトコルに基づき、CPU311の命令に従い外部との通信を制御する。例えば、通信I/F316は、通信プロトコルとしてTCP/IP(Transmission Control Protocol/Internet Protocol)などを実装し、CPU311の命令に従いインターネットとの通信を制御する。
リード/ライト制御部323は、CPU311の命令に従い、ハードディスク330に対するデータの読み書きや、ドライブ装置324に装填された記録媒体に対するデータの読み書きを制御する。ここで、ドライブ装置324は、例えば記録可能なタイプのDVD331に対応し、DVD331に対するデータの読み書きが可能とされているものとする。リード/ライト制御部323は、CPU311から指定されたアドレスに従いハードディスク330の動作を制御し、当該アドレスにアクセスする。同様に、リード/ライト制御部323は、CPU311から指定されたアドレスに従いドライブ装置324を制御し、DVD331上の当該アドレスにアクセスする。
メモリI/F322は、脱着可能且つ不揮発性のメモリ332に対するデータの読み書きを制御する。メモリI/F322は、CPU311から指定されたアドレスに従い、メモリ332上の当該アドレスにアクセスする。
データI/F325は、外部の機器と有線または無線で接続され、所定のプロトコルで以て接続された機器との間でデータのやりとりを行う。データI/F325に適用可能なインターフェイス規格としては、USB(Universal Serial Bus)やIEEE1394(Institute Electrical and Electronics Engineers 1394)などのシリアルインターフェイスが考えられる。勿論、これらのインターフェイスに限らず、他のインターフェイス規格を採用してもよい。
ファイルシステムやGUI(Graphical User Interface)など、このコンピュータ300における基本的な機能を提供するためのソフトウェアであるOS(Operating System)や、この発明によるダビング処理を実行するためのアプリケーションソフトウェアなど、各種のプログラムは、例えばハードディスク330に所定に格納される。これらのプログラムは、例えばCD−ROM(Compact Disc-Read Only Memory)やDVD−ROMといった記録媒体に記録されて提供され、ドライブ装置324により読み出されてハードディスク330上に所定に格納されることで、実行可能とされる。ダビング処理を行うアプリケーションソフトウェアは、図示されないインターネット上のサーバにより提供されるようにしてもよい。CPU311の命令に従い通信I/F316によりインターネットを介してサーバにアクセスし、当該アプリケーションソフトウェアをダウンロードする。ダウンロードされたアプリケーションソフトウェアは、ハードディスク330上に所定に格納される。
例えばキーボード321Aやマウス321Bなどの入力デバイスに対する所定の操作によりアプリケーションソフトウェアの起動が指示されると、OSは、ハードディスク330からアプリケーションソフトウェアのプログラムを読み出し、RAM312上に所定に展開する。CPU311は、RAM312上に展開されたこのプログラムに従い、表示制御信号の生成、リード/ライト制御部323やメモリI/F322に対する読み出しや書き込み命令の生成、入力デバイスによる入力の受け付けなどを行い、アプリケーションソフトウェアを実行する。
このような構成のコンピュータ300に対し、所定に生成されたコンテンツデータが入力される。ここでは、コンテンツデータに含まれる動画データおよび音声データは、MPEG2方式に従い圧縮符号化がなされ、MPEGシステムズに従い多重化がなされているものとする。また、コンテンツデータに伴い、当該コンテンツデータに対応するメタデータやマーク情報も、コンピュータ300に入力される。これらメタデータおよびマーク情報を、コンテンツデータに含めてもよい。入力されたコンテンツデータ、メタデータおよびマーク情報は、ハードディスク330に格納される。
データは、例えばDVD331に所定に記録されて供給されることが考えられる。これに限らず、データI/F325に対して所定のインターフェイスを介して接続された外部の機器からデータ通信により供給されるようにしてもよいし、通信I/F316によりインターネットを介して供給されるようにもできる。
ここで、ドライブ装置324に対して例えば新規のDVD331を装填し、ハードディスク330に格納されているコンテンツデータをチャプタ単位で選択し、DVD331にダビングさせることができる。ダビング処理は、所定のアプリケーションソフトウェアを起動し、そのアプリケーションソフトウェアに従いCPU311の制御により行う。このアプリケーションソフトウェアは、ダビング処理の制御を行うと共に、ダビング処理に関わる操作などをユーザに促すためのGUIを構成する。
ダビング処理は、アプリケーションソフトウェアに従ったCPU311の制御に基づき、上述の実施の第1の形態で、図5または図9、ならびに、図12を用いて説明した方法と、略同一に実行することができる。ここで、コンピュータ300でこの発明によるダビング処理を行う場合、ダビング対象のコンテンツデータが他の機器で生成され、DVD331やメモリ332といった記録媒体や、通信I/F316やデータI/F325を介して供給される場合、画像解析や音声解析の結果に基づくメタデータが存在しないことが考えられる。
このような場合、ダビング対象とされるコンテンツデータに対して、アプリケーションソフトウェアに従いCPU311によって画像解析処理や音声解析処理を行い、メタデータを生成することが考えられる。図15は、ダビング対象のコンテンツデータに対して画像解析処理や音声解析処理を行いながら、分割位置Divを設定する一例の処理を示すフローチャートである。この図15に例示するフローチャートによる処理を、上述した図12のフローチャートにおけるステップS44において実行する。なお、図15において、上述した図5のフローチャートと共通する処理には同一の符号を付し、詳細な説明を省略する。
図12のステップS42で取得された、ダビング先の記録媒体の記録可能容量に基づき、コンテンツデータの分割候補位置の初期値が設定される(ステップS10)。そして、現在分割候補位置として設定されている位置を含む所定単位のデータをCPU311によりデコードする(ステップS110)。動画データをMPEG2方式で圧縮符号化しているこの例では、例えば、現在分割候補位置として設定されている位置を含むGOPがデコードされる。デコードされたデータは、例えばRAM312に記憶される。
次のステップS111では、ステップS110でデコードされRAM212に記憶された動画データおよび音声データに対して、上述したような解析処理が行われる。解析処理の結果に基づき所定の評価関数f(x)を用いて評価値を算出しながら(ステップS11)、算出された評価値を閾値と比較し(ステップS12)、比較結果に基づき分割候補位置を戻していく(ステップS13)。この例では、動画データをMPEG2方式で圧縮符号化しているので、例えばGOP単位で分割候補位置が戻される。
分割候補位置が戻されると(ステップS13)、位置を戻された新たな分割候補位置について、当該位置を含むGOPがデコードされ(ステップS110)、デコードされた動画データおよび音声データに対して解析処理がなされる(ステップS111)。
なお、ここでは、分割候補位置毎にデコードし、解析処理を行うように説明したが、これはこの例に限定されない。例えば、ダビング対象のコンテンツデータが選択された時点で、当該コンテンツデータに対するデコードおよび解析処理を行い、メタデータを作成しておくことも考えられる。分割位置Divの設定処理は、このメタデータを用いて、上述した図5または図9、ならびに、図12のフローチャートに従い行う。
また、コンピュータ300を用いてダビング処理を行う場合、アプリケーションソフトウェアが対応していれば、コンテンツデータを構成する動画データおよび音声データは、圧縮符号化方式やフォーマットなどを問わない。すなわち、例えば任意の形式の動画データについて、圧縮符号化方式が判別でき、判別された圧縮符号化方式で圧縮符号化された動画データをデコードできれば、デコードされたデータに対して解析処理を行うことができる。アプリケーションソフトウェアに対して所定の圧縮符号化方式に対応するデコーダのモジュールを追加するように構成することも可能である。
なお、上述では、ダビング先の記録媒体をドライブ装置324に装填されるDVD331としたが、これはこの例に限定されない。例えばメモリI/F322に装填されるメモリ332をダビング先の記録媒体とすることができる。また、データI/F325により所定のインターフェイスを介して接続された他の機器を、ダビング先として指定することもできる。例えば、所定のインターフェイスを介して制御可能なハードディスクを、ダビング先の記録媒体として指定できる。さらに、通信I/F316によりインターネットを介して接続される他の機器をダビング先に指定することも考えられる。
発明の実施の第1の形態による分割位置決定方法について、概略的に説明するための略線図である。 発明の実施の第1の形態による分割位置決定方法について、概略的に説明するための略線図である。 発明の実施の第1の形態による分割位置決定方法について、概略的に説明するための略線図である。 異なる複数の顔画像を検出した場合について説明するための略線図である。 実施の第1の形態によるコンテンツデータに対する分割位置Divの一例の設定処理を示すフローチャートである。 評価関数f(x)と、評価関数f(x)から算出された評価値に対する閾値の例を示す略線図である。 チャプタを分割した際に再生時間が短すぎるチャプタが生成されないように分割位置Divを制限することを説明するための略線図である。 分割候補位置を戻しすぎてダビング開始位置付近まで達してしまうことを説明するための略線図である。 実施の第1の形態の変形例によるコンテンツデータの分割位置Divの一例の設定処理を示すフローチャートである。 評価関数f1(x)を用いた場合の、コンテンツデータにおける評価値の一例の状態を示す略線図である。 発明の実施の第1の形態に適用可能な記録装置の一例の構成を示す略線図である。 記録装置による、ハードディスクに書き込まれたコンテンツデータの、他の記録媒体に対する一例のダビング処理を示すフローチャートである。 発明の実施の第2の形態によるビデオカメラ装置の一例の構成を示すブロック図である。 一般的なコンピュータの一例の構成を示すブロック図である。 ダビング対象のコンテンツデータに対して画像解析処理や音声解析処理を行いながら、分割位置Divを設定する一例の処理を示すフローチャートである。
符号の説明
1 ダビング元の記録媒体
2 コンテンツデータ
3,3A,3B ダビング先の記録媒体
100 記録装置
104 制御部
110 CPU
113 UI部
125 画像解析部
126 音声解析部
129 ハードディスク
130 ドライブ装置
150 DVD
200 ビデオカメラ装置
300 コンピュータ

Claims (15)

  1. コンテンツデータを分割するようにしたデータ処理装置において、
    上記コンテンツデータは動画データを含み、該動画データに含まれる顔画像の情報である解析結果が該コンテンツデータに関連付けられ、
    評価関数と上記動画データの解析結果とに基づき、上記コンテンツデータの分割候補位置での評価値を算出する評価値算出部と、
    上記評価値算出部で算出される評価値と閾値とを比較する比較部と、
    記コンテンツデータの所定単位毎に上記分割候補位置を取得する分割候補位置取得部と、
    上記比較部による比較結果に基づき上記コンテンツデータ上の分割位置を決定する制御部と
    を有し、
    上記評価値算出部は、ユーザから見える上記コンテンツデータ内の再生の単位であるチャプタの先頭から所定の再生時間を経過した第1の位置と、該チャプタの終端から所定の再生時間を遡った第2の位置とに基づき、該チャプタの先頭から該第1の位置までの区間と、該第2の位置から該チャプタの終端までの区間とに上記分割位置が決定されないように、上記評価値を算出するようにし、
    上記制御部は、
    上記比較部による比較の結果、第1の分割候補位置での評価値が上記閾値を超えない場合には、上記分割候補位置取得部により第2の分割候補位置を取得し、
    上記第1の分割候補位置での評価値が上記閾値を超える場合には、上記第1の分割候補位置に基づき上記コンテンツデータの分割位置を決定するデータ処理装置。
  2. 動画データを含み、該動画データを解析した解析結果が関連付けられているコンテンツデータを、分割するための分割位置を決定するようにしたデータ処理装置において、
    記コンテンツデータの分割候補位置に対応する評価値を算出する評価値算出部と、
    上記評価値算出部で算出される評価値と閾値とを比較する比較部と、
    上記比較部による比較結果に応じて上記分割候補位置に基づき上記分割位置を決定する制御部と
    を有し、
    上記評価値算出部は、上記動画データに含まれる顔画像の情報に基づき上記評価値を算出し、
    上記制御部は、上記分割候補位置に対応する評価値が上記閾値を超えるか否かに応じて、上記分割位置を決定し、
    ユーザから見える上記コンテンツデータ内の再生の単位であるチャプタの先頭と、上記先頭から所定の再生時間経過した第1の位置との間の区間、または、上記チャプタの終端と、上記終端から所定の再生時間遡った第2の位置との間の区間に、上記分割位置が決定されないようにするデータ処理装置。
  3. 記コンテンツデータは音声データを含み、該音声データを解析した解析結果が該コンテンツデータに関連付けられ、
    上記評価算出部は、上記音声データの上記解析結果に基づき上記評価値を算出する請求項1または2に記載のデータ処理装置。
  4. 上記評価算出部は、上記音声データの上記分割候補位置で検出された所定の特性に基づき上記評価値を算出する請求項3に記載のデータ処理装置。
  5. 上記制御部は、
    上記コンテンツデータの所定の区間に位置する上記分割候補位置に対応する上記評価値が、上記閾値を超えるようにならない場合に、上記所定の区間に位置する上記分割候補位置の中で、上記評価算出部で算出された上記評価値のうち最も大きさ評価値が算出された上記分割候補位置に基づき上記分割位置を決定する請求項1乃至4のいずれか1項に記載のデータ処理装置。
  6. コンテンツデータを分割するようにしたデータ処理装置におけるデータ処理方法において、
    上記コンテンツデータは動画データを含み、該動画データに含まれる顔画像の情報である解析結果が該コンテンツデータに関連付けられ、
    評価関数と上記動画データの解析結果とに基づき、コンテンツデータの分割候補位置での評価値を算出し、
    上記算出される評価値と閾値とを比較し、
    記コンテンツデータの所定単位毎に上記分割候補位置を取得し、
    上記比較の結果に基づき上記コンテンツデータ上の分割位置を決定し、
    ユーザから見える上記コンテンツデータ内の再生の単位であるチャプタの先頭から所定の再生時間を経過した第1の位置と、該チャプタの終端から所定の再生時間を遡った第2の位置とに基づき、該チャプタの先頭から該第1の位置までの区間と、該第2の位置から該チャプタの終端までの区間とに上記分割位置が決定されないように、上記評価値を算出するようにし、
    上記比較の結果、第1の分割候補位置での評価値が上記閾値を超えない場合には、第2の分割候補位置を取得し、
    上記第1の分割候補位置での評価値が上記閾値を超える場合には、上記第1の分割候補位置に基づき上記コンテンツデータの分割位置を決定するデータ処理方法。
  7. 動画データを含み、該動画データを解析した解析結果が関連付けられているコンテンツデータに、該コンテンツデータを分割するための分割位置を設定するようにしたデータ処理装置におけるデータ処理方法において、
    上記コンテンツデータの分割候補位置に対応する評価値を算出し、
    記算出される評価値と閾値とを比較し、
    上記比較の結果に基づき上記コンテンツデータ上の分割位置を決定し、
    上記動画データに含まれる顔画像の情報に基づき上記評価値を算出し、
    上記分割候補位置に対応する評価値が上記閾値を超えるか否かに応じて、上記分割候補位置に基づいて上記分割位置を決定し、
    ユーザから見える上記コンテンツデータ内の再生の単位であるチャプタの先頭と、上記先頭から所定の再生時間経過した第1の位置との間の区間、または、上記チャプタの終端と、上記終端から所定の再生時間遡った第2の位置との間の区間に、上記分割位置が決定されないようにするデータ処理方法。
  8. コンテンツデータを分割するようにしたデータ処理方法を、コンピュータに実行させるデータ処理プログラムにおいて、
    上記コンテンツデータは動画データを含み、該動画データに含まれる顔画像の情報である解析結果が該コンテンツデータに関連付けられ、
    評価関数と上記動画データの解析結果とに基づき、コンテンツデータの分割候補位置での評価値を算出し、
    上記算出される評価値と閾値とを比較し、
    記コンテンツデータの所定単位毎に上記分割候補位置を取得し、
    上記比較の結果に基づき上記コンテンツデータ上の分割位置を決定し、
    ユーザから見える上記コンテンツデータ内の再生の単位であるチャプタの先頭から所定の再生時間を経過した第1の位置と、該チャプタの終端から所定の再生時間を遡った第2の位置とに基づき、該チャプタの先頭から該第1の位置までの区間と、該第2の位置から該チャプタの終端までの区間とに上記分割位置が決定されないように、上記評価値を算出するようにし、
    上記比較の結果、第1の分割候補位置での評価値が上記閾値を超えない場合には、第2の分割候補位置を取得し、
    上記第1の分割候補位置での評価値が上記閾値を超える場合には、上記第1の分割候補位置に基づき上記コンテンツデータの分割位置を決定するデータ処理方法を、コンピュータに実行させるデータ処理プログラム。
  9. 動画データを含み、該動画データを解析した解析結果が関連付けられているコンテンツデータに、該コンテンツデータを分割するための分割位置を設定するようにしたデータ処理方法を、コンピュータに実行させるデータ処理プログラムにおいて、
    上記コンテンツデータの分割候補位置に対応する評価値を算出し、
    記算出される評価値と閾値とを比較し、
    上記比較の結果に基づき上記コンテンツデータ上の分割位置を決定し、
    上記動画データに含まれる顔画像の情報に基づき上記評価値を算出し、
    上記分割候補位置に対応する評価値が上記閾値を超えるか否かに応じて、上記分割候補位置に基づいて上記分割位置を決定し、
    ユーザから見える上記コンテンツデータ内の再生の単位であるチャプタの先頭と、上記先頭から所定の再生時間経過した第1の位置との間の区間、または、上記チャプタの終端と、上記終端から所定の再生時間遡った第2の位置との間の区間に、上記分割位置が決定されないようにするデータ処理方法を、コンピュータに実行させるデータ処理プログラム。
  10. 記録媒体に記録されたコンテンツデータを他の記録媒体にダビングするようにした記録装置において、
    上記コンテンツデータは動画データを含み、該動画データに含まれる顔画像の情報である解析結果が該コンテンツデータに関連付けられ、
    筐体に対して固定的に用いられる第1の記録媒体からコンテンツデータを再生する再生部と、
    着脱可能な第2の記録媒体に上記コンテンツデータを記録する記録部と、
    上記第1の記録媒体から再生された上記コンテンツデータに対して上記第2の記録媒体に記録可能なデータ容量の範囲内で分割候補位置を設定し、評価関数と上記解析結果とに基づき該コンテンツデータの該分割候補位置での評価値を算出する評価値算出部と、
    上記評価値算出部で算出される評価値と閾値とを比較する比較部と、
    記コンテンツデータの所定単位毎に上記分割候補位置を取得する分割候補位置取得部と、
    上記比較部による比較結果に基づき上記コンテンツデータ上の分割位置を決定し、上記第1の記録媒体に記録される上記コンテンツデータを、該分割位置まで上記第2の記録媒体にダビングするように上記再生部および上記記録部を制御する制御部と
    を有し、
    上記評価値算出部は、
    ユーザから見える上記コンテンツデータ内の再生の単位であるチャプタの先頭から所定の再生時間を経過した第1の位置と、該チャプタの終端から所定の再生時間を遡った第2の位置とに基づき、該チャプタの先頭から該第1の位置までの区間と、該第2の位置から該チャプタの終端までの区間とに上記分割位置が決定されないように、上記評価値を算出するようにし、
    上記制御部は、
    上記比較部による比較の結果、第1の分割候補位置での評価値が上記閾値を超えない場合には、上記分割候補位置取得部により上記コンテンツデータ上で該第1の分割候補位置に対して先頭側の第2の分割候補位置を取得し、
    上記第1の分割候補位置での評価値が上記閾値を超える場合には、上記第1の分割候補位置に基づき上記コンテンツデータの分割位置を決定する記録装置。
  11. 記録媒体に記録されたコンテンツデータを他の記録媒体にダビングするようにした記録装置において、
    上記コンテンツデータは動画データを含み、該動画データに含まれる顔画像の情報である解析結果が該コンテンツデータに関連付けられ、
    筐体に対して固定的に用いられる第1の記録媒体からコンテンツデータを再生する再生部と、
    着脱可能な第2の記録媒体に上記コンテンツデータを記録する記録部と、
    上記第1の記録媒体から再生された上記コンテンツデータに対して上記第2の記録媒体に記録可能なデータ容量の範囲内で分割候補位置を設定し、該コンテンツデータの該分割候補位置での評価値を算出する評価値算出部と、
    上記評価値算出部で算出される評価値と閾値とを比較する比較部と、
    上記比較部による比較結果に応じて上記分割候補位置に基づき分割位置を決定する制御部と
    を有し、
    上記評価値算出部は、上記動画データに含まれる顔画像の情報に基づき上記評価値を算出し、
    上記制御部は、上記分割候補位置に対応する評価値が上記閾値を超えるか否かに応じて、上記分割位置を決定し、
    ユーザから見える上記コンテンツデータ内の再生の単位であるチャプタの先頭と、上記先頭から所定の再生時間経過した第1の位置との間の区間、または、上記チャプタの終端と、上記終端から所定の再生時間遡った第2の位置との間の区間に、上記分割位置が決定されないようにする記録装置。
  12. 記録媒体に記録されたコンテンツデータを他の記録媒体にダビングするようにした記録装置における記録方法において、
    上記コンテンツデータは動画データを含み、該動画データに含まれる顔画像の情報である解析結果が該コンテンツデータに関連付けられ、
    筐体に対して固定的に用いられる第1の記録媒体からコンテンツデータを再生し、
    着脱可能な第2の記録媒体に上記コンテンツデータを記録し、
    上記第1の記録媒体から再生された上記コンテンツデータに対して上記第2の記録媒体に記録可能なデータ容量の範囲内で分割候補位置を設定し、評価関数と上記解析結果とに基づき該コンテンツデータの該分割候補位置での評価値を算出し、
    記算出される評価値と閾値とを比較し、
    記コンテンツデータの所定単位毎に上記分割候補位置を取得し、
    上記比較の結果に基づき上記コンテンツデータ上の分割位置を決定し、上記第1の記録媒体に記録される上記コンテンツデータを、該分割位置まで上記第2の記録媒体にダビングするように制御し、
    ユーザから見える上記コンテンツデータ内の再生の単位であるチャプタの先頭から所定の再生時間を経過した第1の位置と、該チャプタの終端から所定の再生時間を遡った第2の位置とに基づき、該チャプタの先頭から該第1の位置までの区間と、該第2の位置から該チャプタの終端までの区間とに上記分割位置が決定されないように、上記評価値を算出するようにし、
    記比較の結果、第1の分割候補位置での評価値が上記閾値を超えない場合には、上記コンテンツデータ上で該第1の分割候補位置に対して先頭側の第2の分割候補位置を取得し、
    上記第1の分割候補位置での評価値が上記閾値を超える場合には、上記第1の分割候補位置に基づき上記コンテンツデータの分割位置を決定する記録装置における記録方法。
  13. 記録媒体に記録されたコンテンツデータを他の記録媒体にダビングするようにした記録装置における記録方法において、
    上記コンテンツデータは動画データを含み、該動画データに含まれる顔画像の情報である解析結果が該コンテンツデータに関連付けられ、
    筐体に対して固定的に用いられる第1の記録媒体からコンテンツデータを再生し、
    着脱可能な第2の記録媒体に上記コンテンツデータを記録し、
    上記第1の記録媒体から再生された上記コンテンツデータに対して上記第2の記録媒体に記録可能なデータ容量の範囲内で分割候補位置を設定し、該コンテンツデータの該分割候補位置での評価値を算出し、
    記算出される評価値と閾値とを比較し、
    上記比較の結に応じて上記分割候補位置に基づき分割位置を決定し、
    上記動画データに含まれる顔画像の情報に基づき上記評価値を算出し、
    上記分割候補位置に対応する評価値が上記閾値を超えるか否かに応じて、上記分割位置を決定し、
    ユーザから見える上記コンテンツデータ内の再生の単位であるチャプタの先頭と、上記先頭から所定の再生時間経過した第1の位置との間の区間、または、上記チャプタの終端と、上記終端から所定の再生時間遡った第2の位置との間の区間に、上記分割位置が決定されないようにする記録装置における記録方法。
  14. 記録媒体に記録されたコンテンツデータを他の記録媒体にダビングするようにした記録方法を、コンピュータに実行させる記録プログラムにおいて、
    上記コンテンツデータは動画データを含み、該動画データに含まれる顔画像の情報である解析結果が該コンテンツデータに関連付けられ、
    筐体に対して固定的に用いられる第1の記録媒体からコンテンツデータを再生し、
    着脱可能な第2の記録媒体に上記コンテンツデータを記録し、
    上記第1の記録媒体から再生された上記コンテンツデータに対して上記第2の記録媒体に記録可能なデータ容量の範囲内で分割候補位置を設定し、評価関数と上記解析結果とに基づき該コンテンツデータの該分割候補位置での評価値を算出し、
    記算出される評価値と閾値とを比較し、
    記コンテンツデータの所定単位毎に上記分割候補位置を取得し、
    上記比較の結果に基づき上記コンテンツデータ上の分割位置を決定し、上記第1の記録媒体に記録される上記コンテンツデータを、該分割位置まで上記第2の記録媒体にダビングするように制御し、
    ユーザから見える上記コンテンツデータ内の再生の単位であるチャプタの先頭から所定の再生時間を経過した第1の位置と、該チャプタの終端から所定の再生時間を遡った第2の位置とに基づき、該チャプタの先頭から該第1の位置までの区間と、該第2の位置から該チャプタの終端までの区間とに上記分割位置が決定されないように、上記評価値を算出するようにし、
    記比較の結果、第1の分割候補位置での評価値が上記閾値を超えない場合には、上記コンテンツデータ上で該第1の分割候補位置に対して先頭側の第2の分割候補位置を取得し、
    上記第1の分割候補位置での評価値が上記閾値を超える場合には、上記第1の分割候補位置に基づき上記コンテンツデータの分割位置を決定す記録方法を、コンピュータに実行させる記録プログラム。
  15. 記録媒体に記録されたコンテンツデータを他の記録媒体にダビングするようにした記録方法を、コンピュータに実行させる記録プログラムにおいて、
    上記コンテンツデータは動画データを含み、該動画データに含まれる顔画像の情報である解析結果が該コンテンツデータに関連付けられ、
    筐体に対して固定的に用いられる第1の記録媒体からコンテンツデータを再生し、
    着脱可能な第2の記録媒体に上記コンテンツデータを記録し、
    上記第1の記録媒体から再生された上記コンテンツデータに対して上記第2の記録媒体に記録可能なデータ容量の範囲内で分割候補位置を設定し、該コンテンツデータの該分割候補位置での評価値を算出し、
    記算出される評価値と閾値とを比較し、
    上記比較の結に応じて上記分割候補位置に基づき分割位置を決定し、
    上記動画データに含まれる顔画像の情報に基づき上記評価値を算出し、
    上記分割候補位置に対応する評価値が上記閾値を超えるか否かに応じて、上記分割位置を決定し、
    ユーザから見える上記コンテンツデータ内の再生の単位であるチャプタの先頭と、上記先頭から所定の再生時間経過した第1の位置との間の区間、または、上記チャプタの終端と、上記終端から所定の再生時間遡った第2の位置との間の区間に、上記分割位置が決定されないようにする記録方法を、コンピュータに実行させる記録プログラム。
JP2007141315A 2007-05-29 2007-05-29 データ処理装置、データ処理方法およびデータ処理プログラム、ならびに、記録装置、記録方法および記録プログラム Expired - Fee Related JP4775322B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007141315A JP4775322B2 (ja) 2007-05-29 2007-05-29 データ処理装置、データ処理方法およびデータ処理プログラム、ならびに、記録装置、記録方法および記録プログラム
US12/050,556 US8687942B2 (en) 2007-05-29 2008-03-18 Data processing apparatus, data processing method, data processing program, recording apparatus, recording method, and recording program
CN2008100982527A CN101315802B (zh) 2007-05-29 2008-05-28 数据处理装置、方法和程序以及记录装置、方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007141315A JP4775322B2 (ja) 2007-05-29 2007-05-29 データ処理装置、データ処理方法およびデータ処理プログラム、ならびに、記録装置、記録方法および記録プログラム

Publications (3)

Publication Number Publication Date
JP2008300906A JP2008300906A (ja) 2008-12-11
JP2008300906A5 JP2008300906A5 (ja) 2010-04-02
JP4775322B2 true JP4775322B2 (ja) 2011-09-21

Family

ID=40095974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007141315A Expired - Fee Related JP4775322B2 (ja) 2007-05-29 2007-05-29 データ処理装置、データ処理方法およびデータ処理プログラム、ならびに、記録装置、記録方法および記録プログラム

Country Status (3)

Country Link
US (1) US8687942B2 (ja)
JP (1) JP4775322B2 (ja)
CN (1) CN101315802B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010021813A (ja) * 2008-07-11 2010-01-28 Hitachi Ltd 情報記録再生装置及び情報記録再生方法
JP2010081457A (ja) * 2008-09-29 2010-04-08 Hitachi Ltd 情報記録再生装置およびビデオカメラ
US20100250665A1 (en) * 2008-10-03 2010-09-30 Ryuichi Okamoto Content distribution system, terminal apparatus, content distribution apparatus, additional information distribution apparatus, content recording method, and recording medium
JP2015039061A (ja) * 2010-10-07 2015-02-26 株式会社東芝 情報処理装置
US8726161B2 (en) * 2010-10-19 2014-05-13 Apple Inc. Visual presentation composition
JP5439536B2 (ja) * 2012-05-16 2014-03-12 株式会社東芝 録画装置およびファイル分割方法
JP6079450B2 (ja) * 2012-09-27 2017-02-15 株式会社Jvcケンウッド 撮像装置、撮像方法、及び撮像プログラム
GB2507551A (en) * 2012-11-04 2014-05-07 Julian Andrew John Fells Copyright protection by comparing identifiers of first and second electronic content
CN103268472B (zh) * 2013-04-17 2017-07-18 哈尔滨工业大学深圳研究生院 基于双色彩空间的嘴唇检测方法
EP3542360A4 (en) * 2016-11-21 2020-04-29 Microsoft Technology Licensing, LLC METHOD AND DEVICE FOR AUTOMATIC SYNCHRONIZATION
CN117171589B (zh) * 2023-11-02 2024-01-02 腾讯科技(深圳)有限公司 一种数据分割方法、装置、设备及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711587B1 (en) * 2000-09-05 2004-03-23 Hewlett-Packard Development Company, L.P. Keyframe selection to represent a video
JP2002245717A (ja) * 2001-02-20 2002-08-30 Sharp Corp 情報記録再生方法及び情報記録再生システム
JP4039873B2 (ja) * 2002-03-27 2008-01-30 三洋電機株式会社 映像情報記録再生装置
JP2004127471A (ja) * 2002-10-07 2004-04-22 Pioneer Electronic Corp 記録装置及びその制御方法、並びに再生装置
WO2006025398A1 (ja) * 2004-09-03 2006-03-09 Matsushita Electric Industrial Co., Ltd. 情報記録装置、情報記録方法、情報記録プログラム、及び記録媒体
JP2007067522A (ja) * 2005-08-29 2007-03-15 Toshiba Corp 情報編集装置、情報編集方法、及び情報編集プログラム
JP2007184013A (ja) * 2006-01-04 2007-07-19 Hitachi Ltd 記録再生装置

Also Published As

Publication number Publication date
US20080304813A1 (en) 2008-12-11
CN101315802B (zh) 2011-02-09
US8687942B2 (en) 2014-04-01
CN101315802A (zh) 2008-12-03
JP2008300906A (ja) 2008-12-11

Similar Documents

Publication Publication Date Title
JP4775322B2 (ja) データ処理装置、データ処理方法およびデータ処理プログラム、ならびに、記録装置、記録方法および記録プログラム
JP4424396B2 (ja) データ処理装置および方法、並びにデータ処理プログラムおよびデータ処理プログラムが記録された記録媒体
US9124860B2 (en) Storing a video summary as metadata
KR101015737B1 (ko) 기록 방법, 기록 장치, 기록 매체, 촬상 장치, 및 촬상 방법
WO2011149825A1 (en) Video summary method
KR20070085780A (ko) 기록 장치 및 기록 방법, 재생 장치 및 재생 방법, 기록재생 장치 및 기록 재생 방법, 및 프로그램
TW450007B (en) Information recording system and information recording method
US20120194691A1 (en) Imaging apparatus
JP2005109606A (ja) 信号処理方法、信号処理装置、記録装置、再生装置
JP2009225361A (ja) 記録装置および記録方法、ならびに、編集装置および編集方法
CN102474585B (zh) 图像处理设备和图像处理方法
US8190000B2 (en) Recording apparatus, recording method, and recording program
WO2009136469A1 (ja) 動画像の記録並びに再生を行う装置
JP2011250103A (ja) 再生装置
KR101411902B1 (ko) 동화상 기록 장치, 동화상 재상 장치 및 기록매체
US7430325B2 (en) Encoding system conversion apparatus and method for same
JP2013118519A (ja) 画像処理装置
JP2007104405A (ja) 音声付き映像データ処理装置、音声付き映像データ処理方法及び音声付き映像データ処理用プログラム
JP2013058853A (ja) 動画再生装置、動画再生方法及びプログラム
KR20080057142A (ko) 카메라 기기 및 카메라 기기의 정지 화상 생성 방법
JP2016009961A (ja) 再生装置
JP3809301B2 (ja) 再生装置及び再生方法
JP2005176330A (ja) 画像処理装置及びその制御方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2008219921A (ja) 記録装置、記録方法、撮像装置および撮像方法
JP2005102309A (ja) 電子スチルカメラ

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110613

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees