JP4066454B2 - Signal processing apparatus with authoring function and signal processing method including authoring - Google Patents

Signal processing apparatus with authoring function and signal processing method including authoring Download PDF

Info

Publication number
JP4066454B2
JP4066454B2 JP2003058996A JP2003058996A JP4066454B2 JP 4066454 B2 JP4066454 B2 JP 4066454B2 JP 2003058996 A JP2003058996 A JP 2003058996A JP 2003058996 A JP2003058996 A JP 2003058996A JP 4066454 B2 JP4066454 B2 JP 4066454B2
Authority
JP
Japan
Prior art keywords
data
chapter
video
moving image
chapters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003058996A
Other languages
Japanese (ja)
Other versions
JP2004274171A (en
Inventor
哲矢 鰺坂
考司 沼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2003058996A priority Critical patent/JP4066454B2/en
Publication of JP2004274171A publication Critical patent/JP2004274171A/en
Application granted granted Critical
Publication of JP4066454B2 publication Critical patent/JP4066454B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、オーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法に関し、特にオーディオビデオデータを記憶媒体に記録する際に用いるオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法に関する。
【0002】
【従来の技術】
デジタルビデオ(DV)テープやアナログビデオテープレコーダ(VTR)からのオーディオビデオデータ(音声データ、画像(動画を含む)データ及び記録日時を示す日時データを含む、本明細書中で同じ)を、DVD(DigitalVersatile Disc)のような容量の大きい記憶媒体に記録する場合、複数のビデオ映像を含むオーディオビデオデータを一枚のDVDにまとめて記録する場合がある。その場合、一枚のDVDの中にどのような内容のオーディオビデオデータが記録されているかは、別途記録していないときには、内容を一通り見なければならなくなる。
【0003】
そのような面倒を避けるための技術が知られている。例えば、以下のような技術である。
まず、例えば、特徴のあるシーンごと、又は、まとめて見たいシーンごとなどで頭出しを行えるように、一枚のDVDに格納されたオーディオビデオデータを複数のチャプタに区切る。次に、各チャプタごとの先頭画面のサムネイル(静止画)を、そのチャプタの代表画像として抽出する。そして、ディスプレイの表示画面中に、抽出した全てのサムネイルを同時に表示する(又は一部のサムネイルを表示し、残りはスクロールで表示可能とする)。このようにすると、一つの表示画面で、複数のビデオ映像の代表画像一覧を見られるので、DVD中のオーディオビデオデータの内容を短時間で把握することができる。そして、各サムネイルごとの頭出しを容易に行うことが出来る。
【0004】
ここで、オーディオビデオデータを複数のチャプタに自動的に区切る方法としては、所定の条件を満たすオーディオビデオデータ(画像データ及び音声データ)の変化を検出し、その場所で区切る方法や、オーディオビデオデータ上に記録されたマーカを検出してその場所で区切る方法などが知られている。自動的に代表画像を抽出してサムネイル(静止画)とする方法としては、区切られたチャプタの先頭画面を代表画像とする方法などが知られている。
【0005】
ただし、オーディオビデオデータの変化やオーディオビデオデータ上のマーカだけでは、適切な位置でオーディオビデオデータを区切れず、所望のチャプタを構成できない場合がある。また、サムネイルが静止画の場合、代表画像を適切に選択しないと、そのチャプタの内容を的確に把握することが困難となる場合がある。
複数のビデオ映像を有するオーディオビデオデータの区切りを自動的に、より適切に見出し、所望のチャプタを構成可能な技術が望まれている。的確にチャプタの内容を把握可能なサムネイルを生成することが可能な技術が望まれている。
【0006】
関連する技術として、特開2002−152636号公報(特許文献1)に自動チャプタ作成機能付き記録再生装置の技術が開示されている(関連:特開2002−152665(特許文献2)、特開2002−152666(特許文献3))。
この技術の自動チャプタ作成機能付き記録再生装置は、記録再生用媒体と、記録処理・再生処理手段と、表示信号導出手段と、システム制御手段と、一時停止手段とを有する装置である。ここで、記録再生用媒体は、プログラムを含むビデオ情報が記録されるビデオ情報記録領域と、ビデオ情報を記録・再生するための管理情報が記録されるビデオ管理情報記録領域と、プログラムの各チャプタを管理するためのチャプタ管理情報の記録領域とを少なくとも有する。記録処理・再生処理手段は、記録再生用媒体に、情報を記録・また記録情報を再生する。表示信号導出手段は、再生処理手段からの再生信号をディスプレイに供給する。システム制御手段は、記録処理・再生処理手段および表示信号導出手段を制御する。一時停止手段は、システム制御手段を介して全気記録処理手段に対して記録処理の一時停止を行わせる。そして、この装置は、一時停止手段が一時停止を実行したときと、録画が再開されたときの録画情報の切れ目をチャプタの境界として、チャプタ管理情報に登録する手段を有したことを特徴とする。
この技術の目的は、多数のプログラム(オーディオビデオデータ)が連続して記録されるような記憶媒体に対してチャプタ及びサムネイルを自動的に作成する自動チャプタ作成機能付き記録再生装置を提供することにある。
【0007】
この技術では、オーディオビデオデータを記録中にオーディオビデオデータが一時停止した場合、それをチャプタの区切りとして複数のチャプタを決定する。そして、各チャプタの先頭画面をサムネイル(静止画)として取り出し、代表画面一覧を生成する。チャプタの編集は、手動で行うことも可能である。
【0008】
【特許文献1】
特開2002−152636号公報
【特許文献2】
特開2002−152665号公報
【特許文献3】
特開2002−152666号公報
【0009】
【発明が解決しようとする課題】
従って、本発明の目的は、複数の映像を有するオーディオビデオデータを一つの記憶媒体に格納する場合に、格納されたオーディオビデオデータの内容を迅速且つ的確に把握できるように格納可能なオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法を提供することにある。
【0010】
また、本発明の他の目的は、複数の映像を有するオーディオビデオデータを一つの記憶媒体に格納する場合に、オーディオビデオデータの区切りを自動的に、より適切に見出し、的確にチャプタを構成可能なオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法を提供することにある。
【0011】
本発明の更に他の目的は、複数の映像を有するオーディオビデオデータを一つの記憶媒体に格納する場合に、区切られたチャプタごとの内容を的確に把握できるサムネイルを自動的に生成することが可能なオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法を提供することにある。
【0012】
本発明の別の目的は、複数の映像を有するオーディオビデオデータを一つの記憶媒体に格納する場合に、その内容を容易に把握できるメニュー画面を自動的に作成可能なオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法を提供することにある。
【0013】
【課題を解決するための手段】
以下に、[発明の実施の形態]で使用される番号・符号を用いて、課題を解決するための手段を説明する。これらの番号・符号は、[特許請求の範囲]の記載と[発明の実施の形態]との対応関係を明らかにするために括弧付きで付加されたものである。ただし、それらの番号・符号を、[特許請求の範囲]に記載されている発明の技術的範囲の解釈に用いてはならない。
【0014】
従って、上記課題を解決するために、本発明のオーサリング機能付き信号処理装置は、データ処理部(2−1)と、書き込み制御部(16)とを具備する。
データ処理部(2−1)は、オーディオビデオデータ(A)をチャプタごとに分割して生成される複数のチャプタの各々ごとに動画サムネイル(F1、J)を作成し、前記動画サムネイル(F1、J)を含むメニュー画面データ(H1、H2)を作成する。書き込み制御部(16)は、メニュー画面データ(H1、H2)を記憶媒体に記録する制御を行う。
ここで、オーディオビデオデータ(A)は、複数の画像データと、その画像データの記録日時を示す日時データ(T0)と、オーディオビデオデータ(A)におけるその画像データの位置を示す位置データ(t0)とを含む。メニュー画面データ(H1、H2)は、その複数のチャプタのうちの一部又は全部の動画サムネイル(F1、J)を同時に表示するメニュー画面(50)を示す。
本発明により、記憶媒体に格納されたオーディオビデオデータの内容は、チャプタごとの動画サムネイルが纏まって表示されるメニュー画面で把握される。すなわち、記憶媒体に格納されたオーディオビデオデータの内容を迅速且つ的確に把握できるように格納可能となる。
ここで、記録媒体としては、DVDやROM、RAM、HD、CD、FDが例示される。データ処理部(2−1)は、メニュー画面を作成するための条件(B、C)を参照して、上記処理を行っても良い。その場合、ユーザの考えを反映できる。
【0015】
上記のオーサリング機能付き信号処理装置において、データ処理部(2−1)は、データ作成部(2−2)と、メニュー画面作成部(15)とを備える。
データ作成部(2−2)は、オーディオビデオデータ(A)を分割してその複数のチャプタを生成し、その複数のチャプタの各々ごとに動画サムネイル(F1)を作成し、動画サムネイル(F1)に関するデータを示す動画サムネイルデータ(L)と、その複数のチャプタに関する制御情報を示す制御情報データ(G1)とを作成する。メニュー画面作成部(15)は、動画サムネイルデータ(L)と制御情報データ(G1)とに基づいて、メニュー画面データ(H1)を作成する。
ここで、動画サムネイルデータ(L)としては、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)が例示される。また、オーディオビデオデータ(A)をチャプタに分割する方法は、オーディオビデオデータ(A)に含まれる日時データ(T0)や画像データ、音声データを用いて行う方法に例示される。
【0016】
上記のオーサリング機能付き信号処理装置において、データ処理部(2−1)は、日時データ(T0)に基づいて、オーディオビデオデータ(A)を分割してその複数のチャプタを生成する。
日時データ(T0:画像データの記録日時を示す)を用いてチャプタの分割を行うので、オーディオビデオデータ(A)における内容の関連するシーンを集めることが出来、自動でチャプタを適切に区切ることができる。すなわち、オーディオビデオデータの区切りを自動的に、より適切に見出し、的確にチャプタを構成可能となる。
【0017】
上記のオーサリング機能付き信号処理装置において、データ作成部(2−2)は、データ前処理部(2−3)と、動画サムネイル作成部(13)と、制御情報データ作成部(14)とを備える。
データ前処理部(2−3)は、オーディオビデオデータ(A)を分割してその複数のチャプタを生成し、その複数のチャプタに関するデータを示すチャプタデータ(E)と、オーディオビデオデータ(A)を符号化した映像符号化データ(D)とを作成する。動画サムネイル作成部(13)は、映像符号化データ(D)とチャプタデータ(E)とに基づいて、動画サムネイルデータ(L)を作成する。制御情報データ作成部(14)は、映像符号化データ(D)とチャプタデータ(E)とに基づいて、制御情報データ(G1)を作成する。
ここで、チャプタデータ(E)としては、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)が例示される。ただし、チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。また、チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。
【0018】
上記のオーサリング機能付き信号処理装置において、データ前処理部(2−3)は、MPEG(Moving Picture Experts Group)規格に基づいて、映像符号化データ(D)を作成する。
【0019】
上記のオーサリング機能付き信号処理装置において、動画サムネイル作成部(13)は、ハイライトシーン検出部(26)と、作成手法選択部(27)と、作成手法選択部(28)と、テーブル作成部(29)とを備える。
ハイライトシーン検出部(26)は、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、ハイライトシーンの有無を判定する。ここで、そのハイライトシーンは、画素差分値(Δ)が基準値以上となる映像符号化データ(D)である。その基準値は、可変である。作成手法選択部(27)は、そのハイライトシーンの有無に基づいて、そのチャプタごとに、動画サムネイル(F1)の作成方法を、予め設定された作成方法から選択する。作成手法実行部(28)は、その選択された作成方法に基づいて、そのチャプタごとに、動画サムネイル(F1)を作成する。テーブル作成部(29)は、作成された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を生成する。
ただし、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
ここで、その作成方法としては、そのハイライトシーンが無い場合、映像符号化データ(D)からフレームを間引いて動画サムネイル(F1)とし、そのハイライトシーンが有る場合、そのハイライトシーンを動画サムネイル(F1)とする方法が例示される。
本発明により、ハイライトシーンを用いることで、区切られたチャプタごとの内容を的確に把握できるサムネイルを自動的に作成することが可能となる。
【0020】
上記のオーサリング機能付き信号処理装置において、動画サムネイル作成部(13a)は、データ検出部(56)と、データ解析部(57)と、データ抽出部(58)と、テーブル作成部(59)とを備える。
データ検出部(56)は、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、GOP(Group Of Picture)の位置を検出する。データ解析部(57)は、検出されたそのGOPに基づいて、そのチャプタごとに、そのGOP単位の符号量(R)と位置データ(t0)とを関連付けた符号量テーブルを作成する。データ抽出部(58)は、その符号量テーブルに基づいて、そのチャプタごとに、符号量(R)が最大となるそのGOPを含む連続した所定の時間(2×Δt1)の映像符号化データ(D)を動画サムネイル(F1)として抽出する。テーブル作成部(59)は、抽出された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を生成する。
ただし、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
本発明により、符号量(R)が最大となるそのGOPを含むシーンを用いることで、区切られたチャプタごとの内容を的確に把握できるサムネイルを自動的に作成することが可能となる。
【0021】
上記のオーサリング機能付き信号処理装置において、動画サムネイル作成部(13b)は、データ検出部(76)と、データ解析部(77)と、データ抽出部(78)と、テーブル作成部(79)とを備える。
データ検出部(76)は、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、GOPの位置を検出し、検出されたそのGOPごとに、所定の色を示す画素データに対して、所定のポイントを付加する。データ解析部(77)は、そのポイントに基づいて、そのチャプタごとに、そのGOPごとのポイントの合計(S)と位置データ(t0)とを関連付けたポイントテーブルを作成する。データ抽出部(78)は、そのポイントテーブルに基づいて、そのチャプタごとに、ポイントの合計(S)が最大となるそのGOPを含む連続した所定の時間(2×Δt2)の映像符号化データ(D)を動画サムネイル(F1)として抽出する。テーブル作成部(79)は、抽出された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を生成する。
ただし、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
本発明により、所定の色を示す画素データを多く含むシーンを用いるので、区切られたチャプタごとの内容を的確に把握できるサムネイルを自動的に生成することが可能となる。例えば、所定の色を人間の肌の色にすれば、人間が多く出てくる画面を取り出すことが出来る。
【0022】
上記のオーサリング機能付き信号処理装置において、データ処理部(2a−1)は、データ前処理部(2a−2)と、メニュー画面作成部(15a)とを備える。
データ前処理部(2a−2)は、オーディオビデオデータ(A)を分割してその複数のチャプタを生成し、その複数のチャプタに関するデータを示すチャプタデータ(E)を作成し、オーディオビデオデータ(A)を圧縮した動画データ(J)を作成して動画データ(J)に関するデータを示す動画サムネイルデータ(K)を作成する。メニュー画面作成部(15a)は、動画サムネイルデータ(K)とチャプタデータ(E)とに基づいて、メニュー画面データ(H2)を作成する。
ここで、チャプタデータ(E)としては、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)が例示される。ただし、チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。また、チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。
また、動画サムネイルデータ(K)としては、オーディオビデオデータ(A)を圧縮した動画データ(J)と映像符号化データ(D)とを関連付けた動画データテーブル(K)に例示される。動画データ(J)は、オーディオビデオデータ(A)を符号化する過程で算出される符号化データに基づいて生成される。
【0023】
上記のオーサリング機能付き信号処理装置において、データ前処理部(2a−2)は、オーディオビデオデータ(A)を符号化した映像符号化データ(D)を更に作成し、その符号化の際にDCT(Discrete Cosine Transform)演算で算出されるDC係数に基づいて、動画データ(J)を作成する。
【0024】
上記のオーサリング機能付き信号処理装置において、データ前処理部(2a−2)は、エンコード部(11、11a)と、記録日時解析部(12)とを含む。
エンコード部(11、11a)は、オーディオビデオデータ(A)に基づいて、映像符号化データ(D)を作成する。記録日時解析部(12)は、日時データ(T0)に基づいて、オーディオビデオデータ(A)を複数のチャプタに分割し、チャプタデータ(E)を作成する。
【0025】
上記のオーサリング機能付き信号処理装置において、記録日時解析部(12)は、チャプタ分割部(21)と、テーブル生成部(23)とを備える。
チャプタ分割部(21)は、日時データ(T0)の連続性が無い箇所をディオビデオデータ(A)の区切りとして、その複数のチャプタに分割する。テーブル生成部(23)は、チャプタテーブル(E)を含むチャプタデータ(E)を作成する。
ここで、チャプタテーブル(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けている。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。
【0026】
上記のオーサリング機能付き信号処理装置において、記録日時解析部(12)は、その複数のチャプタの数を予め設定された最大チャプタ数(N)に制限するチャプタ制限部(22)を更に備える。
【0027】
上記課題を解決するために、本発明のDVD装置は、オーディオビデオデータ(A)の入力に基づいて、メニュー画面データ(H1、H2)を出力する上記の各項のいずれか一項に記載のオーサリング機能付き信号処理装置と、その記憶媒体にメニュー画面データ(H1、H2)を書き込む駆動部(3)とを具備する。
ここで、記録媒体としては、DVDやROM、RAM、HD、CD、FDが例示される。
【0028】
従って、上記課題を解決するために、本発明のオーサリングを含む信号処理方法は、(a)〜(b)ステップを具備する。
(a)ステップは、オーディオビデオデータ(A)をチャプタごとに分割して生成される複数のチャプタの各々ごとに動画サムネイル(F1、J)を作成し、動画サムネイル(F1、J)を含むメニュー画面データ(H1、H2)を作成する。ここで、オーディオビデオデータ(A)は、複数の画像データと、その画像データの記録日時を示す日時データ(T0)と、オーディオビデオデータ(A)におけるその画像データの位置を示す位置データ(t0)を含む。メニュー画面データ(H1、H2)は、その複数のチャプタのうちの一部又は全部の動画サムネイル(F1、J)を同時に表示するメニュー画面(50)を示す。(b)ステップは、メニュー画面データ(H1、H2)を記憶媒体に記録する。
ここで、記録媒体としては、DVDやROM、RAM、HD、CD、FDが例示される。
【0029】
上記のオーサリングを含む信号処理方法において、(a)ステップは、(a1)から(a5)ステップを備える。
(a1)ステップは、オーディオビデオデータ(A)に基づいて、オーディオビデオデータ(A)を符号化した映像符号化データ(D)を作成する。(a2)ステップは、日時データ(T0)に基づいて、オーディオビデオデータ(A)を分割して複数のチャプタを生成し、そのチャプタに関するデータを示すチャプタデータ(E)を作成する。(a3)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、その複数のチャプタの各々ごとに動画サムネイル(F1)を作成し、複数の動画サムネイル(F1)に関するデータを示す動画サムネイルデータ(L)を作成する。(a4)ステップは、映像符号化データ(D)とチャプタテーブル(E)とに基づいて、その複数のチャプタに関する制御情報を示す制御情報データ(G1)を作成する。(a5)ステップは、動画サムネイルデータ(L)と制御情報データ(G1)とに基づいて、メニュー画面データ(H1)を作成する。
【0030】
上記のオーサリングを含む信号処理方法において、(a3)ステップは、(aa1)から(aa5)ステップを備える。
(aa1)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、映像符号化データ(D)のうちの画素差分値(Δ)が基準値以上となるハイライトシーンを検出する。ここで、チャプタデータ(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(aa2)ステップは、そのハイライトシーンの長さが指定の再生時間と等しくなるようにその基準値を変化させ、等しくできればそのハイライトシーン有りと判定してそのハイライトシーンと位置データ(t0)とを関連付けた差分値テーブルを生成する。等しくできなければそのハイライトシーン無しと判定する。(aa3)ステップは、そのハイライトシーンの有無、及び、そのハイライトシーンの状況に基づいて、そのチャプタごとに、動画サムネイル(F1)の作成方法を、予め設定された作成方法から選択する。(aa4)ステップは、その選択された作成方法に基づいて、そのチャプタごとに、動画サムネイル(F1)を作成する。(aa5)ステップは、作成された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を作成する。ここで、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
ただし、その作成方法は、そのハイライトシーンが無い場合、映像符号化データ(D)からフレームを間引いて動画サムネイル(F1)とする。そのハイライトシーンが複数有る場合、複数のそのハイライトシーンを連結させて動画サムネイル(F1)とする。そのハイライトシーンが一つしかない場合、そのハイライトシーンをそのまま動画サムネイル(F1)とする。
【0031】
上記のオーサリングを含む信号処理方法において、(a3)ステップは、(aa6)から(aa9)ステップを備える。
(a3)ステップは、
(aa6)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、GOPの位置を検出する。ここで、チャプタデータ(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(aa7)ステップは、検出されたそのGOPに基づいて、そのチャプタごとに、そのGOP単位の符号量(R)と位置データ(t0)とを関連付けた符号量テーブルを作成する。(aa8)ステップは、その符号量テーブルに基づいて、そのチャプタごとに、符号量(R)が最大となるそのGOPを含む連続した所定の時間(2×Δt1)の映像符号化データ(D)を動画サムネイル(F1)として抽出する。(aa9)ステップは、抽出された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を作成する。ここで、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
【0032】
上記のオーサリングを含む信号処理方法において、(a3)ステップは、(aa10)から(aa14)ステップを備える。
(aa10)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、GOPの位置を検出する。ここで、チャプタデータ(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(aa11)ステップは、検出されたそのGOPごとに、所定の色を示す画素データに対して、所定のポイントを付加する。(aa12)ステップは、そのポイントに基づいて、そのチャプタごとに、そのGOPごとのポイントの合計(S)と位置データ(t0)とを関連付けたポイントテーブルを作成する。(aa13)ステップは、そのポイントテーブルに基づいて、そのチャプタごとに、ポイントの合計(S)が最大となるそのGOPを含む連続した所定の時間(2×Δt2)の映像符号化データ(D)を動画サムネイル(F1)として抽出する。(aa14)ステップは、抽出された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を作成する。ここで、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
【0033】
上記のオーサリングを含む信号処理方法において、(a)ステップは、(a6)〜(a8)ステップを具備する。
(a6)ステップは、オーディオビデオデータ(A)に基づいて、オーディオビデオデータ(A)を符号化した映像符号化データ(D)と、オーディオビデオデータ(A)を圧縮した動画データ(J)を作成して動画データ(J)に関するデータを示す動画サムネイルデータ(K)とを作成する。ここで、動画サムネイルデータ(K)は、動画データ(J)と映像符号化データ(D)とを関連付けた動画データテーブル(K)を含む。動画データ(J)は、その符号化の過程で算出される符号化データに基づいて作成される。(a7)ステップは、日時データ(T0)に基づいて、オーディオビデオデータ(A)を分割して複数のチャプタを生成し、チャプタに関するデータを示すチャプタデータ(E)を作成する。ここで、チャプタデータ(E)は、複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(a8)ステップは、動画サムネイルデータ(K)とチャプタデータ(E)とに基づいて、メニュー画面データ(H2)を作成する。
【0034】
上記のオーサリングを含む信号処理方法において、(a6)ステップは、(ab1)〜(ab3)ステップを具備する。
(ab1)ステップは、オーディオビデオデータ(A)に対してDCT演算を行う。(ab2)ステップは、そのDCT演算に伴い生成するDC係数に基づいて、動画データ(J)を作成する。(ab3)ステップは、動画データ(J)と映像符号化データ(D)とに基づいて、動画サムネイルデータ(K)を作成する。
【0035】
従って、上記課題を解決するために、本発明に関するコンピュータプログラムは、(c)〜(d)ステップを備える方法をコンピュータに実行させる。
(c)ステップは、オーディオビデオデータ(A)をチャプタごとに分割して生成される複数のチャプタの各々ごとに動画サムネイル(F1、J)を作成し、動画サムネイル(F1、J)を含むメニュー画面データ(H1、H2)を作成する。ここで、オーディオビデオデータ(A)は、複数の画像データと、その画像データの記録日時を示す日時データ(T0)と、オーディオビデオデータ(A)におけるその画像データの位置を示す位置データ(t0)を含む。メニュー画面データ(H1、H2)は、その複数のチャプタのうちの一部又は全部の動画サムネイル(F1、J)を同時に表示するメニュー画面(50)を示す。(d)ステップは、メニュー画面データ(H1、H2)を記憶媒体に記録する。
ここで、記録媒体としては、DVDやROM、RAM、HD、CD、FDが例示される。
【0036】
また、上記のコンピュータプログラムにおいて、(c)ステップは、(c1)から(c5)ステップを備える。
(c1)ステップは、オーディオビデオデータ(A)を符号化した映像符号化データ(D)を作成する。(c2)ステップは、オーディオビデオデータ(A)を分割して複数のチャプタを生成し、そのチャプタに関するデータを示すチャプタデータ(E)を作成する。(c3)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、その複数のチャプタの各々ごとに動画サムネイル(F1)を作成し、複数の動画サムネイル(F1)に関するデータを示す動画サムネイルデータ(L)を作成する。(c4)ステップは、映像符号化データ(D)とチャプタテーブル(E)とに基づいて、その複数のチャプタに関する制御情報を示す制御情報データ(G1)を作成する。(c5)ステップは、動画サムネイルデータ(L)と制御情報データ(G1)とに基づいて、メニュー画面データ(H1)を作成する。
【0037】
上記のプログラムにおいて、(c2)ステップは、日時データ(T0)に基づいて、オーディオビデオデータ(A)を分割して複数のチャプタを生成する。
【0038】
また、上記のコンピュータプログラムにおいて、(c3)ステップは、(ca1)から(ca5)ステップを備える。
(ca1)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、映像符号化データ(D)のうちの画素差分値(Δ)が基準値以上となるハイライトシーンを検出する。ここで、チャプタデータ(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(ca2)ステップは、そのハイライトシーンの長さが指定の再生時間と等しくなるようにその基準値を変化させ、等しくできればそのハイライトシーン有りと判定してそのハイライトシーンと位置データ(t0)とを関連付けた差分値テーブルを生成する。等しくできなければそのハイライトシーン無しと判定する。(ca3)ステップは、そのハイライトシーンの有無、及び、そのハイライトシーンの状況に基づいて、そのチャプタごとに、動画サムネイル(F1)の作成方法を、予め設定された作成方法から選択する。(ca4)ステップは、その選択された作成方法に基づいて、そのチャプタごとに、動画サムネイル(F1)を作成する。(ca5)ステップは、作成された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を作成する。ここで、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
ただし、その作成方法は、そのハイライトシーンが無い場合、映像符号化データ(D)からフレームを間引いて動画サムネイル(F1)とする。そのハイライトシーンが複数有る場合、複数のそのハイライトシーンを連結させて動画サムネイル(F1)とする。そのハイライトシーンが一つしかない場合、そのハイライトシーンをそのまま動画サムネイル(F1)とする。
【0039】
また、上記のコンピュータプログラムにおいて、(c3)ステップは、(ca6)から(ca9)ステップを備える。
(ca6)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、GOPの位置を検出する。ここで、チャプタデータ(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(ca7)ステップは、検出されたそのGOPに基づいて、そのチャプタごとに、そのGOP単位の符号量(R)と位置データ(t0)とを関連付けた符号量テーブルを作成する。(ca8)ステップは、その符号量テーブルに基づいて、そのチャプタごとに、符号量(R)が最大となるそのGOPを含む連続した所定の時間(2×Δt1)の映像符号化データ(D)を動画サムネイル(F1)として抽出する。(ca9)ステップは、抽出された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を作成する。ここで、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
【0040】
更に、上記のコンピュータプログラムにおいて、(c3)ステップは、(ca10)から(ca14)ステップを備える。
(ca10)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、GOPの位置を検出する。ここで、チャプタデータ(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(ca11)ステップは、検出されたそのGOPごとに、所定の色を示す画素データに対して、所定のポイントを付加する。(ca12)ステップは、そのポイントに基づいて、そのチャプタごとに、そのGOPごとのそのポイントの合計(S)と位置データ(t0)とを関連付けたポイントテーブルを作成する。(ca13)ステップは、そのポイントテーブルに基づいて、そのチャプタごとに、そのポイントの合計(S)が最大となるそのGOPを含む連続した所定の時間(2×Δt2)の映像符号化データ(D)を動画サムネイル(F1)として抽出する。(ca14)ステップは、抽出された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を作成する。ここで、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
【0041】
更に、上記のコンピュータプログラムにおいて、(c)ステップは、(c6)〜(c8)ステップを具備する。
(c6)ステップは、オーディオビデオデータ(A)を符号化した映像符号化データ(D)と、オーディオビデオデータ(A)を圧縮した動画データ(J)を作成して動画データ(J)に関するデータを示す動画サムネイルデータ(K)とを作成する。ここで、動画サムネイルデータ(K)は、動画データ(J)と映像符号化データ(D)とを関連付けた動画データテーブル(K)を含む。動画データ(J)は、その符号化の過程で算出される符号化データに基づいて作成される。(c7)ステップは、オーディオビデオデータ(A)を分割して複数のチャプタを生成し、そのチャプタに関するデータを示すチャプタデータ(E)を作成する。ここで、チャプタデータ(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(c8)ステップは、動画サムネイルデータ(K)とチャプタデータ(E)とに基づいて、メニュー画面データ(H2)を作成する。
【0042】
上記のプログラムにおいて、(c7)ステップは、日時データ(T0)に基づいて、オーディオビデオデータ(A)を分割して複数のチャプタを生成する。
【0043】
更に、上記のコンピュータプログラムにおいて、(c6)ステップは、(cb1)〜(cb3)ステップを具備する。
(cb1)ステップは、オーディオビデオデータ(A)に対してDCT演算を行う。(cb2)ステップは、そのDCT演算に伴い生成するDC係数に基づいて、動画データ(J)を作成する。(cb3)ステップは、動画データ(J)と映像符号化データ(D)とに基づいて、動画サムネイルデータ(K)を作成する。
【0044】
【発明の実施の形態】
以下、本発明であるオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法の実施の形態に関して、添付図面を参照して説明する。本実施の形態では、本発明であるオーサリング機能付き信号処理装置をDVD装置(MPEG装置)に適用した例について説明しているが、その他の映像記録装置に対しても適用が可能である。
【0045】
(第1の実施の形態)
本発明であるオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法の第1の実施の形態について、添付図面を参照して説明する。
【0046】
まず、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第1の実施の形態の構成について説明する。
図1は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第1の実施の形態の構成を示すブロック図である。DVD装置1は、オーディオビデオデータA及び諸条件(B及びC、後述)の入力に基づいて、DVDに、オーディオビデオデータを符号化した映像符号化データD及びその他のデータを記録、格納する。DVD装置1は、オーサリング機能付き信号処理装置2、DVD駆動部3及びシステムマイコン4を具備する。ここでは、DVDのデータを読み出す構成を省略している。
【0047】
オーサリング機能付き信号処理装置2は、システムマイコン4の制御により、オーディオビデオデータAの入力に基づいて、映像符号化データD(後述)とメニュー画面データH1(後述)と制御情報データG1(後述)とを生成する。そして、それらを所定の記憶媒体に記録する制御を行う。記憶媒体は、DVDに例示される。
DVD駆動部3は、システムマイコン4の制御により、オーサリング機能付き信号処理装置2から出力される映像符号化データDとメニュー画面データH1と制御情報データG1とを、内部にセットされた記憶媒体に記録(格納)する。ここでは、記録媒体として、DVDを用いる。ただし、他の記録媒体(例示:ROM、RAM、CD、HD、FD)を用いることも可能である。
システムマイコン4は、オーサリング機能付き信号処理装置2及びDVD駆動部3を具備するDVD装置1を制御する。システムマイコン4は、MPU(マイクロプロセッサユニット)に例示される。
【0048】
オーサリング機能付き信号処理装置2は、エンコード部11と、記録日時解析部12と、動画サムネイル作成部13と、制御情報データ作成部14と、メニュー画面作成部15と、書き込み制御部16とを具備する。ここで、エンコード部11と記録日時解析部12とをデータ前処理部2−3ともいう。データ前処理部2−3と動画サムネイル作成部13と制御情報データ作成部14とをデータ作成部2−2ともいう。データ作成部2−2とメニュー画面作成部15とをデータ処理部2−1ともいう。
【0049】
エンコード部11は、外部から入力されるオーディオビデオデータAに基づいて、オーディオビデオデータを符号化した映像符号化データDを生成する。
【0050】
ここで、オーディオビデオデータAは、デジタルビデオテープレコーダやアナログビデオテープレコーダのような機器から出力された複数のビデオ映像を有するデータであり、音声データと画像(動画を含む、本明細書中で同じ)データとを含む。画像データは、オーディオビデオデータAにおけるその画像データを記録した日時(例示:西暦年:月:日:時:分:秒)としての日時データと、テープ(オーディオビデオデータA)の先頭からの位置(例示:時間 時:分:秒)を示す位置データとを含む。オーディオビデオデータAの符号化は、MPEG(Moving Picture Experts Group、本明細書中で同じ)の規格に基づいて行うエンコードを含む。映像符号化データDは、MPEG2データ(VOB(Video Object)データ)に例示される。
【0051】
図3は、日時データ及び位置データを示す図である。オーディオビデオデータAには、図中、一つの四角の枠で示される一つのフレームごとに、日時データとしてのオーディオビデオデータAを記録した記録日時T0(図中、各フレームの下部に記載)と、位置データとしてのオーディオビデオデータAを記録したテープの先頭からの時間t0(図中、各フレームの上部に記載)とが共に記録されている。
【0052】
図1を参照して、記録日時解析部12は、外部から入力されるオーディオビデオデータAの日時データに基づいて、オーディオビデオデータAを複数のチャプタに分割する。すなわち、日時データが不連続な箇所を検出し、そこをチャプタの区切りとしてオーディオビデオデータAを分割する。そして、複数のチャプタの各々に対応したチャプタ日時データとチャプタ位置データとを関連付けるチャプタテーブルE(後述)を生成する。ただし、オーディオビデオデータAを分割するチャプタの最大数を示す最大チャプタ数データB(N)を外部から入力された場合、その最大数を越えないように、チャプタを調整する。
【0053】
ここで、チャプタは、オーディオビデオデータAを分割して得られるオーディオビデオデータAの一部分のデータである。一つのチャプタは、オーディオビデオデータAの内の連続した部分(連続したシーンを含む)でも良いし、連続していない部分を併せたもの(連続したシーンを複数含む)でも良い。
【0054】
ここで、チャプタ日時データは、複数のチャプタの各々における日時データに基づくデータであり、チャプタの最初及び最後を示す日時データや、前のチャプタの最後を示す日時データと次のチャプタの最初を示す日時データの差に例示される。チャプタ位置データは、複数のチャプタの各々における位置データに基づくデータであり、チャプタの最初又は最後を示す位置データに例示される。
【0055】
図2は、記録日時解析部12の構成を示すブロック図である。記録日時解析部12は、チャプタ分割部21と、チャプタ制限部22と、テーブル生成部23とを備える。
【0056】
チャプタ分割部21は、日時データの連続性が無い箇所をディオビデオデータAの区切りと判断する。そして、その区切り基づいて、オーディオビデオデータAを複数のチャプタに分割する。
チャプタ制限部22は、複数のチャプタの数が最大チャプタ数データBで示される最大数Nを越える場合、複数のチャプタのうち、予め設定された条件を満たす隣り合う2つのチャプタを結合することにより、チャプタの数を最大数N以下に抑える。ただし、予め設定された条件は、前のチャプタの最後を示す日時データと次のチャプタの最初を示す日時データの差が最小となる2つのチャプタに例示される。
テーブル生成部23は、複数のチャプタの各々に対応したチャプタ日時データとチャプタ位置データとの関係を示すチャプタテーブルEを生成する。
【0057】
図4は、チャプタテーブルEを示す表である。チャプタテーブルEは、複数のチャプタの各々に対応したチャプタ日時データとチャプタ位置データとを関連付けている。
ここで、チャプタ番号31は、チャプタの通し番号である。チャプタ位置データとしてのチャプタ終了位置32は、チャプタの最後を示す位置データである。時:分:秒で表示される。チャプタ日時データとしてのチャプタ記録日時間隔33は、前のチャプタの最後を示す日時データと次のチャプタの最初を示す日時データの差を示す時間間隔である。日:時:分:秒で表示される。そして、チャプタは、チャプタ終了位置32の小さい順位に並べられる。
【0058】
図1を参照して、動画サムネイル作成部13は、映像符号化データDとチャプタテーブルEとに基づいて、複数のチャプタの各々に対応する複数の動画サムネイルF1を作成する。このとき、動画サムネイルF1の作成条件を示す動画条件データC(外部から入力、デフォルト値を有していても良い)を参照し、その条件に適合するように各動画サムネイルF1を生成する。ここで、動画条件データCは、動画サムネイルの画像サイズや動画サムネイルの再生時間に例示される。
ここで、動画サムネイルは、動画形式のサムネイル(プレビュー)である。基となるデータを圧縮(符号化などの画像処理)して生成される。
【0059】
動画サムネイル作成部13は、更に、動画サムネイルF1の各フレームと、映像符号化データDとを関連付けた動画サムネイルテーブルLを作成する。すなわち、動画サムネイルF1の各フレームを示す動画用画像データと、映像符号化データDの位置データとを関連付けた動画サムネイルテーブルLを作成する。
【0060】
図5は、動画サムネイルテーブルLを示す表である。フレームの通し番号であるフレーム番号41、映像符号化データDの位置データ(オーディオビデオデータの先頭からの時間)としての時刻42及び動画用画像データとしてのフレーム画像データ44がフレームごとに関連付けられている。動画サムネイルテーブルLは、動画サムネイルF1ごとに設けても良いし、一つの動画サムネイルテーブルLを適当に区切り、複数の動画サムネイルF1を含ませても良い。
【0061】
図6は、動画サムネイル作成部13の構成を示すブロック図である。動画サムネイル作成部13は、ハイライトシーン検出部26、作成手法選択部27、作成手法実行部28及びテーブル作成部29を備える。
【0062】
ハイライトシーン検出部26は、映像符号化データDとチャプタテーブルEとに基づいて、各チャプタごとに、フレーム間の画素の差分としての画素差分値Δを検出する。フレーム単位の画素差分値Δは、チャプタごとに、映像符号化データDの位置データ(オーディオビデオデータの先頭からの時間)t0と関連付けられて、差分値テーブルとして記憶部(図示されず)に格納される。
【0063】
ここで、差分値テーブルについて説明する。
図7は、差分値テーブルをグラフの形で表現した図である。縦軸は画素差分値Δ、横軸は位置データt0(ここでは「時間」)である。グラフ中の曲線Wは、画素差分値Δを示す。半直線α0及びα2は、それぞれ画素差分値Δ0及びΔ2を示す。時間t1から時間t2までが1チャプタとする。
ハイライトシーン検出部26は、差分値テーブル(図7)からハイライトシーンを抽出する。ここで、ハイライトシーンは、画素差分値Δが所定の閾値よりも大きくなる状態が、予め設定された時間以上続く箇所である。図7において、閾値をΔ0とすれば、ハイライトシーンは曲線WのP1の箇所に相当する。この場合、閾値を所定の最大値Δ0から小さくしていくことで、ハイライトシーンを長くしていくことが出来る。例えば、図7において、閾値をΔ0からΔ1(半直線α1で表示)に小さくすることで、ハイライトシーンは、P1からP2+P3に長くすることが出来る。この操作により、ハイライトシーンの時間(ハイライトシーンが複数ある場合には、その合計時間)を、指定された再生時間に合わせることが出来る。ここで、閾値が所定の最小値Δ2まで下げても、ハイライトシーンが指定された再生時間に達しない場合には、ハイライトシーンは無いとする。
ただし、瞬間的に画素差分値Δが、所定の閾値よりも大きくなるような箇所Q(例示:カメラがパンするような場面)は、そのPxの時間が予め設定された時間未満なので、ハイライトと検出しない。
【0064】
図6を参照して、作成手法選択部27は、検出されたハイライトシーンの状況に応じて、下記の3種類の方法から動画サムネイルの作成方法を選択する。
(A)ハイライトシーンが複数箇所あるチャプタは、ハイライトシーンを連結させ、動画サムネイルとする。
(B)ハイライトシーンが一箇所しかないチャプタは、その部分をそのまま動画サムネイルとする。
(C)ハイライトシーンが無いチャプタは、チャプタからフレームを間引いて圧縮し、動画サムネイルとする。例えば、10分間のチャプタを短縮して再生時間1分間の動画サムネイルにするには、1フレーム表示−9フレームスキップ、又は、1秒表示−9秒スキップを繰り返すことで実現できる。
【0065】
作成手法実行部28は、作成手法選択部27で選択された方法を用いて、動画サムネイルを作成する。
テーブル作成部29は、作成された動画サムネイルを動画サムネイルテーブルLに格納する。
を備える。
【0066】
図1を参照して、制御情報データ作成部14は、映像符号化データDとチャプタテーブルEとに基づいて、複数のチャプタに関するデータを含む制御情報データG1を作成する。すなわち、映像符号化データDとチャプタテーブルEとに基づいて、DVDの制御情報データG1(ビデオタイトルセット67のVTSI、後述)を作成し、その制御情報データG1のPTT(Part of Title、後述)に、各プログラム(PG、後述)がどのチャプタに含まれるかを示すチャプタデータ(例示:チャプタ番号31)を格納する。
なお、DVD以外の記憶媒体を用いる場合には、その記憶媒体に対応した制御情報データG1を作成する。
【0067】
図8は、DVDに格納されるデータの構造を示す図である。DVDに格納されるデータ61は、ビデオマネージャ(VMG)63と、ビデオタイトルセット(VTS)67とを備える。
ビデオマネージャ(VMG)63は、制御情報としてのVMGIと、メニュー画面データH1(後述)としてのVMGM_VOBSと、VMGIのバックアップとしてのVMGI(BUP)とを備える。
ビデオタイトルセット67は、ビデオタイトルセット(ムービー(ビデオ映像)の集合)の制御情報としてのVTSIと、動画ファイルとしてのVTSM_VOBS〜VTSTT_VOBSと、VTSIのバックアップとしてのVTSI(BUP)とを備える。
VTSIには、ビデオタイトルセットの内部構造が記述されている。ビデオタイトルセットの内部構造は、タイトル(個々のムービー)−プログラムチェーン(PGC:プログラムの集合)−PTT(チャプタ:ビデオストリーム内のセル境界線上に設定されるアクセスポイント)−プログラム(PG:セルの集合)−セル(ビデオオブジェクトユニットの集合)−ビデオオブジェクトユニット(VOBU:GOP(Group Of Picuturesに対応)の階層構造を有する。そして、VTSIには、各階層がVTSM_VOBS〜VTSTT_VOBSのどの部分に相当するかを記述している。
【0068】
図1を参照して、メニュー画面作成部15は、動画サムネイルテーブルLと制御情報データG1とに基づいて、動画のメニュー画面を示すメニュー画面データH1を作成する。ただし、メニュー画面データH1は、制御情報データG1で示される各チャプタに対応させて、動画サムネイルテーブルLから動画画像データ(フレーム画像データ44)の該当部分を取り出して生成される。
ここで、動画のメニュー画面は、複数のチャプタに対応した複数の動画サムネイルF1を、一つの画面で一度に表示したものである。例えば、4つのチャプタが有る場合のメニュー画面では、一つの画面で4つの動画サムネイルF1を観ることが出来る。
そして、ポインティングデバイス(例示:マウス)により、画面上で動画サムネイルF1を選択できる。その場合、メニュー画面データH1において、各動画サムネイルF1は、制御情報データG1のPTTと関連付けられているので、画面上で選択された動画サムネイルF1に対応するチャプタを再生することが出来る。
【0069】
書き込み制御部16は、映像符号化データDとメニュー画面データH1と制御情報データG1とを受信し、それぞれのデータをDVDの所定の領域に記録するように、DVD駆動部3へのデータの出力の制御を行う。
このとき、メニュー画面データH1は、VMG63のVMGM_VOBSに、制御情報データG1は、VTS67のVTSIに、映像符号化データDは、VTSM_VOBS〜VTSTT_VOBSにそれぞれ格納される。
なお、DVD以外の記憶媒体を用いる場合には、書き込み制御部16は、その記憶媒体に対応したフォーマットに基づいて記録媒体に対する書き込みを制御する。
【0070】
次に、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第1の実施の形態の動作(オーサリングを含む信号処理方法)について説明する。
図9は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第1の実施の形態の動作(オーサリングを含む信号処理方法)を示すフロー図である。
【0071】
(1)ステップS01
エンコード部11は、外部から入力されたオーディオビデオデータAに基づいて、オーディオビデオデータAを符号化した映像符号化データDを生成する。
(2)ステップS02
記録日時解析部12は、外部から入力されたオーディオビデオデータAの日時データに基づいて、オーディオビデオデータAを複数のチャプタに分割する。ただし、オーディオビデオデータAを分割するチャプタの数を、外部から入力される最大チャプタ数データBで示される最大チャプタ数Nを越えないようにチャプタを調整する。そして、チャプタテーブルEを生成する。
(3)ステップS03
動画サムネイル作成部13は、映像符号化データDとチャプタテーブルEとに基づいて、複数のチャプタの各々に対応する複数の動画サムネイルF1を作成する。このとき、各動画サムネイルF1の画像サイズ及び再生時間を、外部から入力される動画条件データCで示される画像サイズ及び再生時間となるように各動画サムネイルF1を生成する。そして、動画サムネイル作成部13は、動画サムネイルF1の各フレームと、映像符号化データDとを関連付けた動画サムネイルテーブルLを作成する。
(4)ステップS04
制御情報データ作成部14は、映像符号化データDとチャプタテーブルEとに基づいて、複数のチャプタに関するデータを含む制御情報データG1を作成する。このとき、その制御情報データG1に、各プログラム38がどのチャプタに含まれるかを示すチャプタデータが格納される。
(5)ステップS05
メニュー画面作成部15は、動画サムネイルテーブルLと制御情報データG1とに基づいて、メニュー画面データH1を作成する。
(6)ステップS06
書き込み制御部16は、メニュー画面データH1と映像符号化データDと制御情報データG1とをDVDの所定の領域に記録するように、DVD駆動部3へのデータの出力の制御を行う。DVD駆動部3は、それらのデータをDVDに書き込む。
【0072】
ここで、ステップS02のチャプタテーブルを作成する動作について更に説明する。
図10は、ステップS02のチャプタテーブルを作成する動作を示すフロー図である。
【0073】
(1)ステップS21
記録日時解析部12のチャプタ分割部21は、外部から入力されるオーディオビデオデータAの日時データを検出している。
(2)ステップS22
チャプタ分割部21は、日時データに連続性があるか否かを判断する。連続性がある場合には、ステップS21へ戻る。連続性が無い場合には、ステップS23へ進む。ここで、日時データの連続性は、オーディオビデオデータAに記録された映像に基づいて、秒単位、分単位、時間単位など予め設定しておく。ここでは、秒単位とする。
(3)ステップS23
チャプタ分割部21は、日時データの連続性無い箇所をディオビデオデータAの区切りと判断する。そして、その区切りの位置の位置データ(先頭からの時間)を取得する。また、その区切りの位置における手前側のチャプタでの最後の日時データと、その次のチャプタでの最初の日時データとを取得する。ただし、この区切りの位置は、チャプタ候補の位置であり、確定ではない。
(4)ステップS24
チャプタ制限部22は、チャプタの数が一つ増えた場合、チャプタテーブルEのチャプタの数(総チャプタ数)が、最大チャプタ数データBで示される最大チャプタ数Nを越えるか否かを判断する。越える場合には、ステップS26へ進む。越えない場合には、ステップS25へ進む。
(5)ステップS25
テーブル生成部23は、チャプタテーブルEを生成(更新)する。すなわち、チャプタ候補の位置における位置データを、チャプタテーブルEのチャプタ終了位置32とする。また、チャプタ候補の位置における手前側のチャプタでの最後の日時データと、その次のチャプタでの最初の日時データとの差を算出し、チャプタテーブルEのチャプタ記録日時間隔33とする。
(6)ステップS26
チャプタ制限部22は、チャプタテーブルEの総チャプタ数が最大チャプタ数Nを越えるので、チャプタテーブルEのチャプタを一つ削減する。削減する方法としては、チャプタテーブルE内の複数のチャプタのうち、チャプタ記録日時間隔33(前のチャプタの最後を示す日時データと次のチャプタの最初を示す日時データとの差)が最小となる隣り合う2つのチャプタを選択し、結合することにより行う。
それと共に、チャプタテーブルEを生成(更新)する。すなわち、チャプタ候補の位置における位置データをチャプタ終了位置32とし、チャプタ候補の位置における手前側のチャプタでの最後の日時データと、その次のチャプタでの最初の日時データとの差をチャプタ記録日時間隔33とする。
(7)ステップS27
オーディオビデオデータAが継続している場合には、ステップS21に戻り、ステップS21〜ステップS26を繰り返す。
【0074】
図11は、ステップS02における図4のチャプタテーブルEを生成する過程を示す図である。ここでは、最大チャプタ数データBの値が“5”(最大チャプタ数N=5)の場合を例として説明する。
【0075】
図11(a)は、ステップS02において生成されつつある図4のチャプタテーブルEを示している。ここでは、5つのチャプタが見出された状態を示している。
この状態において、ステップS23で、図11(b)に示すように、新たなチャプタが検出された場合を考える。この場合、ステップS24で、最大チャプタ数N(=5)<総チャプタ数(=6)と判断される。ここで、図11(a)のチャプタ番号31=3のチャプタ(「チャプタ3」とする、他のチャプタも同様)が、チャプタテーブルEの中でチャプタ記録日時間隔33が最小(5分)となっている。従って、ステップS26で、チャプタ3をチャプタ2へ結合することにより、チャプタ3を削除する。それと共に、チャプタ4及びチャプタ5は、繰り上がってチャプタ3及びチャプタ4となる。しかる後、新たに見出されたチャプタをチャプタ6として、チャプタテーブルEを更新する。図11(c)が更新されたチャプタテーブルEである。
【0076】
このようにすることで、複数のビデオ映像を有するオーディオビデオデータを、自動的に複数のチャプタに区切り、且つ、チャプタの数を最大チャプタ数N以下に抑えることが出来る。
【0077】
ここで、ステップS03の動画サムネイルを作成する動作について更に説明する。
図12は、ステップS03の動画サムネイルを作成する動作を示すフロー図である。
【0078】
(1)ステップS31
動画サムネイル作成部13のハイライトシーン検出部26は、映像符号化データDとチャプタテーブルEとに基づいて、一つのチャプタを選択し、そのチャプタの映像符号化データDを取得する。
(2)ステップS32
ハイライトシーン検出部26は、チャプタ全体の映像符号化データDから、フレーム間の画素差分値Δを検出する。そして、画素差分値Δと位置データt0とを関連付けた差分値テーブル(図7)に格納する。
(3)ステップS33
ハイライトシーン検出部26は、差分値テーブル(図7)と動画条件データCの再生時間とに基づいて、ハイライトシーンの時間が指定された再生時間と等しくなるように、閾値をΔ0から変化させる。そして、閾値がΔ2に達するまでに、ハイライトシーンの時間が指定された再生時間と等しくなる場合、ハイライトシーンがあると判定する(Yes)。閾値がΔ2に達しても、ハイライトシーンの時間が指定された再生時間未満である場合、ハイライトシーンが無いと判定する(No)。無い場合、ステップS37へ進む。
(4)ステップS34
作成手法選択部27は、ハイライトシーンのある箇所を数える。そして、それが複数箇所ある場合(No)、ステップ35へ進み、それが一箇所のみの場合(Yes)、ステップS36へ進む。
(5)ステップS35
作成方法実行部38は、既述の(A)の方法で、動画サムネイルを作成する。すなわち、ハイライトシーンが複数箇所あるので、ハイライトシーンを連結させ、動画サムネイルF1とする。ステップS38へ進む。
(6)ステップS36
作成方法実行部38は、既述の(B)の方法で、動画サムネイルを作成する。すなわち、ハイライトシーンが一箇所しかないので、その部分をそのまま動画サムネイルF1とする。ステップS38へ進む。
(7)ステップS37
作成方法実行部38は、既述の(C)の方法で、動画サムネイルを作成する。すなわち、ハイライトシーンが無いので、チャプタからフレームを間引いて圧縮し、動画サムネイルF1とする。ステップS38へ進む。
(8)ステップS38
テーブル作成部29は、動画サムネイルF1の各フレームと、映像符号化データDとを関連付けた動画サムネイルテーブルLを作成する。
(11)ステップS39
テーブル作成部29は、全てのチャプタについて動画サムネイルを作成している場合(Yes)、プロセスを終了する。動画サムネイルを作成していないチャプタが有る場合(No)、ステップS31へもどる。
【0079】
このようなプロセスにより、全てのチャプタについて、再生時間の揃った動画サムネイルを自動的に最適な方法で作成することが可能となる。
【0080】
ここで、ステップS05のメニュー画面データを作成する動作について更に説明する。
図13は、ステップS05のメニュー画面データを作成する動作を示すフロー図である。ここでは、チャプタの数が4個の場合について説明する。
【0081】
(1)ステップS41
メニュー画面作成部15は、動画のメニュー画面(メニュー画面データH1)の第1フレームを作成するために、フレーム番号m=1を設定する。
(2)ステップS42
メニュー画面作成部15は、第1フレームのチャプタ1について処理を行うために、チャプタ番号k=1を設定する。
(3)ステップS43
メニュー画面作成部15は、動画サムネイルテーブルLと制御情報データG1とに基づいて、チャプタ番号k=1のチャプタにおけるm=1番目のフレームに相当するフレーム画像データ44を動画サムネイルテーブルLから取得する。そして、メニュー画面のm=1番目のフレームの右上に貼り付ける。
(4)ステップS44、ステップS45
メニュー画面作成部15は、チャプタ番号kが、最大チャプタ数N(ここでは、N=4)以上となるまで、ステップS43〜ステップS45を繰り返す。
これにより、メニュー画面データH1のm=1番目の1フレーム分が完成する。ただし、k=2の場合、フレームの左上、k=3の場合、フレームの右下、k=4の場合、フレームの左下に、フレーム画像データ44をそれぞれ貼り付ける。
(5)ステップS46、ステップS47
メニュー画面作成部15は、フレーム番号mが、指定フレーム数M(指定された再生時間に相当)以上となるまで、ステップS42〜ステップS47を繰り返す。
これにより、指定フレーム数M(指定された再生時間分)のメニュー画面(静止画)が生成される。
(6)ステップS48
メニュー画面作成部15は、得られた複数のメニュー画面(静止画)をMPEG2規格により圧縮して、VOBファイルとし、メニュー画面データH1を完成させる。それには、上記プロセスにより4つのチャプタの動画サムネイルが含まれている。
【0082】
図14は、上記(1)ステップS41〜(6)ステップS48で作成されたメニュー画面データH1を用いた動画のメニュー画面を示す図である。メニュー画面50は、チャプタ1の動画サムネイル51−1、チャプタ2の動画サムネイル51−2、チャプタ3の動画サムネイル51−3、チャプタ4の動画サムネイル51−4、メニューボタン52を備える。
動画のメニュー画面50の再生時、このメニュー画面全体が一つの動画として表示される。そして、ユーザーがチャプタ1〜チャプタ4の部分を選択すると、それぞれのチャプタのところへジャンプし、通常の映像が再生される。チャプタ数が多く、チャプタ5〜が存在する場合、メニューボタン52を選択すると、チャプタ5〜チャプタ8のメニュー画面に切り替わる。動画メニューの選択や画面切り替えについては、従来知られた方法を使用することが出来る。
【0083】
このようにして、各チャプタの動画サムネイルを含むメニュー画面データを、自動的に作成することが出来る。
【0084】
本発明は、複数のビデオ映像を有するオーディオビデオデータをDVDのような一つの記憶媒体に格納する場合に、日時データに基づいて、オーディオビデオデータの区切りを自動的に、より適切に見出し、所望のチャプタを構成することが出来る。
【0085】
また、本発明は、区切られたチャプタごとに動画サムネイルを生成することができるので、各チャプタの内容を的確に把握することが可能となる。そして、それらの動画サムネイルを全て含んだメニュー画面を自動的に作成できるので、DVDに含まれる全てのオーディオビデオデータの内容を容易に把握することができる。
【0086】
(第2の実施の形態)
本発明であるオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法の第2の実施の形態について、添付図面を参照して説明する。
【0087】
まず、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第2の実施の形態の構成について説明する。
図1は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第2の実施の形態の構成を示すブロック図である。DVD装置1は、オーディオビデオデータA及び諸条件(B及びC)の入力に基づいて、DVDに、オーディオビデオデータを符号化した映像符号化データD及びその他のデータを記録、格納する。DVD装置1は、オーサリング機能付き信号処理装置2、DVD駆動部3及びシステムマイコン4を具備する。ここでは、DVDのデータを読み出す構成を省略している。
【0088】
第2の実施の形態では、動画サムネイル作成部13aによる動画サムネイルの作成方法が異なる。
通常、MPEGで圧縮されたビデオデータ(ここでは、映像符号化データDに対応)において、色の変化の激しい部分や動きの速い部分のような複雑な映像では、多くの符号が発生する。そのため、符号量が多くなる。逆に、映像の変化の少ない平坦な部分や動きの遅い部分では、符号があまり発生しない。そのため、符号量が少なくなる。第2の実施の形態では、この符号量に基づいて、ハイライトシーンを検出する。
【0089】
図1を参照して、オーサリング機能付き信号処理装置2は、システムマイコン4の制御により、オーディオビデオデータAの入力に基づいて、映像符号化データDとメニュー画面データH1と制御情報データG1とを生成する。そして、それらを所定の記憶媒体に記録する制御を行う。記憶媒体は、DVDに例示される。
DVD駆動部3及びシステムマイコン4は、第1の実施の形態と同様であるのでその説明を省略する。
【0090】
オーサリング機能付き信号処理装置2は、エンコード部11と、記録日時解析部12と、動画サムネイル作成部13aと、制御情報データ作成部14と、メニュー画面作成部15と、書き込み制御部16とを具備する。
【0091】
動画サムネイル作成部13aは、映像符号化データDとチャプタテーブルEとに基づいて、複数のチャプタの各々に対応する複数の動画サムネイルF1を作成する。このとき、動画サムネイルF1の作成条件を示す動画条件データCを参照し、その条件に適合するように各動画サムネイルF1を生成する。動画条件データCは、動画サムネイルの画像サイズや動画サムネイルの再生時間に例示される。
【0092】
動画サムネイル作成部13aは、更に、動画サムネイルF1の各フレームと、映像符号化データDとを関連付けた動画サムネイルテーブルLを作成する。すなわち、動画サムネイルF1の各フレームを示す動画用画像データと、映像符号化データDの位置データとを関連付けた動画サムネイルテーブルLを作成する。図5に示す動画サムネイルテーブルLについては、第1の実施の形態での説明の通りである。
【0093】
図15は、動画サムネイル作成部13aの構成を示すブロック図である。動画サムネイル作成部13aは、データ検出部56、データ解析部57、データ抽出部58及びテーブル作成部59を備える。
【0094】
データ検出部56は、映像符号化データDとチャプタテーブルEとに基づいて、各チャプタごとに、映像符号化データDの符号を解析し、GOP(GroupOf Picture)の位置を検出する。
【0095】
データ解析部57は、検出されたGOPごとに、その符号量(Byte数)を検出する。そして、GOP単位の符号量は、チャプタごとに、映像符号化データDの位置データ(オーディオビデオデータの先頭からの時間)t0と関連付けられて、符号量テーブルとして記憶部(図示されず)に格納される。
【0096】
ここで、符号量テーブルについて説明する。
図16は、符号量テーブルをグラフの形で表現した図である。縦軸はGOPごとの符号量R、横軸は位置データt0(ここでは「時間」)である。グラフ中の曲線Vは、符号量を示す。時間t1から時間t2までが1チャプタとする。点A1は、チャプタにおける符号量が最大の点である。そのときの時間はtA1である。
【0097】
データ抽出部58は、符号量テーブル(図16)を解析して、符号量R最大の点A1を検出する。そして、時間tA1を中心にして、前後の映像符号化データDを指定された再生時間になるように、ハイライトシーンとして抽出する。すなわち、図16において、ハイライトシーンは、時間tC1から時間tB1までの映像符号化データDとなる。このとき、時間tC1−tB1=再生時間、ただし、tC1−tA1=Δt1=tA1−tB1である。このハイライトシーンを動画サムネイルとする。
【0098】
テーブル作成部59は、作成された動画サムネイルを動画サムネイルテーブルLに格納する。
【0099】
エンコード部11、記録日時解析部12、制御情報データ作成部14、メニュー画面作成部15書き込み制御部16(本実施の形態に関わる図2〜図4、図8の説明を含む)は、第1の実施の形態と同様であるので、その説明を省略する。
【0100】
次に、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第2の実施の形態の動作(オーサリングを含む信号処理方法)について説明する。
本実施の形態に関わる図9〜図11、図13、図14については、第1の実施の形態と同様であるのでその説明を省略する。
【0101】
次に、ステップS03の動画サムネイルを作成する動作について更に説明する。
図17は、ステップS03の動画サムネイルを作成する動作を示すフロー図である。
【0102】
(1)ステップS51
動画サムネイル作成部13aのデータ検出部56は、映像符号化データDとチャプタテーブルEとに基づいて、一つのチャプタを選択し、そのチャプタの映像符号化データDを取得する。
(2)ステップS52
データ検出部56は、チャプタ全体の映像符号化データDの符号を解析し、GOPの位置を検出する。
(3)ステップS53
データ解析部57は、検出されたGOPごとに、その符号量を検出する。そして、データ解析部57は、GOP単位の符号量と、映像符号化データDの位置データt0とを関連付けて、符号量テーブル(図16)として記憶部(図示されず)に格納される。
(4)ステップS54
データ抽出部58は、符号量テーブル(図16)を解析して、符号量最大の点A1を検出する。そして、時間tA1を中心にして、前後の映像符号化データDを指定された再生時間になるように、ハイライトシーンとして抽出する。そして、それを動画サムネイルF1とする。
(5)ステップS55
テーブル作成部59は、動画サムネイルF1の各フレームと、映像符号化データDとを関連付けた動画サムネイルテーブルLを作成する。
(6)ステップS56
テーブル作成部59は、全てのチャプタについて動画サムネイルを作成している場合(Yes)、プロセスを終了する。動画サムネイルを作成していないチャプタが有る場合(No)、ステップS51へもどる。
【0103】
このようなプロセスにより、全てのチャプタについて、再生時間の揃った動画サムネイルを自動的に最適な方法で作成することが可能となる。
この方法の場合、圧縮された映像符号化データDをそのまま利用し、画像解析をせずにハイライトシーンを検出することが出来る。したがって、動画サムネイルを作成する際の処理にかかる資源を削減できるので、コストを軽減することが出来る。そして、短時間で実行することが出来る。
【0104】
本実施の形態においても、第1の実施の形態と同様の効果を得ることが出来る。
【0105】
(第3の実施の形態)
本発明であるオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法の第3の実施の形態について、添付図面を参照して説明する。
【0106】
まず、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第3の実施の形態の構成について説明する。
図1は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第3の実施の形態の構成を示すブロック図である。DVD装置1は、オーディオビデオデータA及び諸条件(B及びC)の入力に基づいて、DVDに、オーディオビデオデータを符号化した映像符号化データD及びその他のデータを記録、格納する。DVD装置1は、オーサリング機能付き信号処理装置2、DVD駆動部3及びシステムマイコン4を具備する。ここでは、DVDのデータを読み出す構成を省略している。
【0107】
第3の実施の形態では、動画サムネイル作成部13bによる動画サムネイルの作成方法が異なる。
第3の実施の形態では、映像内のデータの内、特に人の顔を検出し、ハイライトシーンとして抽出する。
【0108】
図1を参照して、オーサリング機能付き信号処理装置2は、システムマイコン4の制御により、オーディオビデオデータAの入力に基づいて、映像符号化データDとメニュー画面データH1と制御情報データG1とを生成する。そして、それらを所定の記憶媒体に記録する制御を行う。記憶媒体は、DVDに例示される。
DVD駆動部3及びシステムマイコン4は、第1の実施の形態と同様であるのでその説明を省略する。
【0109】
オーサリング機能付き信号処理装置2は、エンコード部11と、記録日時解析部12と、動画サムネイル作成部13bと、制御情報データ作成部14と、メニュー画面作成部15と、書き込み制御部16とを具備する。
【0110】
動画サムネイル作成部13bは、映像符号化データDとチャプタテーブルEとに基づいて、複数のチャプタの各々に対応する複数の動画サムネイルF1を作成する。このとき、動画サムネイルF1の作成条件を示す動画条件データCを参照し、その条件に適合するように各動画サムネイルF1を生成する。動画条件データCは、動画サムネイルの画像サイズや動画サムネイルの再生時間に例示される。
【0111】
動画サムネイル作成部13aは、更に、動画サムネイルF1の各フレームと、映像符号化データDとを関連付けた動画サムネイルテーブルLを作成する。すなわち、動画サムネイルF1の各フレームを示す動画用画像データと、映像符号化データDの位置データとを関連付けた動画サムネイルテーブルLを作成する。図5に示す動画サムネイルテーブルLについては、第1の実施の形態での説明の通りである。
【0112】
図18は、動画サムネイル作成部13bの構成を示すブロック図である。動画サムネイル作成部13bは、データ検出部76、データ解析部77、データ抽出部78及びテーブル作成部79を備える。
【0113】
データ検出部76は、映像符号化データDとチャプタテーブルEとに基づいて、各チャプタごとに、映像符号化データDの符号を解析し、GOP(GroupOf Picture)の位置を検出する。次に、各GOPごとに、映像符号化データDの符号を1フレームづつ解析する。そして、人の顔を検出し、ポイント化する。
【0114】
ポイント化により人の顔を検出するには、以下のようにして行う。
図19は、人の顔を検出する方法を説明する図である。図19(a)は、解析する画像(1フレーム)を示す。図19(b)は、マスク画像を示す。人の顔を検出するには、まず、解析する画像(a)で、肌色(所定の色の範囲)を示す画素を検出する。次に、マスク画像(b)と解析する画像(a)とを比較して、マスク画像(b)の白部分に肌色画素が検出されたときは、その画素をポイント+1とし、黒部分に肌色画素が検出されたときは、その画素をポイント−1とする。
【0115】
データ解析部77は、画像解析で得られたポイント数をGOPごとに加える。そして、ポイントのGOP単位(ごと)の合計は、チャプタごとに、映像符号化データDの位置データ(オーディオビデオデータの先頭からの時間)t0と関連付けられて、ポイントテーブルとして記憶部(図示されず)に格納される。
【0116】
ここで、ポイントテーブルについて説明する。
図20は、ポイントテーブルをグラフの形で表現した図である。縦軸はGOPごとのポイントの合計S、横軸は位置データt0(ここでは「時間」)である。グラフ中の曲線Uは、GOPごとのポイントの合計を示す。時間t1から時間t2までが1チャプタとする。点A2は、チャプタにおけるポイントの合計が最大の点である。そのときの時間はtA2である。
【0117】
データ抽出部78は、ポイントテーブル(図20)を解析して、GOPごとのポイントの合計Sの最大の点A2を検出する。そして、時間tA2を中心にして、前後の映像符号化データDを指定された再生時間になるように、ハイライトシーンとして抽出する。すなわち、図20において、ハイライトシーンは、時間tC2から時間tB2までの映像符号化データDとなる。このとき、時間tC2−tB2=再生時間、ただし、tC2−tA2=Δt2=tA2−tB2である。このハイライトシーンを動画サムネイルとする。
【0118】
テーブル作成部79は、作成された動画サムネイルを動画サムネイルテーブルLに格納する。
【0119】
エンコード部11、記録日時解析部12、制御情報データ作成部14、メニュー画面作成部15書き込み制御部16(本実施の形態に関わる図2〜図4、図8の説明を含む)は、第1の実施の形態と同様であるので、その説明を省略する。
【0120】
次に、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第3の実施の形態の動作(オーサリングを含む信号処理方法)について説明する。
本実施の形態に関わる図9〜図11、図13、図14については、第1の実施の形態と同様であるのでその説明を省略する。
【0121】
次に、ステップS03の動画サムネイルを作成する動作について更に説明する。
図21は、ステップS03の動画サムネイルを作成する動作を示すフロー図である。
【0122】
(1)ステップS61
動画サムネイル作成部13bのデータ検出部76は、映像符号化データDとチャプタテーブルEとに基づいて、一つのチャプタを選択し、そのチャプタの映像符号化データDを取得する。
(2)ステップS62
データ検出部76は、チャプタ全体の映像符号化データDの符号を1フレームづつ解析する。そして、所定の領域(マスク画像で指定)の肌色(所定の色の範囲)を示す画素を顔として検出し、ポイント化する。
(3)ステップS63
データ解析部77は、画像解析で得られたポイント数をGOPごとに加える。そして、GOP単位のポイントと、映像符号化データDの位置データt0とを関連付けて、ポイントテーブル(図20)として記憶部(図示されず)に格納される。
(4)ステップS64
データ抽出部78は、ポイントテーブル(図20)を解析して、ポイント最大の点A2を検出する。そして、時間tA2を中心にして、前後の映像符号化データDを指定された再生時間になるように、ハイライトシーンとして抽出する。そして、それを動画サムネイルF1とする。
(5)ステップS65
テーブル作成部79は、動画サムネイルF1の各フレームと、映像符号化データDとを関連付けた動画サムネイルテーブルLを作成する。
(6)ステップS66
テーブル作成部79は、全てのチャプタについて動画サムネイルを作成している場合(Yes)、プロセスを終了する。動画サムネイルを作成していないチャプタが有る場合(No)、ステップS61へもどる。
【0123】
このようなプロセスにより、全てのチャプタについて、再生時間の揃った動画サムネイルを自動的に最適な方法で作成することが可能となる。
この方法の場合、一般的な顔検出に比較して、色の比較を行うだけなので、処理を高速で行うことが出来る。
【0124】
本実施の形態では、人の顔を検出しているが、例えば、特定の動物の色を設定すれば、その特定の動物を検出して動画サムネイルを生成することが出来る。同様に、例えば、植物の緑、空のスカイブルーのような色を設定すれば、自然の風景を検出して動画サムネイルを作成することが出来る。色の設定は、例えば、動画条件データCから入力するようにする。
【0125】
本実施の形態においても、第1の実施の形態と同様の効果を得ることが出来る。
【0126】
(第4の実施の形態)
本発明であるオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法の第4の実施の形態について、添付図面を参照して説明する。
【0127】
まず、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第4の実施の形態の構成について説明する。
図22は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第4の実施の形態の構成を示すブロック図である。DVD装置1aは、オーディオビデオデータA、及び諸条件(B及びC、後述)の入力に基づいて、DVDに、オーディオビデオデータを符号化した映像符号化データ及びその他のデータを記録、格納する。DVD装置1aは、オーサリング機能付き信号処理装置2a、DVD駆動部3及びシステムマイコン4を具備する。ここでは、DVDのデータを読み出す構成を省略している。
【0128】
オーサリング機能付き信号処理装置2aは、システムマイコン4の制御により、オーディオビデオデータAの入力に基づいて、映像符号化データD(後述)とメニュー画面データH2(後述)と制御情報データG2(後述)とを生成する。そして、それらを所定の記憶媒体に記録する制御を行う。記憶媒体は、DVDに例示される。
DVD駆動部3は、システムマイコン4の制御により、オーサリング機能付き信号処理装置2aから出力される映像符号化データDとメニュー画面データH2と制御情報データG2とを、内部にセットされた記憶媒体に記録(格納)する。
システムマイコン4は、オーサリング機能付き信号処理装置2a及びDVD駆動部3を具備するDVD装置1を制御する。システムマイコン4は、MPU(マイクロプロセッサユニット)に例示される。
【0129】
オーサリング機能付き信号処理装置2aは、エンコード部11aと、記録日時解析部12と、制御情報データ作成部14aと、メニュー画面作成部15aと、書き込み制御部16aとを具備する。ここで、エンコード部11aと記録日時解析部12とをデータ前処理部2a−2ともいう。データ前処理部2a−2と制御情報データ作成部14aとメニュー画面作成部15aとをデータ処理部2a−1ともいう。
【0130】
エンコード部11aは、外部から入力されるオーディオビデオデータAに基づいて、オーディオビデオデータを符号化した映像符号化データDを生成する。それと共に、オーディオビデオデータAを符号化する過程で算出される符号化データに基づいて、動画データJを生成する。
【0131】
ここで、符号化データは、オーディオビデオデータの符号化の際に用いられる離散コサイン変換(Discrete Cosine Transform、本明細書中「DCT」とも記す)の演算の結果として得られるDC係数(直流成分)のみを抽出したデータである。そして、動画データJは、オーディオビデオデータAのDC係数で構成される画像(サイズ=元のフレームの縦1/8×横1/8)を連続的に並べて生成される。オーディオビデオデータA、画像データ、オーディオビデオデータAの符号化及び映像符号化データDは、第1の実施の形態と同様である。
【0132】
動画データJは、オーディオビデオデータAを圧縮したものである。これを、各チャプタごとに分割することで、チャプタごとの動画サムネイルF2となる。すなわち、動画データJは、動画サムネイルF2の集合である。
【0133】
エンコード部11aは、更に、動画データJの各フレームと、映像符号化データDとを関連付けた動画データテーブルKを作成する。すなわち、動画データJの各フレームを示す動画用画像データと、映像符号化データDの位置データ及びVOBファイルのアドレスとを関連付けた動画データテーブルKを作成する。VOBアドレスは、各フレームに対する圧縮(MPEG)後のデータ位置(先頭からのアドレス)である。
【0134】
映像符号化データDを生成する際に、同時に僅かな処理の追加だけで、動画サムネイルF2(後述)用の動画データJを得ることが出来る。この動画データJは、DCT演算を行う1ブロック(8画素×8画素)のデータを一つのDC係数で代表させるので、縦1/8×横1/8=1/64にデータを圧縮することが出来る。この場合、データが大胆に省略されているが、メニュー画面の動画サムネイルの用途としては、充分な解像度を得られる。
【0135】
図23は、動画データテーブルKを示す表である。フレームの通し番号であるフレーム番号41、映像符号化データDの位置データ(オーディオビデオデータの先頭からの時間)としての時刻42、及び映像符号化データD内のフレームに対するアドレスとしてのVOBファイルのアドレス43、動画用画像データとしてのフレーム画像データ44がフレームごとに関連付けられている。
【0136】
記録日時解析部12及びチャプタテーブルEは、第1の実施の形態と同様であるので、その説明を省略する。
【0137】
図22を参照して、メニュー画面作成部15aは、動画データテーブルKとチャプタテーブルEとに基づいて、動画のメニュー画面を示すメニュー画面データH2を作成する。ただし、動画サムネイルF2は、チャプタテーブルEで定義されるチャプタに対応させて、動画データテーブルKから動画データJの該当部分を取り出して生成する。
ここで、動画のメニュー画面は、複数のチャプタに対応した複数の動画サムネイルF2(図示されず)を、一つの画面で一度に表示したものである。例えば、4つのチャプタが有る場合のメニュー画面では、一つの画面で4つの動画サムネイルF2を観ることが出来る。このとき、動画サムネイルF2の条件を示す動画条件データC(例示:画面サイズ、再生時間)を参照し、条件に適合するように各動画サムネイルF2を生成する。
【0138】
そして、ポインティングデバイス(例示:マウス)により、画面上で動画サムネイルF2を選択できる。その場合、メニュー画面データH2において、各動画サムネイルF2は、動画データテーブルKのVOBファイルのアドレス43と関連付けられているので、画面上で選択された動画サムネイルF2に対応するチャプタを再生することが出来る。
【0139】
制御情報データ作成部14aは、動画データテーブルKとチャプタテーブルEとに基づいて、複数のチャプタに関するデータを含む制御情報データG2(後述)を作成する。すなわち、動画データテーブルK(の動画データJ)に基づいてDVDの制御情報データG2を作成し、その制御情報データG2のPTT37に、各プログラムがどのチャプタに含まれるかを示すチャプタデータ(例示:チャプタ番号31)を格納する。ただし、制御情報データG2は、第1の実施の形態と同様である。
【0140】
書き込み制御部16aは、映像符号化データDとメニュー画面データH2と制御情報データG2とを受信し、それぞれのデータをDVDの所定の領域に記録するように、DVD駆動部3へのデータの出力の制御を行う。
このとき、メニュー画面データH2は、VMG63のVMGM_VOBSに、制御情報データG2は、VTS67のVTSIに、映像符号化データDは、VTSM_VOBS〜VTSTT_VOBSにそれぞれ格納される。
【0141】
次に、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第4の実施の形態の動作(オーサリングを含む信号処理方法)について説明する。
図24は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第4の実施の形態の動作(オーサリングを含む信号処理方法)を示すフロー図である。
【0142】
(1)ステップS11
エンコード部11aは、外部から入力されたオーディオビデオデータAに基づいて、オーディオビデオデータAを符号化した映像符号化データDを生成する。それと共に、オーディオビデオデータAを符号化する過程で算出される符号化データに基づいて、動画データJを生成し、動画データJの各フレームと、映像符号化データDとを関連付けた動画データテーブルKを作成する。
【0143】
(2)ステップS12
記録日時解析部12は、外部から入力されたオーディオビデオデータAの日時データに基づいて、オーディオビデオデータAを複数のチャプタに分割する。ただし、オーディオビデオデータAを分割するチャプタの数を、外部から入力される最大チャプタ数データBで示される最大チャプタ数Nを越えないようにチャプタを調整する。そして、チャプタテーブルEを生成する。
【0144】
(3)ステップS13
メニュー画面作成部15aは、動画データテーブルKとチャプタテーブルEとに基づいて、動画のメニュー画面を示すメニュー画面データH2を作成する。
【0145】
(4)ステップS14
制御情報データ作成部14aは、動画データテーブルKとチャプタテーブルEとに基づいて、複数のチャプタに関するデータを含む制御情報データG2を作成する。このとき、その制御情報データG2のPTTに、各プログラムがどのチャプタに含まれるかを示すチャプタデータ(例示:チャプタ番号31)が格納される。
【0146】
(5)ステップS15
書き込み制御部16は、メニュー画面データH2と映像符号化データDと制御情報データG2とをDVDの所定の領域に記録するように、DVD駆動部3へのデータの出力の制御を行う。DVD駆動部3は、それらのデータをDVDに書き込む。
【0147】
ここで、ステップS11の動作の内、における動画データテーブルKを作成する動作について更に説明する。
図25は、ステップS11における動画データテーブルKを作成する動作を示すフロー図である。これらのステップは、Iピクチャのみに対して行う。
【0148】
(1)ステップS71
MPEGの符号化の際に行うDCT演算で得られるDC係数を抽出する。
(2)ステップS72
オーディオビデオデータAの1フレーム分のDC係数を再配置して、1フレーム分の動画用の画像(サイズ=元のフレームの縦1/8×横1/8)を生成する。
(3)ステップS73
生成された動画用の画像を連続的に並べることにより動画データJを生成する。
(4)ステップS74
動画用の画像の各フレームごとに、動画データJと、映像符号化データDとを関連付けた動画データテーブルKを作成する。すなわち、動画用の画像の各フレームを示す動画用画像データと、映像符号化データDの位置データ及びVOBファイルのアドレスとを関連付けた動画データテーブルKを作成する。
【0149】
動画データJは、オーディオビデオデータAの1GOP(1VOBU=通常0.5秒)分を、1枚の画像で表すことになる。すなわち、大幅に短縮された動画データを得ることが出来る。
【0150】
ただし、ステップS12のチャプタテーブルを作成する動作については、図8に示すステップS02と同様であるのでその説明を省略する。
【0151】
ここで、ステップS13のメニュー画面データを作成する動作について更に説明する。
図26は、ステップS13のメニュー画面データを作成する動作を示すフロー図である。ここでは、チャプタの数が4個の場合について説明する。
【0152】
(1)ステップS81
メニュー画面作成部15aは、各チャプタの開始時刻(位置データ:オーディオビデオデータでの時刻)を特定するために、チャプタ番号k=1を設定する。
(2)ステップS82
メニュー画面作成部15aは、チャプタ番号kの開始時刻について、チャプタテーブルEのチャプタ番号41=kの欄の1つ前の欄の時刻42(前のチャプタの終了時刻)から、チャプタ番号kの開始時刻を求める。(開始時刻)=(1つ前の欄の時刻42)+(1フレーム分の時間)、で求める。
例えば、チャプタ番号k=2の場合、チャプタ番号41=k=2の欄の1つ前の欄は、チャプタ番号41=1の欄である。したがって、(チャプタ番号k=2の開始時刻)=(チャプタ番号k=1の欄の時刻42(チャプタ1の終了時刻))+(1フレーム分の時間)、で求まる。ただし、チャプタ番号k=1は、最初のチャプタであり、1つ前の欄は存在しないので、その場合、開始時刻=0とする。
(3)ステップS83、ステップS84
メニュー画面作成部15aは、チャプタ番号kが、最大チャプタ数N(ここでは、N=4)以上となるまで、ステップS82〜ステップS84を繰り返す。
これにより、各チャプタの開始時刻を特定することが出来る。
(4)ステップS85
メニュー画面作成部15aは、動画のメニュー画面(メニュー画面データH2)の第1フレームを作成するために、フレーム番号m=1を設定する。
(5)ステップS86
メニュー画面作成部15aは、第1フレームのチャプタ1について処理を行うために、チャプタ番号k=1を設定する。
(6)ステップS87
メニュー画面作成部15aは、動画データテーブルKに基づいて、チャプタ番号k=1のチャプタにおけるm=1番目のフレームに相当するフレーム画像データ44を動画データテーブルKから取得する。そして、メニュー画面のm=1番目のフレームの右上に貼り付ける。
(7)ステップS88、ステップS89
メニュー画面作成部15aは、チャプタ番号kが、最大チャプタ数N(ここでは、N=4)以上となるまで、ステップS87〜ステップS89を繰り返す。
これにより、メニュー画面データH2のm=1番目の1フレーム分が完成する。ただし、k=2の場合、フレームの左上、k=3の場合、フレームの右下、k=4の場合、フレームの左下に、フレーム画像データ44をそれぞれ貼り付ける。
(8)ステップS90、ステップS91
メニュー画面作成部15aは、フレーム番号mが、指定フレーム数M(指定された再生時間に相当)以上となるまで、ステップS86〜ステップS91を繰り返す。
これにより、指定フレーム数M(指定された再生時間分)のメニュー画面(静止画)が生成される。
(9)ステップS92
メニュー画面作成部15aは、得られた複数のメニュー画面(静止画)をMPEG2規格により圧縮して、VOBファイルとし、メニュー画面データH2を完成させる。それには、上記プロセスにより4つのチャプタの動画サムネイルが含まれている。
【0153】
上記(1)ステップS81〜(9)ステップS92で作成されたメニュー画面データH2は、図14と同様であるので、その説明を省略する。
【0154】
このようにして、各チャプタの動画サムネイルを含むメニュー画面データを、自動的に作成することが出来る。
【0155】
以上のように本発明は、第1の実施の形態と同様の効果を得ることが出来る。
【0156】
【発明の効果】
本発明により、複数のオーディオビデオデータを一つの記憶媒体に格納する場合に、オーディオビデオデータを自動的に区切り、チャプタを自動生成し、動画サムネイルを用いたメニュー画面を自動的に生成することが可能になる。そして、記憶媒体内の内容を迅速且つ的確に把握することが可能になる。
【図面の簡単な説明】
【図1】図1は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置の第1〜3の実施の形態の構成を示すブロック図である。
【図2】図2は、記録日時解析部の構成を示す図である。
【図3】図3は、日時データ及び位置データを示す図である。
【図4】図4は、チャプタテーブルを示す表である。
【図5】図5は、動画サムネイルテーブルを示す表である。
【図6】図6は、動画サムネイル作成部13の構成を示すブロック図である。
【図7】図7は、差分値テーブルをグラフの形で表現した図である。
【図8】図8は、DVDに格納されるデータの構造を示す図である。
【図9】図9は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置の第1〜3の実施の形態の動作を示すフロー図である。
【図10】図10は、ステップS02のチャプタテーブルを作成する動作を示すフロー図である。
【図11】図11(a)〜(c)は、図4のチャプタテーブルを生成する過程を示す図である。
【図12】図12は、ステップS03の動画サムネイルを作成する動作を示すフロー図である。
【図13】図13は、ステップS05のメニュー画面データを作成する動作を示すフロー図である。
【図14】図14は、動画のメニュー画面を示す図である。
【図15】図15は、動画サムネイル作成部13aの構成を示すブロック図である。
【図16】図16は、符号量テーブルをグラフの形で表現した図である。
【図17】図17は、ステップS03の動画サムネイルを作成する動作を示すフロー図である。
【図18】図18は、動画サムネイル作成部13bの構成を示すブロック図である。
【図19】図19(a)(b)は、人の顔を検出する方法を説明する図である。
【図20】図20は、ポイントテーブルをグラフの形で表現した図である。
【図21】図21は、ステップS03の動画サムネイルを作成する動作を示すフロー図である。
【図22】図22は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置の第4の実施の形態の構成を示すブロック図である。
【図23】図23は、動画データテーブルを示す表である。
【図24】図24は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置の第4の実施の形態の動作を示すフロー図である。
【図25】図25は、ステップS11における動画データテーブルを作成する動作を示すフロー図である。
【図26】図26は、ステップS13のメニュー画面データを作成する動作を示すフロー図である。
【符号の説明】
1(a) DVD装置
2(a) オーサリング機能付き信号処理装置
2−1、2a−1 データ処理部
2−2 データ作成部
2a−2 データ前処理部
2−3 データ前処理部
3 DVD駆動部
4 システムマイコン
11(a) エンコード部
12 記録日時解析部
13(a、b) 動画サムネイル作成部
14(a) 制御情報データ作成部
15(a) メニュー画面作成部
16(a) 書き込み制御部
21 チャプタ分割部
22 チャプタ制限部
23 テーブル生成部
25、55、75 動画サムネイル作成実行部
26 ハイライトシーン検出部
27 作成手法選択部
28 作成手法実行部
29 テーブル作成部
31 チャプタ番号
32 チャプタ終了位置
33 チャプタ記録日時間隔
34 ビデオタイトルセット
35 タイトル
36 プログラムチェーン(PGC)
37 PTT(チャプタ)
38 プログラム(PG)
38−1 セル
38−2 ビデオオブジェクトユニット(VOBU)
38−3 パック
50 メニュー画面
51−1 チャプタ1の動画サムネイル
51−2 チャプタ2の動画サムネイル
51−3 チャプタ3の動画サムネイル
51−4 チャプタ4の動画サムネイル
52 メニューボタン
56、76 データ検出部
57、77 データ解析部
58、78 データ抽出部
59、79 テーブル作成部
61 DVDに格納されるデータ
63 ビデオマネージャ(VMG)
67 ビデオタイトルセット(VTS)
A オーディオビデオデータ
B 最大チャプタ数データ
C 動画条件データ
D 映像符号化データ
E チャプタテーブル
F(1、2) 動画サムネイル
G(1、2) 制御情報データ
H(1、2) メニュー画面データ
I(1、2) 動画サムネイル+制御情報データ+メニュー画面データ
J 動画データ
K 動画データテーブル
L 動画サムネイルテーブル
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a signal processing device with an authoring function and a signal processing method including authoring, and more particularly, to a signal processing device with an authoring function and a signal processing method including authoring that are used when audio-video data is recorded on a storage medium.
[0002]
[Prior art]
Audio video data from a digital video (DV) tape or an analog video tape recorder (VTR) (sound data, image (including moving image) data, and date / time data indicating recording date / time, the same in this specification), DVD When recording on a large-capacity storage medium such as (Digital Versatile Disc), audio video data including a plurality of video images may be collectively recorded on one DVD. In that case, what kind of contents of the audio video data are recorded in one DVD must be viewed through when the contents are not recorded separately.
[0003]
Techniques for avoiding such trouble are known. For example, there are the following techniques.
First, for example, audio video data stored in one DVD is divided into a plurality of chapters so that the cueing can be performed for each characteristic scene or each scene to be viewed together. Next, a thumbnail (still image) of the top screen for each chapter is extracted as a representative image of the chapter. Then, all the extracted thumbnails are simultaneously displayed on the display screen of the display (or a part of the thumbnails is displayed, and the rest can be displayed by scrolling). In this way, since a list of representative images of a plurality of video images can be viewed on one display screen, the contents of the audio video data in the DVD can be grasped in a short time. Then, it is possible to easily cue each thumbnail.
[0004]
Here, as a method of automatically dividing the audio video data into a plurality of chapters, a method of detecting a change in audio video data (image data and audio data) satisfying a predetermined condition and dividing it at the place, or audio video data A method is known in which a marker recorded above is detected and separated at that location. As a method of automatically extracting a representative image and making it a thumbnail (still image), a method of using a head image of a divided chapter as a representative image is known.
[0005]
However, there are cases where a desired chapter cannot be constructed because the audio video data is not separated at an appropriate position only by the change of the audio video data or the marker on the audio video data. If the thumbnail is a still image, it may be difficult to accurately grasp the contents of the chapter unless the representative image is appropriately selected.
There is a demand for a technique that can automatically find a break of audio video data having a plurality of video images more appropriately and configure a desired chapter. There is a demand for a technique that can generate thumbnails that can accurately grasp the contents of chapters.
[0006]
As a related technique, Japanese Patent Application Laid-Open No. 2002-152636 (Patent Document 1) discloses a technique of a recording / reproducing apparatus with an automatic chapter creation function (Related: Japanese Patent Application Laid-Open No. 2002-152665 (Patent Document 2), Japanese Patent Application Laid-Open No. 2002-260688) -152666 (Patent Document 3)).
The recording / reproducing apparatus with an automatic chapter creation function of this technique is an apparatus having a recording / reproducing medium, recording / reproducing processing means, display signal deriving means, system control means, and pause means. Here, the recording / reproducing medium includes a video information recording area in which video information including a program is recorded, a video management information recording area in which management information for recording / reproducing the video information is recorded, and each chapter of the program. At least a chapter management information recording area. The recording processing / reproducing processing means records information on the recording / reproducing medium and reproduces the recorded information. The display signal deriving unit supplies the reproduction signal from the reproduction processing unit to the display. The system control unit controls the recording processing / reproducing processing unit and the display signal deriving unit. The temporary stop means causes the whole-air recording processing means to temporarily stop the recording process via the system control means. And this apparatus has means for registering in the chapter management information as a chapter boundary between the recording information when the pause means executes the pause and when the recording is resumed. .
An object of this technique is to provide a recording / reproducing apparatus with an automatic chapter creation function that automatically creates chapters and thumbnails on a storage medium on which a large number of programs (audio video data) are continuously recorded. is there.
[0007]
In this technique, when audio / video data is paused during recording of audio / video data, a plurality of chapters are determined by using it as a chapter break. Then, the top screen of each chapter is extracted as a thumbnail (still image), and a representative screen list is generated. Chapter editing can also be performed manually.
[0008]
[Patent Document 1]
JP 2002-152636 A
[Patent Document 2]
JP 2002-152665 A
[Patent Document 3]
JP 2002-152666 A
[0009]
[Problems to be solved by the invention]
Accordingly, an object of the present invention is to provide an authoring function capable of storing so that the contents of the stored audio video data can be quickly and accurately grasped when audio video data having a plurality of images is stored in one storage medium. A signal processing apparatus and a signal processing method including authoring are provided.
[0010]
In addition, another object of the present invention is to automatically and more appropriately find audio video data delimiters when audio video data having a plurality of images is stored in a single storage medium, and to accurately configure chapters. An object of the present invention is to provide a signal processing apparatus with an authoring function and a signal processing method including authoring.
[0011]
Still another object of the present invention is to automatically generate a thumbnail that can accurately grasp the contents of each divided chapter when audio / video data having a plurality of videos is stored in one storage medium. An object of the present invention is to provide a signal processing apparatus with an authoring function and a signal processing method including authoring.
[0012]
Another object of the present invention is to provide a signal processing apparatus with an authoring function capable of automatically creating a menu screen that can easily grasp the contents when audio video data having a plurality of videos is stored in one storage medium, and An object of the present invention is to provide a signal processing method including authoring.
[0013]
[Means for Solving the Problems]
Hereinafter, means for solving the problem will be described using the numbers and symbols used in the embodiments of the present invention. These numbers and symbols are added in parentheses in order to clarify the correspondence between the description of [Claims] and [Embodiments of the Invention]. However, these numbers and symbols should not be used for the interpretation of the technical scope of the invention described in [Claims].
[0014]
Therefore, in order to solve the above problems, the signal processing apparatus with an authoring function of the present invention includes a data processing unit (2-1) and a write control unit (16).
The data processing unit (2-1) creates a moving image thumbnail (F1, J) for each of a plurality of chapters generated by dividing the audio video data (A) for each chapter, and the moving image thumbnail (F1, Menu screen data (H1, H2) including J) is created. The write control unit (16) performs control to record the menu screen data (H1, H2) on the storage medium.
Here, the audio video data (A) includes a plurality of image data, date / time data (T0) indicating the recording date and time of the image data, and position data (t0) indicating the position of the image data in the audio video data (A). ). The menu screen data (H1, H2) indicates a menu screen (50) for simultaneously displaying a part or all of the moving image thumbnails (F1, J) among the plurality of chapters.
According to the present invention, the contents of the audio video data stored in the storage medium are grasped on the menu screen on which the moving image thumbnails for each chapter are displayed together. In other words, the contents of the audio video data stored in the storage medium can be stored so as to be quickly and accurately grasped.
Here, examples of the recording medium include DVD, ROM, RAM, HD, CD, and FD. The data processing unit (2-1) may perform the above process with reference to the conditions (B, C) for creating the menu screen. In that case, the user's idea can be reflected.
[0015]
In the signal processing apparatus with an authoring function, the data processing unit (2-1) includes a data creation unit (2-2) and a menu screen creation unit (15).
The data creation unit (2-2) divides the audio-video data (A) to generate a plurality of chapters, creates a moving image thumbnail (F1) for each of the plurality of chapters, and a moving image thumbnail (F1). Moving image thumbnail data (L) indicating data related to the control data and control information data (G1) indicating control information related to the plurality of chapters. The menu screen creation unit (15) creates menu screen data (H1) based on the moving image thumbnail data (L) and the control information data (G1).
Here, as the moving image thumbnail data (L), a moving image thumbnail table (L) in which a plurality of moving image thumbnails (F1) and position data (t0) are associated is exemplified. A method of dividing the audio video data (A) into chapters is exemplified by a method of using date / time data (T0), image data, and audio data included in the audio video data (A).
[0016]
In the above-described signal processing device with an authoring function, the data processing unit (2-1) divides the audio video data (A) based on the date / time data (T0) to generate a plurality of chapters.
Since the chapters are divided using the date / time data (T0: indicates the recording date / time of the image data), the scenes related to the contents in the audio video data (A) can be collected, and the chapters can be automatically divided appropriately. it can. In other words, it is possible to automatically find a break of the audio video data more appropriately and configure a chapter accurately.
[0017]
In the signal processing device with an authoring function, the data creation unit (2-2) includes a data preprocessing unit (2-3), a moving image thumbnail creation unit (13), and a control information data creation unit (14). Prepare.
The data preprocessing unit (2-3) divides the audio video data (A) to generate a plurality of chapters, chapter data (E) indicating data related to the plurality of chapters, and audio video data (A). The video encoded data (D) obtained by encoding is generated. The moving image thumbnail creating unit (13) creates moving image thumbnail data (L) based on the encoded video data (D) and the chapter data (E). The control information data creation unit (14) creates control information data (G1) based on the encoded video data (D) and the chapter data (E).
Here, as the chapter data (E), a chapter table (E) in which the chapter date / time data (33) corresponding to each of the plurality of chapters and the chapter position data (32) are associated is exemplified. However, the chapter date / time data (33) is data based on the date / time data (T0) in each of the plurality of chapters. The chapter position data (32) is data based on the position data (t0) in each of the plurality of chapters.
[0018]
In the above-described signal processing device with an authoring function, the data preprocessing unit (2-3) creates video encoded data (D) based on the Moving Picture Experts Group (MPEG) standard.
[0019]
In the above-described signal processing device with an authoring function, the moving image thumbnail creation unit (13) includes a highlight scene detection unit (26), a creation method selection unit (27), a creation method selection unit (28), and a table creation unit. (29).
The highlight scene detection unit (26) determines the presence or absence of a highlight scene for each chapter based on the encoded video data (D) and the chapter data (E). Here, the highlight scene is video encoded data (D) in which the pixel difference value (Δ) is equal to or greater than the reference value. The reference value is variable. The creation method selection unit (27) selects a creation method of the moving image thumbnail (F1) from preset creation methods for each chapter based on the presence or absence of the highlight scene. The creation method execution unit (28) creates a moving image thumbnail (F1) for each chapter based on the selected creation method. The table creation unit (29) generates moving image thumbnail data (L) based on the created moving image thumbnail (F1).
However, the moving image thumbnail data (L) includes a moving image thumbnail table (L) in which a plurality of moving image thumbnails (F1) and position data (t0) are associated with each other.
Here, as a creation method thereof, when there is no highlight scene, frames are thinned out from the video encoded data (D) to form a moving image thumbnail (F1). When there is the highlighted scene, the highlighted scene is converted into a moving image. A method for setting the thumbnail (F1) is exemplified.
According to the present invention, by using a highlight scene, it is possible to automatically create a thumbnail that can accurately grasp the contents of each divided chapter.
[0020]
In the above-described signal processing device with an authoring function, the moving image thumbnail creation unit (13a) includes a data detection unit (56), a data analysis unit (57), a data extraction unit (58), and a table creation unit (59). Is provided.
The data detection unit (56) detects the position of a GOP (Group Of Picture) for each chapter based on the encoded video data (D) and the chapter data (E). Based on the detected GOP, the data analysis unit (57) performs, for each chapter, the GOP unit. Sign Associate quantity (R) with position data (t0) Sign Create a quantity table. The data extraction unit (58) Sign Based on the quantity table, for each chapter, Sign Video encoded data (D) for a continuous predetermined time (2 × Δt1) including the GOP with the maximum amount (R) is extracted as a moving image thumbnail (F1). The table creation unit (59) generates moving image thumbnail data (L) based on the extracted moving image thumbnail (F1).
However, the moving image thumbnail data (L) includes a moving image thumbnail table (L) in which a plurality of moving image thumbnails (F1) and position data (t0) are associated with each other.
According to the present invention, Sign By using a scene including the GOP with the maximum amount (R), it is possible to automatically create a thumbnail that can accurately grasp the contents of each divided chapter.
[0021]
In the above-described signal processing device with an authoring function, the moving image thumbnail creation unit (13b) includes a data detection unit (76), a data analysis unit (77), a data extraction unit (78), and a table creation unit (79). Is provided.
The data detection unit (76) detects the position of the GOP for each chapter based on the video encoded data (D) and the chapter data (E), and outputs a predetermined color for each detected GOP. A predetermined point is added to the pixel data shown. Based on the points, the data analysis unit (77) creates a point table in which the sum (S) of points for each GOP and the position data (t0) are associated with each chapter. On the basis of the point table, the data extraction unit (78), for each chapter, encodes video encoded data (2 × Δt2) of continuous predetermined time (2 × Δt2) including the GOP with the maximum point total (S). D) is extracted as a moving image thumbnail (F1). The table creation unit (79) generates moving image thumbnail data (L) based on the extracted moving image thumbnail (F1).
However, the moving image thumbnail data (L) includes a moving image thumbnail table (L) in which a plurality of moving image thumbnails (F1) and position data (t0) are associated with each other.
According to the present invention, since a scene including a large amount of pixel data indicating a predetermined color is used, it is possible to automatically generate a thumbnail that can accurately grasp the contents of each divided chapter. For example, if the predetermined color is human skin color, a screen on which many humans appear can be taken out.
[0022]
In the signal processing apparatus with an authoring function, the data processing unit (2a-1) includes a data preprocessing unit (2a-2) and a menu screen creation unit (15a).
The data preprocessing unit (2a-2) divides the audio video data (A) to generate a plurality of chapters, creates chapter data (E) indicating data related to the plurality of chapters, and generates audio video data ( Movie data (J) in which A) is compressed is created to create movie thumbnail data (K) indicating data related to movie data (J). The menu screen creation unit (15a) creates menu screen data (H2) based on the moving image thumbnail data (K) and the chapter data (E).
Here, as the chapter data (E), a chapter table (E) in which the chapter date / time data (33) corresponding to each of the plurality of chapters and the chapter position data (32) are associated is exemplified. However, the chapter date / time data (33) is data based on the date / time data (T0) in each of the plurality of chapters. The chapter position data (32) is data based on the position data (t0) in each of the plurality of chapters.
The moving image thumbnail data (K) is exemplified by a moving image data table (K) in which moving image data (J) obtained by compressing the audio video data (A) and video encoded data (D) are associated with each other. The moving image data (J) is generated based on the encoded data calculated in the process of encoding the audio video data (A).
[0023]
In the above-described signal processing device with an authoring function, the data preprocessing unit (2a-2) further creates video encoded data (D) obtained by encoding the audio video data (A), and performs DCT during the encoding. Movie data (J) is created based on the DC coefficient calculated by (Discrete Course Transform) calculation.
[0024]
In the signal processing apparatus with an authoring function, the data preprocessing unit (2a-2) includes an encoding unit (11, 11a) and a recording date and time analysis unit (12).
The encoding unit (11, 11a) creates video encoded data (D) based on the audio video data (A). The recording date and time analysis unit (12) divides the audio video data (A) into a plurality of chapters based on the date and time data (T0) and creates chapter data (E).
[0025]
In the signal processing apparatus with an authoring function, the recording date and time analysis unit (12) includes a chapter division unit (21) and a table generation unit (23).
The chapter division unit (21) divides a part of the date / time data (T0) having no continuity into a plurality of chapters as a delimiter of the video data (A). The table generation unit (23) creates chapter data (E) including the chapter table (E).
Here, the chapter table (E) associates the chapter date / time data (33) and the chapter position data (32) corresponding to each of the plurality of chapters. The chapter date / time data (33) is data based on the date / time data (T0) in each of the plurality of chapters. The chapter position data (32) is data based on the position data (t0) in each of the plurality of chapters.
[0026]
In the signal processing apparatus with an authoring function, the recording date and time analysis unit (12) further includes a chapter limiter (22) that limits the number of chapters to a preset maximum number of chapters (N).
[0027]
In order to solve the above-described problem, the DVD device according to the present invention outputs the menu screen data (H1, H2) based on the input of the audio video data (A). A signal processing device with an authoring function and a drive unit (3) for writing menu screen data (H1, H2) to the storage medium.
Here, examples of the recording medium include DVD, ROM, RAM, HD, CD, and FD.
[0028]
Therefore, in order to solve the above problem, the signal processing method including authoring according to the present invention includes the steps (a) to (b).
The step (a) creates a moving image thumbnail (F1, J) for each of a plurality of chapters generated by dividing the audio video data (A) for each chapter, and a menu including the moving image thumbnail (F1, J). Screen data (H1, H2) is created. Here, the audio video data (A) includes a plurality of image data, date / time data (T0) indicating the recording date and time of the image data, and position data (t0) indicating the position of the image data in the audio video data (A). )including. The menu screen data (H1, H2) indicates a menu screen (50) for simultaneously displaying a part or all of the moving image thumbnails (F1, J) among the plurality of chapters. (B) The step records the menu screen data (H1, H2) on the storage medium.
Here, examples of the recording medium include DVD, ROM, RAM, HD, CD, and FD.
[0029]
In the signal processing method including authoring described above, step (a) includes steps (a1) to (a5).
In the step (a1), video encoded data (D) obtained by encoding the audio video data (A) is created based on the audio video data (A). In the step (a2), the audio video data (A) is divided based on the date / time data (T0) to generate a plurality of chapters, and chapter data (E) indicating data related to the chapters is generated. In step (a3), a moving image thumbnail (F1) is created for each of the plurality of chapters based on the encoded video data (D) and the chapter data (E), and data relating to the plurality of moving image thumbnails (F1). Video thumbnail data (L) is generated. In the step (a4), control information data (G1) indicating control information related to the plurality of chapters is created based on the encoded video data (D) and the chapter table (E). In the step (a5), menu screen data (H1) is created based on the moving image thumbnail data (L) and the control information data (G1).
[0030]
In the signal processing method including authoring described above, the step (a3) includes steps (aa1) to (aa5).
In the (aa1) step, based on the video encoded data (D) and the chapter data (E), for each chapter, the pixel difference value (Δ) in the video encoded data (D) is greater than or equal to the reference value. A highlight scene is detected. Here, the chapter data (E) includes a chapter table (E) in which the chapter date / time data (33) corresponding to each of the plurality of chapters and the chapter position data (32) are associated with each other. The chapter date / time data (33) is data based on the date / time data (T0) in each of the plurality of chapters. The chapter position data (32) is data based on the position data (t0) in each of the plurality of chapters. In the (aa2) step, the reference value is changed so that the length of the highlight scene becomes equal to the designated reproduction time, and if it can be equal, it is determined that there is the highlight scene, and the highlight scene and position data (t0). ) Is generated. If not equal, it is determined that there is no highlight scene. In the (aa3) step, a moving image thumbnail (F1) creation method is selected from preset creation methods for each chapter based on the presence / absence of the highlight scene and the situation of the highlight scene. In the (aa4) step, a moving image thumbnail (F1) is created for each chapter based on the selected creation method. In the (aa5) step, the moving image thumbnail data (L) is generated based on the generated moving image thumbnail (F1). Here, the moving image thumbnail data (L) includes a moving image thumbnail table (L) in which a plurality of moving image thumbnails (F1) and position data (t0) are associated with each other.
However, when the highlight scene does not exist, the creation method is such that a frame is thinned out from the video encoded data (D) to obtain a moving image thumbnail (F1). When there are a plurality of the highlight scenes, the plurality of the highlight scenes are connected to form a moving image thumbnail (F1). If there is only one highlight scene, the highlight scene is directly used as a moving image thumbnail (F1).
[0031]
In the signal processing method including authoring described above, the step (a3) includes steps (aa6) to (aa9).
(A3) Step is
In the (aa6) step, based on the video encoded data (D) and the chapter data (E), the position of the GOP is detected for each chapter. Here, the chapter data (E) includes a chapter table (E) in which the chapter date / time data (33) corresponding to each of the plurality of chapters and the chapter position data (32) are associated with each other. The chapter date / time data (33) is data based on the date / time data (T0) in each of the plurality of chapters. The chapter position data (32) is data based on the position data (t0) in each of the plurality of chapters. (Aa7) The step is performed for each chapter based on the detected GOP. Sign Associate quantity (R) with position data (t0) Sign Create a quantity table. (Aa8) The step is Sign Based on the quantity table, for each chapter, Sign Video encoded data (D) for a continuous predetermined time (2 × Δt1) including the GOP with the maximum amount (R) is extracted as a moving image thumbnail (F1). In the (aa9) step, moving image thumbnail data (L) is created based on the extracted moving image thumbnail (F1). Here, the moving image thumbnail data (L) includes a moving image thumbnail table (L) in which a plurality of moving image thumbnails (F1) and position data (t0) are associated with each other.
[0032]
In the signal processing method including authoring described above, the step (a3) includes steps (aa10) to (aa14).
The (aa10) step detects the position of the GOP for each chapter based on the encoded video data (D) and the chapter data (E). Here, the chapter data (E) includes a chapter table (E) in which the chapter date / time data (33) corresponding to each of the plurality of chapters and the chapter position data (32) are associated with each other. The chapter date / time data (33) is data based on the date / time data (T0) in each of the plurality of chapters. The chapter position data (32) is data based on the position data (t0) in each of the plurality of chapters. In the (aa11) step, a predetermined point is added to pixel data indicating a predetermined color for each detected GOP. The (aa12) step creates a point table in which the total (S) of points for each GOP and the position data (t0) are associated with each chapter based on the points. In step (aa13), on the basis of the point table, for each chapter, video encoded data (D) of continuous predetermined time (2 × Δt2) including the GOP having the maximum point total (S). Are extracted as a moving image thumbnail (F1). In the (aa14) step, moving image thumbnail data (L) is created based on the extracted moving image thumbnail (F1). Here, the moving image thumbnail data (L) includes a moving image thumbnail table (L) in which a plurality of moving image thumbnails (F1) and position data (t0) are associated with each other.
[0033]
In the signal processing method including authoring described above, step (a) includes steps (a6) to (a8).
In the step (a6), based on the audio video data (A), encoded video data (D) obtained by encoding the audio video data (A) and moving image data (J) obtained by compressing the audio video data (A) are obtained. The moving image thumbnail data (K) indicating the data related to the moving image data (J) is generated. Here, the moving image thumbnail data (K) includes a moving image data table (K) in which the moving image data (J) and the video encoded data (D) are associated with each other. The moving image data (J) is created based on the encoded data calculated in the encoding process. In the step (a7), the audio video data (A) is divided based on the date / time data (T0) to generate a plurality of chapters, and chapter data (E) indicating data related to the chapters is generated. Here, the chapter data (E) includes a chapter table (E) in which the chapter date / time data (33) corresponding to each of the plurality of chapters and the chapter position data (32) are associated with each other. The chapter date / time data (33) is data based on the date / time data (T0) in each of the plurality of chapters. The chapter position data (32) is data based on the position data (t0) in each of the plurality of chapters. In the step (a8), menu screen data (H2) is created based on the moving image thumbnail data (K) and the chapter data (E).
[0034]
In the signal processing method including authoring described above, the step (a6) includes steps (ab1) to (ab3).
In the (ab1) step, a DCT operation is performed on the audio video data (A). In the (ab2) step, moving image data (J) is created based on the DC coefficient generated with the DCT calculation. The (ab3) step creates moving image thumbnail data (K) based on moving image data (J) and encoded video data (D).
[0035]
Therefore, in order to solve the above problems, the computer program according to the present invention causes a computer to execute a method including steps (c) to (d).
(C) The step creates a moving image thumbnail (F1, J) for each of a plurality of chapters generated by dividing the audio video data (A) for each chapter, and a menu including the moving image thumbnail (F1, J). Screen data (H1, H2) is created. Here, the audio video data (A) includes a plurality of image data, date / time data (T0) indicating the recording date and time of the image data, and position data (t0) indicating the position of the image data in the audio video data (A). )including. The menu screen data (H1, H2) indicates a menu screen (50) for simultaneously displaying a part or all of the moving image thumbnails (F1, J) among the plurality of chapters. In step (d), the menu screen data (H1, H2) is recorded on the storage medium.
Here, examples of the recording medium include DVD, ROM, RAM, HD, CD, and FD.
[0036]
In the above computer program, step (c) includes steps (c1) to (c5).
In the (c1) step, video encoded data (D) obtained by encoding audio video data (A) is created. In the step (c2), the audio video data (A) is divided to generate a plurality of chapters, and chapter data (E) indicating data related to the chapters is created. (C3) The step creates a moving image thumbnail (F1) for each of the plurality of chapters based on the encoded video data (D) and the chapter data (E), and data on the plurality of moving image thumbnails (F1). Video thumbnail data (L) is generated. In the (c4) step, control information data (G1) indicating control information related to the plurality of chapters is created based on the encoded video data (D) and the chapter table (E). In step (c5), menu screen data (H1) is created based on the moving image thumbnail data (L) and the control information data (G1).
[0037]
In the above program, the step (c2) divides the audio video data (A) based on the date / time data (T0) to generate a plurality of chapters.
[0038]
In the above computer program, step (c3) includes steps (ca1) to (ca5).
In the (ca1) step, based on the video encoded data (D) and the chapter data (E), for each chapter, the pixel difference value (Δ) in the video encoded data (D) is greater than or equal to the reference value. A highlight scene is detected. Here, the chapter data (E) includes a chapter table (E) in which the chapter date / time data (33) corresponding to each of the plurality of chapters and the chapter position data (32) are associated with each other. The chapter date / time data (33) is data based on the date / time data (T0) in each of the plurality of chapters. The chapter position data (32) is data based on the position data (t0) in each of the plurality of chapters. In the (ca2) step, the reference value is changed so that the length of the highlight scene becomes equal to the designated reproduction time, and if it can be made equal, it is determined that the highlight scene is present, and the highlight scene and position data (t0). ) Is generated. If not equal, it is determined that there is no highlight scene. In the (ca3) step, based on the presence / absence of the highlight scene and the situation of the highlight scene, a creation method of the moving image thumbnail (F1) is selected from preset creation methods for each chapter. In the (ca4) step, a moving image thumbnail (F1) is created for each chapter based on the selected creation method. In the (ca5) step, movie thumbnail data (L) is created based on the created movie thumbnail (F1). Here, the moving image thumbnail data (L) includes a moving image thumbnail table (L) in which a plurality of moving image thumbnails (F1) and position data (t0) are associated with each other.
However, when the highlight scene does not exist, the creation method is such that a frame is thinned out from the video encoded data (D) to obtain a moving image thumbnail (F1). When there are a plurality of the highlight scenes, the plurality of the highlight scenes are connected to form a moving image thumbnail (F1). If there is only one highlight scene, the highlight scene is directly used as a moving image thumbnail (F1).
[0039]
In the above computer program, step (c3) includes steps (ca6) to (ca9).
The (ca6) step detects the position of the GOP for each chapter based on the encoded video data (D) and the chapter data (E). Here, the chapter data (E) includes a chapter table (E) in which the chapter date / time data (33) corresponding to each of the plurality of chapters and the chapter position data (32) are associated with each other. The chapter date / time data (33) is data based on the date / time data (T0) in each of the plurality of chapters. The chapter position data (32) is data based on the position data (t0) in each of the plurality of chapters. (Ca7) The step is performed for each chapter based on the detected GOP. Sign Associate quantity (R) with position data (t0) Sign Create a quantity table. (Ca8) The step Sign Based on the quantity table, for each chapter, Sign Video encoded data (D) for a continuous predetermined time (2 × Δt1) including the GOP with the maximum amount (R) is extracted as a moving image thumbnail (F1). In the (ca9) step, movie thumbnail data (L) is created based on the extracted movie thumbnail (F1). Here, the moving image thumbnail data (L) includes a moving image thumbnail table (L) in which a plurality of moving image thumbnails (F1) and position data (t0) are associated with each other.
[0040]
Further, in the above computer program, step (c3) includes steps (ca10) to (ca14).
The (ca10) step detects the position of the GOP for each chapter based on the video encoded data (D) and the chapter data (E). Here, the chapter data (E) includes a chapter table (E) in which the chapter date / time data (33) corresponding to each of the plurality of chapters and the chapter position data (32) are associated with each other. The chapter date / time data (33) is data based on the date / time data (T0) in each of the plurality of chapters. The chapter position data (32) is data based on the position data (t0) in each of the plurality of chapters. In the (ca11) step, a predetermined point is added to pixel data indicating a predetermined color for each detected GOP. The (ca12) step creates a point table in which the total (S) of the points for each GOP and the position data (t0) are associated with each chapter based on the points. (Ca13) The step is based on the point table, and for each chapter, video encoded data (D × D2) for a predetermined continuous time (2 × Δt2) including the GOP for which the sum (S) of the points is the maximum. ) Is extracted as a moving image thumbnail (F1). In the (ca14) step, moving image thumbnail data (L) is created based on the extracted moving image thumbnail (F1). Here, the moving image thumbnail data (L) includes a moving image thumbnail table (L) in which a plurality of moving image thumbnails (F1) and position data (t0) are associated with each other.
[0041]
Furthermore, in the above computer program, step (c) includes steps (c6) to (c8).
(C6) The step creates video encoded data (D) obtained by encoding audio video data (A) and moving picture data (J) obtained by compressing audio video data (A), and data relating to moving picture data (J). The moving image thumbnail data (K) indicating is generated. Here, the moving image thumbnail data (K) includes a moving image data table (K) in which the moving image data (J) and the video encoded data (D) are associated with each other. The moving image data (J) is created based on the encoded data calculated in the encoding process. The step (c7) divides the audio video data (A) to generate a plurality of chapters, and creates chapter data (E) indicating data related to the chapters. Here, the chapter data (E) includes a chapter table (E) in which the chapter date / time data (33) corresponding to each of the plurality of chapters and the chapter position data (32) are associated with each other. The chapter date / time data (33) is data based on the date / time data (T0) in each of the plurality of chapters. The chapter position data (32) is data based on the position data (t0) in each of the plurality of chapters. In step (c8), menu screen data (H2) is created based on the moving image thumbnail data (K) and the chapter data (E).
[0042]
In the above program, the step (c7) generates a plurality of chapters by dividing the audio video data (A) based on the date / time data (T0).
[0043]
Further, in the above computer program, step (c6) includes steps (cb1) to (cb3).
In the (cb1) step, a DCT operation is performed on the audio video data (A). In the (cb2) step, the moving image data (J) is created based on the DC coefficient generated with the DCT calculation. The (cb3) step creates moving image thumbnail data (K) based on moving image data (J) and encoded video data (D).
[0044]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of a signal processing apparatus with an authoring function and a signal processing method including authoring according to the present invention will be described below with reference to the accompanying drawings. In this embodiment, an example in which the signal processing apparatus with an authoring function according to the present invention is applied to a DVD apparatus (MPEG apparatus) is described, but the present invention can also be applied to other video recording apparatuses.
[0045]
(First embodiment)
A signal processing device with an authoring function and a signal processing method including authoring according to a first embodiment of the present invention will be described with reference to the accompanying drawings.
[0046]
First, the configuration of a first embodiment of a DVD apparatus (MPEG apparatus) to which the signal processing apparatus with an authoring function according to the present invention is applied will be described.
FIG. 1 is a block diagram showing a configuration of a first embodiment of a DVD apparatus (MPEG apparatus) to which a signal processing apparatus with an authoring function according to the present invention is applied. The DVD device 1 records and stores video encoded data D obtained by encoding audio video data and other data on a DVD based on the input of audio video data A and various conditions (B and C, which will be described later). The DVD device 1 includes a signal processing device 2 with an authoring function, a DVD drive unit 3 and a system microcomputer 4. Here, a configuration for reading DVD data is omitted.
[0047]
The signal processing device 2 with the authoring function is controlled by the system microcomputer 4 and based on the input of the audio video data A, video encoded data D (described later), menu screen data H1 (described later), and control information data G1 (described later). And generate And control which records them on a predetermined storage medium is performed. The storage medium is exemplified by a DVD.
Under the control of the system microcomputer 4, the DVD drive unit 3 stores video encoded data D, menu screen data H 1, and control information data G 1 output from the signal processing device 2 with an authoring function in a storage medium set therein. Record (store). Here, a DVD is used as the recording medium. However, other recording media (example: ROM, RAM, CD, HD, FD) can also be used.
The system microcomputer 4 controls the DVD device 1 including the signal processing device 2 with the authoring function and the DVD drive unit 3. The system microcomputer 4 is exemplified by an MPU (microprocessor unit).
[0048]
The signal processing apparatus 2 with an authoring function includes an encoding unit 11, a recording date and time analysis unit 12, a moving image thumbnail creation unit 13, a control information data creation unit 14, a menu screen creation unit 15, and a write control unit 16. To do. Here, the encoding unit 11 and the recording date and time analysis unit 12 are also referred to as a data preprocessing unit 2-3. The data preprocessing unit 2-3, the moving image thumbnail creation unit 13, and the control information data creation unit 14 are also referred to as a data creation unit 2-2. The data creation unit 2-2 and the menu screen creation unit 15 are also referred to as a data processing unit 2-1.
[0049]
The encoding unit 11 generates video encoded data D obtained by encoding audio video data based on audio video data A input from the outside.
[0050]
Here, the audio video data A is data having a plurality of video images output from a device such as a digital video tape recorder or an analog video tape recorder, and includes audio data and images (including moving images, in this specification). The same) data. The image data includes date and time data as the date and time (example: year: month: day: hour: minute: second) of the audio video data A and the position from the beginning of the tape (audio video data A). (Example: time hour: minute: second). The encoding of the audio video data A includes encoding performed based on the MPEG (Moving Picture Experts Group, the same in this specification) standard. The encoded video data D is exemplified by MPEG2 data (VOB (Video Object) data).
[0051]
FIG. 3 is a diagram showing date and time data and position data. The audio video data A includes a recording date and time T0 (recorded at the bottom of each frame in the drawing) in which the audio video data A is recorded as date and time data for each frame indicated by one square frame in the drawing. The time t0 (described in the upper part of each frame in the figure) from the beginning of the tape on which the audio video data A as the position data is recorded is recorded together.
[0052]
With reference to FIG. 1, the recording date and time analysis unit 12 divides the audio video data A into a plurality of chapters based on the date and time data of the audio video data A input from the outside. That is, a portion where the date / time data is discontinuous is detected, and the audio video data A is divided by using that as a chapter delimiter. Then, a chapter table E (described later) that associates chapter date / time data and chapter position data corresponding to each of the plurality of chapters is generated. However, when the maximum chapter number data B (N) indicating the maximum number of chapters into which the audio video data A is divided is input from the outside, the chapters are adjusted so as not to exceed the maximum number.
[0053]
Here, the chapter is a part of the audio video data A obtained by dividing the audio video data A. One chapter may be a continuous part (including a continuous scene) in the audio video data A, or may be a combination of non-continuous parts (including a plurality of continuous scenes).
[0054]
Here, the chapter date / time data is data based on date / time data in each of a plurality of chapters, and indicates date / time data indicating the beginning and end of the chapter, date / time data indicating the end of the previous chapter, and the beginning of the next chapter. This is illustrated by the difference in date and time data. The chapter position data is data based on position data in each of a plurality of chapters, and is exemplified by position data indicating the beginning or end of the chapter.
[0055]
FIG. 2 is a block diagram illustrating a configuration of the recording date and time analysis unit 12. The recording date and time analysis unit 12 includes a chapter division unit 21, a chapter restriction unit 22, and a table generation unit 23.
[0056]
The chapter division unit 21 determines that a portion where the date / time data is not continuous is a segment of the video data A. Then, based on the division, the audio video data A is divided into a plurality of chapters.
When the number of chapters exceeds the maximum number N indicated by the maximum chapter number data B, the chapter restriction unit 22 combines two adjacent chapters that satisfy a preset condition among the plurality of chapters. , Keep the number of chapters below the maximum number N. However, the preset conditions are exemplified by two chapters in which the difference between the date / time data indicating the end of the previous chapter and the date / time data indicating the beginning of the next chapter is minimized.
The table generation unit 23 generates a chapter table E indicating the relationship between chapter date data and chapter position data corresponding to each of a plurality of chapters.
[0057]
FIG. 4 is a table showing the chapter table E. The chapter table E associates chapter date data and chapter position data corresponding to each of a plurality of chapters.
Here, the chapter number 31 is a chapter serial number. The chapter end position 32 as chapter position data is position data indicating the end of the chapter. Displayed in hours: minutes: seconds. The chapter recording date / time interval 33 as chapter date / time data is a time interval indicating a difference between date / time data indicating the end of the previous chapter and date / time data indicating the beginning of the next chapter. Displayed in day: hour: minute: second. The chapters are arranged in the order of smaller chapter end position 32.
[0058]
Referring to FIG. 1, moving image thumbnail creation unit 13 creates a plurality of moving image thumbnails F1 corresponding to each of a plurality of chapters based on encoded video data D and chapter table E. At this time, reference is made to moving image condition data C (input from the outside, which may have a default value) indicating the creation condition of the moving image thumbnail F1, and each moving image thumbnail F1 is generated so as to meet the condition. Here, the moving image condition data C is exemplified by the image size of the moving image thumbnail and the reproduction time of the moving image thumbnail.
Here, the moving image thumbnail is a moving image format thumbnail (preview). It is generated by compressing the base data (image processing such as encoding).
[0059]
The moving image thumbnail creating unit 13 further creates a moving image thumbnail table L in which each frame of the moving image thumbnail F1 is associated with the encoded video data D. That is, the moving image thumbnail table L is created in which moving image data indicating each frame of the moving image thumbnail F1 is associated with the position data of the encoded video data D.
[0060]
FIG. 5 is a table showing the moving image thumbnail table L. A frame number 41 which is a serial number of the frame, a time 42 as position data (time from the beginning of the audio video data) of the video encoded data D, and frame image data 44 as moving image data are associated for each frame. . The moving image thumbnail table L may be provided for each moving image thumbnail F1, or one moving image thumbnail table L may be appropriately divided to include a plurality of moving image thumbnails F1.
[0061]
FIG. 6 is a block diagram illustrating a configuration of the moving image thumbnail creation unit 13. The moving image thumbnail creation unit 13 includes a highlight scene detection unit 26, a creation method selection unit 27, a creation method execution unit 28, and a table creation unit 29.
[0062]
The highlight scene detection unit 26 detects a pixel difference value Δ as a pixel difference between frames for each chapter based on the encoded video data D and the chapter table E. The pixel difference value Δ for each frame is associated with the position data (time from the beginning of the audio video data) t0 of the encoded video data D for each chapter and stored in a storage unit (not shown) as a difference value table. Is done.
[0063]
Here, the difference value table will be described.
FIG. 7 is a diagram representing the difference value table in the form of a graph. The vertical axis represents the pixel difference value Δ, and the horizontal axis represents the position data t0 (here “time”). A curve W in the graph indicates a pixel difference value Δ. Half lines α0 and α2 indicate pixel difference values Δ0 and Δ2, respectively. One chapter is from time t1 to time t2.
The highlight scene detection unit 26 extracts a highlight scene from the difference value table (FIG. 7). Here, the highlight scene is a place where the state in which the pixel difference value Δ is larger than a predetermined threshold continues for a preset time. In FIG. 7, if the threshold value is Δ0, the highlight scene corresponds to the portion of the curve W at P1. In this case, the highlight scene can be lengthened by decreasing the threshold value from the predetermined maximum value Δ0. For example, in FIG. 7, the highlight scene can be lengthened from P1 to P2 + P3 by reducing the threshold from Δ0 to Δ1 (indicated by a half line α1). By this operation, the time of the highlight scene (the total time when there are a plurality of highlight scenes) can be adjusted to the designated reproduction time. Here, it is assumed that there is no highlight scene when the highlight scene does not reach the designated reproduction time even if the threshold value is lowered to the predetermined minimum value Δ2.
However, a portion Q (for example, a scene where the camera pans) where the pixel difference value Δ instantaneously becomes larger than a predetermined threshold is highlighted because its Px time is less than a preset time. Not detected.
[0064]
Referring to FIG. 6, the creation method selection unit 27 selects a method for creating a moving image thumbnail from the following three methods according to the detected situation of the highlight scene.
(A) A chapter having a plurality of highlight scenes is linked to the highlight scene to form a moving image thumbnail.
(B) A chapter having only one highlight scene is used as a moving image thumbnail as it is.
(C) A chapter without a highlight scene is compressed by thinning out a frame from the chapter to form a moving image thumbnail. For example, shortening a chapter of 10 minutes to a moving image thumbnail having a playback time of 1 minute can be realized by repeating 1 frame display-9 frame skip or 1 second display-9 skip.
[0065]
The creation method execution unit 28 creates a moving image thumbnail using the method selected by the creation method selection unit 27.
The table creation unit 29 stores the created moving image thumbnail in the moving image thumbnail table L.
Is provided.
[0066]
Referring to FIG. 1, control information data creation unit 14 creates control information data G <b> 1 including data related to a plurality of chapters based on encoded video data D and chapter table E. That is, based on the encoded video data D and the chapter table E, DVD control information data G1 (VTSI of the video title set 67, which will be described later) is created, and PTT (Part of Title, which will be described later) of the control information data G1. The chapter data (example: chapter number 31) indicating which chapter each program (PG, which will be described later) is included in is stored.
When a storage medium other than DVD is used, control information data G1 corresponding to the storage medium is created.
[0067]
FIG. 8 shows the structure of data stored on a DVD. The data 61 stored on the DVD includes a video manager (VMG) 63 and a video title set (VTS) 67.
The video manager (VMG) 63 includes VMGI as control information, VMGM_VOBS as menu screen data H1 (described later), and VMGI (BUP) as a backup of VMGI.
The video title set 67 includes VTSI as control information of a video title set (a set of movies (video images)), VTSM_VOBS to VTSTT_VOBS as moving image files, and VTSI (BUP) as a backup of VTSI.
The VTSI describes the internal structure of the video title set. The internal structure of the video title set is: title (individual movie)-program chain (PGC: set of programs)-PTT (chapter: access point set on a cell boundary in the video stream)-program (PG: cell Set) -cell (set of video object units) -video object unit (VOBU: GOP (corresponding to Group Of Pictures)), and in VTSI, each layer corresponds to any part of VTSM_VOBS to VTSTT_VOBS Is described.
[0068]
Referring to FIG. 1, menu screen creation unit 15 creates menu screen data H1 indicating a menu screen for a moving image, based on moving image thumbnail table L and control information data G1. However, the menu screen data H1 is generated by extracting a corresponding portion of the moving image data (frame image data 44) from the moving image thumbnail table L in correspondence with each chapter indicated by the control information data G1.
Here, the moving image menu screen displays a plurality of moving image thumbnails F1 corresponding to a plurality of chapters at a time on one screen. For example, on the menu screen when there are four chapters, four moving image thumbnails F1 can be viewed on one screen.
Then, the moving image thumbnail F1 can be selected on the screen by a pointing device (example: mouse). In that case, in the menu screen data H1, each moving image thumbnail F1 is associated with the PTT of the control information data G1, so that the chapter corresponding to the moving image thumbnail F1 selected on the screen can be reproduced.
[0069]
The write control unit 16 receives the encoded video data D, the menu screen data H1, and the control information data G1, and outputs the data to the DVD drive unit 3 so as to record each data in a predetermined area of the DVD. Control.
At this time, menu screen data H1 is stored in VMGM_VOBS of VMG63, control information data G1 is stored in VTSI of VTS67, and video encoded data D is stored in VTSM_VOBS to VTSTT_VOBS.
Note that when a storage medium other than a DVD is used, the write control unit 16 controls writing to the recording medium based on a format corresponding to the storage medium.
[0070]
Next, the operation (signal processing method including authoring) of the first embodiment of the DVD apparatus (MPEG apparatus) to which the signal processing apparatus with an authoring function according to the present invention is applied will be described.
FIG. 9 is a flowchart showing the operation (signal processing method including authoring) of the first embodiment of the DVD apparatus (MPEG apparatus) to which the signal processing apparatus with an authoring function according to the present invention is applied.
[0071]
(1) Step S01
The encoding unit 11 generates video encoded data D obtained by encoding the audio video data A based on the audio video data A input from the outside.
(2) Step S02
The recording date and time analysis unit 12 divides the audio video data A into a plurality of chapters based on the date and time data of the audio video data A input from the outside. However, the chapters are adjusted so that the number of chapters into which the audio video data A is divided does not exceed the maximum number of chapters N indicated by the maximum number of chapters data B input from the outside. Then, a chapter table E is generated.
(3) Step S03
The moving image thumbnail creating unit 13 creates a plurality of moving image thumbnails F1 corresponding to each of the plurality of chapters based on the encoded video data D and the chapter table E. At this time, each moving image thumbnail F1 is generated so that the image size and the reproduction time of each moving image thumbnail F1 become the image size and the reproducing time indicated by the moving image condition data C input from the outside. Then, the moving image thumbnail creating unit 13 creates a moving image thumbnail table L in which each frame of the moving image thumbnail F1 is associated with the encoded video data D.
(4) Step S04
The control information data creation unit 14 creates control information data G1 including data related to a plurality of chapters based on the encoded video data D and the chapter table E. At this time, chapter data indicating which chapter each program 38 is included in is stored in the control information data G1.
(5) Step S05
The menu screen creation unit 15 creates menu screen data H1 based on the moving image thumbnail table L and the control information data G1.
(6) Step S06
The write control unit 16 controls the output of data to the DVD drive unit 3 so as to record the menu screen data H1, the video encoded data D, and the control information data G1 in a predetermined area of the DVD. The DVD drive unit 3 writes those data on the DVD.
[0072]
Here, the operation of creating the chapter table in step S02 will be further described.
FIG. 10 is a flowchart showing the operation of creating the chapter table in step S02.
[0073]
(1) Step S21
The chapter division unit 21 of the recording date analysis unit 12 detects date / time data of the audio video data A input from the outside.
(2) Step S22
The chapter division unit 21 determines whether the date / time data has continuity. If there is continuity, the process returns to step S21. If there is no continuity, the process proceeds to step S23. Here, the continuity of the date / time data is preset based on the video recorded in the audio video data A, such as in seconds, minutes, or hours. Here, the unit is seconds.
(3) Step S23
The chapter division unit 21 determines that a portion where the date / time data is not continuous is a segment of the video data A. And the position data (time from the head) of the position of the division is acquired. Also, the last date and time data in the front chapter at the delimiter position and the first date and time data in the next chapter are acquired. However, this delimiter position is the position of a chapter candidate and is not fixed.
(4) Step S24
When the number of chapters increases by one, the chapter restriction unit 22 determines whether or not the number of chapters (total number of chapters) in the chapter table E exceeds the maximum number of chapters N indicated by the maximum number of chapters data B. . When it exceeds, it progresses to step S26. If not, the process proceeds to step S25.
(5) Step S25
The table generation unit 23 generates (updates) the chapter table E. That is, the position data at the position of the chapter candidate is set as the chapter end position 32 of the chapter table E. In addition, the difference between the last date / time data of the previous chapter at the position of the chapter candidate and the first date / time data of the next chapter is calculated and set as the chapter recording date / time interval 33 of the chapter table E.
(6) Step S26
Since the total number of chapters in the chapter table E exceeds the maximum number of chapters N, the chapter restriction unit 22 reduces one chapter in the chapter table E. As a reduction method, among the chapters in the chapter table E, the chapter recording date and time interval 33 (the difference between the date and time data indicating the end of the previous chapter and the date and time data indicating the start of the next chapter) is minimized. This is done by selecting and joining two adjacent chapters.
At the same time, a chapter table E is generated (updated). That is, the position data at the position of the chapter candidate is defined as the chapter end position 32, and the difference between the last date / time data at the front chapter at the position of the chapter candidate and the first date / time data at the next chapter is defined as the chapter recording date / time. The interval is 33.
(7) Step S27
If the audio video data A continues, the process returns to step S21, and steps S21 to S26 are repeated.
[0074]
FIG. 11 is a diagram showing a process of generating the chapter table E of FIG. 4 in step S02. Here, a case where the value of the maximum chapter number data B is “5” (maximum chapter number N = 5) will be described as an example.
[0075]
FIG. 11A shows the chapter table E of FIG. 4 being generated in step S02. Here, a state where five chapters are found is shown.
In this state, consider a case where a new chapter is detected in step S23 as shown in FIG. In this case, it is determined in step S24 that the maximum number of chapters N (= 5) <the total number of chapters (= 6). Here, the chapter of chapter number 31 = 3 in FIG. 11A (referred to as “chapter 3”, which is the same for other chapters) has a minimum chapter recording date and time interval 33 in the chapter table E (5 minutes). It has become. Therefore, in step S26, chapter 3 is deleted by combining chapter 3 with chapter 2. At the same time, chapter 4 and chapter 5 are moved up to become chapter 3 and chapter 4. Thereafter, the chapter table E is updated with the newly found chapter as the chapter 6. FIG. 11C shows the updated chapter table E.
[0076]
In this way, audio video data having a plurality of video images can be automatically divided into a plurality of chapters, and the number of chapters can be suppressed to a maximum number of chapters N or less.
[0077]
Here, the operation of creating a moving image thumbnail in step S03 will be further described.
FIG. 12 is a flowchart showing the operation of creating a moving image thumbnail in step S03.
[0078]
(1) Step S31
The highlight scene detection unit 26 of the moving image thumbnail creation unit 13 selects one chapter based on the encoded video data D and the chapter table E, and acquires the encoded video data D of the chapter.
(2) Step S32
The highlight scene detection unit 26 detects a pixel difference value Δ between frames from the encoded video data D of the entire chapter. And it stores in the difference value table (FIG. 7) which linked | related pixel difference value (DELTA) and position data t0.
(3) Step S33
Based on the difference value table (FIG. 7) and the playback time of the moving picture condition data C, the highlight scene detection unit 26 changes the threshold from Δ0 so that the time of the highlight scene becomes equal to the specified playback time. Let If the highlight scene time becomes equal to the designated reproduction time before the threshold value reaches Δ2, it is determined that there is a highlight scene (Yes). Even if the threshold value reaches Δ2, if the highlight scene time is less than the designated playback time, it is determined that there is no highlight scene (No). If not, the process proceeds to step S37.
(4) Step S34
The creation method selection unit 27 counts a certain portion of the highlight scene. If there are a plurality of locations (No), the process proceeds to Step 35, and if it is only one location (Yes), the process proceeds to Step S36.
(5) Step S35
The creation method execution unit 38 creates a moving image thumbnail by the method (A) described above. That is, since there are a plurality of highlight scenes, the highlight scenes are connected to form a moving image thumbnail F1. Proceed to step S38.
(6) Step S36
The creation method execution unit 38 creates a moving image thumbnail by the method (B) described above. That is, since there is only one highlight scene, that portion is directly used as the moving image thumbnail F1. Proceed to step S38.
(7) Step S37
The creation method execution unit 38 creates a moving image thumbnail by the method (C) described above. That is, since there is no highlight scene, the frame is thinned out from the chapter and compressed to obtain a moving image thumbnail F1. Proceed to step S38.
(8) Step S38
The table creation unit 29 creates a moving image thumbnail table L in which each frame of the moving image thumbnail F1 is associated with the encoded video data D.
(11) Step S39
If the table creation unit 29 has created moving image thumbnails for all chapters (Yes), the table creation unit 29 ends the process. If there is a chapter for which a moving image thumbnail has not been created (No), the process returns to step S31.
[0079]
Through such a process, it becomes possible to automatically create moving image thumbnails having the same playback time for all chapters by an optimum method.
[0080]
Here, the operation of creating the menu screen data in step S05 will be further described.
FIG. 13 is a flowchart showing the operation of creating the menu screen data in step S05. Here, a case where the number of chapters is four will be described.
[0081]
(1) Step S41
The menu screen creation unit 15 sets the frame number m = 1 in order to create the first frame of the moving picture menu screen (menu screen data H1).
(2) Step S42
The menu screen creation unit 15 sets chapter number k = 1 in order to perform processing on chapter 1 of the first frame.
(3) Step S43
The menu screen creation unit 15 acquires the frame image data 44 corresponding to the m = 1st frame in the chapter with the chapter number k = 1 from the moving image thumbnail table L based on the moving image thumbnail table L and the control information data G1. . Then, m = 1 is pasted on the upper right of the first frame on the menu screen.
(4) Step S44, Step S45
The menu screen creation unit 15 repeats Steps S43 to S45 until the chapter number k is equal to or greater than the maximum number of chapters N (N = 4 in this case).
Thus, m = 1 first frame of the menu screen data H1 is completed. However, the frame image data 44 is pasted at the upper left of the frame when k = 2, the lower right of the frame when k = 3, and the lower left of the frame when k = 4, respectively.
(5) Step S46, Step S47
The menu screen creation unit 15 repeats Steps S42 to S47 until the frame number m becomes equal to or greater than the designated frame number M (corresponding to the designated reproduction time).
As a result, a menu screen (still image) of the specified number of frames M (specified playback time) is generated.
(6) Step S48
The menu screen creation unit 15 compresses the obtained plurality of menu screens (still images) according to the MPEG2 standard to form a VOB file, and completes the menu screen data H1. It includes the moving image thumbnails of four chapters by the above process.
[0082]
FIG. 14 is a diagram showing a moving image menu screen using the menu screen data H1 created in (1) step S41 to (6) step S48. The menu screen 50 includes a moving image thumbnail 51-1 of chapter 1, a moving image thumbnail 51-2 of chapter 2, a moving image thumbnail 51-3 of chapter 3, a moving image thumbnail 51-4 of chapter 4, and a menu button 52.
When the moving image menu screen 50 is reproduced, the entire menu screen is displayed as one moving image. When the user selects the chapters 1 to 4, the user jumps to each chapter and a normal video is reproduced. When the number of chapters is large and chapters 5 to 5 are present, when the menu button 52 is selected, the menu screen is switched to the chapters 5 to 8 menu screen. Conventionally known methods can be used for selecting a movie menu and switching screens.
[0083]
In this way, menu screen data including a moving image thumbnail of each chapter can be automatically created.
[0084]
According to the present invention, when audio / video data having a plurality of video images is stored in one storage medium such as a DVD, the audio / video data delimiter is automatically and more appropriately found based on the date / time data. Can be configured.
[0085]
Further, according to the present invention, a moving image thumbnail can be generated for each divided chapter, so that the contents of each chapter can be accurately grasped. Since the menu screen including all the moving image thumbnails can be automatically created, the contents of all the audio video data included in the DVD can be easily grasped.
[0086]
(Second Embodiment)
A signal processing apparatus with an authoring function and a signal processing method including authoring according to a second embodiment of the present invention will be described with reference to the accompanying drawings.
[0087]
First, the configuration of a second embodiment of a DVD apparatus (MPEG apparatus) to which the signal processing apparatus with an authoring function according to the present invention is applied will be described.
FIG. 1 is a block diagram showing a configuration of a second embodiment of a DVD apparatus (MPEG apparatus) to which a signal processing apparatus with an authoring function according to the present invention is applied. The DVD device 1 records and stores video encoded data D obtained by encoding audio video data and other data on the DVD based on the input of the audio video data A and various conditions (B and C). The DVD device 1 includes a signal processing device 2 with an authoring function, a DVD drive unit 3 and a system microcomputer 4. Here, a configuration for reading DVD data is omitted.
[0088]
In the second embodiment, the moving image thumbnail creating method by the moving image thumbnail creating unit 13a is different.
Usually, in the video data compressed by MPEG (corresponding to the video encoded data D here), in a complicated video such as a part where the color changes rapidly or a part where the movement is fast, Sign Occurs. for that reason, Sign The amount increases. On the other hand, in the flat part where the image changes little or the part where the movement is slow, Sign Does not occur much. for that reason, Sign The amount is reduced. In the second embodiment, this Sign A highlight scene is detected based on the amount.
[0089]
Referring to FIG. 1, signal processing apparatus 2 with an authoring function receives encoded video data D, menu screen data H1, and control information data G1 based on the input of audio video data A under the control of system microcomputer 4. Generate. And control which records them on a predetermined storage medium is performed. The storage medium is exemplified by a DVD.
Since the DVD drive unit 3 and the system microcomputer 4 are the same as those in the first embodiment, description thereof is omitted.
[0090]
The signal processing apparatus 2 with an authoring function includes an encoding unit 11, a recording date and time analysis unit 12, a moving image thumbnail creation unit 13a, a control information data creation unit 14, a menu screen creation unit 15, and a write control unit 16. To do.
[0091]
The moving image thumbnail creation unit 13a creates a plurality of moving image thumbnails F1 corresponding to each of the plurality of chapters based on the encoded video data D and the chapter table E. At this time, the moving image condition data C indicating the generation condition of the moving image thumbnail F1 is referred to, and each moving image thumbnail F1 is generated so as to meet the condition. The moving image condition data C is exemplified by the image size of the moving image thumbnail and the reproduction time of the moving image thumbnail.
[0092]
The moving image thumbnail creating unit 13a further creates a moving image thumbnail table L in which each frame of the moving image thumbnail F1 is associated with the encoded video data D. That is, the moving image thumbnail table L is created in which moving image data indicating each frame of the moving image thumbnail F1 is associated with the position data of the encoded video data D. The moving image thumbnail table L shown in FIG. 5 is as described in the first embodiment.
[0093]
FIG. 15 is a block diagram showing the configuration of the moving image thumbnail creation unit 13a. The moving image thumbnail creation unit 13a includes a data detection unit 56, a data analysis unit 57, a data extraction unit 58, and a table creation unit 59.
[0094]
The data detection unit 56 analyzes the code of the video encoded data D for each chapter based on the video encoded data D and the chapter table E, and detects the position of the GOP (Group Of Picture).
[0095]
The data analysis unit 57 detects the code amount (number of bytes) for each detected GOP. And in GOP units Sign The amount is associated with the position data (time from the beginning of the audio video data) t0 of the video encoded data D for each chapter, Sign It is stored in a storage unit (not shown) as a quantity table.
[0096]
here, Sign The amount table will be described.
FIG. Sign It is the figure which expressed the quantity table in the form of a graph. The vertical axis is for each GOP. Sign The amount R and the horizontal axis are position data t0 (here, “time”). The curve V in the graph is Sign Indicates the amount. One chapter is from time t1 to time t2. Point A1 is in the chapter Sign The amount is the largest point. The time at that time is tA1.
[0097]
The data extraction unit 58 Sign Analyzing the quantity table (Figure 16) Sign The point A1 with the maximum amount R is detected. Then, the encoded video data D before and after the time tA1 is extracted as a highlight scene so as to have a designated reproduction time. That is, in FIG. 16, the highlight scene is video encoded data D from time tC1 to time tB1. At this time, time tC1-tB1 = reproduction time, where tC1-tA1 = Δt1 = tA1-tB1. Let this highlight scene be a moving image thumbnail.
[0098]
The table creation unit 59 stores the created moving image thumbnail in the moving image thumbnail table L.
[0099]
The encoding unit 11, the recording date and time analysis unit 12, the control information data creation unit 14, the menu screen creation unit 15 and the write control unit 16 (including the explanations of FIGS. 2 to 4 and 8 relating to the present embodiment) Since this is the same as the embodiment, the description thereof is omitted.
[0100]
Next, the operation (signal processing method including authoring) of the second embodiment of the DVD apparatus (MPEG apparatus) to which the signal processing apparatus with an authoring function according to the present invention is applied will be described.
9 to 11, 13, and 14 relating to the present embodiment are the same as those of the first embodiment, and thus the description thereof is omitted.
[0101]
Next, the operation of creating a moving image thumbnail in step S03 will be further described.
FIG. 17 is a flowchart showing the operation of creating a moving image thumbnail in step S03.
[0102]
(1) Step S51
The data detection unit 56 of the moving image thumbnail creation unit 13a selects one chapter based on the encoded video data D and the chapter table E, and acquires the encoded video data D of the chapter.
(2) Step S52
The data detection unit 56 analyzes the code of the video encoded data D of the entire chapter and detects the position of the GOP.
(3) Step S53
The data analysis unit 57 detects the code amount for each detected GOP. Then, the data analysis unit 57 uses the GOP unit. Sign By associating the amount with the position data t0 of the encoded video data D, Sign It is stored in a storage unit (not shown) as a quantity table (FIG. 16).
(4) Step S54
The data extraction unit 58 Sign Analyzing the quantity table (Figure 16) Sign The point A1 with the maximum amount is detected. Then, the encoded video data D before and after the time tA1 is extracted as a highlight scene so as to have a designated reproduction time. And let it be a moving image thumbnail F1.
(5) Step S55
The table creation unit 59 creates a moving image thumbnail table L in which each frame of the moving image thumbnail F1 is associated with the encoded video data D.
(6) Step S56
If the table creation unit 59 has created moving image thumbnails for all chapters (Yes), the process ends. If there is a chapter for which a moving image thumbnail has not been created (No), the process returns to step S51.
[0103]
Through such a process, it becomes possible to automatically create moving image thumbnails having the same playback time for all chapters by an optimum method.
In the case of this method, the compressed video encoded data D is used as it is, and a highlight scene can be detected without image analysis. Therefore, resources required for processing when creating a moving image thumbnail can be reduced, and thus costs can be reduced. And it can be executed in a short time.
[0104]
Also in this embodiment, the same effect as that of the first embodiment can be obtained.
[0105]
(Third embodiment)
A third embodiment of a signal processing apparatus with an authoring function and a signal processing method including authoring according to the present invention will be described with reference to the accompanying drawings.
[0106]
First, the configuration of a third embodiment of a DVD apparatus (MPEG apparatus) to which the signal processing apparatus with an authoring function according to the present invention is applied will be described.
FIG. 1 is a block diagram showing the configuration of a third embodiment of a DVD apparatus (MPEG apparatus) to which a signal processing apparatus with an authoring function according to the present invention is applied. The DVD device 1 records and stores video encoded data D obtained by encoding audio video data and other data on the DVD based on the input of the audio video data A and various conditions (B and C). The DVD device 1 includes a signal processing device 2 with an authoring function, a DVD drive unit 3 and a system microcomputer 4. Here, a configuration for reading DVD data is omitted.
[0107]
In the third embodiment, the moving image thumbnail creating method by the moving image thumbnail creating unit 13b is different.
In the third embodiment, a human face is detected from among data in a video, and is extracted as a highlight scene.
[0108]
Referring to FIG. 1, signal processing apparatus 2 with an authoring function receives encoded video data D, menu screen data H1, and control information data G1 based on the input of audio video data A under the control of system microcomputer 4. Generate. And control which records them on a predetermined storage medium is performed. The storage medium is exemplified by a DVD.
Since the DVD drive unit 3 and the system microcomputer 4 are the same as those in the first embodiment, description thereof is omitted.
[0109]
The signal processing apparatus 2 with an authoring function includes an encoding unit 11, a recording date and time analysis unit 12, a moving image thumbnail creation unit 13b, a control information data creation unit 14, a menu screen creation unit 15, and a write control unit 16. To do.
[0110]
The moving image thumbnail creating unit 13b creates a plurality of moving image thumbnails F1 corresponding to each of the plurality of chapters based on the encoded video data D and the chapter table E. At this time, the moving image condition data C indicating the generation condition of the moving image thumbnail F1 is referred to, and each moving image thumbnail F1 is generated so as to meet the condition. The moving image condition data C is exemplified by the image size of the moving image thumbnail and the reproduction time of the moving image thumbnail.
[0111]
The moving image thumbnail creating unit 13a further creates a moving image thumbnail table L in which each frame of the moving image thumbnail F1 is associated with the encoded video data D. That is, the moving image thumbnail table L is created in which moving image data indicating each frame of the moving image thumbnail F1 is associated with the position data of the encoded video data D. The moving image thumbnail table L shown in FIG. 5 is as described in the first embodiment.
[0112]
FIG. 18 is a block diagram illustrating a configuration of the moving image thumbnail creation unit 13b. The moving image thumbnail creation unit 13b includes a data detection unit 76, a data analysis unit 77, a data extraction unit 78, and a table creation unit 79.
[0113]
The data detection unit 76 analyzes the code of the video encoded data D for each chapter based on the video encoded data D and the chapter table E, and detects the position of the GOP (Group Of Picture). Next, the code of the video encoded data D is analyzed frame by frame for each GOP. Then, a human face is detected and converted into points.
[0114]
In order to detect a human face by making points, it is performed as follows.
FIG. 19 is a diagram illustrating a method for detecting a human face. FIG. 19A shows an image (one frame) to be analyzed. FIG. 19B shows a mask image. In order to detect a human face, first, a pixel indicating a skin color (a predetermined color range) is detected in the image (a) to be analyzed. Next, the mask image (b) is compared with the image (a) to be analyzed. When a skin color pixel is detected in the white portion of the mask image (b), the pixel is set to the point +1 and the skin color is displayed in the black portion. When a pixel is detected, the pixel is set to point-1.
[0115]
The data analysis unit 77 adds the number of points obtained by image analysis for each GOP. The sum of the GOP units (for each point) is associated with the position data (time from the beginning of the audio video data) t0 of the encoded video data D for each chapter, and is stored as a point table (not shown). ).
[0116]
Here, the point table will be described.
FIG. 20 is a diagram representing the point table in the form of a graph. The vertical axis represents the total point S for each GOP, and the horizontal axis represents position data t0 (here, “time”). A curve U in the graph indicates the sum of points for each GOP. One chapter is from time t1 to time t2. Point A2 is the point with the largest total of points in the chapter. The time at that time is tA2.
[0117]
The data extraction unit 78 analyzes the point table (FIG. 20) and detects the maximum point A2 of the total S of points for each GOP. Then, the encoded video data D before and after the time tA2 is extracted as a highlight scene so as to have a designated reproduction time. That is, in FIG. 20, the highlight scene is video encoded data D from time tC2 to time tB2. At this time, time tC2-tB2 = reproduction time, where tC2-tA2 = Δt2 = tA2-tB2. Let this highlight scene be a moving image thumbnail.
[0118]
The table creation unit 79 stores the created moving image thumbnail in the moving image thumbnail table L.
[0119]
The encoding unit 11, the recording date and time analysis unit 12, the control information data creation unit 14, the menu screen creation unit 15 and the write control unit 16 (including the explanations of FIGS. 2 to 4 and 8 relating to the present embodiment) Since this is the same as the embodiment, the description thereof is omitted.
[0120]
Next, the operation (signal processing method including authoring) of the third embodiment of the DVD apparatus (MPEG apparatus) to which the signal processing apparatus with an authoring function according to the present invention is applied will be described.
9 to 11, 13, and 14 relating to the present embodiment are the same as those of the first embodiment, and thus the description thereof is omitted.
[0121]
Next, the operation of creating a moving image thumbnail in step S03 will be further described.
FIG. 21 is a flowchart showing the operation of creating a moving image thumbnail in step S03.
[0122]
(1) Step S61
The data detection unit 76 of the moving image thumbnail creation unit 13b selects one chapter based on the encoded video data D and the chapter table E, and acquires the encoded video data D of the chapter.
(2) Step S62
The data detection unit 76 analyzes the code of the video encoded data D of the entire chapter frame by frame. Then, a pixel indicating a skin color (predetermined color range) in a predetermined region (specified by a mask image) is detected as a face and pointed.
(3) Step S63
The data analysis unit 77 adds the number of points obtained by image analysis for each GOP. Then, the GOP unit point and the position data t0 of the video encoded data D are associated with each other and stored in a storage unit (not shown) as a point table (FIG. 20).
(4) Step S64
The data extraction unit 78 analyzes the point table (FIG. 20) and detects the point A2 having the maximum point. Then, the encoded video data D before and after the time tA2 is extracted as a highlight scene so as to have a designated reproduction time. And let it be a moving image thumbnail F1.
(5) Step S65
The table creation unit 79 creates a moving image thumbnail table L in which each frame of the moving image thumbnail F1 is associated with the encoded video data D.
(6) Step S66
If the table creation unit 79 has created moving image thumbnails for all chapters (Yes), the table creation unit 79 ends the process. If there is a chapter for which a moving image thumbnail has not been created (No), the process returns to step S61.
[0123]
Through such a process, it becomes possible to automatically create moving image thumbnails having the same playback time for all chapters by an optimum method.
In the case of this method, since only color comparison is performed compared to general face detection, processing can be performed at high speed.
[0124]
In the present embodiment, a human face is detected. For example, if a color of a specific animal is set, the specific animal can be detected and a moving image thumbnail can be generated. Similarly, by setting colors such as green of plants and sky blue of the sky, it is possible to detect a natural landscape and create a moving image thumbnail. The color setting is input from the moving image condition data C, for example.
[0125]
Also in this embodiment, the same effect as that of the first embodiment can be obtained.
[0126]
(Fourth embodiment)
A signal processing apparatus with an authoring function and a signal processing method including authoring according to a fourth embodiment of the present invention will be described with reference to the accompanying drawings.
[0127]
First, the configuration of a fourth embodiment of a DVD apparatus (MPEG apparatus) to which the signal processing apparatus with an authoring function according to the present invention is applied will be described.
FIG. 22 is a block diagram showing a configuration of a fourth embodiment of a DVD apparatus (MPEG apparatus) to which the signal processing apparatus with an authoring function according to the present invention is applied. The DVD device 1a records and stores video encoded data obtained by encoding the audio video data and other data on the DVD based on the input of the audio video data A and various conditions (B and C, which will be described later). The DVD device 1a includes a signal processing device 2a with an authoring function, a DVD drive unit 3, and a system microcomputer 4. Here, a configuration for reading DVD data is omitted.
[0128]
The signal processing device 2a with an authoring function is controlled by the system microcomputer 4 and based on the input of the audio video data A, video encoded data D (described later), menu screen data H2 (described later), and control information data G2 (described later). And generate And control which records them on a predetermined storage medium is performed. The storage medium is exemplified by a DVD.
Under the control of the system microcomputer 4, the DVD drive unit 3 stores the encoded video data D, menu screen data H2, and control information data G2 output from the signal processing device with authoring function 2a in a storage medium set therein. Record (store).
The system microcomputer 4 controls the DVD device 1 including the signal processing device 2 a with an authoring function and the DVD drive unit 3. The system microcomputer 4 is exemplified by an MPU (microprocessor unit).
[0129]
The signal processing device with authoring function 2a includes an encoding unit 11a, a recording date and time analysis unit 12, a control information data creation unit 14a, a menu screen creation unit 15a, and a write control unit 16a. Here, the encoding unit 11a and the recording date and time analysis unit 12 are also referred to as a data preprocessing unit 2a-2. The data preprocessing unit 2a-2, the control information data creation unit 14a, and the menu screen creation unit 15a are also referred to as a data processing unit 2a-1.
[0130]
The encoding unit 11a generates encoded video data D obtained by encoding audio video data based on audio video data A input from the outside. At the same time, video data J is generated based on the encoded data calculated in the process of encoding the audio video data A.
[0131]
Here, the encoded data is a DC coefficient (DC component) obtained as a result of an operation of a discrete cosine transform (Discrete Cosine Transform, also referred to as “DCT” in the present specification) used in encoding audio video data. It is the data which extracted only. The moving image data J is generated by continuously arranging images (size = vertical 1/8 × horizontal 1/8 of the original frame) composed of the DC coefficients of the audio video data A. Audio video data A, image data, audio video data A encoding and video encoded data D are the same as those in the first embodiment.
[0132]
The moving image data J is obtained by compressing the audio video data A. By dividing this for each chapter, a video thumbnail F2 for each chapter is obtained. That is, the moving image data J is a set of moving image thumbnails F2.
[0133]
The encoding unit 11a further creates a moving image data table K in which each frame of the moving image data J is associated with the encoded video data D. That is, a moving image data table K is created in which moving image data indicating each frame of the moving image data J is associated with the position data of the encoded video data D and the address of the VOB file. The VOB address is a data position (address from the head) after compression (MPEG) for each frame.
[0134]
When the encoded video data D is generated, the moving image data J for the moving image thumbnail F2 (described later) can be obtained by adding a few processes at the same time. In this moving image data J, one block (8 pixels × 8 pixels) data to be subjected to DCT calculation is represented by one DC coefficient, so that the data is compressed to 1/8 × 1/8 = 1/64. I can do it. In this case, data is boldly omitted, but a sufficient resolution can be obtained for the use of the moving image thumbnail on the menu screen.
[0135]
FIG. 23 is a table showing the moving image data table K. A frame number 41 which is a serial number of the frame, a time 42 as position data (time from the beginning of the audio video data) of the video encoded data D, and an address 43 of the VOB file as an address for the frame in the video encoded data D Frame image data 44 as moving image data is associated with each frame.
[0136]
Since the recording date and time analysis unit 12 and the chapter table E are the same as those in the first embodiment, description thereof is omitted.
[0137]
Referring to FIG. 22, menu screen creation unit 15 a creates menu screen data H <b> 2 indicating a menu screen for moving images based on moving image data table K and chapter table E. However, the moving image thumbnail F2 is generated by extracting the corresponding portion of the moving image data J from the moving image data table K in correspondence with the chapter defined in the chapter table E.
Here, the moving image menu screen displays a plurality of moving image thumbnails F2 (not shown) corresponding to a plurality of chapters at a time on one screen. For example, on the menu screen when there are four chapters, four moving image thumbnails F2 can be viewed on one screen. At this time, the moving image condition data C indicating the condition of the moving image thumbnail F2 (example: screen size, reproduction time) is referred to, and each moving image thumbnail F2 is generated so as to meet the conditions.
[0138]
Then, the moving image thumbnail F2 can be selected on the screen by a pointing device (example: mouse). In this case, in the menu screen data H2, each moving image thumbnail F2 is associated with the address 43 of the VOB file in the moving image data table K, so that the chapter corresponding to the moving image thumbnail F2 selected on the screen can be reproduced. I can do it.
[0139]
The control information data creation unit 14a creates control information data G2 (described later) including data related to a plurality of chapters based on the moving image data table K and the chapter table E. That is, the control information data G2 of the DVD is created based on the moving image data table K (the moving image data J thereof), and chapter data (for example, indicating which chapter each program is included in the PTT 37 of the control information data G2). Stores chapter number 31). However, the control information data G2 is the same as that in the first embodiment.
[0140]
The write control unit 16a receives the encoded video data D, the menu screen data H2, and the control information data G2, and outputs the data to the DVD drive unit 3 so as to record each data in a predetermined area of the DVD. Control.
At this time, the menu screen data H2 is stored in VMGM_VOBS of the VMG 63, the control information data G2 is stored in VTSI of the VTS 67, and the video encoded data D is stored in VTSM_VOBS to VTSTT_VOBS.
[0141]
Next, the operation (signal processing method including authoring) of the fourth embodiment of the DVD apparatus (MPEG apparatus) to which the signal processing apparatus with an authoring function according to the present invention is applied will be described.
FIG. 24 is a flowchart showing the operation (signal processing method including authoring) of the fourth embodiment of the DVD apparatus (MPEG apparatus) to which the signal processing apparatus with an authoring function according to the present invention is applied.
[0142]
(1) Step S11
The encoding unit 11a generates encoded video data D obtained by encoding the audio video data A based on the audio video data A input from the outside. At the same time, moving image data J is generated based on the encoded data calculated in the process of encoding the audio video data A, and a moving image data table in which each frame of the moving image data J is associated with the encoded video data D. Create K.
[0143]
(2) Step S12
The recording date and time analysis unit 12 divides the audio video data A into a plurality of chapters based on the date and time data of the audio video data A input from the outside. However, the chapters are adjusted so that the number of chapters into which the audio video data A is divided does not exceed the maximum number of chapters N indicated by the maximum number of chapters data B input from the outside. Then, a chapter table E is generated.
[0144]
(3) Step S13
Based on the moving image data table K and the chapter table E, the menu screen creating unit 15a creates menu screen data H2 indicating a moving image menu screen.
[0145]
(4) Step S14
The control information data creation unit 14a creates control information data G2 including data on a plurality of chapters based on the moving image data table K and the chapter table E. At this time, chapter data (example: chapter number 31) indicating which chapter each program is included in is stored in the PTT of the control information data G2.
[0146]
(5) Step S15
The write control unit 16 controls the output of data to the DVD drive unit 3 so as to record the menu screen data H2, the encoded video data D, and the control information data G2 in a predetermined area of the DVD. The DVD drive unit 3 writes those data on the DVD.
[0147]
Here, the operation of creating the moving image data table K in the operation of step S11 will be further described.
FIG. 25 is a flowchart showing the operation of creating the moving image data table K in step S11. These steps are performed only for I pictures.
[0148]
(1) Step S71
A DC coefficient obtained by DCT calculation performed at the time of MPEG encoding is extracted.
(2) Step S72
The DC coefficients for one frame of the audio video data A are rearranged to generate an image for moving picture for one frame (size = vertical 1/8 × horizontal 1/8 of the original frame).
(3) Step S73
The moving image data J is generated by continuously arranging the generated moving image images.
(4) Step S74
For each frame of the moving image, a moving image data table K in which moving image data J and encoded video data D are associated is created. In other words, a moving image data table K is created in which moving image data indicating each frame of a moving image is associated with the position data of the encoded video data D and the address of the VOB file.
[0149]
The moving image data J represents one GOP (1 VOBU = normally 0.5 seconds) of the audio video data A as one image. That is, it is possible to obtain moving image data that is significantly shortened.
[0150]
However, the operation for creating the chapter table in step S12 is the same as that in step S02 shown in FIG.
[0151]
Here, the operation of creating the menu screen data in step S13 will be further described.
FIG. 26 is a flowchart showing the operation of creating the menu screen data in step S13. Here, a case where the number of chapters is four will be described.
[0152]
(1) Step S81
The menu screen creation unit 15a sets chapter number k = 1 in order to specify the start time of each chapter (position data: time in audio video data).
(2) Step S82
The menu screen creation unit 15a starts the chapter number k from the time 42 (end time of the previous chapter) in the previous column of the chapter number 41 = k column of the chapter table E with respect to the start time of the chapter number k. Find the time. (Start time) = (Time 42 in the previous column) + (Time for one frame)
For example, in the case of chapter number k = 2, the column immediately before the column of chapter number 41 = k = 2 is the column of chapter number 41 = 1. Accordingly, (start time of chapter number k = 2) = (time 42 (end time of chapter 1) in the column of chapter number k = 1) + (time for one frame). However, chapter number k = 1 is the first chapter, and there is no previous column. In this case, start time = 0.
(3) Step S83, Step S84
The menu screen creation unit 15a repeats Steps S82 to S84 until the chapter number k is equal to or greater than the maximum number of chapters N (N = 4 in this case).
Thereby, the start time of each chapter can be specified.
(4) Step S85
The menu screen creation unit 15a sets frame number m = 1 in order to create the first frame of the moving picture menu screen (menu screen data H2).
(5) Step S86
The menu screen creation unit 15a sets chapter number k = 1 in order to perform processing on chapter 1 of the first frame.
(6) Step S87
Based on the moving image data table K, the menu screen creation unit 15a acquires frame image data 44 corresponding to the m = 1st frame in the chapter with the chapter number k = 1 from the moving image data table K. Then, m = 1 is pasted on the upper right of the first frame on the menu screen.
(7) Step S88, Step S89
The menu screen creation unit 15a repeats Steps S87 to S89 until the chapter number k is equal to or greater than the maximum number of chapters N (N = 4 in this case).
Thus, m = 1 first frame of the menu screen data H2 is completed. However, the frame image data 44 is pasted at the upper left of the frame when k = 2, the lower right of the frame when k = 3, and the lower left of the frame when k = 4, respectively.
(8) Step S90, Step S91
The menu screen creation unit 15a repeats Steps S86 to S91 until the frame number m is equal to or greater than the designated frame number M (corresponding to the designated playback time).
As a result, a menu screen (still image) of the specified number of frames M (specified playback time) is generated.
(9) Step S92
The menu screen creation unit 15a compresses the obtained plurality of menu screens (still images) according to the MPEG2 standard to form a VOB file, and completes the menu screen data H2. It includes the moving image thumbnails of four chapters by the above process.
[0153]
The menu screen data H2 created in (1) Steps S81 to (9) Step S92 is the same as that shown in FIG.
[0154]
In this way, menu screen data including a moving image thumbnail of each chapter can be automatically created.
[0155]
As described above, the present invention can obtain the same effects as those of the first embodiment.
[0156]
【The invention's effect】
According to the present invention, when a plurality of audio video data is stored in one storage medium, the audio video data is automatically divided, chapters are automatically generated, and a menu screen using moving image thumbnails is automatically generated. It becomes possible. Then, it becomes possible to quickly and accurately grasp the contents in the storage medium.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of first to third embodiments of a DVD apparatus to which a signal processing apparatus with an authoring function according to the present invention is applied.
FIG. 2 is a diagram illustrating a configuration of a recording date analysis unit.
FIG. 3 is a diagram illustrating date and time data and position data.
FIG. 4 is a table showing a chapter table.
FIG. 5 is a table showing a moving image thumbnail table;
FIG. 6 is a block diagram illustrating a configuration of a moving image thumbnail creation unit 13;
FIG. 7 is a diagram representing a difference value table in the form of a graph.
FIG. 8 is a diagram illustrating a structure of data stored in a DVD.
FIG. 9 is a flowchart showing the operation of the first to third embodiments of a DVD apparatus to which the signal processing apparatus with an authoring function according to the present invention is applied.
FIG. 10 is a flowchart showing an operation of creating a chapter table in step S02.
11A to 11C are diagrams showing a process of generating the chapter table of FIG.
FIG. 12 is a flowchart showing an operation of creating a moving image thumbnail in step S03.
FIG. 13 is a flowchart showing an operation of creating menu screen data in step S05.
FIG. 14 is a diagram showing a moving image menu screen;
FIG. 15 is a block diagram illustrating a configuration of a moving image thumbnail creating unit 13a.
FIG. 16 shows Sign It is the figure which expressed the quantity table in the form of a graph.
FIG. 17 is a flowchart showing an operation of creating a moving image thumbnail in step S03.
FIG. 18 is a block diagram illustrating a configuration of a moving image thumbnail creation unit 13b.
FIGS. 19 (a) and 19 (b) are diagrams illustrating a method for detecting a human face.
FIG. 20 is a diagram representing a point table in the form of a graph.
FIG. 21 is a flowchart showing an operation of creating a moving image thumbnail in step S03.
FIG. 22 is a block diagram showing a configuration of a fourth embodiment of a DVD apparatus to which the signal processing apparatus with an authoring function according to the present invention is applied.
FIG. 23 is a table showing a moving image data table.
FIG. 24 is a flowchart showing the operation of the fourth embodiment of the DVD apparatus to which the signal processing apparatus with an authoring function according to the present invention is applied.
FIG. 25 is a flowchart showing an operation of creating a moving image data table in step S11.
FIG. 26 is a flowchart showing the operation of creating the menu screen data in step S13.
[Explanation of symbols]
1 (a) DVD device
2 (a) Signal processing device with authoring function
2-1, 2a-1 Data processing section
2-2 Data creation unit
2a-2 Data pre-processing unit
2-3 Data pre-processing unit
3 DVD drive
4 System microcomputer
11 (a) Encoding part
12 Recording date analysis part
13 (a, b) Movie thumbnail creation section
14 (a) Control information data creation unit
15 (a) Menu screen creation section
16 (a) Write controller
21 Chapter division
22 Chapter Restrictions
23 Table generator
25, 55, 75 Movie thumbnail creation execution unit
26 Highlight scene detector
27 Creation method selector
28 Creation method execution part
29 Table creation section
31 Chapter number
32 Chapter end position
33 Chapter recording date and time interval
34 Video title set
35 titles
36 Program Chain (PGC)
37 PTT (chapter)
38 Program (PG)
38-1 cells
38-2 Video Object Unit (VOBU)
38-3 pack
50 Menu screen
51-1 Movie Thumbnail of Chapter 1
51-2 Video thumbnail of chapter 2
51-3 Movie thumbnail of chapter 3
51-4 Thumbnail video thumbnail
52 Menu button
56, 76 Data detector
57, 77 Data analysis section
58, 78 Data extraction unit
59, 79 Table creation section
61 Data stored on DVD
63 Video Manager (VMG)
67 Video title set (VTS)
A Audio video data
B Maximum number of chapters data
C Movie condition data
D Video encoded data
E Chapter table
F (1,2) Movie thumbnail
G (1,2) Control information data
H (1,2) Menu screen data
I (1, 2) Movie thumbnail + control information data + menu screen data
J Movie data
K video data table
L Movie thumbnail table

Claims (6)

オーディオビデオデータをチャプタごとに分割して生成される複数のチャプタの各々ごとに動画サムネイルを作成し、前記動画サムネイルを含むメニュー画面データを作成するデータ処理部と、
前記メニュー画面データを記憶媒体に記録する制御を行う書き込み制御部と、
を具備し、
前記オーディオビデオデータは、複数の画像データと、前記画像データの記録日時を示す日時データと、前記オーディオビデオデータにおける前記画像データの位置を示す位置データとを含み、
前記メニュー画面データは、前記複数のチャプタのうちの一部又は全部の前記動画サムネイルを同時に表示するメニュー画面を示し、
前記データ処理部は、
前記オーディオビデオデータを分割して前記複数のチャプタを生成し、前記複数のチャプタの各々ごとに前記動画サムネイルを作成し、前記動画サムネイルに関するデータを示す動画サムネイルデータと、前記複数のチャプタに関する制御情報を示す制御情報データとを作成するデータ作成部と、
前記動画サムネイルデータと前記制御情報データとに基づいて、メニュー画面データを作成するメニュー画面作成部と
を備え、
前記データ作成部は、
前記オーディオビデオデータを分割して前記複数のチャプタを生成し、前記複数のチャプタに関するデータを示すチャプタデータと、前記オーディオビデオデータを符号化した映像符号化データとを作成するデータ前処理部と、
前記映像符号化データと前記チャプタデータとに基づいて、前記動画サムネイルデータを作成する動画サムネイル作成部と、
前記映像符号化データと前記チャプタデータとに基づいて、前記制御情報データを作成する制御情報データ作成部と
を含み、
前記動画サムネイル作成部は、
前記映像符号化データと前記チャプタデータとに基づいて、前記チャプタごとに、GOP(Group Of Picture)の位置を検出するデータ検出部と、
検出された前記GOPに基づいて、前記チャプタごとに、前記GOPにおけるGOP単位の符号量と前記位置データとを関連付けた符号量テーブルを作成するデータ解析部と、
前記符号量テーブルに基づいて、前記チャプタごとに、前記符号量が最大となる前記GOPを含む連続した所定の時間の前記映像符号化データを前記動画サムネイルとして抽出するデータ抽出部と、
抽出された前記動画サムネイルに基づいて、前記動画サムネイルデータを生成するテーブル作成部と
を備え、
前記動画サムネイルデータは、前記チャプタごとの前記動画サムネイルと、前記位置データとを関連付けた動画サムネイルテーブルを含む
オーサリング機能付き信号処理装置。
A data processing unit for creating a video thumbnail for each of a plurality of chapters generated by dividing audio video data for each chapter, and creating menu screen data including the video thumbnail;
A write control unit for controlling the recording of the menu screen data in a storage medium;
Comprising
The audio video data includes a plurality of image data, date / time data indicating a recording date / time of the image data, and position data indicating a position of the image data in the audio / video data,
The menu screen data indicates a menu screen that simultaneously displays a part or all of the video thumbnails of the plurality of chapters,
The data processing unit
Dividing the audio-video data to generate the plurality of chapters, creating the moving image thumbnail for each of the plurality of chapters, moving image thumbnail data indicating data regarding the moving image thumbnail, and control information regarding the plurality of chapters A data creation unit for creating control information data indicating
A menu screen creation unit for creating menu screen data based on the video thumbnail data and the control information data;
The data creation unit
A data pre-processing unit that generates the plurality of chapters by dividing the audio-video data, creates chapter data indicating data related to the plurality of chapters, and video encoded data obtained by encoding the audio-video data;
A video thumbnail creation unit that creates the video thumbnail data based on the video encoded data and the chapter data;
A control information data creating unit that creates the control information data based on the video encoded data and the chapter data;
The video thumbnail creation unit
A data detection unit for detecting a position of a GOP (Group Of Picture) for each chapter based on the video encoded data and the chapter data;
Based on the detected GOP, for each of the chapters, and data analysis unit for creating a code amount table which associates with the position data and the code amount of each GOP in the GOP,
Based on the code amount table, for each chapter, a data extraction unit that extracts the video encoded data for a predetermined time including the GOP with the maximum code amount as the moving image thumbnail;
A table creation unit that generates the video thumbnail data based on the extracted video thumbnail,
The signal processing apparatus with an authoring function, wherein the moving image thumbnail data includes a moving image thumbnail table in which the moving image thumbnail for each chapter is associated with the position data.
チャプタに分割されたオーディオビデオデータから、前記チャプタごとにGOPの位置を検出するデータ検出部と、
前記データ検出部で検出された前記GOPに基づいて、前記チャプタごとに、前記GOPにおけるGOP単位の符号量と前記GOPの位置データとを関連づけた符号量テーブルを作成するデータ解析部と、
前記データ解析部で作成された前記符号量テーブルに基づいて、前記チャプタごとに、前記符号量が最大となる前記GOPを含む連続した所定の時間の前記オーディオビデオデータを前記動画サムネイルとして抽出するデータ抽出部と
を備えることを特徴とする信号処理装置。
A data detection unit for detecting the position of the GOP for each chapter from the audio video data divided into chapters;
Based on the GOP detected by the data detection unit, for each chapter, a data analysis unit that creates a code amount table in which a GOP unit code amount in the GOP is associated with position data of the GOP;
Based on the code amount table created by the data analysis unit, data for extracting, as the moving image thumbnail, the audio video data for a predetermined period including the GOP having the maximum code amount for each chapter. A signal processing device comprising: an extraction unit.
(a)オーディオビデオデータをチャプタごとに分割して生成される複数のチャプタの各々ごとに動画サムネイルを作成し、前記動画サムネイルを含むメニュー画面データを作成するステップと、
ここで、
前記オーディオビデオデータは、複数の画像データと、前記画像データの記録日時を示す日時データと、前記オーディオビデオデータにおける前記画像データの位置を示す位置データを含み、
前記メニュー画面データは、前記複数のチャプタのうちの一部又は全部の前記動画サムネイルを同時に表示するメニュー画面を示し、
(b)前記メニュー画面データを記憶媒体に記録するステップと、
を具備し、
前記(a)ステップは、
(a1)前記オーディオビデオデータに基づいて、前記オーディオビデオデータを符号化した映像符号化データを作成するステップと、
(a2)前記日時データに基づいて、前記オーディオビデオデータを分割して前記複数のチャプタを生成し、前記チャプタに関するデータを示すチャプタデータを作成するステップと、
(a3)前記映像符号化データと前記チャプタデータとに基づいて、前記複数のチャプタの各々ごとに動画サムネイルを作成し、前記動画サムネイルに関するデータを示す動画サムネイルデータを作成するステップと、
(a4)前記映像符号化データと前記チャプタデータとに基づいて、前記複数のチャプタに関する制御情報を示す制御情報データを作成するステップと、
(a5)前記動画サムネイルデータと前記制御情報データとに基づいて、メニュー画面データを作成するステップと
を備え、
前記(a3)ステップは、
(aa6)前記映像符号化データと前記チャプタデータとに基づいて、前記チャプタごとに、GOPの位置を検出するステップと、
ここで、
前記チャプタデータは、前記複数のチャプタの各々に対応したチャプタ日時データとチャプタ位置データとを関連付けているチャプタテーブルを含み、
前記チャプタ日時データは、前記複数のチャプタの各々における前記日時データに基づくデータであり、
前記チャプタ位置データは、前記複数のチャプタの各々における前記位置データに基づくデータであり、
(aa7)検出された前記GOPに基づいて、前記チャプタごとに、前記GOPにおけるGOP単位の符号量と前記位置データとを関連付けた符号量テーブルを作成するステップと、
(aa8)前記符号量テーブルに基づいて、前記チャプタごとに、前記符号量が最大となる前記GOPを含む連続した所定の時間の前記映像符号化データを前記動画サムネイルとして抽出するステップと、
(aa9)抽出された前記動画サムネイルに基づいて、動画サムネイルデータを作成するステップと
ここで、
前記動画サムネイルデータは、前記チャプタごとの前記動画サムネイルと、前記位置データとを関連付けた動画サムネイルテーブルを含み
を備える
オーサリングを含む信号処理方法。
(A) creating a video thumbnail for each of a plurality of chapters generated by dividing audio video data into chapters, and creating menu screen data including the video thumbnails;
here,
The audio video data includes a plurality of image data, date / time data indicating a recording date / time of the image data, and position data indicating a position of the image data in the audio / video data,
The menu screen data indicates a menu screen that simultaneously displays a part or all of the video thumbnails of the plurality of chapters,
(B) recording the menu screen data in a storage medium;
Comprising
The step (a) includes:
(A1) creating video encoded data obtained by encoding the audio video data based on the audio video data;
(A2) dividing the audio video data based on the date and time data to generate the plurality of chapters, and creating chapter data indicating data related to the chapters;
(A3) creating a moving image thumbnail for each of the plurality of chapters based on the encoded video data and the chapter data, and generating moving image thumbnail data indicating data relating to the moving image thumbnail;
(A4) creating control information data indicating control information related to the plurality of chapters based on the video encoded data and the chapter data;
(A5) creating menu screen data based on the moving image thumbnail data and the control information data,
The step (a3)
(Aa6) detecting the position of the GOP for each chapter based on the video encoded data and the chapter data;
here,
The chapter data includes a chapter table associating chapter date data and chapter position data corresponding to each of the plurality of chapters,
The chapter date / time data is data based on the date / time data in each of the plurality of chapters,
The chapter position data is data based on the position data in each of the plurality of chapters,
(Aa7) based on the detected GOP, for each of the chapters, and creating a code amount table which associates with the position data and the code amount of each GOP in the GOP,
(Aa8) Based on the code amount table, for each chapter, extracting the video encoded data at a continuous predetermined time including the GOP having the maximum code amount as the moving image thumbnail;
(Aa9) creating video thumbnail data based on the extracted video thumbnail; and
The video thumbnail data includes a video thumbnail table in which the video thumbnail for each chapter and the position data are associated with each other. The signal processing method including authoring.
チャプタに分割されたオーディオビデオデータから、前記チャプタごとにGOPの位置を検出する第1のステップと、
前記第1ステップで検出された前記GOPに基づいて、前記チャプタごとに、前記GOPにおけるGOP単位の符号量と前記GOPの位置データとを関連づけた符号量テーブルを作成する第2のステップと、
前記第2のステップで作成された前記符号量テーブルに基づいて、前記チャプタごとに、前記符号量が最大となる前記GOPを含む連続した所定の時間の前記オーディオビデオデータを前記動画サムネイルとして抽出する第3のステップと
を備える動画サムネイル作成実行方法。
A first step of detecting a position of a GOP for each chapter from the audio-video data divided into chapters;
Based on the GOP that is detected by the first step, for each of the chapters, and a second step of creating a code amount table that associates the position data of the GOP and the code amount of each GOP in the GOP,
Based on the code amount table created in the second step, for each chapter, the audio video data of a continuous predetermined time including the GOP with the maximum code amount is extracted as the moving image thumbnail. A video thumbnail creation execution method comprising: a third step.
(c)オーディオビデオデータをチャプタごとに分割して生成される複数のチャプタの各々ごとに動画サムネイルを作成し、前記動画サムネイルを含むメニュー画面データを作成するステップと、
ここで、
前記オーディオビデオデータは、複数の画像データと、前記画像データの記録日時を示す日時データと、前記オーディオビデオデータにおける前記画像データの位置を示す位置データを含み、
前記メニュー画面データは、前記複数のチャプタのうちの一部又は全部の前記動画サムネイルを同時に表示するメニュー画面を示し、
(d)前記メニュー画面データを記憶媒体に記録するステップと、
を具備し、
前記(c)ステップは、
(c1)前記オーディオビデオデータを符号化した映像符号化データを作成するステップと、
(c2)前記オーディオビデオデータを分割して前記複数のチャプタを生成し、前記チャプタに関するデータを示すチャプタデータを作成するステップと、
(c3)前記映像符号化データと前記チャプタデータとに基づいて、前記複数のチャプタの各々ごとに動画サムネイルを作成し、前記複数の動画サムネイルに関するデータを示す動画サムネイルデータを作成するステップと、
(c4)前記映像符号化データと前記チャプタデータとに基づいて、前記複数のチャプタに関する制御情報を示す制御情報データを作成するステップと、
(c5)前記動画サムネイルデータと前記制御情報データとに基づいて、メニュー画面データを作成するステップと
を備え、
前記(c3)ステップは、
(ca6)前記映像符号化データと前記チャプタデータとに基づいて、前記チャプタごとに、GOPの位置を検出するステップと、
ここで、
前記チャプタデータは、前記複数のチャプタの各々に対応したチャプタ日時データとチャプタ位置データとを関連付けているチャプタテーブルを含み、
前記チャプタ日時データは、前記複数のチャプタの各々における前記日時データに基づくデータであり、
前記チャプタ位置データは、前記複数のチャプタの各々における前記位置データに基づくデータであり、
(ca7)検出された前記GOPに基づいて、前記チャプタごとに、前記GOPにおけるGOP単位の符号量と前記位置データとを関連付けた符号量テーブルを作成するステップと、
(ca8)前記符号量テーブルに基づいて、前記チャプタごとに、前記符号量が最大となる前記GOPを含む連続した所定の時間の前記映像符号化データを前記動画サムネイルとして抽出するステップと、
(ca9)抽出された前記動画サムネイルに基づいて、動画サムネイルデータを作成するステップと
ここで、
前記動画サムネイルデータは、前記チャプタごとの前記動画サムネイルと、前記位置データとを関連付けた動画サムネイルテーブルを含み
を備える方法をコンピュータに実行させるためのプログラム。
(C) creating a video thumbnail for each of a plurality of chapters generated by dividing audio video data into chapters, and creating menu screen data including the video thumbnails;
here,
The audio video data includes a plurality of image data, date / time data indicating a recording date / time of the image data, and position data indicating a position of the image data in the audio / video data,
The menu screen data indicates a menu screen that simultaneously displays a part or all of the video thumbnails of the plurality of chapters,
(D) recording the menu screen data in a storage medium;
Comprising
The step (c) includes:
(C1) creating video encoded data obtained by encoding the audio video data;
(C2) dividing the audio-video data to generate the plurality of chapters, and creating chapter data indicating data related to the chapters;
(C3) creating a video thumbnail for each of the plurality of chapters based on the video encoded data and the chapter data, and creating video thumbnail data indicating data related to the plurality of video thumbnails;
(C4) creating control information data indicating control information on the plurality of chapters based on the video encoded data and the chapter data;
(C5) creating menu screen data based on the moving image thumbnail data and the control information data,
The step (c3) includes:
(Ca6) detecting a position of a GOP for each chapter based on the video encoded data and the chapter data;
here,
The chapter data includes a chapter table associating chapter date data and chapter position data corresponding to each of the plurality of chapters,
The chapter date / time data is data based on the date / time data in each of the plurality of chapters,
The chapter position data is data based on the position data in each of the plurality of chapters,
(Ca7) Based on the detected GOP, for each chapter, creating a code amount table in which a GOP unit code amount in the GOP is associated with the position data;
(Ca8) Based on the code amount table, for each chapter, extracting the video encoded data at a continuous predetermined time including the GOP having the maximum code amount as the moving image thumbnail;
(Ca9) creating a video thumbnail data based on the extracted video thumbnail; and
The moving image thumbnail data includes a moving image thumbnail table in which the moving image thumbnail for each chapter and the position data are associated with each other.
チャプタに分割されたオーディオビデオデータから、前記チャプタごとにGOPの位置を検出する第1のステップと、
前記第1ステップで検出された前記GOPに基づいて、前記チャプタごとに、前記GOPにおけるGOP単位の符号量と前記GOPの位置データとを関連づけた符号量テーブルを作成する第2のステップと、
前記第2のステップで作成された前記符号量テーブルに基づいて、前記チャプタごとに、前記符号量が最大となる前記GOPを含む連続した所定の時間の前記オーディオビデオデータを前記動画サムネイルとして抽出する第3のステップと
を具備する方法をコンピュータに実行させるプログラム。
A first step of detecting a position of a GOP for each chapter from the audio-video data divided into chapters;
Based on the GOP that is detected by the first step, for each of the chapters, and a second step of creating a code amount table that associates the position data of the GOP and the code amount of each GOP in the GOP,
Based on the code amount table created in the second step, for each chapter, the audio video data of a continuous predetermined time including the GOP with the maximum code amount is extracted as the moving image thumbnail. A program for causing a computer to execute a method comprising the third step.
JP2003058996A 2003-03-05 2003-03-05 Signal processing apparatus with authoring function and signal processing method including authoring Expired - Fee Related JP4066454B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003058996A JP4066454B2 (en) 2003-03-05 2003-03-05 Signal processing apparatus with authoring function and signal processing method including authoring

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003058996A JP4066454B2 (en) 2003-03-05 2003-03-05 Signal processing apparatus with authoring function and signal processing method including authoring

Publications (2)

Publication Number Publication Date
JP2004274171A JP2004274171A (en) 2004-09-30
JP4066454B2 true JP4066454B2 (en) 2008-03-26

Family

ID=33121967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003058996A Expired - Fee Related JP4066454B2 (en) 2003-03-05 2003-03-05 Signal processing apparatus with authoring function and signal processing method including authoring

Country Status (1)

Country Link
JP (1) JP4066454B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8184945B2 (en) 2008-12-24 2012-05-22 Kabushiki Kaisha Toshiba Authoring device and authoring method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007250048A (en) * 2006-03-14 2007-09-27 Sony Corp Image processor, image processing method, image processing program and program storage medium
JPWO2007111206A1 (en) * 2006-03-14 2009-08-13 ソニー株式会社 Image processing apparatus and image processing method
JP4744345B2 (en) * 2006-04-18 2011-08-10 シャープ株式会社 Thumbnail creation method and moving picture data playback device
JP5527511B2 (en) * 2009-09-15 2014-06-18 株式会社リコー Movie thumbnail creation apparatus, method and program
JP5515890B2 (en) * 2010-03-15 2014-06-11 オムロン株式会社 Image processing apparatus, image processing method, image processing system, control program, and recording medium
KR101945830B1 (en) * 2012-05-24 2019-06-11 삼성전자 주식회사 Method and apparatus for multi-playing videos

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3315766B2 (en) * 1992-09-07 2002-08-19 富士通株式会社 Image data encoding method, image data encoding device using the method, image data restoring method, image data restoring device using the method, scene change detecting method, scene change detecting device using the method, scene change recording Device and image data scene change recording / reproducing device
JP3131560B2 (en) * 1996-02-26 2001-02-05 沖電気工業株式会社 Moving image information detecting device in moving image processing system
JP2000350156A (en) * 1999-06-09 2000-12-15 Hitachi Ltd Method for storing moving picture information and recording medium recording the information
JP3580200B2 (en) * 1999-10-28 2004-10-20 ブラザー工業株式会社 Recording information processing apparatus and computer readable recording medium recording recording information processing program
JP4051841B2 (en) * 1999-12-01 2008-02-27 ソニー株式会社 Image recording apparatus and method
JP2001238175A (en) * 2000-02-25 2001-08-31 Victor Co Of Japan Ltd Information recording and reproducing device
JP2001298711A (en) * 2000-04-17 2001-10-26 Sony Corp Image recording and reproducing device and method, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8184945B2 (en) 2008-12-24 2012-05-22 Kabushiki Kaisha Toshiba Authoring device and authoring method

Also Published As

Publication number Publication date
JP2004274171A (en) 2004-09-30

Similar Documents

Publication Publication Date Title
JP3677205B2 (en) Information recording apparatus for multiple recording surfaces and information recording method for multiple recording surfaces
JP2000152182A (en) Optical disk reproducing device and method therefor
US8050540B2 (en) Reproduction apparatus and computer reproduction method
US20060147183A1 (en) Recording apparatus and method, program, and recording medium
JP4066454B2 (en) Signal processing apparatus with authoring function and signal processing method including authoring
WO2009139302A1 (en) Recording/playback device
USRE45271E1 (en) Digital versatile disc recording apparatus and cell-by-cell edition method using the same
US20050213945A1 (en) Audio-visual recording/playback apparatus and digital video camera
US20040109673A1 (en) Recording and reproducing apparatus and method
US8437390B2 (en) Imaging apparatus
US7830421B2 (en) Reproducing apparatus
JP2010263374A (en) Recording and reproducing device and recording and reproducing method
JPH10276388A (en) Device, method for processing and reproducing image and recording medium
US8160430B2 (en) Recording apparatus and recording method
JP2002262240A (en) Method for retrieving video recorded scene and recording and reproducing device
JP4446311B2 (en) Recording / playback device
JP2004040518A (en) Imaging recorder and reproducing device
US20080069541A1 (en) Data recording apparatus, data recording method, and data recording program
JP2007295070A (en) Recording device and method, program, and recording medium
JP4309312B2 (en) Content recording / playback apparatus and content management method.
JP2002064781A (en) Dvd-recording and reproducing device
KR101202694B1 (en) A DVD recorder and a cell unit editing method of the DVD recorder
KR101308374B1 (en) A DVD recorder and a cell unit editing method of the DVD recorder
JP4654161B2 (en) Recording apparatus and recording method
JP2008028440A (en) Video recording device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071011

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071230

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4066454

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140118

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees