JP2004326925A - Editing recording method and editing recording device - Google Patents

Editing recording method and editing recording device Download PDF

Info

Publication number
JP2004326925A
JP2004326925A JP2003120096A JP2003120096A JP2004326925A JP 2004326925 A JP2004326925 A JP 2004326925A JP 2003120096 A JP2003120096 A JP 2003120096A JP 2003120096 A JP2003120096 A JP 2003120096A JP 2004326925 A JP2004326925 A JP 2004326925A
Authority
JP
Japan
Prior art keywords
information
still image
divided
program information
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003120096A
Other languages
Japanese (ja)
Inventor
Yoichiro Yamagata
洋一郎 山縣
Kazuhiko Taira
和彦 平良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003120096A priority Critical patent/JP2004326925A/en
Publication of JP2004326925A publication Critical patent/JP2004326925A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an editing recording method by which music contents of data structure corresponding to the editing indication of a user can be edited and recorded so that the music contents edited by a reproducing device is reproduced corresponding to the edited result. <P>SOLUTION: Information is specified (ST41) from each control information (AOBI, ASVUITXT_SRP) and each reproducing information (AOB, ASVOB, TXT) of a plurality of audio contents information in accordance with the connection indication of a plurality of audio contents information (programs #1 and #2), and the specified information is allocated (ST42 to ST46) to one audio contents information (program #1). <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、DVD(Digital Versatile Disk)−AR(Audio Recording)規格に準拠したオーディオコンテンツ情報を編集し記録する編集記録方法及び編集記録装置に関する。
【0002】
【従来の技術】
現在、音楽コンテンツの多くはCD(Compact Disk)や、インターネット等による電子音楽配信(EMD:Electronic Music Distribution)によってユーザーに提供されている。また、Diskの大容量化が進み、ユーザーの高音質への要求も高まってきており、DVD(Digital Versatile Disc)の音楽コンテンツへの利用が注目されDVD−Audio規格が作成されている。一方で、音楽コンテンツのコピーと著作権などの諸問題が生じており、この対策としてデータ著作権保護に関する技術開発が進められている(特許文献1)
【0003】
【特許文献1】
特開2000−207835号公報
【0004】
【発明が解決しようとする課題】
しかしながら、上記で挙げたDVD−AudioはROMコンテンツであり、編集には不向きであった。このため編集に適したDVD−AR規格が作成されるが、トラック情報として一義的な情報しか持てない規格である。このために、特にトラックの分割又は結合を行った場合に、それぞれのトラック情報の扱いが決まらない等の問題があった。
【0005】
そこで、本発明の目的は、上記の問題を解決するためになされたものであり、再生機器により編集された音楽コンテンツが編集結果に対応して再生されるように、ユーザの編集指示に対応したデータ構造の音楽コンテンツを編集記録することが可能な編集記録方法及び編集記録装置を提供することである。
【0006】
【課題を解決するための手段】
上記課題を解決し目的を達成するために、この発明の編集記録方法及び編集記録装置は、以下のように構成されている。
【0007】
(1)この発明は、オーディオコンテンツ情報を編集記録する方法であって、複数のオーディオコンテンツ情報(プログラム#1と#2)の結合指示に対応して、これら複数のオーディオコンテンツ情報の各管理情報(AOBI、ASVUITXT_SRP)及び各再生情報(AOB、ASVOB、TXT)から結合対象の情報を特定し、一つのオーディオコンテンツ情報(プログラム#1)に対して、前記特定された結合対象の情報を割り当てることを特徴とする編集記録方法。
【0008】
(2)この発明は、オーディオコンテンツ情報を編集記録する装置であって、オーディオコンテンツ情報を取得する取得手段と、前記取得手段により取得された前記オーディオコンテンツ情報を編集記録する編集記録手段とを備え、前記編集記録手段は、複数のオーディオコンテンツ情報(プログラム#1と#2)の結合指示に対応して、これら複数のオーディオコンテンツ情報の各管理情報(AOBI、ASVUITXT_SRP)及び各再生情報(AOB、ASVOB、TXT)から結合対象の情報を特定し(ST41)、一つのオーディオコンテンツ情報(プログラム#1)に対して、前記特定された結合対象の情報を割り当てる(ST42〜ST46)。
【0009】
【発明の実施の形態】
以下、この発明の実施の形態について図面を参照して説明する。
【0010】
図1は、オーディオコンテンツ情報記録再生装置の構成例を示す。記録部320は、メインMPU部305の制御に基づいて、各種入力部311〜313から入力されるコンテンツ情報(CD等のパッケージメディアコンテンツ341、又は電話回線やインターネット回線を経由して配信される電子音楽配信コンテンツ342等)をデータプロセッサ部303、ディスクドライブ部302を介してディスク1へ記録する記録処理を行なう。再生部330は、メインMPU部305の制御に基づいて、ディスク1からディスクドライブ部302、データプロセッサ部303を介して読み出したコンテンツ情報を各種出力部314〜316へ出力し再生処理を行なう。
【0011】
記録部320では、アナログ映像入力部312から入力される映像情報は、A/D変換部321を介し映像エンコーダ部322でエンコード処理を施された後、多重部324へ送られる。オーディオコンテンツ取得手段としてのアナログ音声入力部313から入力される音声情報は、A/D変換部321を介し音声エンコーダ部323でエンコード処理を施された後、多重部324へ送られる。また、オーディオコンテンツ取得手段としてのデジタル音声入力部311から入力される音声情報は、符号変換部326により、特定の音声圧縮方式で圧縮されたオーディオ情報を伸張し、リニアPCMへ符号変換処理を施された後、多重部324へ送られる。または、符号変換部326を介さずに多重部324へ送られる。多重部324では、送られた情報をMPEGプログラムストリームへと多重化する。多重化されたストリームは、フォーマッタ部325により所定形式にフォーマットされる。ユーザからの静止画像及びテキストを含むオーディオコンテンツ情報の編集指示(分割又は結合)がメインMPU部305で受け付けられている場合には、編集記録手段としての編集機能処理部306の制御に基づきフォーマッタ部325がフォーマットする。フォーマットされたデータは、編集記録手段としてのディスクドライブ部302によりディスク1へ記録される。編集機能処理部306による編集(分割又は結合)については、後に詳しく説明する。
【0012】
再生部330では、ディスク1から読み出されたコンテンツ情報から管理データをメインMPU部305へ、多重化されたストリームは分離部335へと送られる。分離部335では、多重化されたMPEGプログラムストリームを、音声情報、映像情報等へと分離する。分離された音声情報は、音声デコーダ部334でデコード処理を施され、デジタル音声出力部316へ出力されるか、D/A変換部331を介し、アナログ音声出力部315へ出力される。同様に映像情報は、映像デコーダ部333でそれぞれデコード処理を施され、映像プロセッサ部332で合成され、アナログ映像出力部314へ出力される。また、付加情報は、メインMPU部305へ送られる。
【0013】
図2は、ディスク形状の情報記憶媒体1に格納されるデータ構造を示したものである。ディスク形状の情報記憶媒体1は大きく分けて、リードイン領域10、ボリューム/ファイル構造情報領域11、データ領域12、リードアウト領域13から構成される。
【0014】
データ領域12は、一般コンピュータ情報記録領域20、オーディオ・レコーディング・データ記録領域21及び他のレコーディング・データ記録領域22から構成される。
【0015】
オーディオ・レコーディング・データ記録領域21は、オーディオ管理情報記録領域30(AR_MANGR.IFOファイル)、オーディオオブジェクト群記録領域100(AR_AUDIO.AROファイル)、静止画像オブジェクト群記録領域110(AR_STILL.AROファイル)、テキスト・オブジェクト群記録領域120(AR_TEXTI.AROファイル)、セキュア情報記録領域130(AR_CPRMI.ARO)、オーディオ管理情報記録領域31(AR_MANGR.BUPファイル)から構成され、夫々、ファイルとして扱える。
【0016】
オーディオオブジェクト群記録領域100は、連続するオーディオデータを記録した1つ以上のオーディオオブジェクト101(AOB : Audio Object)を含む。さらにオーディオオブジェクト101は、MPEGプログラムストリームに準拠した1つ以上のオーディオ・パック102から構成され、オーディオデータが格納される。
【0017】
静止画像オブジェクト群記録領域110は、1つ以上の静止画像ユニット111(ASVU : Audio Still Video Unit)を含む。さらに、静止画像ユニット111は、1つ以上の静止画像オブジェクト112(ASVOB : Audio Still Video Object)を含み、静止画像オブジェクト112は、静止画像1枚(JPEG)に対応する。また、静止画像オブジェクト112は、MPEGプログラムストリームに準拠したパック群から構成され、システム・ヘッダを含むダミー・パック113、静止画像を格納する1つ以上のビデオ・パック114及びMPEGプログラム終了コード115から構成される。
【0018】
テキスト・オブジェクト群記録領域120は、1つ以上のアイテム・テキスト121(IT_TXT : Item Text)を含む。アイテム・テキスト121は、識別コード122(IDCD : Identifier Code)、テキスト・サイズ123(TXT_SZ : Text Size)、テキスト124(TXT : Text)から構成される。識別コード122は、テキスト124に記述されるテキストのタイプを示す。例えば、曲名やポップス、ジャズ等の音楽ジャンル他が定義される。
【0019】
図3は、オーディオ管理情報記録領域30に格納されるデータを示したものである。オーディオ管理情報記録領域30は、オーディオ管理情報40(AR_AMGI:Audio Recording Audio Manager Information)、オーディオ・ファイル情報テーブル50(AUDFIT:Audio File Information Table)、オーディオ静止画像ファイル情報テーブル60(ASVFIT:Audio Still Video File Information Table)、プログラム・チェーン情報70(PGCI:Program Chain Information)、テキスト情報テーブル80(TXTDT_MG:Text Data Manager)及び製造者情報テーブル90(MNFIT:Manfacturer‘s Information Table)から構成される。
【0020】
さらに、オーディオ管理情報40は、オーディオ管理情報管理テーブル41(AMGI_MAT:Audio Manager Information Management Table)とプレイリスト情報テーブル42(PLIT:Play List Information Table)を含む。オーディオ・ファイル情報テーブル50は、オーディオ・ファイル情報テーブル情報51(AUDFITI:AUDFIT Information)、1つ以上のオーディオ・ストリーム情報を有するオーディオ・ストリーム情報群52(AUD_STI#:Audio Stream Information)、1つ以上の混合係数情報を有する混合係数情報群53(DM_COEFI#:Down Mix Coefficient Information)及びオーディオ・ファイル情報54(AUDFI)を含む。オーディオ静止画像ファイル情報テーブル60は、オーディオ静止画像ファイル情報テーブル情報61(ASVFITI:ASVFIT Information)、1つ以上のオーディオ静止画像ストリーム情報を有するオーディオ静止画像ストリーム情報群62(ASV_STI#:Audio Still Video Stream Information)及びオーディオ静止画像ファイル情報63(ASVFI)を含む。プログラム・チェーン一般情報70は、プログラム・チェーン一般情報71(PGC_GI:Program Chain General Information)、1つ以上のセル情報サーチ・ポインタを有するセル情報サーチ・ポインタ群73(CI_SRP#:Cell Information Search Pointer)及び1つ以上のセル情報を有するセル情報群74(CI#)を含む。テキスト情報テーブル80(TXTDT_MG:Text Data Manager)は、テキスト・データ情報81(TXTDTI:Text Data Information)及び1つ以上のアイテム・テキスト・サーチ・ポインタを有するアイテム・テキスト・サーチ・ポインタ群82(IT_TXT_SRP#:Item Text Search Pointer)を含む。製造者情報テーブル90は、製造者情報テーブル情報91(MNFITI:MNFIT Information)、1つ以上の製造者情報サーチ・ポインタを有する製造者情報サーチ・ポインタ群92(MNFI_SRP#:Manufacturer‘s Information Search Pointer)及び1つ以上の製造者情報を有する製造者情報群93(MNFI#)を含む。
【0021】
図4は、オーディオ管理情報管理テーブル41及びプレイリスト情報テーブル42の内容を示す。オーディオ管理情報管理テーブル41には、オーディオ管理情報記録領域30を識別する識別情報410、オーディオ管理情報記録領域30の終了位置情報411、オーディオ管理情報40の終了位置情報412、本データ構造を管理するためのバージョン情報413、ディスクの代表画像を指定するディスク代表画像情報414、ディスク名等に用いられるテキスト情報へのポインタを番号で指定するテキスト・サーチ番号415及びオーディオ管理情報記録領域30に格納される各テーブルの開始アドレス(オーディオ・ファイル情報テーブル50等)を示す各テーブルの開始位置情報416が含まれる。
【0022】
プレイリスト情報テーブル42には、プレイリスト情報テーブル情報420(PLITI:PLIT Information)、1つ以上のプレイリスト情報サーチ・ポインタを有するプレイリスト情報サーチ・ポインタ群421(PLI_SRP#:Play List Information Search Pointer)及び1つ以上のプレイリスト情報を有するプレイリスト情報群422(PLI#)が格納される。さらに、プレイリスト情報群422は、プレイリスト一般情報423(PL_GI:Play List General Information)及び1つ以上のプログラム・サーチ・ポインタを有するプログラム・サーチ・ポインタ群424(PG_SRP#:Program Search Pointer)を含む。プレイリスト一般情報423には、本プレイリスト内に格納されるPG_SRPの数425、本プレイリストの作成日時426、本プレイリスト用テキストを検索するテキスト・サーチ番号427及び本プレイリスト用代表画像情報428が含まれる。プレイリスト情報サーチ・ポインタ群421内には、本プレイリストで再生される順番に1つ以上のプログラム番号429及びダイナミック・レンジ制御を含む再生情報430を含む。
【0023】
図5は、オーディオ・ファイル情報テーブル50に格納される情報を示す。オーディオ・ファイル情報テーブル51は、ディスク内のオーディオオブジェクト群記録領域100に格納されるオーディオ属性を示すオーディオ・ストリーム情報群52に格納されるオーディオ・ストリーム情報の数、混合係数情報群53に格納される混合係数情報の数及びオーディオ・ファイル情報テーブル50の終了位置情報を含む。
【0024】
オーディオ・ストリーム情報群52のオーディオ・ストリーム情報は、オーディオ・コーディング・モード、サンプリング周波数、チャネル数等のオーディオ属性を示す。
【0025】
混合係数情報群53の混合係数情報は、マルチ・チャネル構成のリニアPCMオーディオを2チャネルにミックス・ダウンする為の係数が格納される。
【0026】
オーディオ・ファイル情報54は、オーディオ・ファイル情報一般情報540(AUDFI_GI:AUDFI General Information)及び1つ以上のオーディオオブジェクトを有するオーディオオブジェクト情報群541(AOBI#:AOB Information)を含む。オーディオ・ファイル情報一般情報540は、オーディオオブジェクト情報群541に格納されるAOBIの数を含む。オーディオオブジェクト情報群541内のオーディオオブジェクト情報は、使用するオーディオ・ストリーム情報の番号やダウン・ミックス情報の番号等を示すAOB内容情報542、AOB記録日時543、AOB開始時間544、AOB終了時間545及びオーディオオブジェクト群記録領域100(AR_AUDIO.AROファイル)内先頭から本AOB先頭までのAOB開始位置546を含む。
【0027】
図6は、オーディオ静止画像ファイル情報テーブル60に格納される情報を示す。オーディオ静止画像ファイル情報テーブル情報61は、ディスク内の静止画像オブジェクト群記録領域110に格納される静止画像属性を示すオーディオ静止画像ストリーム情報群62に格納されるオーディオ静止画像ストリーム情報の数及びオーディオ静止画像ファイル情報テーブル60の終了位置情報を含む。
【0028】
オーディオ静止画像ストリーム情報群62のオーディオ静止画像ストリーム情報は、圧縮コーディングがJPEG等であることを示す静止画像属性を示す。
【0029】
オーディオ静止画像ファイル情報63は、オーディオ静止画像ファイル情報一般情報630(ASVFI_GI:ASVFI General Information)、1つ以上のオーディオ静止画像ユニット情報サーチ・ポインタを有するオーディオ静止画像ユニット情報サーチ・ポインタ群631(ASVUI_SRP#:ASVU Information Search Pointer)及び1つ以上のオーディオ静止画像ユニット情報を有するオーディオ静止画像ユニット情報群632(ASVUI#)を含む。オーディオ静止画像ファイル情報一般情報630は、オーディオ静止画像ファイル情報63に格納されるASVUIの数を含む。オーディオ静止画像ユニット情報サーチ・ポインタ群631内のオーディオ静止画像ユニット情報サーチ・ポインタは、ASVUIの開始位置を含む。オーディオ静止画像ユニット情報群632は、オーディオ静止画像ユニット一般情報633(ASVU_GI:ASVU General Information)及びオーディオ静止画像オブジェクト・エントリ群634(ASVOB_ENT#:ASVOB Entry)を含む。オーディオ静止画像ユニット一般情報633は、本ASVUに格納されるASVOBの数635、本ASVUで使用するASV_STIの番号636、最初のASVOBの記録日時637、最後のASVOBの記録日時638及び静止画像オブジェクト群記録領域110(AR_STILL.AROファイル)内先頭から本ASVU先頭静止画像の開始位置を示すASVU開始位置639を含む。オーディオ静止画像オブジェクト・エントリ群634内のオーディオ静止画像オブジェクト・エントリは、ASVU内に格納されるASVOB個々に対して、ASVOBの状態(通常/秘匿)を示すASVOBエントリ・タイプ640及びASVOBサイズ641を含む。
【0030】
図7は、プログラム・チェーン情報70に格納される情報を示す。プログラム・チェーン一般情報71は、プログラム情報群72に格納されるプログラム(曲)の数、セル情報サーチ・ポインタ群73及びセル情報群74に格納されるセルの数を含む。プログラム情報群72には、前記プログラムの数で示される1つ以上のプログラム情報が格納される。そのプログラム情報には、本プログラムの状態(通常/プロテクト)を示すプログラム・タイプ721、本プログラムに含まれるセル数722、本プログラム用テキストを検索するテキスト・サーチ番号723、本プログラム用代表画像をASVUI_SRP番号と、ASVOB_ENT番号で指定する代表画像情報724、本プログラムのオーディオを再生中に表示可能な静止画像ユニットの番号を指定するASVUI_SRP番号725及びその静止画像ユニットに含まれる静止画像の表示モード(シーケンシャル/ランダム)、表示効果(カットイン/アウト、フェードイン/アウトなど)及び表示期間等を含むASV表示情報726が含まれる。セル情報サーチ・ポインタ群73には、前記セルの数で示される1つ以上のセル情報サーチ・ポインタが格納される。セル情報サーチ・ポインタは、セル情報群74に格納される対応するセル情報の開始位置情報である。
【0031】
セル情報群74には、前記セルの数で示される1つ以上のセル情報が格納される。セル情報は、セル一般情報740(C_GI:Cell General Information)、セル・エントリ・ポイント情報群741(C_EPI#:Cell Entry Point Information)から構成される。セル一般情報740には、セルが再生選択を伴なうブロックを構成するかを示すセル・タイプ742、ダイナミック・レンジ制御のオン/オフを示す再生情報743、本セルが参照するAOBのAOBI番号744、本セル内のセル・エントリ・ポイント情報群741に格納されるC_EPIの数745、本セルの再生時間を示すセル再生時間746、本セルに対応するAOBでの開始位置を示すセル開始位置747、セル開始位置747で指示されるオーディオ・パック102内のアクセス・ユニットの開始位置を示す開始アクセス・ユニット番号748、本セルに対応するAOBでの終了位置を示すセル終了位置749、セル終了位置749で指示されるオーディオ・パック102内のアクセス・ユニットの終了位置を示す終了アクセス・ユニット番号750及びセル再生開始時間を示すセル開始時間751が含まれる。
【0032】
セル・エントリ・ポイント情報群741には、前記セルの数で示される1つ以上のセル・エントリ・ポイント情報が格納される。セル・エントリ・ポイント情報には、2種類のタイプがあり、タイプAのセル・エントリ・ポイント情報には、タイプAを示すエントリ・ポイント・タイプ752、本セルが属するプログラム(曲)の代表オーディオを示す情報で、その開始時間を示す代表オーディオ開始時間753及び代表オーディオ期間754が含まれる。タイプBのセル・エントリ・ポイント情報には、タイプBを示すエントリ・ポイント・タイプ755、本セルが属するプログラム(曲)内のインデックスを示すインデックス開始時間756及びそのインデックスに対するテキスト情報を付加できるテキスト・サーチ番号757が含まれる。
【0033】
図8〜図12は、本発明における編集作業を示す図である。図8は、第1の分割処理を示す図である。静止画像ユニット(ASVU)を持つセルを分割した場合、編集後に同じASVUを別々のセルから参照できない。このため、ASVU#1のデータと同じものをコピーしたASVU#2を作成し前方のセルはASVU#1を参照し、後方のセルはASVU#2を参照するようなオーディオ静止画像ユニット情報群(ASVUI)を作成する。なお、それ以降のセルの参照するASVU番号は順に1ずつ加えられる。
【0034】
図9は、第2の分割処理を示す図である。セルが分割された場合、ASVUIは前方のセルに継承され、後方のセルには残らない。
【0035】
図10は、第3の分割処理を示す図である。この第3の分割処理は、分割されるトラックの長さと、ASVOBの再生時間によって分割後に各プログラムに割り振られるASVOBが変わる方法である。この場合、プログラムの分割点をどこにしても、ASVOBは半分ずつ割り振られる方法である。ASVOBが奇数の場合、中央の一枚はどちらか一方に割り振るものとする。
【0036】
図11は、第4の分割処理を示す図である。この第4の分割処理は、プログラムの分割点とASVOBの再生時間との関係で割り振られる枚数が変わる方法である。この場合、分割前のセルには4つのASVOBが割り当てられていたが、分割する際、分割点がセルの中央よりも前にあったため分割後のASVOBの割り当てをASVU#1:ASVU#2で1:3にしている。もし分割点が中央より後ろであった場合には3:1、分割後のセルのどちらかが十分大きい場合には0:4、4:0、ほぼ中央ならば2:2の場合が考えられる。
【0037】
また代表画像(REP_PICT)のあるセルを分割した場合についても同様にASVUをコピーしてそれぞれに指定する方法と、前方のセルにのみ継承する方法、各再生時間を継承する方法が考えられる。
【0038】
図12は、両方のセルにASVUを持つセル同士の結合処理を示す図である。この場合、前方のセルにあったASVUと後方のセルにあったASVUをまとめて1つのASVUを作成し、結合したセルから参照する。この時、データ構造は図2の静止画像ユニット111のようになる。ASVOBは1つのASVUの中に99個までしか入れることができない。このため、まとめたASVU内に99個以上のASVOBが存在するような場合は99個目以降のASVOBは消去される。また静止画を参照する時の指示情報ファイルはASVUI_SRP_Nsを1つ減らし、ASVUIの数も1つ減らす。またASVUI内のASVOB_Nsを対応する数に増加させるように書き換える。または結合前のどちらか一方のASVUを選択して参照し、静止画データ及び、指示情報もそれに対応させ、片方を無効にする。
【0039】
また、規格上、一つのASVU内に格納される複数のASVOBの静止画表示時間は同じでなければならない。つまり、ASVUI#1に対応するASVOB#1と#2の静止画表示時間は同一であり、ASVUI#2に対応するASVOB#1と#2の静止画表示時間は同一である。ところが、ASVUI#1に対応するASVOB#1と#2の静止画表示時間と、ASVUI#2に対応するASVOB#1と#2の静止画表示時間とが異なる場合があり得る。このような場合には、結合処理に対応して、一つASVUに格納される全てのASVOBの静止画表示時間が統一される。静止画表示時間は、図7に示すASV表示情報726に記述されている。具体的には、ASV_DURで、静止画表示時間=ASV_DUR*100[ms]で定義されている。
【0040】
図13は、代表音声(RA)を持つセルのRA区間中に分割点が指定された場合の分割処理を示す図である。RAとは、例えばオーディオコンテンツ情報に含まれるサビの部分である。RAは、開始位置と長さにより、オーディオコンテンツ情報中に定義される。RA区間中に分割点が指定された場合、RAは開始点を含むセルのみに残す。またはRAを解除してしまう方法が考えられる。図14は、それぞれがRAを持つ二つのセルの結合処理を示す図である。また2つのセルにそれぞれRAを持つものを結合した場合はどちらか片方のRAを継承し、残りのRAは消去する。または両方解除する方法も考えられる。これらの場合、実際のデータでは、分割の場合は、プログラムについての記述、結合については、片方のRAの情報を削除しプログラム情報の記述を変更する。
【0041】
図15は、インデックスポイント(IndexPoint)が指定されたセルを分割した場合の図である。この場合、図14に示すように分割された後続セルの先頭(分割点)にIndexが追加される。データ構造では、セルの分割に伴う、図7のセル情報サーチポインタ群73、セル一般情報740に関する部分が変更されるのと共に、セルエントリポイント情報群741の部分にも新しいIndexが追加される。このように、分割点にindexが追加されることにより、容易に再生情報の頭出しが可能となる。
【0042】
図16〜図18は、ASVUの分割処理を示すフローチャートである。
【0043】
図16は、図8の第1の分割処理を示すフローチャートである。先ずユーザ等の編集指定により、分割する曲(プログラム情報、セル情報)から参照されるオーディオ、静止画像及びテキストを特定する(ST11)。続いて、特定したオーディオの静止画像、テキストなどをコピーし、同一内容のASVU情報を作成する(ST12)。続いて、プログラム分割点で、プログラム情報及びセル情報を分割作成する(ST13)。続いて、分割した各プログラムに、コピーした静止画像、テキストなどを示すASVU情報を割り当てる(ST14)。
【0044】
図17は、図9の第2の分割処理を示すフローチャートである。先ずユーザ等の編集指定により、分割する曲(プログラム情報、セル情報)から参照されるオーディオ、静止画像及びテキストを特定する(ST21)。続いて、プログラム分割点で、プログラム情報及びセル情報を分割作成する(ST22)。続いて、分割したどちらか片方のプログラムにASVU情報を割り当てる(ST23)。
【0045】
図18は、図11の第4の分割処理を示すフローチャートである。先ずユーザ等の編集指定により、分割する曲(プログラム情報、セル情報)から参照されるオーディオ、静止画像及びテキストを特定する(ST31)。続いて、分割点におけるASVU情報をチェックし(ST32)、分割後のASVOBの割合などを決定する(ST33)。続いて、プログラム分割点で、プログラム情報及びセル情報を分割作成する(ST34)。続いて、分割したそれぞれのプログラムに分割点に位置によって決定した割合でASVUを割り当てる(ST35)。
【0046】
図19〜図22は、各分割処理における実際のデータ構造の変化を示す。図19に示すように、例えば第1の分割処理により一つのコンテンツ(プログラム情報、セル情報)が二つのコンテンツに分割されるとき、ASVUI_SRP#2、及びASVUI#2が追加される。ASVUI#2は、ASVUI#1の複製である。さらに、図20に示すように、PGI#1がPGI#1とPGI#2に編集され、CI_SRP#1がCI_SRP#1とCI_SRP#2に編集され、CI#1がCI#1とCI#2に編集される。
【0047】
図21に示すように、例えば第4の分割処理により一つのコンテンツ(プログラム情報、セル情報)が二つのコンテンツに分割されるとき、ASVUI_SRP#2、及びASVUI#2が追加される。このとき、ASVUI_SRP#1には元のASVOB_ENT#1が割り当てられ、ASVUI_SRP#2には元のASVOB_ENT#2,3,4(新たなASVOB_ENT#1,2,3)が割り当てられる。さらに、図22に示すように、PGI#1がPGI#1とPGI#2に編集され、CI_SRP#1がCI_SRP#1とCI_SRP#2に編集され、CI#1がCI#1とCI#2に編集される。
【0048】
図23は、ASVUの結合処理を示すフローチャートである。先ずユーザ等の編集指定により、分割する曲(プログラム情報、セル情報)から参照されるオーディオ、静止画像及びテキストを特定する(ST41)。続いて、ASVU情報#2の情報をASVU情報#1に加え、ASVU#1の情報を更新する(ST42)。続いて、ASVU#2を削除する(ST43)。続いて、プログラム情報#1と#2を結合し、それぞれのプログラム情報中のセル情報をプログラム情報#1の中に取り込む(ST44)。続いて、プログラム情報#2を削除する(ST45)。続いて、プログラム情報#1にASVU情報#1を割り当てる(ST46)。
【0049】
図24及び図25は、ASVUの結合処理における実際のデータ構造の変化を示す。図24に示すように、結合処理により二つのコンテンツ(プログラム情報、セル情報)を一つのコンテンツに結合するとき、ASVUI_SRP#1及びASVUI_SRP#2がASVUI_SRP#1に纏められ、ASVUI#1及びASVUI#2がASVUI#1に纏められる。つまり、ASVUI#1に割り当てられたASVOB_ENT#1及びASVOB_ENT#2と、ASVUI#2に割り当てられたASVOB_ENT#1及びASVOB_ENT#2とが、新たなASVUI#1に割り当てられる。さらに、図25に示すように、PGI#1とPGI#2がPGI#1に編集され、CI_SRP#1とCI_SRP#2がCI_SRP#1に編集され、CI#1とCI#2がCI#1に編集される。
【0050】
図26は、RAを含むプログラムを分割したときのフローチャートである。先ずユーザ等の編集指定により、分割する曲(プログラム情報、セル情報)から参照されるオーディオ、静止画像及びテキストを特定する(ST51)。続いて、プログラム情報を分割しRAの開始位置を調べる(ST52)。続いて、RA開始位置を含む方のプログラム情報のC_EPIにRAの情報を残す(ST53)。
【0051】
図27は、RAを含むプログラムを結合した時のフローチャートである。先ずユーザ等の編集指定により、分割する曲(プログラム情報、セル情報)から参照されるオーディオ、静止画像及びテキストを特定する(ST61)。結合するプログラムの両方にRAがある場合は(ST62、YES)、どちらか片方のRAの情報をC_EPIから削除したC_GIを作成し(ST63)、プログラムを結合する(ST64)。結合するプログラムの片方にしかRAが無い場合は、そのままプログラムを結合する(ST64)。
【0052】
図28は、インデックスポイントを含むプログラムを分割した時のフローチャートである。先ずユーザ等の編集指定により、分割する曲(プログラム情報、セル情報)から参照されるオーディオ、静止画像及びテキストを特定する(ST71)。続いて、インデックスのある位置を調べる(ST72)。インデックスが分割点の位置にある場合は(ST73、NO)、そのままプログラムを分割する(ST75)。インデックスが分割点の位置に無い場合は(ST73、YES)、分割点で新たにインデックスポイントを作成し(ST74)、プログラムを分割する(ST75)。
【0053】
以上説明したように、この発明によれば、DVD−AR中の一つのTrack(Program)分割に対応して生成される複数のTrack(Program)中の以下の情報の取り扱いが制御される。
【0054】
(a)REP_PICTI(代表画像)
(b)ASVU
(c)Index
(d)RA(代表音声)
これにより、DVD−ARの規格に準拠したデータ構造を維持したまま、ユーザの希望する位置でコンテンツを自由に分割編集することができる。その結果、DVD−ARの規格に準拠したコンテンツを再生することができる再生装置により、分割編集に対応した再生が実現できる。
【0055】
また、この発明によれば、DVD−AR中の複数Track(Program)の結合に対応して生成される一つのTrack(Program)中の以下の情報の取り扱いの制御が制御される。
(a)REP_PICTI(代表画像)
(b)ASVU
(c)RA(代表音声)
これにより、DVD−ARの規格に準拠したデータ構造を維持したまま、ユーザの希望する複数コンテンツを自由結合編集することができる。その結果、DVD−ARの規格に準拠したコンテンツを再生することができる再生装置により、結合編集に対応した再生が実現できる。
【0056】
なお、本願発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は可能な限り適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
【0057】
【発明の効果】
この発明によれば、再生機器により編集された音楽コンテンツが編集結果に対応して再生されるように、ユーザの編集指示に対応したデータ構造の音楽コンテンツを編集記録することが可能な編集記録方法及び編集記録装置を提供できる。
【図面の簡単な説明】
【図1】オーディオコンテンツ情報記録再生装置の概略構成の一例を示す図である。
【図2】ディスク形状の情報記憶媒体に格納されるデータ構造の一例を示す図である。
【図3】オーディオ管理情報記録領域に格納される情報の一例を示す図である。
【図4】オーディオ管理情報管理テーブル及びプレイリスト情報テーブルの情報の一例を示す図である。
【図5】オーディオ・ファイル情報テーブルに格納される情報の一例を示す図である。
【図6】オーディオ静止画像ファイル情報テーブルに格納される情報の一例を示す図である。
【図7】プログラム・チェーン情報に格納される情報の一例を示す図である。
【図8】第1の分割処理の一例を示す図である。
【図9】第2の分割処理の一例を示す図である。
【図10】第3の分割処理の一例を示す図である。
【図11】第4の分割処理の一例を示す図である。
【図12】両方のセルにASVUを持つセル同士の結合処理の一例を示す図である。
【図13】代表音声(RA)を持つセルのRA区間中に分割点が指定された場合の分割処理の一例を示す図である。
【図14】それぞれがRAを持つ二つのセルの結合処理の一例を示す図である。
【図15】分割処理とIndexPointの関係を示す図である。
【図16】第1の分割処理の一例を示すフローチャートである。
【図17】第2の分割処理の一例を示すフローチャートである。
【図18】第3の分割処理の一例を示すフローチャートである。
【図19】第1の分割処理に対応するオーディオ静止画像ユニット情報群のデータ構造の変化を示す図である。
【図20】第1の分割処理に対応するプログラム情報及びセル情報のデータ構造の変化を示す図である。
【図21】第4の分割処理に対応するオーディオ静止画像ユニット情報群のデータ構造の変化を示す図である。
【図22】第4の分割処理に対応するプログラム情報及びセル情報のデータ構造の変化を示す図である。
【図23】ASVUの結合処理の一例を示すフローチャートである。
【図24】結合処理に対応するオーディオ静止画像ユニット情報群のデータ構造の変化を示す図である。
【図25】結合処理に対応するプログラム情報及びセル情報のデータ構造の変化を示す図である。
【図26】RAを含むプログラムの分割処理の一例を示すフローチャートである。
【図27】RAを含むプログラムの結合処理の一例を示すフローチャートである。
【図28】インデックスポイントを含むプログラムの分割処理を示すフローチャートである。
【符号の説明】
1…ディスク、302…ディスクドライブ部、303…データプロセッサ部、304…一時記憶部、305…メインMPU部、306…編集機能処理部、320…記録部、330…再生部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an editing and recording method and an editing and recording apparatus for editing and recording audio content information compliant with a DVD (Digital Versatile Disk) -AR (Audio Recording) standard.
[0002]
[Prior art]
At present, many music contents are provided to users by CDs (Compact Disks) or electronic music distribution (EMD: Electronic Music Distribution) via the Internet or the like. In addition, the disk capacity has been increased and the demand for high sound quality of users has been increasing, and attention has been paid to the use of DVD (Digital Versatile Disc) for music contents, and the DVD-Audio standard has been created. On the other hand, various problems such as music content copying and copyright have arisen, and as a countermeasure, technology development related to data copyright protection has been promoted (Patent Document 1).
[0003]
[Patent Document 1]
JP 2000-207835 A
[0004]
[Problems to be solved by the invention]
However, the above-mentioned DVD-Audio is ROM content and is not suitable for editing. For this reason, a DVD-AR standard suitable for editing is created, but this is a standard that can have only unique information as track information. For this reason, there is a problem that the handling of each track information is not determined particularly when the track is divided or combined.
[0005]
Therefore, an object of the present invention has been made to solve the above-described problem, and has been made in response to a user's editing instruction so that music content edited by a playback device is played back in accordance with the editing result. It is an object of the present invention to provide an editing recording method and an editing recording device capable of editing and recording music content having a data structure.
[0006]
[Means for Solving the Problems]
In order to solve the above problems and achieve the object, an editing recording method and an editing recording device of the present invention are configured as follows.
[0007]
(1) The present invention relates to a method for editing and recording audio content information. In response to an instruction to combine a plurality of audio content information (programs # 1 and # 2), each management information of the plurality of audio content information is managed. (AOBI, ASVUITXT_SRP) and each piece of reproduction information (AOB, ASVOB, TXT) to specify information to be combined, and to assign the identified information to be combined to one piece of audio content information (program # 1) Edit recording method characterized by the above-mentioned.
[0008]
(2) The present invention is an apparatus for editing and recording audio content information, comprising: an acquisition unit for acquiring audio content information; and an editing recording unit for editing and recording the audio content information acquired by the acquisition unit. The editing / recording means responds to a combination instruction of a plurality of pieces of audio content information (programs # 1 and # 2) and manages each of the management information (AOBI, ASVUITXT_SRP) and each piece of reproduction information (AOB, (ASVOB, TXT) to specify information to be combined (ST41), and assigns the specified information to be combined to one piece of audio content information (program # 1) (ST42 to ST46).
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0010]
FIG. 1 shows a configuration example of an audio content information recording / reproducing apparatus. Based on the control of the main MPU unit 305, the recording unit 320 stores content information (package media content 341 such as a CD, or electronic information distributed via a telephone line or an Internet line) input from various input units 311 to 313. A recording process for recording the music distribution content 342) on the disk 1 via the data processor unit 303 and the disk drive unit 302 is performed. Under the control of the main MPU unit 305, the playback unit 330 outputs content information read from the disk 1 via the disk drive unit 302 and the data processor unit 303 to various output units 314 to 316 to perform playback processing.
[0011]
In the recording unit 320, the video information input from the analog video input unit 312 is subjected to encoding processing by the video encoder unit 322 via the A / D conversion unit 321, and then sent to the multiplexing unit 324. Audio information input from an analog audio input unit 313 as audio content acquisition means is subjected to encoding processing by an audio encoder unit 323 via an A / D conversion unit 321, and then sent to a multiplexing unit 324. Also, the audio information input from the digital audio input unit 311 as the audio content acquisition unit is expanded by the code conversion unit 326 into audio information compressed by a specific audio compression method and subjected to code conversion processing to linear PCM. After that, it is sent to the multiplexing unit 324. Alternatively, it is sent to the multiplexing unit 324 without passing through the code conversion unit 326. The multiplexing unit 324 multiplexes the transmitted information into an MPEG program stream. The multiplexed stream is formatted by a formatter unit 325 into a predetermined format. When an editing instruction (division or combination) of audio content information including a still image and text is received from the user by the main MPU unit 305, the formatter unit is controlled based on the editing function processing unit 306 as an editing recording unit. 325 formats. The formatted data is recorded on the disk 1 by the disk drive unit 302 as an edit recording unit. Editing (division or combination) by the editing function processing unit 306 will be described later in detail.
[0012]
In the reproducing unit 330, the management data from the content information read from the disk 1 is sent to the main MPU unit 305, and the multiplexed stream is sent to the separating unit 335. The separation unit 335 separates the multiplexed MPEG program stream into audio information, video information, and the like. The separated audio information is subjected to a decoding process in an audio decoder unit 334 and output to a digital audio output unit 316 or output to an analog audio output unit 315 via a D / A conversion unit 331. Similarly, the video information is decoded by a video decoder unit 333, synthesized by a video processor unit 332, and output to an analog video output unit 314. Further, the additional information is sent to the main MPU unit 305.
[0013]
FIG. 2 shows a data structure stored in the disc-shaped information storage medium 1. The disk-shaped information storage medium 1 is roughly divided into a lead-in area 10, a volume / file structure information area 11, a data area 12, and a lead-out area 13.
[0014]
The data area 12 includes a general computer information recording area 20, an audio recording data recording area 21, and another recording data recording area 22.
[0015]
The audio recording data recording area 21 includes an audio management information recording area 30 (AR_MANGR.IFO file), an audio object group recording area 100 (AR_AUDIO.ARO file), a still image object group recording area 110 (AR_STILL.ARO file), It is composed of a text / object group recording area 120 (AR_TEXTI.ARO file), a secure information recording area 130 (AR_CPRMI.ARO), and an audio management information recording area 31 (AR_MANGR.BUP file), each of which can be treated as a file.
[0016]
The audio object group recording area 100 includes one or more audio objects 101 (AOB: Audio Object) in which continuous audio data is recorded. Further, the audio object 101 is composed of one or more audio packs 102 conforming to the MPEG program stream, and stores audio data.
[0017]
The still image object group recording area 110 includes one or more still image units 111 (ASVU: Audio Still Video Unit). Further, the still image unit 111 includes one or more still image objects 112 (ASVOB: Audio Still Video Object), and the still image object 112 corresponds to one still image (JPEG). The still image object 112 is composed of a pack group conforming to the MPEG program stream, and includes a dummy pack 113 including a system header, one or more video packs 114 for storing still images, and an MPEG program end code 115. Be composed.
[0018]
The text / object group recording area 120 includes one or more item texts 121 (IT_TXT: Item Text). The item text 121 includes an identification code 122 (IDCD: Identifier Code), a text size 123 (TXT_SZ: Text Size), and a text 124 (TXT: Text). The identification code 122 indicates the type of text described in the text 124. For example, music titles, music genres such as pops and jazz, etc. are defined.
[0019]
FIG. 3 shows data stored in the audio management information recording area 30. The audio management information recording area 30 includes audio management information 40 (AR_AMGI: Audio Recording Audio Manager Information), an audio file information table 50 (AUDFIT: Audio File Information Table), and an audio still image file information table 60 (ASVFIFODeATS). File Information Table, Program Chain Information 70 (PGCI: Program Chain Information), Text Information Table 80 (TXTDT_MG: Text Data Manager), and Manufacturer Information Table 90 (MNFIT: Manufacturer's Information) Consists of
[0020]
Further, the audio management information 40 includes an audio management information management table 41 (AMGI_MAT: Audio Manager Information Management Table) and a playlist information table 42 (PLIT: Play List Information Table). The audio file information table 50 includes audio file information table information 51 (AUDFITI: AUDFIT Information), an audio stream information group 52 (AUD_STI #: Audio Stream Information) having one or more pieces of audio stream information, and one or more. , And a mixing coefficient information group 53 (DM_COEFI #: Down Mix Coefficient Information) having the above mixing coefficient information and audio file information 54 (AUDFI). The audio still image file information table 60 includes audio still image file information table information 61 (ASVFITI: ASVFIIT Information) and an audio still image stream information group 62 (ASV_STI #: Audio Still Video Stream) having one or more pieces of audio still image stream information. Information) and audio still image file information 63 (ASVFI). The program chain general information 70 includes a program chain general information 71 (PGC_GI: Program Chain General Information) and a cell information search pointer group 73 having one or more cell information search pointers (CI_SRP #: Cell Information Search Pointer). And a cell information group 74 (CI #) having one or more pieces of cell information. The text information table 80 (TXTDT_MG: Text Data Manager) includes a text data information 81 (TXTDTI: Text Data Information) and an item text search pointer group 82 (IT_TXT_SRP) having one or more item text search pointers. #: Item Text Search Pointer. The manufacturer information table 90 includes manufacturer information table information 91 (MNFITI: MNFIT Information), and a manufacturer information search pointer group 92 (MNFI_SRP #: Manufacturer's Information Search Pointer) having one or more manufacturer information search pointers. ) And a manufacturer information group 93 (MNFI #) having one or more manufacturer information.
[0021]
FIG. 4 shows the contents of the audio management information management table 41 and the playlist information table 42. The audio management information management table 41 manages identification information 410 for identifying the audio management information recording area 30, end position information 411 of the audio management information recording area 30, end position information 412 of the audio management information 40, and this data structure. Information 413 for specifying a representative image of the disc, a text search number 415 for specifying a pointer to text information used for the disc name or the like by a number, and the audio management information recording area 30. Start information 416 of each table indicating the start address of each table (such as the audio file information table 50).
[0022]
The playlist information table 42 includes playlist information table information 420 (PLIT Information) and a playlist information search pointer group 421 (PLI_SRP #: Play List Information Search Pointer) having one or more playlist information search pointers. ) And a playlist information group 422 (PLI #) having one or more pieces of playlist information. Further, the playlist information group 422 includes playlist general information 423 (PL_GI: Play List General Information) and a program search pointer group 424 (PG_SRP #: Program Search Pointer) having one or more program search pointers. Including. The playlist general information 423 includes the number 425 of PG_SRPs stored in the playlist, the creation date and time 426 of the playlist, a text search number 427 for searching the text for the playlist, and the representative image information for the playlist. 428 are included. The playlist information search pointer group 421 includes one or more program numbers 429 and reproduction information 430 including dynamic range control in the order of reproduction in the present playlist.
[0023]
FIG. 5 shows information stored in the audio file information table 50. The audio file information table 51 is stored in the number of audio stream information groups 52 stored in the audio stream information group 52 indicating the audio attributes stored in the audio object group recording area 100 in the disc, and in the mixing coefficient information group 53. And the end position information of the audio file information table 50.
[0024]
The audio stream information of the audio stream information group 52 indicates audio attributes such as an audio coding mode, a sampling frequency, and the number of channels.
[0025]
The mixing coefficient information of the mixing coefficient information group 53 stores coefficients for mixing down linear PCM audio having a multi-channel configuration into two channels.
[0026]
The audio file information 54 includes audio file information general information 540 (AUDFI_GI: AUDFI General Information) and an audio object information group 541 (AOBI #: AOB Information) having one or more audio objects. The audio file information general information 540 includes the number of AOBIs stored in the audio object information group 541. The audio object information in the audio object information group 541 includes AOB content information 542 indicating the number of audio stream information to be used and the number of downmix information, the AOB recording date and time 543, the AOB start time 544, the AOB end time 545, and the like. An AOB start position 546 from the beginning of the audio object group recording area 100 (AR_AUDIO.ARO file) to the beginning of this AOB is included.
[0027]
FIG. 6 shows information stored in the audio still image file information table 60. The audio still image file information table information 61 includes the number of audio still image stream information stored in the audio still image stream information group 62 indicating the still image attribute stored in the still image object group recording area 110 on the disc and the audio still image information. It includes the end position information of the image file information table 60.
[0028]
The audio still image stream information of the audio still image stream information group 62 indicates a still image attribute indicating that the compression coding is JPEG or the like.
[0029]
The audio still image file information 63 includes audio still image file information general information 630 (ASVFI_GI: ASVFI General Information) and an audio still image unit information search pointer group 631 (ASVUI_SRP) having one or more audio still image unit information search pointers. #: ASVU Information Search Pointer) and an audio still image unit information group 632 (ASVUI #) having one or more pieces of audio still image unit information. The audio still image file information general information 630 includes the number of ASVUIs stored in the audio still image file information 63. The audio still image unit information search pointer in the audio still image unit information search pointer group 631 includes the start position of the ASVUI. The audio still image unit information group 632 includes audio still image unit general information 633 (ASVU_GI: ASVU General Information) and an audio still image object entry group 634 (ASVOB_ENT #: ASVOB Entry). The audio still image unit general information 633 includes the number 635 of ASVOBs stored in the present ASVU, the number 636 of ASV_STI used in the present ASVU, the recording date and time 637 of the first ASVOB, the recording date and time 638 of the last ASVOB, and a group of still image objects. The recording area 110 (AR_STILL.ARO file) includes an ASVU start position 639 indicating the start position of the present ASVU top still image from the top. The audio still image object entry in the audio still image object entry group 634 includes, for each ASVOB stored in the ASVU, an ASVOB entry type 640 and an ASVOB size 641 indicating an ASVOB state (normal / confidential). Including.
[0030]
FIG. 7 shows information stored in the program chain information 70. The program chain general information 71 includes the number of programs (songs) stored in the program information group 72, and the number of cells stored in the cell information search pointer group 73 and the cell information group 74. The program information group 72 stores one or more pieces of program information indicated by the number of the programs. The program information includes a program type 721 indicating the status (normal / protect) of the program, the number of cells 722 included in the program, a text search number 723 for searching for a text for the program, and a representative image for the program. The representative image information 724 specified by the ASVUI_SRP number and the ASVOB_ENT number, the ASVUI_SRP number 725 specifying the number of a still image unit that can be displayed during reproduction of the audio of the program, and the display mode of the still image included in the still image unit ( ASV display information 726 including a sequential / random), a display effect (cut-in / out, fade-in / out, etc.), a display period, and the like are included. The cell information search pointer group 73 stores one or more cell information search pointers indicated by the number of cells. The cell information search pointer is start position information of the corresponding cell information stored in the cell information group 74.
[0031]
The cell information group 74 stores one or more pieces of cell information indicated by the number of cells. The cell information includes cell general information 740 (C_GI: Cell General Information) and a cell entry point information group 741 (C_EPI #: Cell Entry Point Information). The cell general information 740 includes a cell type 742 indicating whether the cell constitutes a block with selection of reproduction, reproduction information 743 indicating ON / OFF of dynamic range control, and an AOBI number of an AOB referenced by the cell. 744, the number 745 of C_EPIs stored in the cell entry point information group 741 in the present cell, the cell playback time 746 indicating the playback time of the present cell, and the cell start position indicating the start position in the AOB corresponding to the present cell 747, a start access unit number 748 indicating the start position of the access unit in the audio pack 102 specified by the cell start position 747, a cell end position 749 indicating the end position in the AOB corresponding to this cell, and a cell end End access indicating the end position of the access unit in audio pack 102 indicated by position 749 It includes cell start time 751 indicating the unit number 750 and the cell playback start time.
[0032]
The cell entry point information group 741 stores one or more cell entry point information indicated by the number of cells. There are two types of cell entry point information. The type A cell entry point information includes an entry point type 752 indicating type A, a representative audio of a program (song) to which the cell belongs. And a representative audio start time 753 indicating the start time and a representative audio period 754 are included. The type B cell entry point information includes an entry point type 755 indicating type B, an index start time 756 indicating an index in a program (song) to which the cell belongs, and a text to which text information for the index can be added. A search number 757 is included.
[0033]
8 to 12 are diagrams showing the editing operation in the present invention. FIG. 8 is a diagram illustrating the first division processing. When a cell having a still image unit (ASVU) is divided, the same ASVU cannot be referred from another cell after editing. For this reason, an ASVU # 2 which is a copy of the same data as the ASVU # 1 is created, and the front cell refers to the ASVU # 1, and the rear cell refers to the ASVU # 2. ASVUI). The ASVU numbers referred to by the subsequent cells are added one by one in order.
[0034]
FIG. 9 is a diagram illustrating the second division processing. When a cell is split, the ASVUI is inherited by the preceding cells and does not remain in the following cells.
[0035]
FIG. 10 is a diagram illustrating the third division processing. The third division process is a method in which the ASVOB allocated to each program after the division is changed according to the length of the track to be divided and the playback time of the ASVOB. In this case, the ASVOB is a method of allocating half the ASVOB regardless of the division point of the program. When the ASVOB is an odd number, the center sheet is allocated to one of them.
[0036]
FIG. 11 is a diagram illustrating the fourth division processing. The fourth division processing is a method in which the number of sheets to be allocated changes according to the relation between the division point of the program and the playback time of ASVOB. In this case, four ASVOBs have been allocated to the cell before the division. However, when dividing, since the division point was located before the center of the cell, the allocation of the ASVOB after the division is performed by ASVU # 1: ASVU # 2. 1: 3. If the dividing point is behind the center, the ratio may be 3: 1, if any of the divided cells is sufficiently large, 0: 4, 4: 0, and if the cell is approximately at the center, 2: 2. .
[0037]
Similarly, when a certain cell of the representative image (REP_PICT) is divided, a method of copying the ASVU and designating each ASVU, a method of inheriting only the preceding cell, and a method of inheriting each reproduction time can be considered.
[0038]
FIG. 12 is a diagram illustrating a process of combining cells having ASVU in both cells. In this case, one ASVU is created by combining the ASVU in the front cell and the ASVU in the rear cell and is referred to from the combined cells. At this time, the data structure is as shown in the still image unit 111 of FIG. ASVOB can contain only 99 pieces in one ASVU. For this reason, if there are 99 or more ASVOBs in the combined ASVU, the 99th or more ASVOBs are erased. In the instruction information file for referring to a still image, ASVUI_SRP_Ns is reduced by one and the number of ASVUIs is also reduced by one. Also, rewriting is performed so that ASVOB_Ns in the ASVUI is increased to a corresponding number. Alternatively, one of the ASVUs before the combination is selected and referred to, the still image data and the instruction information are also made to correspond to the ASVU, and one of them is invalidated.
[0039]
Further, according to the standard, the still image display time of a plurality of ASVOBs stored in one ASVU must be the same. That is, the still image display time of ASVOB # 1 and # 2 corresponding to ASVUI # 1 is the same, and the still image display time of ASVOB # 1 and # 2 corresponding to ASVUI # 2 is the same. However, the still image display time of ASVOB # 1 and # 2 corresponding to ASVUI # 1 may be different from the still image display time of ASVOB # 1 and # 2 corresponding to ASVUI # 2. In such a case, the still image display times of all the ASVOBs stored in one ASVU are unified according to the combining process. The still image display time is described in the ASV display information 726 shown in FIG. Specifically, the still image display time is defined as ASV_DUR = ASV_DUR * 100 [ms].
[0040]
FIG. 13 is a diagram illustrating division processing when a division point is specified in an RA section of a cell having a representative voice (RA). RA is, for example, a rust portion included in audio content information. The RA is defined in the audio content information according to the start position and the length. When a division point is specified in the RA section, RA is left only in the cell including the start point. Alternatively, a method of canceling RA can be considered. FIG. 14 is a diagram showing a joining process of two cells each having RA. When two cells each having an RA are combined, one of the RAs is inherited, and the other RAs are erased. Or a method of canceling both is also conceivable. In these cases, in the case of actual data, in the case of division, the description of the program and in the case of the division, the information of one RA is deleted and the description of the program information is changed.
[0041]
FIG. 15 is a diagram illustrating a case where a cell in which an index point (IndexPoint) is specified is divided. In this case, an Index is added to the head (division point) of the subsequent cell divided as shown in FIG. In the data structure, the portion related to the cell information search pointer group 73 and the cell general information 740 in FIG. 7 is changed along with the division of the cell, and a new Index is also added to the portion of the cell entry point information group 741. In this way, by adding the index to the division point, it is possible to easily find the reproduction information.
[0042]
FIGS. 16 to 18 are flowcharts showing the ASVU division processing.
[0043]
FIG. 16 is a flowchart showing the first division processing of FIG. First, the audio, still image, and text referred to from the music to be divided (program information, cell information) are specified by the editing designation of the user or the like (ST11). Subsequently, the specified audio still image, text, and the like are copied to create ASVU information having the same contents (ST12). Subsequently, at the program division point, the program information and the cell information are divided and created (ST13). Subsequently, ASVU information indicating a copied still image, text, and the like is assigned to each of the divided programs (ST14).
[0044]
FIG. 17 is a flowchart showing the second division processing of FIG. First, the audio, still image, and text referred to from the music to be divided (program information, cell information) are specified by editing designation by the user or the like (ST21). Subsequently, at the program division point, the program information and the cell information are divided and created (ST22). Subsequently, ASVU information is assigned to one of the divided programs (ST23).
[0045]
FIG. 18 is a flowchart showing the fourth division processing of FIG. First, an audio, a still image, and a text referred to from a song to be divided (program information, cell information) are specified by editing designation by a user or the like (ST31). Subsequently, ASVU information at the division point is checked (ST32), and the ratio of ASVOB after division is determined (ST33). Subsequently, program information and cell information are divided and created at a program division point (ST34). Subsequently, ASVUs are assigned to the respective divided programs at the ratio determined by the position at the dividing point (ST35).
[0046]
19 to 22 show changes in the actual data structure in each division process. As shown in FIG. 19, for example, when one content (program information, cell information) is divided into two contents by the first division processing, ASVUI_SRP # 2 and ASVUI # 2 are added. ASVUI # 2 is a copy of ASVUI # 1. Further, as shown in FIG. 20, PGI # 1 is edited into PGI # 1 and PGI # 2, CI_SRP # 1 is edited into CI_SRP # 1 and CI_SRP # 2, and CI # 1 is changed into CI # 1 and CI # 2. Edited to.
[0047]
As shown in FIG. 21, for example, when one content (program information, cell information) is divided into two contents by the fourth division processing, ASVUI_SRP # 2 and ASVUI # 2 are added. At this time, the original ASVOB_ENT # 1 is assigned to ASVUI_SRP # 1, and the original ASVOB_ENT # 2, 3, 4 (new ASVOB_ENT # 1, 2, 3) is assigned to ASVUI_SRP # 2. Further, as shown in FIG. 22, PGI # 1 is edited into PGI # 1 and PGI # 2, CI_SRP # 1 is edited into CI_SRP # 1 and CI_SRP # 2, and CI # 1 is changed into CI # 1 and CI # 2. Edited to.
[0048]
FIG. 23 is a flowchart showing the ASVU combining process. First, an audio, a still image, and a text referred to from a song to be divided (program information, cell information) are specified by an editing designation by a user or the like (ST41). Subsequently, the information of the ASVU information # 2 is added to the ASVU information # 1, and the information of the ASVU # 1 is updated (ST42). Subsequently, ASVU # 2 is deleted (ST43). Subsequently, the program information # 1 and # 2 are combined, and the cell information in each program information is taken into the program information # 1 (ST44). Subsequently, the program information # 2 is deleted (ST45). Subsequently, ASVU information # 1 is assigned to program information # 1 (ST46).
[0049]
FIG. 24 and FIG. 25 show changes in the actual data structure in the ASVU combining process. As shown in FIG. 24, when two contents (program information and cell information) are combined into one content by the combining process, ASVUI_SRP # 1 and ASVUI_SRP # 2 are combined into ASVUI_SRP # 1, and ASVUI # 1 and ASVUI #. 2 are combined into ASVUI # 1. That is, ASVOB_ENT # 1 and ASVOB_ENT # 2 assigned to ASVUI # 1 and ASVOB_ENT # 1 and ASVOB_ENT # 2 assigned to ASVUI # 2 are assigned to new ASVUI # 1. Further, as shown in FIG. 25, PGI # 1 and PGI # 2 are edited into PGI # 1, CI_SRP # 1 and CI_SRP # 2 are edited into CI_SRP # 1, and CI # 1 and CI # 2 are edited into CI # 1. Edited to.
[0050]
FIG. 26 is a flowchart when the program including the RA is divided. First, the audio, still image, and text referred to from the music to be divided (program information, cell information) are specified by the editing designation of the user or the like (ST51). Subsequently, the program information is divided to check the start position of the RA (ST52). Subsequently, the RA information is left in C_EPI of the program information including the RA start position (ST53).
[0051]
FIG. 27 is a flowchart when programs including RA are combined. First, the audio, still image, and text referred to from the music to be divided (program information, cell information) are specified by editing designation by the user or the like (ST61). If both programs have RAs (ST62, YES), C_GI is created by deleting information of one of the RAs from the C_EPI (ST63), and the programs are combined (ST64). If only one of the programs to be combined has an RA, the programs are combined as they are (ST64).
[0052]
FIG. 28 is a flowchart when the program including the index points is divided. First, the audio, still image, and text referred to from the music to be divided (program information, cell information) are specified by editing designation by the user or the like (ST71). Subsequently, the position where the index exists is checked (ST72). If the index is at the position of the division point (ST73, NO), the program is divided as it is (ST75). If the index is not at the position of the division point (ST73, YES), a new index point is created at the division point (ST74), and the program is divided (ST75).
[0053]
As described above, according to the present invention, handling of the following information in a plurality of Tracks (Programs) generated corresponding to one Track (Program) division in a DVD-AR is controlled.
[0054]
(A) REP_PICTI (representative image)
(B) ASVU
(C) Index
(D) RA (representative voice)
Thus, the content can be freely divided and edited at a position desired by the user, while maintaining the data structure conforming to the DVD-AR standard. As a result, a playback device that can play back content that complies with the DVD-AR standard can achieve playback compatible with divided editing.
[0055]
Further, according to the present invention, the control of the handling of the following information in one Track (Program) generated corresponding to the combination of a plurality of Tracks (Programs) in the DVD-AR is controlled.
(A) REP_PICTI (representative image)
(B) ASVU
(C) RA (representative voice)
As a result, a plurality of contents desired by the user can be freely combined and edited while maintaining a data structure conforming to the DVD-AR standard. As a result, a playback device that can play back content that conforms to the DVD-AR standard can achieve playback compatible with combined editing.
[0056]
It should be noted that the present invention is not limited to the above-described embodiment, and can be variously modified in an implementation stage without departing from the gist thereof. In addition, the embodiments may be implemented in appropriate combinations as much as possible, in which case the combined effects can be obtained. Furthermore, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriate combinations of a plurality of disclosed constituent elements. For example, even if some components are deleted from all the components shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effects described in the column of the effect of the invention can be solved. Is obtained, a configuration from which this configuration requirement is deleted can be extracted as an invention.
[0057]
【The invention's effect】
According to the present invention, an edit recording method capable of editing and recording music content having a data structure corresponding to a user's editing instruction so that music content edited by a playback device is reproduced in accordance with an editing result. And an editing recording device.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an example of a schematic configuration of an audio content information recording / reproducing apparatus.
FIG. 2 is a diagram showing an example of a data structure stored in a disc-shaped information storage medium.
FIG. 3 is a diagram showing an example of information stored in an audio management information recording area.
FIG. 4 is a diagram illustrating an example of information in an audio management information management table and a playlist information table.
FIG. 5 is a diagram showing an example of information stored in an audio file information table.
FIG. 6 is a diagram showing an example of information stored in an audio still image file information table.
FIG. 7 is a diagram illustrating an example of information stored in program chain information.
FIG. 8 is a diagram illustrating an example of a first division process.
FIG. 9 is a diagram illustrating an example of a second division process.
FIG. 10 is a diagram illustrating an example of a third division process.
FIG. 11 is a diagram illustrating an example of a fourth division process.
FIG. 12 is a diagram illustrating an example of a combining process between cells having ASVUs in both cells.
FIG. 13 is a diagram illustrating an example of division processing when a division point is specified in an RA section of a cell having a representative voice (RA).
FIG. 14 is a diagram illustrating an example of a combining process of two cells each having RA.
FIG. 15 is a diagram illustrating a relationship between a division process and an IndexPoint.
FIG. 16 is a flowchart illustrating an example of a first division process.
FIG. 17 is a flowchart illustrating an example of a second division process.
FIG. 18 is a flowchart illustrating an example of a third division process.
FIG. 19 is a diagram illustrating a change in the data structure of the audio still image unit information group corresponding to the first division processing.
FIG. 20 is a diagram showing changes in the data structures of program information and cell information corresponding to the first division processing.
FIG. 21 is a diagram illustrating a change in the data structure of an audio still image unit information group corresponding to a fourth division process.
FIG. 22 is a diagram showing changes in the data structures of program information and cell information corresponding to a fourth division process.
FIG. 23 is a flowchart illustrating an example of ASVU combining processing.
FIG. 24 is a diagram illustrating a change in the data structure of the audio still image unit information group corresponding to the combining process.
FIG. 25 is a diagram showing a change in the data structure of program information and cell information corresponding to the combining process.
FIG. 26 is a flowchart illustrating an example of a process of dividing a program including an RA.
FIG. 27 is a flowchart illustrating an example of a process of combining programs including an RA.
FIG. 28 is a flowchart showing a process of dividing a program including an index point.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Disc, 302 ... Disk drive part, 303 ... Data processor part, 304 ... Temporary storage part, 305 ... Main MPU part, 306 ... Editing function processing part, 320 ... Recording part, 330 ... Reproduction part

Claims (16)

オーディオコンテンツ情報を編集記録する方法であって、
複数のオーディオコンテンツ情報の結合指示に対応して、これら複数のオーディオコンテンツ情報の各管理情報及び各再生情報から結合対象の情報を特定し、
一つのオーディオコンテンツ情報に対して、前記特定された結合対象の情報を割り当てる、
ことを特徴とする編集記録方法。
A method for editing and recording audio content information,
In response to the combining instruction of the plurality of pieces of audio content information, the information to be combined is specified from each management information and each piece of reproduction information of the plurality of pieces of audio content information,
For one piece of audio content information, assign the information of the specified combination target,
An editing recording method characterized by the fact that:
前記複数のオーディオコンテンツ情報として、第1及び第2のプログラム情報が存在し、前記第1のプログラム情報は第1のセル情報に対応し、前記第2のプログラム情報は第2のセル情報に対応し、前記第1のセル情報は、第1の静止画像管理情報により1以上の静止画像オブジェクトに対応し、前記第2のセル情報は、第2の静止画像管理情報により1以上の静止画像オブジェクトに対応し、
前記第1及び第2のプログラム情報の結合指示に対応して、前記第1及び第2の静止画像管理情報を結合対象の情報として特定し、
前記第1及び第2の静止画像管理情報の内容を、前記第1の静止画像管理情報の内容として更新し、
前記第2の静止画像管理情報を削除し、
前記第1及び第2のセル情報の内容を、前記第1のプログラム情報に対応する前記第1のセル情報として更新し、
前記第2のプログラム情報を削除し、
前記第1のプログラム情報に対して、前記更新された前記第1の静止画像管理情報を割り当てる、
ことを特徴とする請求項1に記載の編集記録方法。
As the plurality of audio content information, there are first and second program information, wherein the first program information corresponds to first cell information, and the second program information corresponds to second cell information. The first cell information corresponds to one or more still image objects according to the first still image management information, and the second cell information corresponds to one or more still image objects according to the second still image management information. Corresponding to
In response to the combining instruction of the first and second program information, the first and second still image management information is specified as information to be combined,
Updating the contents of the first and second still image management information as the contents of the first still image management information;
Deleting the second still image management information,
Updating the contents of the first and second cell information as the first cell information corresponding to the first program information;
Deleting the second program information,
Assigning the updated first still image management information to the first program information;
The editing and recording method according to claim 1, wherein:
前記第1及び第2のプログラム情報が、共に代表音声情報を含んでいる場合、どちらか一方の代表音声情報を選択し、前記第1のプログラム情報に対して選択された代表音声情報を含ませる、
ことを特徴とする請求項2に記載の編集記録方法。
When the first and second program information both include the representative voice information, either one of the representative voice information is selected and the selected representative voice information is included in the first program information. ,
3. The editing and recording method according to claim 2, wherein:
前記オーディオコンテンツ情報として、第1のプログラム情報が存在し、前記第1のプログラム情報は第1のセル情報に対応し、前記第1のセル情報は第1の静止画像管理情報により1以上の静止画像オブジェクトに対応し、
前記第1のプログラム情報及び前記第1のセル情報を所定の分割点で分割する分割指示に対応して、前記第1の静止画像管理情報を分割対象の情報として特定し、
前記第1の静止画像管理情報により管理される1以上の静止画像オブジェクトを複製し、複製された1以上の静止画像オブジェクトを管理する第2の静止画像管理情報を生成し、
前記第1のプログラム情報及び前記第1のセル情報を所定の分割点で分割して、第1及び第2の分割プログラム情報、及びこれら第1及び第2の分割プログラム情報に対応する第1及び第2の分割セル情報とを生成し、
前記第1の分割プログラム情報及び前記第1の分割セル情報に対して前記第1の静止画像管理情報により管理される1以上の静止画像オブジェクトを割り当て、前記第2の分割プログラム情報及び前記第2の分割セル情報に対して前記第2の静止画像管理情報により管理される1以上の静止画像オブジェクトを割り当てる、
ことを特徴とする請求項1に記載の編集記録方法。
There is first program information as the audio content information, wherein the first program information corresponds to first cell information, and the first cell information is one or more still images according to the first still image management information. Corresponding to image objects,
In response to a division instruction for dividing the first program information and the first cell information at a predetermined division point, the first still image management information is specified as division target information,
Duplicating one or more still image objects managed by the first still image management information, and generating second still image management information for managing the copied one or more still image objects;
The first program information and the first cell information are divided at predetermined division points, and first and second divided program information, and first and second divided program information corresponding to the first and second divided program information are divided. Generating second divided cell information;
One or more still image objects managed by the first still image management information are assigned to the first divided program information and the first divided cell information, and the second divided program information and the second Assigning one or more still image objects managed by the second still image management information to the divided cell information of
The editing and recording method according to claim 1, wherein:
前記オーディオコンテンツ情報として、第1のプログラム情報が存在し、前記第1のプログラム情報は第1のセル情報に対応し、前記第1のセル情報は第1の静止画像管理情報により1以上の静止画像オブジェクトに対応し、
前記第1のプログラム情報及び前記第1のセル情報を所定の分割点で分割する分割指示に対応して、前記第1の静止画像管理情報を分割対象の情報として特定し、
前記第1のプログラム情報及び前記第1のセル情報を所定の分割点で分割して、第1及び第2の分割プログラム情報、及びこれら第1及び第2の分割プログラム情報に対応する第1及び第2の分割セル情報とを生成し、
前記第1の分割プログラム情報及び前記第1の分割セル情報に対して前記第1の静止画像管理情報により管理される1以上の静止画像オブジェクトを割り当てる、
ことを特徴とする請求項1に記載の編集記録方法。
There is first program information as the audio content information, wherein the first program information corresponds to first cell information, and the first cell information is one or more still images according to the first still image management information. Corresponding to image objects,
In response to a division instruction for dividing the first program information and the first cell information at a predetermined division point, the first still image management information is specified as division target information,
The first program information and the first cell information are divided at predetermined division points, and first and second divided program information, and first and second divided program information corresponding to the first and second divided program information are divided. Generating second divided cell information;
Assigning one or more still image objects managed by the first still image management information to the first divided program information and the first divided cell information;
The editing and recording method according to claim 1, wherein:
前記オーディオコンテンツ情報として、第1のプログラム情報が存在し、前記第1のプログラム情報は第1のセル情報に対応し、前記第1のセル情報は第1の静止画像管理情報により1以上の静止画像オブジェクトに対応し、
前記第1のプログラム情報及び前記第1のセル情報を所定の分割点で分割する分割指示に対応して、前記第1の静止画像管理情報を分割対象の情報として特定し、
前記所定の分割点に基づき、前記第1の静止画像管理情報により管理される1以上の静止画像オブジェクトの割り当て配分を決定し、
前記第1のプログラム情報及び前記第1のセル情報を所定の分割点で分割して、第1及び第2の分割プログラム情報、及びこれら第1及び第2の分割プログラム情報に対応する第1及び第2の分割セル情報とを生成し、
前記割り当て配分に基づき、前記第1の分割プログラム情報及び前記第1の分割セル情報、並びに前記第2の分割プログラム情報及び前記第2の分割セル情報に対して前記静止画像オブジェクトを割り当てる、
ことを特徴とする請求項1に記載の編集記録方法。
There is first program information as the audio content information, wherein the first program information corresponds to first cell information, and the first cell information is one or more still images according to the first still image management information. Corresponding to image objects,
In response to a division instruction for dividing the first program information and the first cell information at a predetermined division point, the first still image management information is specified as division target information,
Determining an allocation distribution of one or more still image objects managed by the first still image management information based on the predetermined division point;
The first program information and the first cell information are divided at predetermined division points, and first and second divided program information, and first and second divided program information corresponding to the first and second divided program information are divided. Generating second divided cell information;
Assigning the still image object to the first divided program information and the first divided cell information, and the second divided program information and the second divided cell information based on the assignment distribution;
The editing and recording method according to claim 1, wherein:
前記オーディオコンテンツ情報として、所定のプログラム情報が存在し、この所定のプログラム情報が代表音声情報を含み、この所定のプログラム情報を所定の分割点で分割する分割指示に対応して、第1及び第2の分割プログラム情報を生成するとき、第1及び第2の分割プログラム情報のうちの前記代表音声情報の開始点を含む分割プログラム情報中に前記代表音声情報を割り当てる、
こをと特徴とする請求項1に記載の編集記録方法。
As the audio content information, there is predetermined program information, the predetermined program information includes representative audio information, and the first and second program information correspond to division instructions for dividing the predetermined program information at predetermined division points. When generating the second divided program information, the representative audio information is assigned to the divided program information including the starting point of the representative audio information among the first and second divided program information,
2. The editing and recording method according to claim 1, wherein:
前記オーディオコンテンツ情報として、所定のプログラム情報が存在し、この所定のプログラム情報を所定の分割点で分割する分割指示に対応して、分割点にインデックス情報を割り当てて、第1及び第2の分割プログラム情報を生成する、
こをと特徴とする請求項1に記載の編集記録方法。
Predetermined program information exists as the audio content information, and index information is assigned to the division point in accordance with a division instruction for dividing the predetermined program information at a predetermined division point. Generate program information,
2. The editing and recording method according to claim 1, wherein:
オーディオコンテンツ情報を編集記録する装置であって、
オーディオコンテンツ情報を取得する取得手段と、
前記取得手段により取得された前記オーディオコンテンツ情報を編集記録する編集記録手段と、
を備え、
前記編集記録手段は、
複数のオーディオコンテンツ情報の結合指示に対応して、これら複数のオーディオコンテンツ情報の各管理情報及び各再生情報から結合対象の情報を特定し、一つのオーディオコンテンツ情報に対して、前記特定された結合対象の情報を割り当てる、
ことを特徴とする編集記録装置。
An apparatus for editing and recording audio content information,
Acquisition means for acquiring audio content information;
Edit recording means for editing and recording the audio content information obtained by the obtaining means,
With
The edit recording means,
In response to an instruction to combine a plurality of pieces of audio content information, information to be combined is specified from each of the management information and each piece of reproduction information of the plurality of pieces of audio content information. Assign the information of interest,
An edit recording device characterized by the above-mentioned.
前記複数のオーディオコンテンツ情報として、第1及び第2のプログラム情報が存在し、前記第1のプログラム情報は第1のセル情報に対応し、前記第2のプログラム情報は第2のセル情報に対応し、前記第1のセル情報は、第1の静止画像管理情報により1以上の静止画像オブジェクトに対応し、前記第2のセル情報は、第2の静止画像管理情報により1以上の静止画像オブジェクトに対応し、
前記編集記録手段は、
前記第1及び第2のプログラム情報の結合指示に対応して、前記第1及び第2の静止画像管理情報を結合対象の情報として特定し、
前記第1及び第2の静止画像管理情報の内容を、前記第1の静止画像管理情報の内容として更新し、
前記第2の静止画像管理情報を削除し、
前記第1及び第2のセル情報の内容を、前記第1のプログラム情報に対応する前記第1のセル情報として更新し、
前記第2のプログラム情報を削除し、
前記第1のプログラム情報に対して、前記更新された前記第1の静止画像管理情報を割り当てる、
ことを特徴とする請求項9に記載の編集記録装置。
As the plurality of audio content information, there are first and second program information, wherein the first program information corresponds to first cell information, and the second program information corresponds to second cell information. The first cell information corresponds to one or more still image objects according to the first still image management information, and the second cell information corresponds to one or more still image objects according to the second still image management information. Corresponding to
The edit recording means,
In response to the combining instruction of the first and second program information, the first and second still image management information is specified as information to be combined,
Updating the contents of the first and second still image management information as the contents of the first still image management information;
Deleting the second still image management information,
Updating the contents of the first and second cell information as the first cell information corresponding to the first program information;
Deleting the second program information,
Assigning the updated first still image management information to the first program information;
10. The editing and recording apparatus according to claim 9, wherein:
前記編集記録手段は、前記第1及び第2のプログラム情報が共に代表音声情報を含んでいる場合、どちらか一方の代表音声情報を選択し、前記第1のプログラム情報に対して選択された代表音声情報を含ませる、
ことを特徴とする請求項10に記載の編集記録装置。
When the first and second program information both include the representative audio information, the editing and recording means selects one of the representative audio information and selects the representative audio information selected for the first program information. Include audio information,
The editing and recording device according to claim 10, wherein:
前記オーディオコンテンツ情報として、第1のプログラム情報が存在し、前記第1のプログラム情報は第1のセル情報に対応し、前記第1のセル情報は第1の静止画像管理情報により1以上の静止画像オブジェクトに対応し、
前記編集記録手段は、
前記第1のプログラム情報及び前記第1のセル情報を所定の分割点で分割する分割指示に対応して、前記第1の静止画像管理情報を分割対象の情報として特定し、
前記第1の静止画像管理情報により管理される1以上の静止画像オブジェクトを複製し、複製された1以上の静止画像オブジェクトを管理する第2の静止画像管理情報を生成し、
前記第1のプログラム情報及び前記第1のセル情報を所定の分割点で分割して、第1及び第2の分割プログラム情報、及びこれら第1及び第2の分割プログラム情報に対応する第1及び第2の分割セル情報とを生成し、
前記第1の分割プログラム情報及び前記第1の分割セル情報に対して前記第1の静止画像管理情報により管理される1以上の静止画像オブジェクトを割り当て、前記第2の分割プログラム情報及び前記第2の分割セル情報に対して前記第2の静止画像管理情報により管理される1以上の静止画像オブジェクトを割り当てる、
ことを特徴とする請求項9に記載の編集記録装置。
There is first program information as the audio content information, wherein the first program information corresponds to first cell information, and the first cell information is one or more still images according to the first still image management information. Corresponding to image objects,
The edit recording means,
In response to a division instruction for dividing the first program information and the first cell information at a predetermined division point, the first still image management information is specified as division target information,
Duplicating one or more still image objects managed by the first still image management information, and generating second still image management information for managing the copied one or more still image objects;
The first program information and the first cell information are divided at predetermined division points, and first and second divided program information, and first and second divided program information corresponding to the first and second divided program information are divided. Generating second divided cell information;
One or more still image objects managed by the first still image management information are assigned to the first divided program information and the first divided cell information, and the second divided program information and the second Assigning one or more still image objects managed by the second still image management information to the divided cell information of
10. The editing and recording apparatus according to claim 9, wherein:
前記オーディオコンテンツ情報として、第1のプログラム情報が存在し、前記第1のプログラム情報は第1のセル情報に対応し、前記第1のセル情報は第1の静止画像管理情報により1以上の静止画像オブジェクトに対応し、
前記編集記録手段は、
前記第1のプログラム情報及び前記第1のセル情報を所定の分割点で分割する分割指示に対応して、前記第1の静止画像管理情報を分割対象の情報として特定し、
前記第1のプログラム情報及び前記第1のセル情報を所定の分割点で分割して、第1及び第2の分割プログラム情報、及びこれら第1及び第2の分割プログラム情報に対応する第1及び第2の分割セル情報とを生成し、
前記第1の分割プログラム情報及び前記第1の分割セル情報に対して前記第1の静止画像管理情報により管理される1以上の静止画像オブジェクトを割り当てる、
ことを特徴とする請求項9に記載の編集記録装置。
There is first program information as the audio content information, wherein the first program information corresponds to first cell information, and the first cell information is one or more still images according to the first still image management information. Corresponding to image objects,
The edit recording means,
In response to a division instruction for dividing the first program information and the first cell information at a predetermined division point, the first still image management information is specified as division target information,
The first program information and the first cell information are divided at predetermined division points, and first and second divided program information, and first and second divided program information corresponding to the first and second divided program information are divided. Generating second divided cell information;
Assigning one or more still image objects managed by the first still image management information to the first divided program information and the first divided cell information;
10. The editing and recording apparatus according to claim 9, wherein:
前記オーディオコンテンツ情報として、第1のプログラム情報が存在し、前記第1のプログラム情報は第1のセル情報に対応し、前記第1のセル情報は第1の静止画像管理情報により1以上の静止画像オブジェクトに対応し、
前記編集記録手段は、
前記第1のプログラム情報及び前記第1のセル情報を所定の分割点で分割する分割指示に対応して、前記第1の静止画像管理情報を分割対象の情報として特定し、
前記所定の分割点に基づき、前記第1の静止画像管理情報により管理される1以上の静止画像オブジェクトの割り当て配分を決定し、
前記第1のプログラム情報及び前記第1のセル情報を所定の分割点で分割して、第1及び第2の分割プログラム情報、及びこれら第1及び第2の分割プログラム情報に対応する第1及び第2の分割セル情報とを生成し、
前記割り当て配分に基づき、前記第1の分割プログラム情報及び前記第1の分割セル情報、並びに前記第2の分割プログラム情報及び前記第2の分割セル情報に対して前記静止画像オブジェクトを割り当てる、
ことを特徴とする請求項9に記載の編集記録装置。
There is first program information as the audio content information, wherein the first program information corresponds to first cell information, and the first cell information is one or more still images according to the first still image management information. Corresponding to image objects,
The edit recording means,
In response to a division instruction for dividing the first program information and the first cell information at a predetermined division point, the first still image management information is specified as division target information,
Determining an allocation distribution of one or more still image objects managed by the first still image management information based on the predetermined division point;
The first program information and the first cell information are divided at predetermined division points, and first and second divided program information, and first and second divided program information corresponding to the first and second divided program information are divided. Generating second divided cell information;
Assigning the still image object to the first divided program information and the first divided cell information, and the second divided program information and the second divided cell information based on the assignment distribution;
10. The editing and recording apparatus according to claim 9, wherein:
前記オーディオコンテンツ情報として、所定のプログラム情報が存在し、この所定のプログラム情報が代表音声情報を含むとき、
前記編集記録手段は、この所定のプログラム情報を所定の分割点で分割する分割指示に対応して、第1及び第2の分割プログラム情報を生成するとき、第1及び第2の分割プログラム情報のうちの前記代表音声情報の開始点を含む分割プログラム情報中に前記代表音声情報を割り当てる、
ことを特徴とする請求項9に記載の編集記録装置。
As the audio content information, there is predetermined program information, and when the predetermined program information includes representative audio information,
When generating the first and second divided program information in response to the division instruction for dividing the predetermined program information at a predetermined division point, the editing and recording means includes the first and second divided program information. Allocating the representative voice information in the divided program information including the start point of the representative voice information,
10. The editing and recording apparatus according to claim 9, wherein:
前記オーディオコンテンツ情報として、所定のプログラム情報が存在するとき、
前記編集記録手段は、この所定のプログラム情報を所定の分割点で分割する分割指示に対応して、分割点にインデックス情報を割り当てて、第1及び第2の分割プログラム情報を生成する、
こをと特徴とする請求項9に記載の編集記録装置。
When predetermined program information is present as the audio content information,
The editing and recording means generates first and second divided program information by assigning index information to the division points in response to a division instruction for dividing the predetermined program information at predetermined division points.
10. The editing and recording apparatus according to claim 9, wherein:
JP2003120096A 2003-04-24 2003-04-24 Editing recording method and editing recording device Pending JP2004326925A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003120096A JP2004326925A (en) 2003-04-24 2003-04-24 Editing recording method and editing recording device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003120096A JP2004326925A (en) 2003-04-24 2003-04-24 Editing recording method and editing recording device

Publications (1)

Publication Number Publication Date
JP2004326925A true JP2004326925A (en) 2004-11-18

Family

ID=33499119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003120096A Pending JP2004326925A (en) 2003-04-24 2003-04-24 Editing recording method and editing recording device

Country Status (1)

Country Link
JP (1) JP2004326925A (en)

Similar Documents

Publication Publication Date Title
JP4489248B2 (en) Optical disk, apparatus and method for recording / reproducing data on / from optical disk
KR100750711B1 (en) Recording medium, system for recording and reproducing the recording medium, recording method and reproducing method
JPH11296997A (en) Information recording medium and reproducing device
JPH11296998A (en) Information recording medium and reproducing device
JP2000222822A5 (en) Recording medium and recording device and playback device, recording method and playback method
US6396781B2 (en) Audio information recording medium and audio information reproducing apparatus
EP1713268A1 (en) Data broadcast recording/reproducing method, device, and recording medium
JP3821020B2 (en) Recording method, recording apparatus, recording medium, reproducing apparatus, transmission method, and computer program
JP2004326925A (en) Editing recording method and editing recording device
JP2004030799A (en) Method and equipment for recording text data and audio disk, computer program and playback equipment of audio disk
JP2007026664A (en) Reproduction system which reproduces video and audio from optical disk, its reproduction method and recording method of optical disk
JP2007026659A (en) Reproduction system which reproduces video and audio from optical disk, its reproduction method and recording method of optical disk
JP2002042451A (en) Audio data recording and reproducing disk, device and method for reproducing the disk, and recording method
US20020048255A1 (en) Audio data recording disc
JP3906252B2 (en) Reproduction system for reproducing video and audio from an optical disc, its reproduction method, and optical disc recording method
JP3930547B2 (en) Reproduction system for reproducing video from optical disc, its reproduction method, and optical disc recording method
JP2006277923A (en) Reproduction system for reproducing video and audio from optical disk, its reproducing method and recording method of the optical disk
KR20010076999A (en) Method for managing audio data and additional data on rewritable medium
JP2007026663A (en) Reproduction system which reproduces video and audio from optical disk, its reproduction method and recording method of optical disk
JP2005100624A (en) Information storage medium with voice related information recorded thereon, and apparatus and method for recording and reproducing voice related information
JP2003151217A (en) Information recording medium and reproducing device
JP2006277922A (en) Reproduction system for reproducing video and audio from optical disk, its reproducing method and recording method of the optical disk
JP2004005967A (en) Information recording medium, and its reproducing device and method
JP2006331640A (en) Reproducing system which reproduces video and audio from optical disk, its reproducing method, and recording method of optical disk
JP2007026666A (en) Reproduction system to reproduce video and audio signal from optical disk, its method, and optical disk recording method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070710