JP2018129782A - Video recording/reproducing apparatus - Google Patents

Video recording/reproducing apparatus Download PDF

Info

Publication number
JP2018129782A
JP2018129782A JP2017098366A JP2017098366A JP2018129782A JP 2018129782 A JP2018129782 A JP 2018129782A JP 2017098366 A JP2017098366 A JP 2017098366A JP 2017098366 A JP2017098366 A JP 2017098366A JP 2018129782 A JP2018129782 A JP 2018129782A
Authority
JP
Japan
Prior art keywords
data
video
recording
time
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017098366A
Other languages
Japanese (ja)
Other versions
JP2018129782A5 (en
JP6964436B2 (en
Inventor
孝介 八木
Kosuke Yagi
孝介 八木
伸夫 竹下
Nobuo Takeshita
伸夫 竹下
島田 昌明
Masaaki Shimada
昌明 島田
智 岸上
Satoshi Kishigami
智 岸上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2018129782A publication Critical patent/JP2018129782A/en
Publication of JP2018129782A5 publication Critical patent/JP2018129782A5/en
Application granted granted Critical
Publication of JP6964436B2 publication Critical patent/JP6964436B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To realize a video recording system capable of recording a program of MMT system by a simple system.SOLUTION: A video recording/reproducing apparatus (100) includes a tuner/demodulation section (11), a multiplexing/demultiplexing section (21), decode sections (31, 32, 33, 34) and a recording/reproducing control section (41). The tuner/demodulation section (11)receives broadcast waves (Ba). The multiplexing/demultiplexing section (21) demultiplexes a multiplexed stream (Sm) of the broadcast waves (Ba). The decode sections (31, 32, 33, 34) decompress the compressed data of the demultiplexed multiplexed stream (Sm). The recording/reproducing control section (41)collects video data or control information for recording from the data decompressed in the decode sections (31, 32, 33, 34). When recording the video data contained in the broadcast waves (Ba) using MMT system, the video recording/reproducing apparatus (100) records as a video data coupling the packet data.SELECTED DRAWING: Figure 1

Description

本発明は映像記録再生装置に関する。   The present invention relates to a video recording / reproducing apparatus.

近年、映像圧縮技術または放送波の変調技術の進歩に伴い、各国で新しいテレビ放送方式の導入が検討されている。新しい方式によって、伝送効率が向上する。このため、これまでと同じ電波帯域を用いて、より高品質な映像を放送することが可能になる。また、これまでと同じ品質の映像を、より狭い電波帯域で放送することも可能である。新しい方式の導入に伴い、ネットワークとの連携が検討されている。また、受信機に蓄積されて動作するアプリケーションまたはコンテンツなども検討されている。   In recent years, with the progress of video compression technology or broadcast wave modulation technology, introduction of a new television broadcasting system is being studied in each country. The new scheme improves transmission efficiency. For this reason, it becomes possible to broadcast higher quality video using the same radio wave band as before. It is also possible to broadcast video of the same quality as before in a narrower radio band. Along with the introduction of a new method, cooperation with the network is being studied. In addition, an application or content that is stored in a receiver and operates is also being studied.

テレビ放送を録画する方式は、通常のテレビ放送方式と密接に関係している。新しいテレビ放送方式が採用された場合には、新しいテレビ放送方式の番組を、そのまま録画することはできない。そのため、テレビ放送方式が変更される際には、録画方式も新しい放送方式に対応した方式に変更する必要がある。   The system for recording TV broadcasts is closely related to the normal TV broadcast system. When a new television broadcasting system is adopted, a new television broadcasting system program cannot be recorded as it is. Therefore, when the television broadcasting system is changed, it is necessary to change the recording system to a system corresponding to the new broadcasting system.

特に、可換型記録メディアを使用する場合には,他の再生装置との互換性も含めて考慮する必要がある。可換型記録メディアは、例えば、DVD(登録商標:Digital Versatile Disc)またはブルーレイディスク(登録商標:BLU−RAY DISC)などである。   In particular, when a replaceable recording medium is used, it is necessary to consider compatibility with other playback devices. The replaceable recording medium is, for example, a DVD (registered trademark: Digital Versatile Disc) or a Blu-ray disc (registered trademark: BLU-RAY DISC).

現在採用されている録画方式では、新しいテレビ放送方式をそのまま記録することは困難である。このため、新しいテレビ放送方式に対応した録画方式が必要となっている。   It is difficult to record a new television broadcasting system as it is with the currently used recording system. For this reason, a recording system corresponding to a new television broadcasting system is required.

例えば、特許文献1には、BDAV方式を用いたテレビ放送の記録方式、大容量になる記録データを分割記録する方法および大容量になる記録データにアクセスする方法が記載されている。また、圧縮された映像データと音声データとを、MPEG2TSに格納して記録する方法が記載されている。また、MPEG2TSで送信されたテレビ放送を受信して、MPEG2TSの形式で記録する方法が記載されている。   For example, Patent Document 1 describes a television broadcast recording method using the BDAV method, a method for dividing and recording large-volume recording data, and a method for accessing large-volume recording data. In addition, a method is described in which compressed video data and audio data are stored and recorded in MPEG2TS. In addition, a method is described in which a television broadcast transmitted in MPEG2TS is received and recorded in the MPEG2TS format.

WO2006/030767(0021段〜0105段、図1〜図21)WO 2006/030767 (0021 to 0105, FIGS. 1 to 21)

しかしながら、特許文献1に記載された記録方式では、MPEG2TS形式のコンテナフォーマットのみに対応しており、新しいテレビ放送方式で採用予定であるMMT形式の放送を記録することが出来ない。   However, the recording system described in Patent Document 1 supports only the MPEG2TS format container format and cannot record the MMT format broadcast that is planned to be adopted in the new television broadcasting format.

本発明は、これらの問題を鑑みて、MMT形式の放送を記録する方法を提供するものである。   In view of these problems, the present invention provides a method for recording a broadcast in MMT format.

本発明に係る映像記録再生装置は、放送波を受け取るチューナー・復調部と、前記放送波の多重化ストリームの多重化を解除する多重化解除部と、前記多重化ストリームの多重化が解除された圧縮データを伸長するデコード部と、前記デコード部で伸長されたデータから記録するための映像データまたは制御情報を収集する記録再生制御部とを備え、MMT形式を用いた前記放送波に含まれた映像データを記録する際に、パケットデータを結合した映像データとして記録することを特徴とする。   A video recording / reproducing apparatus according to the present invention includes a tuner / demodulator that receives broadcast waves, a demultiplexer that demultiplexes the multiplexed stream of broadcast waves, and the multiplexed stream is demultiplexed. A decoding unit that decompresses compressed data; and a recording / playback control unit that collects video data or control information for recording from the data decompressed by the decoding unit, and is included in the broadcast wave using the MMT format When the video data is recorded, it is recorded as video data obtained by combining packet data.

本発明に係る映像記録方式は、MMT方式の番組を簡易な方式で記録できる。   The video recording method according to the present invention can record an MMT program by a simple method.

実施の形態1に係る映像記録再生装置100の構成図である。1 is a configuration diagram of a video recording / reproducing apparatus 100 according to Embodiment 1. FIG. 多重化解除手順を説明する図である。It is a figure explaining the demultiplexing procedure. データの論理構造を示した図である。It is the figure which showed the logical structure of data. TLVパケットを結合して記録した場合の模式図である。It is a schematic diagram at the time of combining and recording a TLV packet. パケットの選択と時間の同期とを説明する概念図である。It is a conceptual diagram explaining packet selection and time synchronization. MMTP方式でのMPUタイムスタンプ記述子を用いた同期方式を説明する図である。It is a figure explaining the synchronous system using the MPU time stamp descriptor in a MMTP system. タイムテーブルを作成する手順を示すフローチャートである。It is a flowchart which shows the procedure which produces a time table. フレーム単位の時刻で検索できるタイムテーブルを示す図である。It is a figure which shows the time table which can be searched by the time of a frame unit. MMTP方式でのMPUタイムスタンプ記述子を用いた同期方式を説明する図である。It is a figure explaining the synchronous system using the MPU time stamp descriptor in a MMTP system. BMFFとしてストリームデータを記録した場合の説明図である。It is explanatory drawing at the time of recording stream data as BMFF. 実施の形態2に係るMMTP方式でのMPTによる多重化解除の説明図である。10 is an explanatory diagram of demultiplexing by MPT in the MMTP scheme according to Embodiment 2. FIG. タイムテーブルと映像データの関係の説明図である。It is explanatory drawing of the relationship between a time table and video data. MMTP方式でのMPTデータ構造の例である。It is an example of the MPT data structure in a MMTP system. 映像を中心に考えた場合のアライメントの説明図である。It is explanatory drawing of the alignment at the time of thinking centering on an image | video. 実施の形態3に係る映像ストリームの模式図である。10 is a schematic diagram of a video stream according to Embodiment 3. FIG. 画像の分割を示した図である。It is the figure which showed the division | segmentation of an image. 画像の分割を示した図である。It is the figure which showed the division | segmentation of an image. 分割スライスセグメントに対応したタイムテーブルの図である。It is a figure of the time table corresponding to a division | segmentation slice segment. タイムテーブルの各項目とデータ上との対応を示す図である。It is a figure which shows a response | compatibility with each item of a time table, and data. 早送り再生の説明図である。It is explanatory drawing of fast-forward reproduction | regeneration. 変形例1に係る早送り再生の説明図である。It is explanatory drawing of the fast-forward reproduction | regeneration which concerns on the modification 1. FIG. 画像の更新の順番の説明図である。It is explanatory drawing of the order of the update of an image. 画像の更新の順番の説明図である。It is explanatory drawing of the order of the update of an image. 変形例2に係るタイムテーブルの図である。It is a figure of the time table concerning the modification 2. 早送り再生の説明図である。It is explanatory drawing of fast-forward reproduction | regeneration.

テレビ放送の楽しみ方の1つとして、テレビ放送の番組を録画(記録)して、後日、再生して視聴することは、従来から行われてきた。録画の楽しみ方は、大きく分けて2種類ある。1つは、「タイムシフト」と呼ばれるものである。タイムシフトは、放送が行われている時間に番組を視聴することができない場合に、番組を録画しておき、後で番組を再生するものである。他は、「アーカイブ」と呼ばれるものである。アーカイブは、番組を録画して、保管しておくものである。そのため、録画した番組を、いつでも見ることができる。   As one of the ways to enjoy television broadcasting, it has been conventionally performed to record (record) a television broadcast program and to reproduce and view it later. There are two main ways to enjoy recording. One is called “time shift”. In the time shift, when the program cannot be viewed at the time when broadcasting is performed, the program is recorded and the program is reproduced later. Others are called “archives”. An archive is a program that is recorded and stored. Therefore, the recorded program can be viewed at any time.

タイムシフトを利用する場合には、番組を録画した後に、短期間で利用が終了する事が多い。一方、アーカイブを利用する場合には、番組を録画した後に、長期間保存して利用されることが多い。   In the case of using time shift, after recording a program, the use is often completed in a short period of time. On the other hand, when an archive is used, it is often used after recording a program for a long period of time.

テレビ放送以外にも、利用者自身が撮影した映像を記録することも行われている。家庭用ビデオカメラなどで撮影された映像データを、光ディスク又はハードディスク等に記録して保管する。   In addition to television broadcasts, video taken by users themselves is also recorded. Video data shot by a home video camera or the like is recorded and stored on an optical disk or a hard disk.

最近では、ネットワークなどで収集した映像を記録することもある。また、家庭での録画以外にも、美術館、博物館またはデジタル・サイネージにおいても、録画された映像が使用されている。「デジタル・サイネージ」とは、表示と通信とにデジタル技術を活用して、平面ディスプレイ又はプロジェクタなどによって、映像または情報を表示する広告媒体である。   Recently, video collected on a network or the like may be recorded. In addition to recording at home, recorded images are also used in art museums, museums, and digital signage. “Digital signage” is an advertising medium that uses a digital technology for display and communication to display video or information on a flat display or projector.

映画などの市販コンテンツとしては、コンテンツを記録した読み出し専用のDVDまたはブルーレイディスクなどがある。最近では、パッケージ入りの光ディスクの他に、ネットワーク経由でダウンロードを行うコンテンツのサービスも増えている。   Commercial content such as movies includes a read-only DVD or Blu-ray disc on which the content is recorded. Recently, in addition to optical discs with packages, content services that are downloaded via a network are increasing.

放送されたコンテンツを記録するフォーマットと、市販されているコンテンツの記録フォーマットとは、異なることがある。たとえば、ブルーレイディスクの場合には、2種類のフォーマットを規定している。第1に、BDAVは、放送されたコンテンツの記録用フォーマットである。BDAVは、放送波をそのまま記録することができる。第2に、BDMVは、市販されているコンテンツ向けのフォーマットである。BDMVは、高度な再生制御機能を持っている。また、AVCHDは、カメラ等で用いられるHDDまたはメモリーカードなどに映像を記録する場合に用いられている。AVCHDは、BDMVを基にして変更が加えられている。   The format for recording broadcast content may differ from the recording format for commercially available content. For example, in the case of a Blu-ray disc, two types of formats are defined. First, BDAV is a format for recording broadcast content. BDAV can record broadcast waves as they are. Second, BDMV is a commercially available content format. BDMV has an advanced playback control function. AVCHD is used when recording video on an HDD or a memory card used in a camera or the like. AVCHD has been modified based on BDMV.

テレビ放送では、従来方式の4倍の解像度を持つ4K映像に対応したウルトラハイビジョン方式の導入が予定されている。また、さらに高品質な8K映像の放送も検討されている。同様に、北米地域または欧州地域でも、それぞれ現在の放送方式を拡張する形で、新しいテレビ放送方式の導入が検討されている。   In television broadcasting, the introduction of an ultra high-definition system that supports 4K video with a resolution four times that of the conventional system is planned. In addition, higher quality 8K video broadcasting is also being studied. Similarly, introduction of a new television broadcasting system is being studied in the North American region or the European region in a manner that expands the current broadcasting method.

地域ごとに差異はあるが、従来のテレビ放送方式は、映像圧縮方式としてMPEG2またはAVC(h.264)を採用している。また、従来のテレビ放送方式は、多重化方式としてMPEG2TSを採用していた。MPEG2TSは、放送という単一の伝送路を前提としており、映像または音声などを放送局が1つにまとめて送る形となっている。MPEG2TSでは伝送単位として同期マーク付きの固定長パケット方式が採用されている。そのため、録画方式でもMPEG2TSを記録する方式が採用されることが多い。   Although there are differences depending on regions, the conventional television broadcasting system adopts MPEG2 or AVC (h.264) as a video compression system. Further, the conventional television broadcasting system employs MPEG2TS as a multiplexing system. MPEG2TS is premised on a single transmission path of broadcasting, and is configured such that a broadcast station sends video or audio together. MPEG2TS employs a fixed-length packet system with a synchronization mark as a transmission unit. For this reason, a system for recording MPEG2TS is often adopted as a recording system.

一方、新しいテレビ放送方式では、映像圧縮方式としてMPEG2、AVCまたはHEVC(h.265)を取り入れる規格が多い。HEVC(High Efficiency Video Coding)は、同一の画質で比べた場合には、圧縮効率がMPEG2の4倍であり、AVCの2倍である。HEVCは、高画質化または狭帯域化を目指す新しいテレビ放送方式に必要な圧縮技術である。   On the other hand, in the new television broadcasting system, there are many standards that incorporate MPEG2, AVC, or HEVC (h.265) as a video compression system. In HEVC (High Efficiency Video Coding), when compared with the same image quality, the compression efficiency is four times that of MPEG2 and twice that of AVC. HEVC is a compression technique necessary for a new television broadcasting system aiming at high image quality or narrow band.

また、新しいテレビ放送方式では、ネットワーク技術との整合性を重視している。そのため、新しいテレビ放送方式では、多重化方式として、MMT(MPEG Media Transport)の採用が検討されている。MMTは、複数の伝送路で情報を提供できる方式で、映像または音声などを別々に伝送し、受信機がそれらを選択して受信できる。また、MMTは、可変長パケットを採用している。また、受信状況に応じて、再生する映像ストリームを変更する方式も検討されている。   Also, in the new television broadcasting system, importance is attached to consistency with network technology. Therefore, in a new television broadcasting system, adoption of MMT (MPEG Media Transport) is considered as a multiplexing system. MMT is a method that can provide information through a plurality of transmission paths, and separately transmits video or audio, and the receiver can select and receive them. The MMT employs variable length packets. In addition, a method of changing a video stream to be reproduced according to the reception status is also being studied.

上述のように、現在採用されている録画方式では、新しいテレビ放送方式をそのまま記録することは困難である。このため、新しいテレビ放送方式に対応した録画方式が必要となっている。   As described above, it is difficult to record a new television broadcasting system as it is in the currently employed recording system. For this reason, a recording system corresponding to a new television broadcasting system is required.

ここで、新しく記録方式を作る場合には、いくつかのアプローチが考えられる。   Here, when creating a new recording method, several approaches can be considered.

第1に、新しい放送方式を完全に従来方式の映像に変換して記録する方法である。この場合には、記録方式の変更は必要なく、従来の再生装置との互換もとれる。しかし、高画質などの新しい方式のメリットを受けることはできない。   First, a new broadcasting system is completely converted into a conventional video and recorded. In this case, it is not necessary to change the recording method, and compatibility with a conventional reproducing apparatus can be obtained. However, it cannot take advantage of new methods such as high image quality.

第2に、従来の録画方式をできるだけ踏襲して、テレビ放送の情報の中心となる映像と音声とを新しい方式に変換して記録する方法である。この場合には、映像と音声とに関しては、新しい方式のメリットを受けることができる。しかし、字幕またはデータ放送などを楽しむことはできない。   Second, the conventional recording system is followed as much as possible, and video and audio, which are the center of information of television broadcasting, are converted into a new system and recorded. In this case, the merit of the new method can be received for video and audio. However, subtitles or data broadcasting cannot be enjoyed.

第3に、新しい放送方式の番組データをそのまま記録する方式である。ネットワークサービスなど外部に依存する部分を除けば、新しい方式のメリットの多くを利用することができる。   Thirdly, a new broadcast system program data is recorded as it is. Except for externally dependent parts such as network services, many of the benefits of the new method can be used.

実施の形態1.
図1は、実施の形態1に係る映像記録再生装置100の構成図である。
Embodiment 1 FIG.
FIG. 1 is a configuration diagram of a video recording / reproducing apparatus 100 according to the first embodiment.

録画再生装置100は、チューナー・復調部11と多重化解除部21および記録再生制御部41を備えている。なお、以下の実施の形態では、録画再生装置として説明するが、再生部分を含まない録画装置とすることができる。   The recording / playback apparatus 100 includes a tuner / demodulation unit 11, a demultiplexing unit 21, and a recording / playback control unit 41. In the following embodiments, a recording / playback apparatus will be described. However, a recording apparatus that does not include a playback portion can be used.

録画再生装置100は、映像デコード部32、音声デコード部31、字幕デコード・レンダリング部33またはデータ放送・EPG処理部34を備える。なお、デコード部は、映像デコード部32、音声デコード部31、字幕デコード・レンダリング部33またはデータ放送・EPG処理部34を含む。   The recording / playback apparatus 100 includes a video decoding unit 32, an audio decoding unit 31, a caption decoding / rendering unit 33, or a data broadcast / EPG processing unit 34. The decoding unit includes a video decoding unit 32, an audio decoding unit 31, a caption decoding / rendering unit 33, or a data broadcasting / EPG processing unit 34.

また、録画再生装置100は、内蔵記録装置51または光ディスクドライブ52を備えることができる。   Further, the recording / reproducing apparatus 100 can include a built-in recording apparatus 51 or an optical disc drive 52.

また、録画再生装置100は、外部入力部12またはネットワーク部13を備えることができる。外部入力部12およびネットワーク部13は、外部からの信号入力を受け取る機能を有している。また、チューナー・復調部11も、外部からの信号入力を受け取る機能を有している。   In addition, the recording / playback apparatus 100 can include an external input unit 12 or a network unit 13. The external input unit 12 and the network unit 13 have a function of receiving an external signal input. The tuner / demodulator 11 also has a function of receiving an external signal input.

<録画再生装置100の構成>
チューナー・復調部11は、放送波Baを受け取る。そして、チューナー・復調部11は、受け取った放送波Baを復調する。外部入力部12は、外部の装置Eiからデータを受け取る。外部の装置は、例えば、ビデオカメラなどの録画装置である。なお、「データ」は、映像データ、音声データ、字幕データ、データ放送のデータまたは制御情報などを含む。
<Configuration of recording / playback apparatus 100>
The tuner / demodulator 11 receives the broadcast wave Ba. Then, the tuner / demodulator 11 demodulates the received broadcast wave Ba. The external input unit 12 receives data from an external device Ei. The external device is a recording device such as a video camera, for example. The “data” includes video data, audio data, caption data, data broadcast data, control information, and the like.

ネットワーク部13は、ネットワークNeからデータを受け取る。ネットワークNeは、例えば、複数のコンピュータまたは電子機器などを繋いで、信号、データまたは情報をやりとりすることができるコンピュータネットワークまたは通信ネットワークである。   The network unit 13 receives data from the network Ne. The network Ne is a computer network or a communication network that can exchange signals, data, or information by connecting a plurality of computers or electronic devices, for example.

多重化解除部21は、多重化ストリームSmの多重化を解除する。つまり、多重化解除部21は、多重化ストリームSmから、各種のデータを分けて取り出す。   The demultiplexing unit 21 demultiplexes the multiplexed stream Sm. That is, the demultiplexing unit 21 separately extracts various data from the multiplexed stream Sm.

音声デコード部31は、圧縮された音声データを伸長する。音声デコード部31は、エレメンタリーストリームSeに含まれる圧縮された音声データを伸長する。   The audio decoding unit 31 expands the compressed audio data. The audio decoding unit 31 expands the compressed audio data included in the elementary stream Se.

映像デコード部32は、圧縮された映像データを伸長する。映像デコード部32は、エレメンタリーストリームSeに含まれる圧縮された映像データを伸長する。   The video decoding unit 32 expands the compressed video data. The video decoding unit 32 expands the compressed video data included in the elementary stream Se.

字幕デコード・レンダリング部33は、圧縮された字幕データを伸長する。字幕デコード・レンダリング部33は、エレメンタリーストリームSeに含まれる圧縮された字幕データを伸長する。   The caption decoding / rendering unit 33 decompresses the compressed caption data. The caption decoding / rendering unit 33 decompresses the compressed caption data included in the elementary stream Se.

データ放送・EPG処理部34は、圧縮されたデータ放送のデータを伸長する。データ放送・EPG処理部34は、エレメンタリーストリームSeに含まれる圧縮されたデータ放送のデータを伸長する。   The data broadcast / EPG processing unit 34 decompresses the compressed data broadcast data. The data broadcast / EPG processing unit 34 decompresses the compressed data broadcast data included in the elementary stream Se.

記録再生制御部41は、記録用の映像データ、音声データまたは制御情報などを収集する。記録再生制御部41は、収集したデータを記録用のデータフォーマットに変換する。   The recording / playback control unit 41 collects video data, audio data, or control information for recording. The recording / playback control unit 41 converts the collected data into a data format for recording.

内蔵記録装置51は、録画再生装置100に備えられた記録装置である。内蔵記録装置51は、例えば、ハードディスクドライブ、揮発性メモリまたは不揮発性メモリ等である。   The built-in recording device 51 is a recording device provided in the recording / playback device 100. The built-in recording device 51 is, for example, a hard disk drive, a volatile memory, or a nonvolatile memory.

光ディスクドライブ52は、光ディスク53にデータを記録する。また、光ディスクドライブ52は、光ディスク53からデータを読み出す。光ディスク53は、例えば、ブルーレイディスクまたはDVDなどである。   The optical disc drive 52 records data on the optical disc 53. The optical disk drive 52 reads data from the optical disk 53. The optical disc 53 is, for example, a Blu-ray disc or a DVD.

<データを記録しない場合のデータ処理の流れ>
まず、放送番組を記録せずに、テレビに表示する場合の流れを説明する。つまり、放送波を一例として、放送波の受信から映像および音声の出力までについて説明する。テレビは、図1では、表示装置Ddおよび音響装置Esである。
<Data processing flow when no data is recorded>
First, the flow when displaying a broadcast program on a television without recording it will be described. That is, a broadcast wave is taken as an example to describe the process from receiving a broadcast wave to outputting video and audio. In FIG. 1, the television is the display device Dd and the acoustic device Es.

外部からの入力信号としては、アンテナで受信された放送波Ba、ビデオカメラ(外部装置Ei)などからの映像信号、映像再生装置等からの映像信号またはネットワークNeからの映像データ等がある。利用者は、リモコン(リモート・コントローラー)または操作ボタンなどを用いて、入力部を選択する。入力部は、チューナー・復調部11、外部入力部12またはネットワーク部13等である。リモコンは、利用者が操作する遠隔操作機器のことである。   As an input signal from the outside, there are a broadcast wave Ba received by an antenna, a video signal from a video camera (external device Ei), a video signal from a video playback device, or video data from a network Ne. A user selects an input unit using a remote controller (remote controller) or operation buttons. The input unit is a tuner / demodulator 11, an external input unit 12, a network unit 13, or the like. A remote control is a remote control device operated by a user.

また、放送波Baの場合には、放送局または番組などが設定される。また、ネットワークNeの場合には、データ取得先またはデータへのアクセス情報などが設定される。なお、利用者の視聴したい映像サービスまたは利用者の記録したい映像サービスは、特定されているものとする。また、利用者の視聴したい映像サービスまたは利用者の記録したい映像サービスは、受信できる状態になっているものとする。   In the case of the broadcast wave Ba, a broadcast station or a program is set. In the case of the network Ne, data acquisition destination or data access information is set. It is assumed that the video service that the user wants to watch or the video service that the user wants to record is specified. In addition, it is assumed that the video service that the user wants to view or the video service that the user wants to record is ready to be received.

アンテナ等で受信した放送波Baは、チューナー・復調部11に入力される。チューナー・復調部11は、放送波Baの中から指定された放送局の電波を取り出す。そして、チューナー・復調部11は、規定された復調方式で、放送波Baを復調する。そして、チューナー・復調部11は、放送波Baからデジタルデータを取り出す。   A broadcast wave Ba received by an antenna or the like is input to the tuner / demodulator 11. The tuner / demodulator 11 extracts the radio wave of the designated broadcast station from the broadcast wave Ba. Then, the tuner / demodulator 11 demodulates the broadcast wave Ba using a specified demodulation method. The tuner / demodulator 11 extracts digital data from the broadcast wave Ba.

ここで、取り出されたデジタルデータは、映像データ、音声データ、字幕データまたは制御情報などを多重化した多重化ストリームSmである。また、複数の番組を、まとめて1つの多重化ストリームSmに格納することもある。   Here, the extracted digital data is a multiplexed stream Sm obtained by multiplexing video data, audio data, caption data, control information, or the like. In addition, a plurality of programs may be stored together in one multiplexed stream Sm.

なお、「ストリーム」とは、時間の流れを持ったデータまたは時間的な流れを持った形で伝送されるデータを表わす。例えば、ストリームは、映像データの場合は、映像ストリームであり、音声データの場合は、音声ストリームである。また、その他には、字幕ストリーム、多重化ストリーム、受信ストリーム、データストリームなどが挙げられる。   The “stream” represents data having a time flow or data transmitted in a form having a time flow. For example, in the case of video data, the stream is a video stream, and in the case of audio data, the stream is an audio stream. Other examples include a caption stream, a multiplexed stream, a received stream, a data stream, and the like.

多重化ストリームSmは、チューナー・復調部11で取り出される。チューナー・復調部11で取り出された多重化ストリームSmは、多重化解除部21に送られる。多重化解除部21は、多重化ストリームSmから、各種のデータまたは各種の制御情報などを分けて取り出す。データは、例えば、番組を直接構成するデータである。データは、例えば、映像ストリーム、音声ストリームまたは字幕ストリームなどである。データは、例えば、多重化ストリームSmに格納されたデータ放送用のプログラムまたはデータである。   The multiplexed stream Sm is taken out by the tuner / demodulator 11. The multiplexed stream Sm extracted by the tuner / demodulator 11 is sent to the demultiplexer 21. The demultiplexer 21 separately extracts various data or various control information from the multiplexed stream Sm. The data is, for example, data that directly configures a program. The data is, for example, a video stream, an audio stream, or a caption stream. The data is, for example, a data broadcast program or data stored in the multiplexed stream Sm.

多重化を解除された各種のデータ(エレメンタリーストリームSe)は、圧縮されたデータである。   Various types of data (elementary stream Se) that have been demultiplexed are compressed data.

映像ストリームは、圧縮された映像データである。映像デコード部32は、圧縮された映像データを伸長する。伸長された映像データは、表示装置Ddなどから映像として出力される。表示装置Ddは、例えば、テレビなどである。   The video stream is compressed video data. The video decoding unit 32 expands the compressed video data. The expanded video data is output as video from the display device Dd or the like. The display device Dd is, for example, a television.

同様に、音声ストリームは、圧縮された音声データである。音声デコード部31は、圧縮された音声データを伸長する。伸長された音声データは、音響装置Esから音声として出力される。音響装置Esは、例えば、テレビなどである。   Similarly, the audio stream is compressed audio data. The audio decoding unit 31 expands the compressed audio data. The expanded audio data is output as audio from the acoustic device Es. The acoustic device Es is, for example, a television.

表示装置Ddまたは音響装置Esから出力される際に、映像データDiと音声データDsとは、バッファリングと同期とが行われる(図示せず)。これによって、映像と音声とにずれが生じない。映像データと音声データとの出力のタイミングは、制御情報またはシステムクロック等から指定されたタイミングまたは算出されたタイミングである。 When output from the display device Dd or acoustic device Es, and the video data Di 1 and audio data Ds, the buffering and synchronization is performed (not shown). As a result, there is no deviation between video and audio. The output timing of the video data and the audio data is a timing designated or calculated from control information or a system clock.

字幕ストリームは、圧縮された字幕データである。字幕デコード・レンダリング部33は、圧縮された字幕データを伸長する。字幕デコード・レンダリング部33は、伸長された字幕データを解釈する。字幕デコード・レンダリング部33は、解釈された字幕データを映像化する。映像化された字幕データは、指定されたタイミングで映像データまたは音声データと合成される。合成された字幕データは、表示装置Ddなどから映像として出力される。   The subtitle stream is compressed subtitle data. The caption decoding / rendering unit 33 decompresses the compressed caption data. The caption decoding / rendering unit 33 interprets the decompressed caption data. The caption decoding / rendering unit 33 visualizes the interpreted caption data. The visualized caption data is synthesized with video data or audio data at a designated timing. The combined caption data is output as a video from the display device Dd or the like.

データ放送のストリームは、圧縮されたデータである。データ放送・EPG処理部34は、圧縮されたデータ放送のデータを伸長する。データ放送・EPG処理部34は、指定されたタイミングで、伸長された映像データと伸長された音声データとを合成する。合成された映像データおよび音声データは、テレビなどから映像および音声として出力される。   A data broadcast stream is compressed data. The data broadcast / EPG processing unit 34 decompresses the compressed data broadcast data. The data broadcast / EPG processing unit 34 synthesizes the expanded video data and the expanded audio data at a designated timing. The synthesized video data and audio data are output as video and audio from a television or the like.

録画再生装置100は、このようにして受信した放送波Baを、同期の取れた映像および音声として出力する。   The recording / reproducing apparatus 100 outputs the broadcast wave Ba thus received as synchronized video and audio.

<データの記録>
次に、この映像データを記録することを考える。
<Recording data>
Next, consider recording this video data.

記録再生制御部41は、前述の放送波Baの受信から映像の表示までの流れの中で、記録用の映像データ、音声データまたは制御情報などを収集する。収集されたデータは、記録用のデータフォーマットに変換される。記録用のデータフォーマットに変換されたデータは、内蔵記録装置51または光ディスクドライブ52を通じて光ディスク53等に記録される。   The recording / playback control unit 41 collects recording video data, audio data, control information, or the like in the flow from the reception of the broadcast wave Ba to the display of the video. The collected data is converted into a data format for recording. The data converted into the recording data format is recorded on the optical disk 53 or the like through the built-in recording device 51 or the optical disk drive 52.

記録再生制御部41が映像データまたは音声データを取り出す位置は、様々な組み合わせが考えられる。しかし、説明を容易にするために、次の(A)から(C)の3つ経路に単純化して説明する。3つ経路は、(A)多重化ストリームSmの状態での取り出し、(B)多重化が解除されたエレメンタリーストリームSeの状態での取り出し及び(C)映像音声が伸長された状態(映像データDi)での取り出しである。 There are various possible combinations of positions at which the recording / playback control unit 41 extracts video data or audio data. However, for ease of explanation, the following three paths (A) to (C) will be simplified for explanation. The three paths are (A) extraction in the state of the multiplexed stream Sm, (B) extraction in the state of the elementary stream Se that has been demultiplexed, and (C) a state in which the video and audio are decompressed (video data Di 1 ).

なお、以下においては、(A)と(B)とに関して説明する。   In the following, (A) and (B) will be described.

≪(A−1)多重化ストリームSmの状態でのデータの記録(1)≫
多重化ストリームの状態でのデータ取り出しとブルーレイディスク(光ディスク53)への記録とを考える。データは、図1中の(A)の経路を使って取り出される。
<< (A-1) Data recording in multiplexed stream Sm state (1) >>
Consider data extraction in a multiplexed stream state and recording on a Blu-ray disc (optical disc 53). The data is retrieved using the route (A) in FIG.

例えば、日本方式の従来の放送方式の場合には、チューナー・復調部11から取り出される多重化ストリームSmは、MPEG2TSの多重化ストリーム内にMPEG2形式で圧縮された映像信号が格納された形のデータである。   For example, in the case of a conventional Japanese broadcasting system, the multiplexed stream Sm extracted from the tuner / demodulator 11 is data in a form in which a video signal compressed in the MPEG2 format is stored in the MPEG2TS multiplexed stream. It is.

MPEG2TSの放送用ストリームは、192バイトサイズの固定長パケットを採用している。また、このパケットを受信順に結合することによって、記録フォーマット用のデータファイルを作成することができる。このようにして作成されたデータファイルをストリームファイルと呼ぶ。   The MPEG2TS broadcast stream employs fixed-length packets of 192 byte size. Further, a data file for recording format can be created by combining the packets in the order of reception. The data file created in this way is called a stream file.

実際に放送されているストリームには、複数の番組が多重化されている。その中から目的の番組を取り出す過程が必要となる。しかし、ここでは、その説明を省略する。   A plurality of programs are multiplexed in a stream that is actually broadcast. The process of taking out the target program from among them is necessary. However, the description thereof is omitted here.

まず、ブルーレイディスクのBDAVフォーマットの場合を説明する。   First, the case of the BDAV format of the Blu-ray disc will be described.

ブルーレイディスクのBDAVフォーマットの場合には、ストリームファイルの他に、クリップファイル、プレイリストファイルまたはインフォファイルなどが必要である。クリップファイルは、ストリームファイル内のデータにアクセスするための詳細情報を記録したファイルである。プレイリストファイルは、時系列の情報を管理する。時系列の情報は、例えば、一つの番組の開始点、終了点または再生ストリームの切り替えなどの情報である。インフォファイルは、再生可能な番組リストなどディスク全体の情報を管理する。   In the case of the BDAV format of the Blu-ray disc, a clip file, a playlist file, an info file, or the like is required in addition to the stream file. The clip file is a file in which detailed information for accessing data in the stream file is recorded. The playlist file manages time-series information. The time series information is, for example, information such as the start point, end point, or playback stream switching of one program. The info file manages information on the entire disc such as a reproducible program list.

これらの情報は、ストリーム内の管理情報、利用者の設定した予約情報またはチューナー・復調部11から得られる管理情報などから作成される。これらに関しては、例えば、特許文献1に詳しく書かれている。   These pieces of information are created from management information in the stream, reservation information set by the user, or management information obtained from the tuner / demodulator 11. These are described in detail in Patent Document 1, for example.

次に、日本の新しい放送方式の場合を説明する。   Next, the case of a new broadcasting system in Japan will be described.

これは、例えば、放送サービス高度化推進協会の「高度高帯域衛星デジタル放送 運用規定1.1版 NEXTVF TR−004」(2016年3月30日発行、第一部・第二編・第5章、2−31〜2−40ページ、図5−1)に記載されている。   This is, for example, “Advanced High-Bandwidth Satellite Digital Broadcasting Operation Manual Version 1.1 NEXTVF TR-004” (published March 30, 2016, Part 1, Part 2, Chapter 5) It is described in pages 2-31 to 2-40 and FIG.

この方式は、4Kおよび8Kの高解像度映像に対応している。また、この方式は、色域および輝度域拡大に対応している。この方式は、映像圧縮方式として、HEVCを採用している。また、この方式は、多重化方式として、MMTとTLVとを組み合わせて採用している。   This method is compatible with 4K and 8K high resolution video. In addition, this method corresponds to expansion of the color gamut and luminance range. This method employs HEVC as a video compression method. This method employs a combination of MMT and TLV as a multiplexing method.

MMTおよびTLVは、ネットワークで用いられているIPパケットとの整合性を考えて設計されている。TLVは、IPパケットの放送波を用いた伝送方式である。MMTは、IPパケットを用いて映像データを転送する方式およびそのデータ形式を規定している。IPパケットは、可変長パケットを採用している。このため、MMTおよびTLVも可変長パケットを採用している。   MMT and TLV are designed in consideration of consistency with IP packets used in the network. TLV is a transmission method using a broadcast wave of an IP packet. MMT defines a method and data format for transferring video data using IP packets. The IP packet employs a variable length packet. For this reason, MMT and TLV also employ variable length packets.

図2を用いてこの方式での多重化解除手順を説明する。図2は、多重化解除手順を説明する図である。   The demultiplexing procedure in this method will be described with reference to FIG. FIG. 2 is a diagram for explaining the demultiplexing procedure.

図2において、横方向は、データの受信の順番を示している。つまり、横軸Ha方向には、受信された順番にデータが並べられている。受信した順番に左から右に記載してある。また、縦軸Va方向は、データの処理の流れを示している。つまり、縦軸Va方向には、パケット解析によるデータの取り出しの順番が示されている。縦軸Vaの範囲では、多重化ストリームSmの多重化を解除している。縦軸Vaの範囲では、エレメンタリーストリームSeの多重化を解除している。 In FIG. 2, the horizontal direction indicates the order of data reception. That is, data is arranged in the order received in the horizontal axis Ha direction. It is written from left to right in the order received. The vertical axis Va direction indicates the flow of data processing. That is, in the direction of the vertical axis Va, the data extraction order by packet analysis is shown. In the range of the vertical axis Va 1, which releases the multiplexing of the multiplexed stream Sm. In the range of the vertical axis Va 2, which releases the multiplexing of the elementary stream Se.

TLVパケットのデータは、放送波Baの復調によって得られる。TLVパケットは、放送に関する情報を含んでいる。放送に関する情報は、例えば、放送の識別子、チャンネル、放送局名、IPアドレス、ポート番号または使用する電波の情報などである。「使用する電波」とは、地上波、BS放送またはCS放送などである。「使用する電波の情報」とは、放送の形態、変調方式、周波数、偏向方向または旋回方向などである。   The data of the TLV packet is obtained by demodulating the broadcast wave Ba. The TLV packet includes information related to broadcasting. Information related to broadcasting is, for example, broadcasting identifiers, channels, broadcasting station names, IP addresses, port numbers, or information on radio waves to be used. “Radio waves to be used” are terrestrial waves, BS broadcasts, CS broadcasts, and the like. “Information on radio waves to be used” refers to the form of broadcasting, modulation method, frequency, deflection direction or turning direction.

ペイロードは、データ伝送におけるデータ部分を指す。つまり、ペイロードは、伝送されるデータ全体のうち、伝送処理のための管理情報を除いたものにあたる。管理情報は、例えば、ヘッダまたはメタデータなどである。   The payload refers to the data part in the data transmission. That is, the payload corresponds to the entire transmitted data excluding management information for transmission processing. The management information is, for example, a header or metadata.

また、TLV(Type−Length−Value)は、情報の種類、長さおよび値をまとめて表現するフォーマットである。UDP(User Datagram Protocol)は、IPの上位プロトコルのトランスポート層で動作するプロトコルである。UDPは、ネットワーク層のIPとセッション層以上のプロトコルの橋渡しをするかたちで動作する。MMTP(登録商標)は、マルチメディア多重化伝送プロトコルである。   TLV (Type-Length-Value) is a format that collectively represents the type, length, and value of information. UDP (User Datagram Protocol) is a protocol that operates in the transport layer of the upper protocol of IP. UDP operates by bridging the network layer IP and the protocol above the session layer. MMTP (registered trademark) is a multimedia multiplexing transmission protocol.

チューナー・復調部11は、放送局の情報、IPアドレスの情報またはポート番号の情報をTLVパケットから取り出す。チューナー・復調部11は、IPアドレスの情報を用いて、必要なIPパケットを取り出す。次に、チューナー・復調部11は、ポート番号の情報を用いてUDPパケットを取り出す。   The tuner / demodulator 11 extracts broadcast station information, IP address information or port number information from the TLV packet. The tuner / demodulator 11 extracts a necessary IP packet by using the IP address information. Next, the tuner / demodulator 11 extracts the UDP packet using the port number information.

この時点で、チューナー・復調部11は、放送局から送られてきた放送波Baの多重化を解除している。そして、チューナー・復調部11は、UDPパケットのデータを取り出している。チューナー・復調部11は、UDPパケットからUDPヘッダを取り除く。そして、チューナー・復調部11は、UDPパケットからUDPペイロードを取り出す。これによって、チューナー・復調部11は、UDPパケットからMMTPパケットを取り出すことができる。   At this point, the tuner / demodulator 11 demultiplexes the broadcast wave Ba sent from the broadcast station. Then, the tuner / demodulator 11 extracts the data of the UDP packet. The tuner / demodulator 11 removes the UDP header from the UDP packet. Then, the tuner / demodulator 11 extracts the UDP payload from the UDP packet. Thereby, the tuner / demodulator 11 can extract the MMTP packet from the UDP packet.

日本の新しい放送規格では、1つのMMTPパケットは、1つのUDP/IPパケットに格納されている。さらに、1つのUDP/IPパケットは、1つのTLVパケットに格納されている。そのため、制御用データを分離した後のMMTPを伝送しているパケットでは、MMTPパケットは、TLVパケットから単純にTLVヘッダ、IPヘッダおよびUDPヘッダを取り除くことによって取り出される。   In the new broadcasting standard in Japan, one MMTP packet is stored in one UDP / IP packet. Furthermore, one UDP / IP packet is stored in one TLV packet. Therefore, in a packet transmitting MMTP after the control data is separated, the MMTP packet is extracted by simply removing the TLV header, IP header, and UDP header from the TLV packet.

MMTPパケットとして取り出された時点で、放送局から送られてきた放送波Baの多重化は解除されている。しかし、放送波Baは、複数の番組をまとめた一連のMMTPパケットとして多重化されていることもある。その場合には、目的の番組だけを取り出すために、まず、制御情報を取り出して、その制御情報の記載に従って、MMTPパケットを選択して取り出す。   When the MMTP packet is extracted, the multiplexing of the broadcast wave Ba sent from the broadcast station is released. However, the broadcast wave Ba may be multiplexed as a series of MMTP packets in which a plurality of programs are collected. In that case, in order to extract only the target program, first, control information is extracted, and an MMTP packet is selected and extracted according to the description of the control information.

MMTPパケットとして送られてくる制御信号の1つにPLT(Package List Table)がある。全ての情報が放送波で送信されてくる場合には、PLTの中の「MMT_general_location_info」によって指定された「packet_id」を参照する。この「packet_id」を用いて、MMTPパケットをフィルタリングする。これによって、目的とする番組の管理情報を含むMMTPパケットを選択することができる。「目的とする番組」とは、視聴する予定の番組である。   One of the control signals sent as an MMTP packet is a PLT (Package List Table). When all the information is transmitted by broadcast waves, “packet_id” specified by “MMT_general_location_info” in the PLT is referred to. This “packet_id” is used to filter the MMTP packet. As a result, it is possible to select an MMTP packet including management information of a target program. The “target program” is a program scheduled to be viewed.

ネットワークから番組の管理情報を取得する場合には、「MMT_general_location_info」に記載されているIPアドレスおよびポート番号が指定される。または、「MMT_general_location_info」によって、URLによる番組の取得先が指定される。   When acquiring program management information from the network, an IP address and a port number described in “MMT_general_location_info” are specified. Alternatively, “MMT_general_location_info” designates a program acquisition destination using a URL.

次に、選択されたMMTPパケットからMPT(MMT_Package_Table)を含むデータを取り出す。MPTには、目的とする番組を構成する映像、音声または字幕などのアセットの組合せと取得先とが記述されている。それぞれのアセットの取得先は、「MMT_general_location_info」によって、「packet_id」またはネットワーク情報で示されている。ここで、ネットワーク情報は、IPアドレス、ポート番号またはURLである。   Next, data including MPT (MMT_Package_Table) is extracted from the selected MMTP packet. In the MPT, a combination of assets such as video, audio, or subtitles constituting a target program and an acquisition destination are described. The acquisition destination of each asset is indicated by “packet_id” or network information by “MMT_general_location_info”. Here, the network information is an IP address, a port number, or a URL.

このようにして、PLTで示された制御データと、MPTで示された番組を構成するアセットとを、例えば、「packet_id」でフィルタリングする。これよって、目的とする番組のMMTPパケットを取り出すことができる。   In this way, the control data indicated by PLT and the assets constituting the program indicated by MPT are filtered by, for example, “packet_id”. As a result, the MMTP packet of the target program can be extracted.

TLVパケットからMMTPパケットまたはMMTPペイロードを取りだす過程で、1つのパケットに着目する。パケットヘッダは、取り除かれる。しかし、パケット内のデータは変化しない。ところが、実際には、制御情報と各段階でのパケットヘッダの内容とから、パケットの取捨選択と分類とが行われている。   In the process of extracting the MMTP packet or MMTP payload from the TLV packet, attention is paid to one packet. The packet header is removed. However, the data in the packet does not change. However, in practice, packet selection and classification are performed from the control information and the contents of the packet header at each stage.

[標準フォーマットを用いないで記録する場合]
番組を記録する方法の1つとして、例えば、受信した放送のパケットを、そのまま記録する方法を説明する。
[When recording without using standard format]
As one method of recording a program, for example, a method of recording a received broadcast packet as it is will be described.

図4は、TLVパケットを結合して記録した場合の模式図である。   FIG. 4 is a schematic diagram when TLV packets are combined and recorded.

図4に示す例では、TLVパケットの時点で、放送局から送られてきた多重化ストリームSmの多重化を解除している。番組のTLVパケットは、そのまま結合されている。結合されたTLVパケットは、ファイルを構成している。   In the example shown in FIG. 4, the multiplexing stream Sm sent from the broadcasting station is demultiplexed at the time of the TLV packet. The TLV packet of the program is combined as it is. The combined TLV packet constitutes a file.

図4中に、TLVパケットTP−0,TP−1,TP−2,TP−3を示している。「−0」などは、TLVパケットTPの受信の順番を表わしている。例えば、TLVパケットTP−0は、最初に受信したTLVパケットTPである。横軸Haは、受信の順番を表わしている。   In FIG. 4, TLV packets TP-0, TP-1, TP-2, and TP-3 are shown. “−0” or the like represents the order of reception of the TLV packets TP. For example, the TLV packet TP-0 is the first received TLV packet TP. The horizontal axis Ha represents the order of reception.

最初に受信したTLVパケットTP−0の後ろには、TLVパケットTP−0の後に受信したTLVパケットTP−1,TP−2,TP−3が結合している。そして、結合されたTLVパケットTP−0,TP−1,TP−2,TP−3は記録される。TLVパケットTPは、可変長パケットを採用している。   The TLV packets TP-1, TP-2, and TP-3 received after the TLV packet TP-0 are combined after the TLV packet TP-0 received first. Then, the combined TLV packets TP-0, TP-1, TP-2, and TP-3 are recorded. The TLV packet TP employs a variable length packet.

データをパケット単位で受信するため、受信時点で、パケットの先頭は明確である。しかし、他のパケットと結合して、1つのファイルを作成した場合には、それぞれのパケットの先頭位置を判別する必要がある。   Since data is received in packet units, the beginning of the packet is clear at the time of reception. However, when one file is created by combining with other packets, it is necessary to determine the head position of each packet.

第1の方法は、記録する時点で、パケットの先頭位置のリストを、管理用ファイルAfとして作成する方法である。   The first method is a method of creating a list of packet head positions as a management file Af at the time of recording.

これは、パケットを記録する時点では、パケットのファイル内での先頭位置が判明するためである。この場合には、パケット番号などと関連付けてパケットの先頭位置のリストを作成しても良い。   This is because the start position of the packet in the file is known at the time of recording the packet. In this case, a list of the head position of the packet may be created in association with the packet number or the like.

第2の方法は、ファイルの先頭からデータを読み込み、先頭のデータHmがあった場合には、TLVパケットTPの先頭と判断する。そして、TLVパケットTPが結合したデータを読み込む。   In the second method, data is read from the head of the file, and if there is head data Hm, it is determined that the head of the TLV packet TP is present. Then, the data combined with the TLV packet TP is read.

TLVパケットTPには、パケットの先頭を識別するために、最初の1バイトには、固定値「0x7F」が格納されている。そして、先頭バイトの後ろには、パケット種別を表す1バイトのデータが格納されている。そして、その後ろには、データ長を示す2バイトのデータが格納されている。   In the TLV packet TP, a fixed value “0x7F” is stored in the first 1 byte in order to identify the head of the packet. Then, 1-byte data representing the packet type is stored after the first byte. Then, 2 bytes of data indicating the data length are stored behind it.

ここで、TLVパケットTPの先頭のデータHmは、固定値「0x7F」である。   Here, the top data Hm of the TLV packet TP is a fixed value “0x7F”.

固定値「0x7F」(先頭のデータHm)が読み込まれれば、直前に読み込まれたデータを、TLVパケットTPとして解釈して処理を行う。   If a fixed value “0x7F” (first data Hm) is read, the data read immediately before is interpreted as a TLV packet TP and processed.

固定値「0x7F」は、特別な値ではない。固定値「0x7F」は、データ中にも存在している。そのため、間違った位置から読み込む可能性がある。この場合でも、TLVパケットTPのデータとしての矛盾の有無を確認する。または、データ長のデータを読み込んだ後に、次のデータの先頭が毎回固定値「0x7F」になっているか否かを確認する。これらによって、正しいデータの区切りで、パケットを読み込むことができる。   The fixed value “0x7F” is not a special value. The fixed value “0x7F” is also present in the data. Therefore, there is a possibility of reading from the wrong position. Even in this case, the presence or absence of contradiction as data of the TLV packet TP is confirmed. Alternatively, after reading data of the data length, it is confirmed whether or not the beginning of the next data is a fixed value “0x7F” every time. As a result, packets can be read at the correct data delimiters.

この例では、TLVパケットを記録する方法を示した。しかし、他にも、UDP/IPパケットを記録する方法も採用できる。また、MMTPパケットを、そのまま記録する方法なども採用できる。   In this example, a method of recording a TLV packet is shown. However, other methods for recording UDP / IP packets can also be employed. Also, a method of recording the MMTP packet as it is can be adopted.

しかし、TLVパケットを選んだ理由は、TLVパケットの先頭に識別用の固定バイトが用意されていて、パケットの識別が比較的に容易だからである。   However, the reason why the TLV packet is selected is that a fixed byte for identification is prepared at the head of the TLV packet, and the packet identification is relatively easy.

他のパケットを記録する方法では、識別のためのマークが挿入されていない場合がある。そこで、識別子を独自に挿入する手法も採用できる。また、UDP/IPパケットの場合には、例えば、IPアドレス情報を用いて識別のためのマークとする方法も採用できる。IPアドレス情報は、同じ番組中では変化しない。   In other methods of recording packets, there is a case where a mark for identification is not inserted. Therefore, it is possible to adopt a method of inserting an identifier uniquely. In the case of a UDP / IP packet, for example, a method of using an IP address information as a mark for identification can be employed. The IP address information does not change during the same program.

≪(A−2)多重化ストリームSmの状態でのデータの記録(2)≫
MPTは、MMTPパケットに格納されて伝送される。MPTは、制御情報を含んでいる。多重化解除部21は、MPTに記載された情報に基づいて、パケットを振り分ける。MPTに記載された情報は、例えば、MMTPヘッダに含まれるパケットID情報である。これによって、多重化解除部21は、映像情報または音声情報などを個別に取り出すことができる。そして、多重化解除部21は、多重化ストリームSmの多重化を解除することができる。
<< (A-2) Recording of data in multiplexed stream Sm state (2) >>
The MPT is stored in an MMTP packet and transmitted. The MPT includes control information. The demultiplexing unit 21 distributes the packets based on the information described in the MPT. The information described in the MPT is, for example, packet ID information included in the MMTP header. As a result, the demultiplexing unit 21 can individually extract video information or audio information. Then, the demultiplexing unit 21 can demultiplex the multiplexed stream Sm.

MFUは、MMTPパケットに格納されている。複数のMFUが1つのMMTPパケットに格納されている場合がある。また、1つのMFUが1つのMMTPパケットに格納されている場合がある。そして、1つのMFUが複数のMMTPパケットに格納されている場合がある。   The MFU is stored in the MMTP packet. A plurality of MFUs may be stored in one MMTP packet. One MFU may be stored in one MMTP packet. One MFU may be stored in a plurality of MMTP packets.

MMTPに含まれる映像データのMFUまたは音声データのMFUは、アクセスユニット(以下、AUと示す。)またはNALユニットと呼ばれる処理単位になっている。そして、NAL(Network Abstraction Layer)ユニットは、AUをさらに細かく分割したデータである。   The MFU of video data or the MFU of audio data included in the MMTP is a processing unit called an access unit (hereinafter referred to as AU) or NAL unit. A NAL (Network Abstraction Layer) unit is data obtained by further dividing AU.

MFUに直接映像データを格納する場合には、AUを格納する場合とNALユニットを格納する場合とが定義されている。しかし、日本の新しい放送方式では、NALユニットで格納する方式を採用している。そのため、以降の説明ではNALユニットとして格納されているものとして説明する。   When video data is directly stored in the MFU, a case where an AU is stored and a case where a NAL unit is stored are defined. However, a new broadcasting system in Japan adopts a system that stores data in a NAL unit. Therefore, in the following description, it will be described as being stored as a NAL unit.

図2では、NALユニットを直接MFUに格納した場合を示している。NALユニットには、映像データのみを含んだVCL−NALユニットと、映像データを含まず管理情報を格納した非VCL−NALユニットとがある(VCL:Video Coding Layer)。   FIG. 2 shows a case where the NAL unit is directly stored in the MFU. The NAL unit includes a VCL-NAL unit that includes only video data and a non-VCL-NAL unit that does not include video data and stores management information (VCL: Video Coding Layer).

非VCL−NALユニットは、NALヘッダを取り除くと、制御情報が得られる。   The non-VCL-NAL unit can obtain control information by removing the NAL header.

VCL−NALユニットは、NALヘッダを取り除くと、分割された映像データが取り出される。これらの分割された映像データを結合することによって、1フレーム分の圧縮された映像データとなる   When the VCL-NAL unit removes the NAL header, the divided video data is taken out. By combining these divided video data, compressed video data for one frame is obtained.

通常、NALユニットは1フレーム分の管理情報と映像データとを含む複数のNALユニットを一式として扱い、AUと呼ばれている。多重化解除部21は、映像データの場合には、AUは、映像データを含んでいる。そして、多重化解除部21は、ES(エレメンタリーストリーム)を再構築することができる。   Usually, a NAL unit handles a plurality of NAL units including management information for one frame and video data as a set, and is called AU. In the case of video data, the demultiplexer 21 includes video data. Then, the demultiplexing unit 21 can reconstruct an ES (elementary stream).

映像データのAUは、基本的には、1フレーム分の映像単位である。1フレーム分の映像単位は、ピクチャを表現する単位である。映像装置では、このピクチャを時系列的に順次切り替えながら表示することで動画として表示している。しかし、前後のフレームとの依存関係で、いくつかの種類がある。   The AU of video data is basically a video unit for one frame. The video unit for one frame is a unit for representing a picture. In the video apparatus, this picture is displayed as a moving image by sequentially switching the pictures in time series. However, there are several types of dependency relationships with the previous and next frames.

1つは、Iピクチャと呼ばれるものである。Iピクチャは、このデータ単独で、1枚のピクチャを再現できる。   One is called an I picture. An I picture can reproduce one picture with this data alone.

他には、PピクチャまたはBピクチャと呼ばれるものである。これらのデータは、他のピクチャに依存している。そのため、PピクチャおよびBピクチャは、単独では1枚のピクチャを再現できない。PピクチャおよびBピクチャは、他のピクチャを参照することによって、ピクチャを再現できる。Pピクチャは、1枚の他のピクチャを参照する。Bピクチャは、2枚の他のピクチャを参照する。   Others are called P pictures or B pictures. These data depend on other pictures. Therefore, a P picture and a B picture cannot reproduce a single picture by itself. P pictures and B pictures can be reproduced by referring to other pictures. A P picture refers to one other picture. The B picture refers to two other pictures.

テレビ放送または映像記録再生装置などでは、番組の途中からの視聴できることが求められている。また、テレビ放送または映像記録再生装置などでは、ランダムアクセスできることが求められている。そのため、参照するピクチャが広範囲であると都合が悪い。   A television broadcast or a video recording / playback apparatus is required to be able to view from the middle of a program. In addition, a television broadcast or a video recording / playback apparatus is required to be able to access randomly. For this reason, it is inconvenient if the picture to be referenced is a wide range.

そこで、ある程度の時間またはフレーム枚数を一式として扱う。この一式のデータの中で、参照するピクチャが完結するように定められてある。   Therefore, a certain amount of time or the number of frames is treated as a set. In this set of data, it is determined that a picture to be referred to is completed.

この一式のデータは、GOP(Group Of Pictures)と呼ばれている。GOPは、少なくとも1つのIピクチャを含んでいる。番組の途中から視聴する際には、取得したストリームデータが映像を再現できない不完全な位置から始まっている場合でも、次のGOPの始まりからは映像を再現して表示することができる。   This set of data is called GOP (Group Of Pictures). The GOP includes at least one I picture. When viewing from the middle of a program, even if the acquired stream data starts from an incomplete position where the video cannot be reproduced, the video can be reproduced and displayed from the beginning of the next GOP.

例えば、日本の新しい放送方式は、2K放送では0.5秒を目途に、また、4K放送では1秒を目途に、GOPを作成するよう求めている。これによって、テレビの電源投入した際に、または、チャンネルを切り替えた際にも、1秒から2秒で、映像を表示できる。   For example, a new broadcasting system in Japan requires a GOP to be created with a target of 0.5 seconds for 2K broadcasts and 1 second for 4K broadcasts. As a result, even when the TV is turned on or when the channel is switched, an image can be displayed in 1 to 2 seconds.

なお、映像が画面の全体で入れ替わる場合には、切り替わりの前後でGOPを分けた方が、効率が良い。例えば、圧縮率または画像再生などの効率が向上する。画面の全体で入れ替わる場合には、例えば、シーンの切り替わりなどである。そのため、GOP長は、固定した値ではなく、柔軟に運用される。つまり、状況に応じて、GOP長は、変更される。   When the video is switched over the entire screen, it is more efficient to divide the GOP before and after the switching. For example, the efficiency of compression ratio or image reproduction is improved. In the case where the entire screen is switched, for example, the scene is switched. For this reason, the GOP length is not a fixed value but is flexibly operated. That is, the GOP length is changed according to the situation.

なお、通信またはネット配信では、日本の新しい放送方式よりも長い単位のGOPが使用されることもある。   In communication or net distribution, a unit of GOP that is longer than a new broadcasting system in Japan may be used.

記録された映像を再生する際には、表示したいフレームを含むGOPの先頭から映像にアクセスする。これによって、スムーズなランダムアクセスが可能になる。また、早送りなどの際には、GOPごとにIピクチャのみを表示することができる。GOPは、動画として再生できる映像データの一固まりの単位である。また、GOPは、再生が可能な位置を示す単位である。また、GOPは、ランダムアクセスが可能な位置を示す単位である。   When reproducing the recorded video, the video is accessed from the head of the GOP including the frame to be displayed. This enables smooth random access. In addition, when fast-forwarding or the like, only an I picture can be displayed for each GOP. A GOP is a unit of video data that can be reproduced as a moving image. GOP is a unit indicating a position where reproduction is possible. The GOP is a unit indicating a position where random access is possible.

放送波Baを受信する際には、PLT(Package List Table)を受信する。PLTは、MMTPパケットとして送られてくる制御信号の1つである。   When the broadcast wave Ba is received, a PLT (Package List Table) is received. PLT is one of control signals sent as MMTP packets.

全ての情報が放送波Baで送られてくる場合には、PLT内の「MMT_general_location_info」で指定された「packet_id」を参照する。そして、この「packet_id」でMMTPパケットをフィルタリングする。これによって、目的とする番組の管理情報を含むMMTPパケットを選択することができる。   When all the information is transmitted by the broadcast wave Ba, “packet_id” specified by “MMT_general_location_info” in the PLT is referred to. Then, the MMTP packet is filtered by this “packet_id”. As a result, it is possible to select an MMTP packet including management information of a target program.

ネットワークNeから番組の管理情報を取得する場合には、「MMT_general_location_info」に記載されているIPアドレスとポート番号とによって番組の取得先が指定される。または、「MMT_general_location_info」に記載されているURLによって番組の取得先が指定される。   When program management information is acquired from the network Ne, the program acquisition destination is specified by the IP address and port number described in “MMT_general_location_info”. Alternatively, the program acquisition destination is specified by the URL described in “MMT_general_location_info”.

次に、選択したMMTPパケットの中から、MPT(MMT_Package_Table)を含むデータを選択する。MPTには、番組を構成する映像、音声または字幕などのアセットの組合せと取得先とが記述されている。それぞれのアセットの取得先は、「MMT_general_location_info」に記載されている「packet_id」またはネットワーク情報に示されている。ネットワーク情報は、IPアドレスとポート番号とである。または、ネットワーク情報は、URLである。   Next, data including MPT (MMT_Package_Table) is selected from the selected MMTP packets. The MPT describes a combination of assets such as video, audio, or subtitles constituting a program and an acquisition source. The acquisition source of each asset is indicated by “packet_id” or network information described in “MMT_general_location_info”. The network information is an IP address and a port number. Alternatively, the network information is a URL.

また、それぞれの映像、音声または字幕などの時間で同期する必要のあるアセットに関しては、アセットごとにMPUタイムスタンプ記述子とMPU拡張タイムスタンプ記述子とが定義されている。   In addition, regarding assets that need to be synchronized in time such as video, audio, or subtitles, an MPU time stamp descriptor and an MPU extended time stamp descriptor are defined for each asset.

アセットなどの取得先としては、放送波Baに含まれて送られてくる場合と、ネットワークNeから取得する場合とが定められている。しかし、説明の簡略化のため、以降では放送波Baに含まれて送られてくる場合を一例として説明する。   As acquisition destinations of assets and the like, a case where they are included in the broadcast wave Ba and a case where they are acquired from the network Ne are determined. However, for simplification of description, a case where the broadcast wave Ba is included and transmitted will be described below as an example.

新しい日本の放送方式では、映像データと音声データとに関しては、MFUに直接NALユニットを格納して送出する方式を採用している。また、新しい日本の放送方式では、「RAP_flag」の付加されたMMTPパケットから次の「RAP_flag」の付加されたMMTPパケットの直前までを、1つのデータの集まりとして取り扱われる。そして、その1つのデータの集まりは、MPUとして取り扱われる。「RAP_flag」は、ランダムアクセス可能なデータの開始点を示す。   In the new Japanese broadcasting system, video data and audio data are transmitted by storing the NAL unit directly in the MFU. Also, in the new Japanese broadcasting system, the MMTP packet with “RAP_flag” added to the immediately preceding MMTP packet with “RAP_flag” added is handled as a collection of data. The one data collection is treated as an MPU. “RAP_flag” indicates a starting point of randomly accessible data.

これらは、MMTPパケットの「RAP_flag」の有無の調査によって、同一MPUに属していることを識別できる。または、これらは、MMTPパケットの「MPU_sequence_number」によって、同一MPUに属していることを識別できる。この用法でのMPUを、ここでは、仮に「ストリーム伝送単位MPU」と呼ぶ。   These can be identified as belonging to the same MPU by examining the presence or absence of “RAP_flag” in the MMTP packet. Alternatively, these can be identified as belonging to the same MPU by “MPU_sequence_number” of the MMTP packet. Here, the MPU in this usage is temporarily referred to as a “stream transmission unit MPU”.

この「ストリーム伝送単位MPU」は、ランダムアクセス可能なデータを先頭としている。このため、映像の観点から考えると、GOP単位になっている。つまり、「ストリーム伝送単位MPU」は、MMTPの観点からは1GOPを構成するMMTPパケットの集まりと考えることができる。   This “stream transmission unit MPU” starts with randomly accessible data. For this reason, in terms of video, it is in GOP units. That is, the “stream transmission unit MPU” can be considered as a collection of MMTP packets constituting one GOP from the viewpoint of MMTP.

前述のMPUタイムスタンプ記述子とMPU拡張タイムスタンプ記述子とは、この「ストリーム伝送単位MPU」に関連付けて、同期する時間の情報を与えている。   The MPU time stamp descriptor and the MPU extended time stamp descriptor described above are associated with the “stream transmission unit MPU” and provide information on the time to be synchronized.

MPUタイムスタンプ記述子には、映像または音声などのMPUで、それぞれのMPUの中で最初に再生されるタイミングがNTP(Network Time Protocol)形式の時刻で示されている。NTPは、コンピュータに内蔵されているシステムクロックを、ネットワークを介して、コンピュータどうしの時刻を正しく同期させるためのプロトコルである。   The MPU time stamp descriptor indicates the timing at which the MPU such as video or audio is first reproduced in each MPU in the time of NTP (Network Time Protocol) format. NTP is a protocol for correctly synchronizing the clocks of computers via a network with a system clock built in the computers.

MPU拡張タイムスタンプ記述子には、それぞれのMPUの中のAU(映像の場合はフレーム)ごとに、再生されるタイミングがMPU内での相対的な時間として記述されている。MPU内での相対的な時間は、AU内での先頭からの差分または直前のAUからの差分などである。「差分」とは、2つの値の差のことである。例えば、ここでは、2つの値は時刻である。   In the MPU extended time stamp descriptor, the reproduction timing is described as a relative time in the MPU for each AU (frame in the case of video) in each MPU. The relative time in the MPU is a difference from the head in the AU or a difference from the immediately preceding AU. “Difference” is the difference between two values. For example, here, the two values are times.

これらの記述によって、映像、音声または字幕などの組合せを指定することができる。そして、映像、音声または字幕などの時間的な同期を取りながら再生することができる。   With these descriptions, a combination of video, audio, or subtitles can be specified. And it can reproduce | regenerate, taking time synchronization, such as an image | video, an audio | voice, or a subtitle.

テレビ放送では、PLTおよびMPTは、テレビの電源を入れた後に、短時間で番組を表示できるために、比較的に短い周期で再送されている。新しい日本の放送方式案の場合には、PLTおよびMPTは、100msごとに送られる。   In television broadcasting, since PLT and MPT can display a program in a short time after the television is turned on, they are retransmitted at a relatively short cycle. In the case of a new Japanese broadcasting scheme, PLT and MPT are sent every 100 ms.

これまで、TLVパケット、TCPパケットおよびMMTPパケットを結合したファイルを記録する方法を説明した。または、TLVパケット、UDPパケットおよびMMTPパケットを結合したファイルを記録する方法を説明した。   So far, a method for recording a file in which TLV packets, TCP packets, and MMTP packets are combined has been described. Alternatively, a method of recording a file that combines a TLV packet, a UDP packet, and an MMTP packet has been described.

しかし、このままでは、再生時刻の情報またはランダムアクセス可能な位置を示す情報などが、ファイル内の各所に分散して記録される。これは、情報へのアクセスにとっては、適していない。また、同じ情報が何度も記録されるため冗長である。   However, as it is, information on the reproduction time or information indicating a randomly accessible position is distributed and recorded in various places in the file. This is not suitable for access to information. In addition, the same information is recorded many times, which is redundant.

この情報が分散して記録されることは、放送では、どの時点から番組の受信を開始しても、短時間で情報をそろえて、表示を開始する必要があるからである。このため、ストリーム中の各所に分散して情報を持たせている。また、放送では、記録およびランダムアクセスを考慮する必要がないためである。   This information is recorded in a distributed manner because, in broadcasting, it is necessary to arrange and display information in a short time, regardless of the point in time when program reception starts. For this reason, information is distributed and provided in various places in the stream. This is because it is not necessary to consider recording and random access in broadcasting.

記録した番組を視聴する際には、頭出し、シーンの検索または編集による映像間の接続などが行われる。そのためランダムアクセスが必要となる。そこで、ランダムアクセスに必要な情報を、情報の記録時または情報の記録後に、独自に作成する。   When viewing a recorded program, a search is performed, connection between videos by scene search or editing, and the like are performed. Therefore, random access is required. Therefore, information necessary for random access is created independently at the time of recording information or after recording information.

図5、図6および図7を用いて、ランダムアクセスのためのデータ生成について説明する。   Data generation for random access will be described with reference to FIGS. 5, 6, and 7.

ここでは、MMTPパケット結合したファイルとして映像または音声などを含む映像データを作成する例を説明する。しかし、TLVまたはUDP/IPパケットを使用する場合も同様である。   Here, an example will be described in which video data including video or audio is created as a file combined with MMTP packets. However, the same applies when using TLV or UDP / IP packets.

図5は、パケットの選択と時間の同期とを説明する概念図である。四角で表わしたものが、MMTPパケットである。   FIG. 5 is a conceptual diagram illustrating packet selection and time synchronization. What is represented by a square is an MMTP packet.

図5において、横方向は、データの受信の順番を示している。つまり、横軸Ha方向には、受信された順番にデータが並べられている。受信した順番に左から右に記載してある。   In FIG. 5, the horizontal direction indicates the order of data reception. That is, data is arranged in the order received in the horizontal axis Ha direction. It is written from left to right in the order received.

映像のMMTPパケットの「R」と記載されているパケットは、「RAP_flag」が設定されている。そして、GOPの先頭を含んでいる。   The packet described as “R” in the video MMTP packet is set to “RAP_flag”. It includes the beginning of the GOP.

図5中において、MPTから引き出されている矢印は、このMPTのMPUタイムスタンプ記述子でそれぞれどのMPUの再生時刻を決めている関係を表している。   In FIG. 5, the arrows drawn from the MPT represent the relationship in which the playback time of each MPU is determined by the MPU time stamp descriptor of this MPT.

例えば、最初に現れるMPT−0は、映像アセットとして、「packet_ID」を指定する。図5では、一例として、MPT−0は、MPU−v0とMPU−v1との再生タイムスタンプを指定している。MPUは、複数のMMTPパケットで構成されている。   For example, MPT-0 that appears first designates “packet_ID” as a video asset. In FIG. 5, as an example, MPT-0 designates playback time stamps of MPU-v0 and MPU-v1. The MPU is composed of a plurality of MMTP packets.

また、同じMPT−0は、音声アセットとして「packet_ID」を指定する。図5では、一例として、MPT−0は、MPU−a0とMPU−a1との再生タイムスタンプを指定している。なお、音声のMPUは、1つのMMTPパケットに1つとは限らない。また、音声のMPUは、映像のMPUと同頻度で出現するとも限らない。しかし、作図上、1つのMMTPパケットに1つの音声MPUとしている。また、映像のMPUの出現頻度と音声のMPUの出現頻度とを同程度として描画している。   The same MPT-0 designates “packet_ID” as an audio asset. In FIG. 5, as an example, MPT-0 designates playback time stamps of MPU-a0 and MPU-a1. Note that the number of audio MPUs is not limited to one per MMTP packet. Also, the audio MPU does not always appear at the same frequency as the video MPU. However, in the drawing, one voice MPU is used for one MMTP packet. In addition, the appearance frequency of the video MPU and the appearance frequency of the audio MPU are drawn to the same level.

図5中では、音声、映像および制御情報の3つの流れが書いてある。しかし、実際には、録画再生装置100は、1つのデータの流れとして混在した状態で受信している。   In FIG. 5, three flows of audio, video, and control information are written. However, actually, the recording / reproducing apparatus 100 receives the data in a mixed state as one data flow.

このような異なる種類の情報を、一つのデータとして混在させている状態を多重化されているという。多重化された状態から、「packet_ID」、各種のフラグまたは各種の識別子などを用いて、目的とするデータの流れ(ストリーム)を抽出して、分離することができる。「packet_ID」、各種のフラグまたは各種の識別子などは、それぞれのMMTPパケット付加されている。多重化されたデータから目的のデータを取り出すことを多重化の解除という。   A state where such different types of information are mixed as one data is said to be multiplexed. From the multiplexed state, the target data flow (stream) can be extracted and separated using “packet_ID”, various flags, various identifiers, or the like. “Packet_ID”, various flags, various identifiers, and the like are added to each MMTP packet. Extracting the target data from the multiplexed data is called demultiplexing.

対象とする番組の多重化されたデータの中から、MPTを含むMMTPパケットを抽出する。そして、MMTPパケットからMPTを取り出す。MPTには、番組を構成する各種アセットのリストとその取得方法とが格納されている。   An MMTP packet including MPT is extracted from the multiplexed data of the target program. Then, MPT is extracted from the MMTP packet. The MPT stores a list of various assets constituting the program and a method for acquiring the same.

例えば、映像の種類とそのデータを格納している「packet_ID」とを知ることができる。また、音声の種類とそのデータを格納している「packet_ID」とを知ることができる。これらの「packet_ID」で、受信したMMTPパケットを選択し、または、分類する。これらによって、番組を構成する映像データまたは音声データを個別に取出すことができる。つまり、多重化を解除できる。   For example, the type of video and “packet_ID” storing the data can be known. In addition, the type of voice and “packet_ID” storing the data can be known. With these “packet_ID”, the received MMTP packet is selected or classified. By these, video data or audio data constituting a program can be individually taken out. That is, multiplexing can be released.

コンテナフォーマットの目的の一つは、このように、異なるデータを一組にまとめて多重化して取り扱いやすくするものである。コンテナフォーマットは、例えば、MMTまたはMPEG2TSなどである。   One of the purposes of the container format is to make it easy to handle different data in a single set. The container format is, for example, MMT or MPEG2TS.

図5では、受信したストリームデータをMPTストリーム、映像ストリームおよび音声ストリームの3つのストリームに分けている。   In FIG. 5, the received stream data is divided into three streams: an MPT stream, a video stream, and an audio stream.

コンテナフォーマットのもう一つの目的は、タイミングを合わせてこれらのデータを再生することである。つまり、コンテナフォーマットのもう一つの目的は、これらのデータを同期して再生することである。   Another purpose of the container format is to replay these data in time. In other words, another purpose of the container format is to reproduce these data synchronously.

図5では、MPT−0を受信すると、この番組を構成する映像または音声などのアセット情報を得ることができる。さらに、これらのアセットごとにタイムスタンプ情報が記載されている。タイムスタンプ情報は、映像の表示または音声の再生などのタイミングを示す情報である。タイムスタンプ情報は、MPT内に記載されている。タイムスタンプ情報は、アセットごとの「ストリーム伝送単位MPU」の番号に対しての再生時刻である。   In FIG. 5, when MPT-0 is received, asset information such as video or audio constituting the program can be obtained. Further, time stamp information is described for each of these assets. The time stamp information is information indicating timing such as video display or audio playback. The time stamp information is described in the MPT. The time stamp information is a reproduction time for the number of “stream transmission unit MPU” for each asset.

例えば、映像に対しては、MPT−0に、MPU−v0の最初のフレームの再生時刻およびMPU−v1の最初のフレームの再生時刻が記載されている。また、MPT−1に、MPU−v1およびMPU−v2のそれぞれの最初のフレームの再生時刻が記載されている。   For example, for video, MPT-0 describes the playback time of the first frame of MPU-v0 and the playback time of the first frame of MPU-v1. Also, MPT-1 describes the playback time of the first frame of each of MPU-v1 and MPU-v2.

音声に対しても、同様に、MPT−0に、MPU−a0の再生時刻およびMPU−a1の再生時刻が記載されている。また、MPT−1に、MPU−a1再生時刻およびMPU−a2の提示時刻が記載されている。   Similarly, for MP3-0, the playback time of MPU-a0 and the playback time of MPU-a1 are described in MPT-0. In addition, MPT-a1 playback time and MPU-a2 presentation time are described in MPT-1.

ここでは、説明のために、アセットごとに「ストリーム伝送単位MPU」の2つ分のタイムスタンプを持っているものとして説明した。しかし、実際には、さらに多くのタイムスタンプを持たせることもできる。   Here, for the sake of explanation, it is assumed that each asset has two time stamps of “stream transmission unit MPU”. In practice, however, it is possible to have more time stamps.

このようにして、MPUによって「ストリーム伝送単位MPU」の再生時刻を指定することができる。そして、映像と音声とを同期して再生することができる。ここでは説明しなかったが、字幕に関しても同様である。   In this way, the playback time of the “stream transmission unit MPU” can be specified by the MPU. The video and audio can be reproduced in synchronization. Although not described here, the same applies to subtitles.

これらの情報を記録する場合について、図6を用いて説明する。図6は、MMTP方式でのMPUタイムスタンプ記述子を用いた同期方式を説明する図である。図6には、アセットデーブル、タイムテーブルおよびデータファイルが記載されている。データファイルの上側は、データの先頭である。   A case where such information is recorded will be described with reference to FIG. FIG. 6 is a diagram for explaining a synchronization method using an MPU time stamp descriptor in the MMTP method. FIG. 6 shows an asset table, a time table, and a data file. The upper side of the data file is the top of the data.

データファイルには、番組を構成するMMTPパケットが順次記録される。単純に、MMTPパケットを受信順に記録した場合には、映像データ、音声データまたは制御情報等が混在した状態で記録される。ここでは、説明のために「ストリーム伝送単位MPU」ごとにまとめた形で記載している。   In the data file, MMTP packets constituting a program are sequentially recorded. Simply, when MMTP packets are recorded in the order of reception, the video data, audio data, control information, etc. are recorded in a mixed state. Here, for the sake of explanation, the “stream transmission unit MPU” is described in a summarized form.

例えば、「MPT−0」は、MPTである。そして、受け取られた順番が付されている。「MPT−0」の順番は、「0」であるため、最初に受け取られたことを示している。   For example, “MPT-0” is MPT. And the order of receipt is given. Since the order of “MPT-0” is “0”, it indicates that it was received first.

例えば、「MPU−v0」は、ビデオストリームとして選択されたMMTPパケットである。MMTPパケットは、MMTPパケットを複数まとめたMPUとして扱っている。そして、受け取られた順番が付されている。「MPU−v0」の順番は、「0」であるため、最初に受け取られたことを示している。   For example, “MPU-v0” is an MMTP packet selected as a video stream. The MMTP packet is handled as an MPU in which a plurality of MMTP packets are collected. And the order of receipt is given. Since the order of “MPU-v0” is “0”, it indicates that it was received first.

例えば、「MPU−a0」は、音声ストリームとして選択されたMMTPパケットである。音声のMPUは、1つのMMTPパケットに1つとは限らない。また、音声のMPUは、映像のMPUと同頻度で出現するとも限らない。しかし、説明を簡単にするため、音声のMPUが映像のMPUと同じ頻度で発生するとしている。また、音声のMPUは、1つのMMTPパケットに1つとしている。   For example, “MPU-a0” is an MMTP packet selected as an audio stream. The number of voice MPUs is not necessarily one per MMTP packet. Also, the audio MPU does not always appear at the same frequency as the video MPU. However, in order to simplify the explanation, it is assumed that the audio MPU occurs at the same frequency as the video MPU. Also, one audio MPU is provided for each MMTP packet.

データファイル中の「R」と記載されているパケットは、「RAP_flag」が設定されている。そして、GOPの先頭を含んでいる。そのため、このパケットからデータを読み始めることによって、効率よく映像を再生できる。   The packet described as “R” in the data file has “RAP_flag” set. It includes the beginning of the GOP. Therefore, video can be efficiently reproduced by starting to read data from this packet.

また、不完全なデータを破棄することが低減される。映像データは、GOPを構成している。このため、先頭のIピクチャ部分のデータを取り損ねると後続の何十枚かのピクチャは映像として再現できない。GOPの先頭のデータを取り損ねた場合には、読み取ったデータを破棄しながら、次のGOP先頭が来るのを待つ。このような、データの破棄を低減することができる。このようなデータの破棄は、頭出しまたはランダムアクセス時に、表示の遅延となる。このため、データの破棄の低減によって、スムーズな再生が可能になる。   Also, discarding incomplete data is reduced. The video data constitutes a GOP. For this reason, if the data of the head I picture portion is missed, the following dozens of pictures cannot be reproduced as video. If the head data of the GOP is missed, the read data is discarded and the next GOP head is awaited. Such discarding of data can be reduced. Such discarding of data causes a display delay at the time of cueing or random access. For this reason, smooth reproduction becomes possible by reducing the discard of data.

前述の通り、このように記録したデータファイルは、ランダムアクセスを行うには適していない。   As described above, the data file recorded in this way is not suitable for random access.

第1には、映像データは可変長データである。このため、目的とする映像を再生するためのデータがどこに存在するのかを特定することができない。第2には、「RAP_flag」が設定されているパケットを直接呼び出すことができない。   First, the video data is variable length data. For this reason, it is impossible to specify where the data for reproducing the target video exists. Second, a packet for which “RAP_flag” is set cannot be directly called.

そこで、ランダムアクセス用の検索テーブルを用意する。   Therefore, a search table for random access is prepared.

図6のアセットテーブルには、「packet_id」を格納しておく。「packet_id」を用いて、データファイル内のMMTPパケットから必要なアセットを取りだすことができる。   In the asset table of FIG. 6, “packet_id” is stored. Using “packet_id”, the required asset can be extracted from the MMTP packet in the data file.

タイムテーブルには、「RAP_flag」を含むパケットのファイル内での記録位置を格納する。そして、このパケットを含む「ストリーム伝送単位MPU」の指定された再生時間を格納する。そして、これらの情報を再生時間の時系列順に並べておく。   In the time table, the recording position in the file of the packet including “RAP_flag” is stored. Then, the designated reproduction time of the “stream transmission unit MPU” including this packet is stored. These pieces of information are arranged in order of reproduction time.

アセットテーブルおよびタイムテーブルの内容は、例えば、MPTに記載されている情報と記録再生装置100に記録される際の情報とから作成することができる。   The contents of the asset table and the time table can be created from, for example, information described in the MPT and information recorded in the recording / reproducing apparatus 100.

時刻を決めて再生を行う場合について説明する。   A case where reproduction is performed at a determined time will be described.

例えば、図6において、時刻「0:0:1.00」からの映像を表示する場合には、まず、タイムテーブルの時刻を検索する。そして、時刻が一致する欄からファイル上の位置である「25000000」を読み出す。   For example, in FIG. 6, when displaying a video from time “0: 0: 1.00”, first, the time in the time table is searched. Then, “25000000”, which is the position on the file, is read out from the column where the times coincide.

そこで、データファイルの位置「25000000」から、データを読み込む。そして、データの再生処理を行う。これによって、指定された位置から、データを再生することができる。   Therefore, data is read from the position “25000000” of the data file. Then, data reproduction processing is performed. As a result, data can be reproduced from the designated position.

データファイルは、映像データ、音声データまたはその他のデータがパケット単位で混在した状態である。しかし、アセットテーブルまたはMPTを参照して、パケットの分類を行うことによって、映像データまたは音声データ等を分離して再生することが可能である。   The data file is a state in which video data, audio data, or other data is mixed in units of packets. However, by referring to the asset table or MPT and performing packet classification, video data, audio data, or the like can be separated and reproduced.

再生を開始したい時刻と同一の時刻が、タイムテーブルに無い場合もある。この場合には、タイムテーブルに記載されている時刻から、再生を開始したい時刻に近いものを選び、そこからデータを再生する。   In some cases, the time table does not have the same time as the time at which playback is to be started. In this case, a time close to the time at which reproduction is to be started is selected from the times described in the time table, and data is reproduced therefrom.

例えは、再生開始時刻として「0:0:1.70」が指定された場合には、タイムテーブルに記載されている「0:0:1.50」と「0:0:2.00」とのうち、指定された時刻に近い「0:0:1.50」を選ぶ。そして、データファイル上の位置「33000000」からデータを再生する。   For example, when “0: 0: 1.70” is designated as the reproduction start time, “0: 0: 1.50” and “0: 0: 2.00” described in the time table are used. Then, “0: 0: 1.50” close to the designated time is selected. Then, the data is reproduced from the position “33000000” on the data file.

データファイル上の位置は、例えば、ファイル先頭からのバイト単位での位置である。または、データファイル上の位置は、例えば、ブロック単位での位置である。または、データファイル上の位置は、例えば、セクタ単位での位置である。   The position on the data file is, for example, a position in byte units from the beginning of the file. Alternatively, the position on the data file is, for example, a position in block units. Alternatively, the position on the data file is, for example, a position in units of sectors.

特殊再生の場合について説明する。特殊再生は、例えば、早送りまたは巻き戻しなどである。例えば、早送りの場合には、タイムテーブルを順に読み出し、指定された位置からファイルを読み出す。そして、1フレーム分のデータを再生した時点で、次の時刻の位置に移る。これによって、早送りでデータを再生できる。   The case of special playback will be described. Special playback is, for example, fast forward or rewind. For example, in the case of fast-forwarding, the time table is sequentially read, and the file is read from the designated position. Then, when the data for one frame is reproduced, it moves to the position of the next time. As a result, data can be reproduced by fast-forwarding.

図7は、タイムテーブルを作成する手順を示すフローチャートである。   FIG. 7 is a flowchart showing a procedure for creating a time table.

日本の放送方式では、MPTは100msごとに再送される。1GOPが0.5秒であれば、その間にMPTを5回受信する。1GOPは、一つの「ストリーム伝送単位MPU」である。   In the Japanese broadcasting system, the MPT is retransmitted every 100 ms. If 1 GOP is 0.5 seconds, MPT is received 5 times during that time. One GOP is one “stream transmission unit MPU”.

また、1つのMPTの1つのアセットにタイムスタンプを15個格納することが許されている。つまり、タイムスタンプは重複して送出されている。   Further, it is allowed to store 15 time stamps in one asset of one MPT. That is, the time stamp is duplicated.

ステップS7001において、ストリームデータを受信する際に、MMTPパケットを取り出す。そして、MMTPパケットがMPTを含む場合には、タイムスタンプ処理を実施する。   In step S7001, an MMTP packet is extracted when stream data is received. When the MMTP packet includes MPT, time stamp processing is performed.

ステップS7002において、MMTPパケットからMPTを取り出す。そして、アセットごとの「ストリーム伝送単位MPU」のシーケンス番号とタイムスタンプ情報との組合せを取り出す。   In step S7002, MPT is extracted from the MMTP packet. Then, a combination of the sequence number of the “stream transmission unit MPU” for each asset and the time stamp information is extracted.

ステップS7003において、タイムスタンプ情報の重複を取り除く。前述のように、タイムスタンプ情報は重複して送出されているためである。この時点で、「ストリーム伝送単位MPU」のシーケンス番号と再生時刻を示すタイムスタンプのリストとが得られる。   In step S7003, duplication of time stamp information is removed. This is because the time stamp information is duplicated as described above. At this point, a sequence number of “stream transmission unit MPU” and a list of time stamps indicating the reproduction time are obtained.

このフローチャートには含まれていないが、並行して映像データまたは音声データを含むMMTPパケットは、順次、データファイルとして内蔵記憶装置51または光ディスク53に記録される。そして、データファイル上の位置は記録時に判明する。   Although not included in this flowchart, MMTP packets including video data or audio data in parallel are sequentially recorded on the internal storage device 51 or the optical disc 53 as a data file. The position on the data file is determined at the time of recording.

ステップS7004において、「RAP_flag」が設定されているMMTPパケットを記録する際に、このパケットのファイル上での位置と、このMMTPパケットが属する「ストリーム伝送単位MPU」のシーケンス番号とを取り出す。タイムスタンプのリストの中で、同じ「ストリーム伝送単位MPU」のシーケンス番号を持つタイムスタンプ情報に、ファイル上に記録した位置の情報を追加する。   In step S7004, when the MMTP packet in which “RAP_flag” is set is recorded, the position of the packet on the file and the sequence number of the “stream transmission unit MPU” to which the MMTP packet belongs are extracted. Information on the position recorded on the file is added to the time stamp information having the same “stream transmission unit MPU” sequence number in the time stamp list.

ステップS7005において、これらの処理が終了したか否かを確認する。処理が終了していない場合には、「no」を選択して、ステップS7001に進む。処理が終了した場合には、「yes」を選択して、ステップS7006に進む。   In step S7005, it is confirmed whether or not these processes are completed. If the process has not ended, “no” is selected and the process proceeds to step S7001. If the processing is completed, “yes” is selected, and the process proceeds to step S7006.

ステップS7006において、内蔵記憶装置51または光ディスク53に作成したデータを書き込む。   In step S7006, the created data is written to the internal storage device 51 or the optical disc 53.

このようにして、タイムテーブルを作成することができる。   In this way, a time table can be created.

ここでは、GOPごとに設定されているMPUタイムスタンプ記述子のタイムスタンプ情報を使って、ランダムアクセスを実現している。GOPは、「ストリーム伝送単位MPU」である。そのため、データの再生を開始できる位置は、GOP単位となる。つまり、0.5秒または1秒などの単位でしか再生位置を指定できない。例えば、時間指定による頭出し、早送りまたは巻き戻し等の場合には、この程度の精度で十分である。   Here, random access is realized using time stamp information of an MPU time stamp descriptor set for each GOP. GOP is “stream transmission unit MPU”. Therefore, the position where data reproduction can be started is in GOP units. That is, the playback position can be specified only in units of 0.5 seconds or 1 second. For example, in the case of cueing by time designation, fast-forwarding or rewinding, this degree of accuracy is sufficient.

しかし、内蔵記憶装置51または光ディスク53などに記録した後に、編集などを行う場合には、GOP単位での位置指定では不十分である。例えば、同一番組の別の位置どうしを組み合わせ連続して再生する場合、または、別の番組どうしを組み合わせ連続して再生する場合などである。このような組み合せによって、お気に入りシーン集などを作成することができる。   However, when editing is performed after recording in the internal storage device 51 or the optical disk 53, it is not sufficient to specify the position in units of GOPs. For example, when different positions of the same program are combined and reproduced continuously, or when different programs are combined and reproduced continuously. With such a combination, a favorite scene collection or the like can be created.

そこで、MPT内のMPU拡張タイムスタンプ記述子を利用する。   Therefore, the MPU extended time stamp descriptor in the MPT is used.

図8は、フレーム単位の時刻で検索できるタイムテーブルを示す図である。   FIG. 8 is a diagram showing a time table that can be searched by time in frame units.

図8に示したタイムテーブルは、通常のタイムテーブルを拡張して、フレーム単位の時刻で検索できるようにしたタイムテーブルである。図8に示すタイムテーブルは、再生時刻、ファイル上のデータの位置およびAU番号の情報を持つ。   The time table shown in FIG. 8 is a time table in which a normal time table is extended so that searching can be performed by time in frame units. The time table shown in FIG. 8 has information of reproduction time, data position on the file, and AU number.

AU番号は、同一の「ストリーム伝送単位MPU」に属するデータの中の何番目のAUであるかを示す。映像データの場合には、AUはピクチャに相当する。しかし、デコードの効率のために、GOP内でのAUの並びの順は、ピクチャの表示順とは必ずしも一致していない。   The AU number indicates the AU number in the data belonging to the same “stream transmission unit MPU”. In the case of video data, AU corresponds to a picture. However, for the sake of decoding efficiency, the order of arrangement of AUs in a GOP does not necessarily match the display order of pictures.

このタイムテーブルでは、再生時刻の順番で並べられている。このため、AU番号は、前後している。つまり、AU番号は、順番に並んでいない。   In this time table, they are arranged in the order of playback times. For this reason, the AU numbers are mixed. That is, the AU numbers are not arranged in order.

MPU拡張タイムスタンプ記述子には、それぞれの「ストリーム伝送単位MPU」内のAUに対して、最初に表示されるAUからの差分で再生時刻が与えられている。または、MPU拡張タイムスタンプ記述子には、それぞれの「ストリーム伝送単位MPU」内のAUに対して、再生時刻の間隔が与えられている。   In the MPU extended time stamp descriptor, the reproduction time is given to the AU in each “stream transmission unit MPU” as a difference from the AU displayed first. Alternatively, in the MPU extended time stamp descriptor, a reproduction time interval is given to each AU in each “stream transmission unit MPU”.

そこで、MPUタイムスタンプ記述子の再生時刻と、MPU拡張タイムスタンプ記述子の差分時刻から各AUの再生時刻を算出することが出来る。または、MPUタイムスタンプ記述子の再生時刻と、MPU拡張タイムスタンプ記述子の再生時刻の間隔とから各AUの再生時刻を算出することが出来る。   Therefore, the reproduction time of each AU can be calculated from the reproduction time of the MPU time stamp descriptor and the difference time of the MPU extended time stamp descriptor. Alternatively, the playback time of each AU can be calculated from the playback time of the MPU time stamp descriptor and the playback time interval of the MPU extended time stamp descriptor.

なお、図8では、説明のために、一例として、100分の1秒単位で記載してある。   In FIG. 8, for the sake of explanation, it is described in units of 1/100 second as an example.

MPU拡張タイムスタンプ記述子の中では、タイムスケール(timescale)として、1秒を分割する数を定義している。そして、各AUの再生時刻は、このタイムスケールを用いて表記する。映像で使用されるフレームレートは、毎秒60枚または毎秒24枚である。そして、1フレームを秒の小数単位で表記しようとすると、割り切れず、誤差が発生する。このため、タイムスケールを用いる。そこで、タイムテーブルのフレーム単位での時刻欄に、このタイムスケールを用いた値を採用することもできる。   In the MPU extended time stamp descriptor, a number that divides 1 second is defined as a timescale. The reproduction time of each AU is expressed using this time scale. The frame rate used in the video is 60 frames per second or 24 frames per second. If one frame is expressed in decimal units, it is not divisible and an error occurs. For this reason, a time scale is used. Therefore, a value using this time scale can be adopted in the time column of each frame in the time table.

GOPの途中からデータの再生を開始したい場合でも、デコードは必ずGOPの先頭から行う。そのため、データの読み込み開始位置は、同一の「ストリーム伝送単位MPU」内では同一となる。   Even when data reproduction is to be started in the middle of a GOP, the decoding is always performed from the beginning of the GOP. Therefore, the data reading start position is the same within the same “stream transmission unit MPU”.

このタイムテーブルを使ってデータの再生する場合の一例を説明する。   An example of data reproduction using this time table will be described.

時刻「00:00:01.04」を指定して検索した場合には、この時刻に相当するピクチャは存在しない。このため、直前のピクチャとなる「00:00:01.03」のピクチャから再生を行う。   When the search is performed by designating the time “00: 00: 01.04”, there is no picture corresponding to this time. For this reason, reproduction is performed from the picture of “00: 00: 01.03” which is the previous picture.

タイムテーブルを参照すると、このピクチャは、ファイル上の位置「25000000」から始まる「ストリーム伝送単位MPU」のAU番号2のAUである。つまり、このピクチャのAUは、3番目のAUである。   Referring to the time table, this picture is an AU of AU number 2 of “stream transmission unit MPU” starting from a position “25000000” on the file. That is, the AU of this picture is the third AU.

そこで、ファイル上の位置「25000000」から読み出しを開始すると共に、デコードを開始する。1番目のAUのデコードが完了して、ピクチャのデータが作成される。この後に、この作成されたピクチャを表示しない。そして、差分情報しか持たない後続のAUのデコードを行う。そして、3番目のAUのデコードが完了した後に、この3番目のAUの映像から再生を開始する。このようにして、GOPの途中からデータ(映像)の再生を行うことができる。   Therefore, reading is started from the position “25000000” on the file, and decoding is started. Decoding of the first AU is completed, and picture data is created. After this, the created picture is not displayed. Then, subsequent AUs having only difference information are decoded. Then, after the decoding of the third AU is completed, reproduction is started from the video of the third AU. In this way, data (video) can be reproduced from the middle of the GOP.

この例では、詳細な情報を持つタイムテーブルを1つ用いて再生するようにした。しかし、例えば、前述の早送り再生の場合などでは、必ずしも効率の良い方法とはいえない。そこで、標準のタイムテーブルと詳細なタイムテーブルとの2段階で検索を行う方法を取ることもできる。   In this example, reproduction is performed using one time table having detailed information. However, for example, in the case of the above-mentioned fast-forward playback, it is not necessarily an efficient method. Therefore, it is possible to take a method of performing a search in two stages of a standard time table and a detailed time table.

日本の新しい放送方式では、MPU拡張タイムスタンプ記述子は、AU間の再生間隔を指定している。その間隔は、60分の1秒または120分の1秒である。この間隔は可変である。しかし、番組内では同一フレームレートを用いている。そのため、詳細なタイムテーブルを用いずに、計算によって各フレームの再生時刻を求めることが出来る。   In the new broadcasting system in Japan, the MPU extended time stamp descriptor specifies the playback interval between AUs. The interval is 1/60 second or 1/120 second. This interval is variable. However, the same frame rate is used in the program. Therefore, the reproduction time of each frame can be obtained by calculation without using a detailed time table.

この場合には、図6に示した「ストリーム伝送単位MPU」ごとのタイムテーブルを利用して検索する。そして、再生を開始したい時刻を含む「ストリーム伝送単位MPU」を特定する。そして、この再生時刻と再生を開始したい時刻との差を求める。この時刻の差とフレームレートとから、この「ストリーム伝送単位MPU」内の表示順で、何枚目のピクチャであるのかを求めることが出来る。   In this case, the search is performed using the time table for each “stream transmission unit MPU” shown in FIG. Then, the “stream transmission unit MPU” including the time at which playback is to be started is specified. Then, the difference between the reproduction time and the time at which reproduction is to be started is obtained. From the time difference and the frame rate, it is possible to determine the number of pictures in the display order in the “stream transmission unit MPU”.

指定された時刻にフレームがない場合には、表示の順番で指定時刻の直前のフレーム、または直後のフレームとする。つまり、指定時刻の直前のフレーム、または直後のフレームを採用する。   If there is no frame at the specified time, the frame immediately before the specified time or the frame immediately after the specified time in the display order. That is, the frame immediately before or after the specified time is adopted.

前述のように、AUの並び順とピクチャの再生時刻の順番とが異なる。しかし、「ストリーム伝送単位MPU」の先頭からデコードを開始する。そして、算出された再生の順番を持つピクチャのデコードが完了する。デコードが完了したピクチャから再生を開始する。これによって、ピクチャ単位の精度での頭出しを行うことが出来る。   As described above, the AU arrangement order and the picture playback time order are different. However, decoding is started from the head of the “stream transmission unit MPU”. Then, the decoding of the picture having the calculated reproduction order is completed. Playback starts from a picture that has been decoded. As a result, cueing can be performed with accuracy in units of pictures.

ここで、説明したタイムテーブルを別ファイルとして作成して録画を行った場合には、番組内容を記録するデータファイルにタイムスタンプを記録する必要はない。   Here, when the time table described above is created as a separate file and recorded, it is not necessary to record a time stamp in the data file for recording the program contents.

MPTは、タイムスタンプ以外の制御情報を含んでいる。例えば、MPTは、アセット情報などを含んでいる。タイムスタンプは、例えば、MPUタイムスタンプ記述子またはMPU拡張タイムスタンプ記述子などである。つまり、MPTは、MPUタイムスタンプ記述子またはMPU拡張タイムスタンプ記述子以外にも、アセット情報などのタイムスタンプ以外の制御情報を含んでいる。   The MPT includes control information other than the time stamp. For example, MPT includes asset information and the like. The time stamp is, for example, an MPU time stamp descriptor or an MPU extended time stamp descriptor. That is, the MPT includes control information other than the time stamp such as asset information in addition to the MPU time stamp descriptor or the MPU extended time stamp descriptor.

しかし、これらの情報は、番組の途中で変更される性格のものではない。このため、別ファイルなどで1箇所に記録しておくことで、MPTそのものは記録を省略することが出来る。例えば、図6では、アセットテーブルとして管理情報(Packet_id)を保持している。   However, these pieces of information are not of a nature that changes during the program. For this reason, the MPT itself can be omitted by recording it in one place as a separate file. For example, in FIG. 6, management information (Packet_id) is held as an asset table.

MPTが単独でMMTPパケットに格納されている場合には、データファイルにMMTPパケットを記録する際に、MPTを格納したMMTPパケットを記録する必要がなくなる。   When the MPT is stored alone in the MMTP packet, it is not necessary to record the MMTP packet storing the MPT when recording the MMTP packet in the data file.

MPTが他の管理情報と一緒にMMTPパケットに格納されている場合には、MPTを除いた管理情報でMMTPパケットを再構成する。そして、再構成されたMMTPパケットを記録することが出来る。   When the MPT is stored in the MMTP packet together with other management information, the MMTP packet is reconstructed with the management information excluding the MPT. Then, the reconstructed MMTP packet can be recorded.

MPUタイムスタンプ記述子またはMPU拡張タイムスタンプ記述子は、放送時には重複度の高いデータである。このため、省略することが出来れば、記録するデータサイズを小さくすることが可能となる。   The MPU time stamp descriptor or the MPU extended time stamp descriptor is highly redundant data during broadcasting. For this reason, if it can be omitted, the data size to be recorded can be reduced.

前述では、MPTを記録する必要はないとした。しかし、MPTを映像ストリームまたは音声ストリームなどのストリームを含むMMTPパケットと一緒に記録しておいた方が便利なこともある。   In the above description, it is not necessary to record the MPT. However, it may be convenient to record the MPT together with an MMTP packet including a stream such as a video stream or an audio stream.

例えば、多重化解除部21とデコード部31,32,33,34とが一体となったLSIを用いてデコード処理を行う場合には、MPTを含んだデータを多重化解除部21に入力することで、多重化解除、デコードおよび同期処理を一括して行うことができる。   For example, when decoding processing is performed using an LSI in which the demultiplexing unit 21 and the decoding units 31, 32, 33, and 34 are integrated, data including MPT is input to the demultiplexing unit 21. Thus, demultiplexing, decoding, and synchronization processing can be performed collectively.

また、フレーム単位の頭出しを行う場合にも、「ストリーム伝送単位MPU」の前または先頭にMPTがあれば、このMPTを参照して、再生を開始する前に、フレーム単位での再生時刻を求めて頭出しを行うことが出来る。MPTは、「ストリーム伝送単位MPU」の先頭付近にあってもよい。   Also, when performing cueing in units of frames, if there is an MPT before or at the beginning of the “stream transmission unit MPU”, the playback time in units of frames is set before starting playback with reference to this MPT. You can cue for it. The MPT may be near the head of the “stream transmission unit MPU”.

この場合にも、テレビ局から送信されてきたMPTの全てを記録する必要はない。MPTの一部だけを記録することで処理することも出来る。   Also in this case, it is not necessary to record all the MPTs transmitted from the television station. Processing can also be performed by recording only a part of the MPT.

図9は、MMTP方式でのMPUタイムスタンプ記述子を用いた同期方式を説明する図である。図9では、「ストリーム伝送単位MPU」の直前にMPTを格納している。タイムテーブルには、「ストリーム伝送単位MPU」の先頭の位置ではなく、このMPTの位置を示している。   FIG. 9 is a diagram for explaining a synchronization method using an MPU time stamp descriptor in the MMTP method. In FIG. 9, the MPT is stored immediately before the “stream transmission unit MPU”. The time table indicates the position of the MPT, not the position of the head of the “stream transmission unit MPU”.

従来のブルーレイディスクの記録方式では、これらのタイムテーブルに相当する情報としてクリップファイル内に「EP_map」を格納していた。しかし、「EP_map」は、固定長パケットとパケットごとのタイムスタンプを持つMPEG2TSを前提とした構造になっている。そのため、そのままではMMTのデータに適用できない。   In the conventional Blu-ray disc recording method, “EP_map” is stored in the clip file as information corresponding to these time tables. However, “EP_map” has a structure based on MPEG2TS having a fixed-length packet and a time stamp for each packet. Therefore, it cannot be applied to MMT data as it is.

そこで、前述のタイムテーブルを「EP_map」の代わりに使用する。これによって、MMTのデータをブルーレイディスクに記録した際に、データアクセスを容易にすることができる。   Therefore, the above time table is used instead of “EP_map”. As a result, data access can be facilitated when MMT data is recorded on a Blu-ray disc.

この例では、MMTPパケットを結合して記録する説明を行った。しかし、TLVパケット、IPパケットまたはUDPパケットのそれぞれの状態で、パケットを結合して記録することもできる。また、タイムテーブルを拡張して、アセットごとに記録することも可能である。つまり、映像データまたは音声データの読み出し開始位置を検索できるようにする。そして、MFUの羅列としてデータを結合して記録する。   In this example, description has been given of combining and recording MMTP packets. However, packets can be combined and recorded in each state of a TLV packet, an IP packet, or a UDP packet. It is also possible to expand the time table and record each asset. That is, it is possible to search for the reading start position of video data or audio data. Then, the data is combined and recorded as a list of MFUs.

[標準フォーマットを用いて記録する場合]
MMTでは、前述のように伝送フォーマットとは別に、蓄積フォーマットが規定されている。MMTの蓄積フォーマットでは、BMFF(ISO/IEC 14496−12 ISO Base Media File Format)形式をベースに、データを格納する。この場合には、データのレイアウトは、図3に示された論理構造をしている。図3は、データの論理構造を示した図である。
[When recording using the standard format]
In MMT, as described above, a storage format is defined separately from the transmission format. In the MMT accumulation format, data is stored based on the BMFF (ISO / IEC 14496-12 ISO Base Media File Format) format. In this case, the data layout has the logical structure shown in FIG. FIG. 3 is a diagram showing a logical structure of data.

このデータの塊は、MPUと呼ばれている。このMPUは前述の「ストリーム伝送単位MPU」とは異なるものである。ここでは、仮に「番組蓄積用MPU」と呼ぶ。「番組蓄積用MPU」は、通常ファイルとして格納され、管理されている。   This data chunk is called an MPU. This MPU is different from the aforementioned “stream transmission unit MPU”. Here, it is temporarily called “program storage MPU”. The “program storage MPU” is stored and managed as a normal file.

図3の論理構造を用いて「番組蓄積用MPU」の構造を説明する。   The structure of “program storage MPU” will be described using the logical structure of FIG.

MPUメタデータは、ファイルの管理データ、アセット情報、各種パラメーターまたはヒント情報などを含んでいる。アセット情報は、映像データと音声データとの組み合わせなどを管理する情報である。各種パラメーターは、デコーダーの動作モード等を設定するためのパラメーターである。ヒント情報は、MPUファイルに格納されたMFUからMMTPパケットを再構成するための情報である。   The MPU metadata includes file management data, asset information, various parameters, hint information, and the like. Asset information is information for managing a combination of video data and audio data. Various parameters are parameters for setting the operation mode of the decoder. The hint information is information for reconstructing the MMTP packet from the MFU stored in the MPU file.

ムービーフラグメントメタデータは、再生時間で区切られた映像データまたは音声データなどにアクセスするための情報である。また、ムービーフラグメントメタデータは、映像データまたは音声データなどを再生するための情報である。   Movie fragment metadata is information for accessing video data, audio data, or the like divided by playback time. Movie fragment metadata is information for reproducing video data or audio data.

実際の映像データおよび音声データは、MFUの羅列として格納されている。1つのムービーフラグメントメタデータとそれによって管理される一塊のMFUとは、まとめてムービーフラグメントと呼ばれている。一般的には、複数のムービーフラグメントで1つのコンテンツを構成している。ネットワークストリーミング等では、一般的には、1フラグメントは10秒から15秒で構成されている。   Actual video data and audio data are stored as a list of MFUs. One movie fragment metadata and a group of MFUs managed by the metadata are collectively called a movie fragment. In general, a plurality of movie fragments constitute one content. In network streaming or the like, generally, one fragment is composed of 10 to 15 seconds.

MPUメタデータおよびムービーフラグメントメタデータが放送波Ba等で送られてくる場合には、これらを利用してMPUを構成することができる。PLT、MPT、その他の制御情報またはMFUを取り出すまでの各種ヘッダ情報は、冗長になるため、記録する必要はない。   When MPU metadata and movie fragment metadata are sent by broadcast wave Ba or the like, the MPU can be configured using these. Various header information until PLT, MPT, other control information or MFU is taken out is redundant and need not be recorded.

一方、新しい日本の放送方式案では、MPUメタデータおよびムービーフラグメントメタデータは、放送時に送出されない。そのため、PLT情報、MPT情報および各種のヘッダ情報を組み合わせて、独自にMPUメタデータ等を作成する。   On the other hand, in the new Japanese broadcasting scheme proposal, MPU metadata and movie fragment metadata are not transmitted during broadcasting. Therefore, the MPT metadata and the like are uniquely created by combining the PLT information, the MPT information, and various types of header information.

光ディスク53への記録にも、上記の蓄積フォーマットを使用することを考える。光ディスク53では、物理的に連続して格納されたデータを比較的高速に読み出すことが可能である。しかし、光ディスク53上の直径方向に離れた位置にあるデータを読み出す場合には、ヘッドシークを伴うため、データを読み出しに時間を要する。つまり、光ディスク53では、前後して使用される可能性の高いデータを、連続した領域またはディスク53上の近い位置に配置した方が、効率よくデータを読み出すことが可能になる。   Consider using the above-mentioned storage format for recording on the optical disk 53 as well. The optical disk 53 can read data stored physically continuously at a relatively high speed. However, when reading data at a position distant in the diametrical direction on the optical disc 53, it takes time to read the data because it involves a head seek. That is, in the optical disk 53, data that is highly likely to be used before and after is arranged in a continuous area or in a close position on the disk 53, so that data can be read efficiently.

図3に示された論理構造そのままのデータ配置で、データを記録すると、MPUメタデータ、ムービーフラグメントメタデータおよびMFUが、物理的な配置として分散して格納される。MPUメタデータは、再生に必要なデータである。MFUは、映像データを格納している。このため、光ディスクの特性上、図3に示された論理構造のままのデータ配置は、不利なデータ配置となる。   When data is recorded with the data arrangement as it is in the logical structure shown in FIG. 3, MPU metadata, movie fragment metadata, and MFU are distributed and stored as a physical arrangement. MPU metadata is data necessary for reproduction. The MFU stores video data. For this reason, due to the characteristics of the optical disc, the data arrangement with the logical structure shown in FIG. 3 is a disadvantageous data arrangement.

多くのファイルシステムでは、蓄積されるデータの論理構造と物理配置とを別々に管理することができる。ブルーレイディスクで採用しているUDFも同様である。   In many file systems, the logical structure and physical arrangement of stored data can be managed separately. The same applies to UDF used in Blu-ray Disc.

そこで、論理構造は規格通りとして、物理配置では、MPUメタデータとムービーフラグメントデータとをまとめて記録する。   Therefore, the logical structure is as specified, and MPU metadata and movie fragment data are recorded together in physical arrangement.

図3の物理配置に示したデータ構造は、光ディスク上の物理的なデータ配置として、管理情報をまとめて配置した例である。このようなデータ配置とすることで、MPUメタデータとムービーフラグメントメタデータとを一度に読み込むことが可能となる。   The data structure shown in the physical arrangement of FIG. 3 is an example in which management information is arranged together as a physical data arrangement on the optical disc. With this data arrangement, MPU metadata and movie fragment metadata can be read at once.

なお、「データ構造」は、ここでは、ファイルシステムよりも上位からみた構造を示している。例えば、論理的なデータ構造、ディレクトリまたは1つのファイル内でのデータの並びなどである。一方、「データ配置」は、ファイルシステムよりも下位から見た配置を示している。例えば、物理的なデータのレイアウトなどである。ファイル名とファイル名とで結び付けられたブロック、または、データのつながりを示すブロック同士のリンク情報などで構成されている。この場合には、ブロックは、ディスク上の物理的な位置と結びついて管理されているデータの集合である。ファイルシステムによっては、他の名称が用いられる事もある。   Here, “data structure” indicates a structure viewed from a higher level than the file system. For example, a logical data structure, a data arrangement in a directory or one file, and the like. On the other hand, “data arrangement” indicates an arrangement viewed from a lower level than the file system. For example, physical data layout. It consists of blocks linked by file names and file names, or link information between blocks indicating data connections. In this case, the block is a set of data managed in association with a physical position on the disk. Depending on the file system, other names may be used.

そして、図3の物理配置に示したデータ配置は、ヘッドシーク回数を減らす。そして、図3の物理配置に示したデータ配置は、再生を開始する際にかかる時間およびランダムアクセスの際にかかる時間を短くすることができる。   The data arrangement shown in the physical arrangement in FIG. 3 reduces the number of head seeks. The data arrangement shown in the physical arrangement of FIG. 3 can shorten the time required for starting reproduction and the time required for random access.

また、論理構造と物理配置とを分けて考えることはせずに、単純に管理情報のコピーを別ファイルにもたせることも考えられる。図3に示した追加クリップファイルは、そのような場合の一例である。この場合には、例えば、ランダムアクセスを容易にするための追加情報等を、ファイルに追加することも可能である。   In addition, it is possible to simply give a copy of management information to another file without considering the logical structure and the physical layout separately. The additional clip file shown in FIG. 3 is an example of such a case. In this case, for example, additional information for facilitating random access can be added to the file.

これまで示した例では、フラグメントを用いたデータ構造の例で説明した。しかし、フラグメント単位での送出を想定しない場合には、ムービーフラグメントメタデータをもたないデータ構造での記録も可能である。   In the examples shown so far, the data structure using fragments has been described. However, if transmission in fragment units is not assumed, recording in a data structure without movie fragment metadata is also possible.

BMFFによるファイルフォーマットでは、管理情報とストリームデータとは、同一ファイルにまとめて記録されている。一方、従来のブルーレイディスクの記録方式では、管理情報とストリームデータとは、分けて管理されていた。   In the BMFF file format, management information and stream data are recorded together in the same file. On the other hand, in the conventional Blu-ray Disc recording method, management information and stream data are managed separately.

これは、管理情報をまとめて読み込み、再生するデータにあわせて機器を設定した後に、ストリームデータの再生を行うことが、光ディスクの機器に適しているためである。管理情報とストリーム情報とは、光ディスク上では、領域を分けて記録されている。また、管理データは光ディスクの損傷に備えて、光ディスク上に2重に記録して、バックアップデータとしているためでもある。このバックアップデータは、光ディスク上の離れた位置に記録されている。   This is because it is suitable for optical disk devices to read management information collectively and set the devices according to the data to be played, and then play back the stream data. The management information and the stream information are recorded in separate areas on the optical disc. This is also because the management data is recorded twice on the optical disk as backup data in preparation for damage to the optical disk. This backup data is recorded at a remote position on the optical disk.

BMFFにおける管理データは、ブルーレイディスクでは、主にクリップファイルで管理されている情報である。そこで、BMFFとして記録する際に、番組の管理データ部分をファイルシステム上の別ファイルから参照する。つまり、見かけ上、番組の管理データ部分を別のファイルとすることができる。   The management data in BMFF is information managed mainly in clip files in the Blu-ray disc. Therefore, when recording as BMFF, the management data portion of the program is referred from another file on the file system. That is, apparently, the management data portion of the program can be a separate file.

図10は、BMFFとしてストリームデータを記録した場合の説明図である。   FIG. 10 is an explanatory diagram when stream data is recorded as BMFF.

図10に示したのは、BMFFとしてストリームデータを記録した場合の例である。   FIG. 10 shows an example in which stream data is recorded as BMFF.

物理的な配置としては、管理データは、光ディスク53上の管理データ領域に記録される。ストリームデータ部分は、光ディスク53上のストリームデータ領域に記録される。   As a physical arrangement, management data is recorded in a management data area on the optical disc 53. The stream data portion is recorded in the stream data area on the optical disc 53.

ストリームファイルとして、このデータにアクセスする際には、ファイルシステムが管理データ部分とストリームデータ部分とを関連付けて、論理的に1つのBMFFファイルとして見えるようにする。   When accessing this data as a stream file, the file system associates the management data portion with the stream data portion so that it can be logically viewed as one BMFF file.

一方、ブルーレイディスクの管理データであるクリップファイルとしてこのデータにアクセスする際には、BMFFファイルの管理データ部分のみをファイルとして見えるようにする。クリップファイルは、ブルーレイディスクの管理データである。   On the other hand, when this data is accessed as a clip file which is management data of the Blu-ray disc, only the management data portion of the BMFF file is made visible as a file. The clip file is management data of the Blu-ray disc.

このような配置とすることによって、MMTの標準記録フォーマットとしてBMFF形式のファイルを作成することができる。また、ブルーレイディスクの管理方法とも整合性のあるデータ形式とすることができる。   With such an arrangement, a BMFF format file can be created as an MMT standard recording format. Also, the data format can be consistent with the Blu-ray Disc management method.

このようにして、BMFFとして記録されたデータのヘッダ部分を、別のファイルとして参照できるようにすると、光ディスク53上でのデータ管理においても有利になる。また、管理データのバックアップデータの作成も容易になる。   In this way, if the header portion of the data recorded as BMFF can be referred to as another file, it is advantageous in data management on the optical disc 53. Also, it becomes easy to create backup data for management data.

例えば、PCなどで映像データを取り出す際には、BMFFファイルをコピーすれば管理情報とストリームデータとの両方を含むBMFFファイルとしてコピーできる。一方、光ディスク内の管理情報のバックアップを作成する際には、BMFFCLIPファイルからコピーを作成すれば、バックアップの必要な管理データ部分のみのデータがコピーできる。   For example, when extracting video data with a PC or the like, if the BMFF file is copied, it can be copied as a BMFF file including both management information and stream data. On the other hand, when creating a backup of the management information in the optical disc, if a copy is created from the BMFFCLIP file, only the management data portion that needs to be backed up can be copied.

また、管理データとストリームデータとを分けて保管している光ディスクのフォーマットに合わせて、BMFFの管理データ部分を光ディスク53の他の管理データを格納している領域に格納できる。このため、再生を準備する際のヘッドシーク量を減らすことが出来る。   Further, the management data portion of the BMFF can be stored in an area where other management data of the optical disk 53 is stored in accordance with the format of the optical disk that stores the management data and the stream data separately. For this reason, the amount of head seek when preparing for reproduction can be reduced.

≪(B)多重化が解除されたエレメンタリーストリームSeの状態でのデータの記録≫
前述の例では、受け取ったデータに対して、部分的に多重化を解除ながら、蓄積用フォーマットに変換する方法について説明した。受け取ったデータは、放送波Ba、外部装置EiまたはネットワークNeなどから受け取ったデータである。
<< (B) Recording of Data in the State of Elementary Stream Se Demultiplexed >>
In the above-described example, the method of converting received data to a storage format while partially demultiplexing has been described. The received data is data received from the broadcast wave Ba, the external device Ei, the network Ne, or the like.

しかし、多重化解除部21がハードウェアとして作られている場合などには、映像または音声などに分離されたES(Elementary stream)の状態で取り出して、記録することができる。なお、ESは、図1ではエレメンタリーストリームSeとして示されている。   However, when the demultiplexer 21 is made as hardware, it can be extracted and recorded in an ES (Elementary stream) state separated into video or audio. Note that ES is shown as an elementary stream Se in FIG.

ESは、圧縮された映像データのストリームまたは音声データのストリームである。ESは単位ごとに区切られるが、ここで「単位」は、処理する上で意味のある単位である。この単位は、例えば、映像データの場合にはピクチャあるいはNALである。また、この単位は、例えば、音声データの場合にはブロックである。   The ES is a compressed video data stream or audio data stream. The ES is divided into units. Here, the “unit” is a meaningful unit in processing. This unit is, for example, a picture or NAL in the case of video data. This unit is, for example, a block in the case of audio data.

以下において、映像記録フォーマットは、ISO BMFFを例に取って説明する。   In the following, the video recording format will be described taking ISO BMFF as an example.

BMFFにおいて、多重化された状態でデータを記録する方式では、時間の流れを持ったデータを管理するデータをトラックと呼ぶ。   In the method of recording data in a multiplexed state in BMFF, data for managing data with a flow of time is called a track.

前述の多重化が解除されていない状態で記録する方式では、トラックは1つである。これは、例えば、映像データと音声データとが多重化された状態であるため、時間の流れを持ったデータは、多重化ストリームSmの1つである。多重化ストリームSmは、MFUの羅列として表現されている。   In the recording method in which the multiplexing is not released, there is one track. This is, for example, a state in which video data and audio data are multiplexed, so that data having a time flow is one of the multiplexed streams Sm. The multiplexed stream Sm is expressed as a list of MFUs.

一方、エレメンタリーストリームSeの状態では、例えば、映像データと音声データとは分離されたESストリームデータとして存在する。そのため、映像データのトラックと音声データのトラックとを個別に作成する。映像データのトラックと音声データのトラックとは、データファイル上の管理データを格納する領域に記録される。そして、映像データと音声データとは、メディアデータを格納する領域に格納される。   On the other hand, in the state of the elementary stream Se, for example, video data and audio data exist as separated ES stream data. Therefore, a track for video data and a track for audio data are created separately. The video data track and the audio data track are recorded in an area for storing management data on the data file. The video data and audio data are stored in an area for storing media data.

それぞれのトラックは、再生時刻を示している。また、それぞれのトラックは、再生時刻に対応したメディアデータを格納する領域の位置を示している。メディアデータは、映像データまたは音声データなどである。   Each track indicates a playback time. Each track indicates the position of an area for storing media data corresponding to the reproduction time. The media data is video data or audio data.

そして、映像データと音声データとは、時間的に同期を取った状態で関係付けがされる。また、字幕なども、同様に、表示タイミングを含めて関係付けがされている。   The video data and the audio data are related in a time-synchronized state. Similarly, subtitles and the like are associated with each other including display timing.

新しい日本の放送方式案では、MMTPパケットのMTP内に、番組内で使用される映像、音声または字幕などの組合せが示されている。また、MMTPパケットのMTP内に、映像、音声または字幕などの表示タイミングまたは再生タイミングが示されている。また、MMTPパケットのMTP内に、映像、音声または字幕などのデータの格納位置が示されている。   In the new Japanese broadcasting scheme proposal, a combination of video, audio or subtitles used in the program is shown in the MTP of the MMTP packet. In addition, the display timing or playback timing of video, audio, or subtitles is shown in the MTP of the MMTP packet. In addition, the storage location of data such as video, audio, or subtitles is shown in the MTP of the MMTP packet.

番組を構成する(データ放送の部品等)データファイルなどをMMTで送る場合には、1つのファイルを1つのMPUに格納する。このMPUを「データ要素MPU」と呼ぶ。そして、この1つの「データ要素MPU」を分割して、MFUとしてMMTPで送付する。この場合には、MPUヘッダまたはMPUメタデータも同時に送付される。   When a data file or the like constituting a program (data broadcasting parts, etc.) is sent by MMT, one file is stored in one MPU. This MPU is referred to as a “data element MPU”. Then, this “data element MPU” is divided and sent as MFU by MMTP. In this case, the MPU header or MPU metadata is also sent at the same time.

また、映像または音声などのストリームデータでは、オーバーヘッドを回避するために、データ要素MPUを使用しない。その代わりに、AUまたはNALを直接MFUに入れてMMTPで送付する。   For stream data such as video or audio, the data element MPU is not used to avoid overhead. Instead, AU or NAL is sent directly into MFU and sent by MMTP.

しかし、新しい日本の放送方式案の時間管理では、ランダムアクセスフラグの単位でMPUを構成することになっている。時間の指定は、MPUに対して行う。このため、1つのGOPで0.5秒から1秒の単位であれば、時間指定の単位として問題はない。この場合には、MPUヘッダまたはMPUメタデータ等は送付されない。このランダムアクセスフラグを区切りとした一式のMMTPパケットの集合を、前述の通り、ここでは、仮に「ストリーム伝送単位MPU」と呼んでいる。   However, in the time management of the new Japanese broadcasting scheme plan, the MPU is configured in units of random access flags. The time is specified for the MPU. For this reason, there is no problem as a unit of time designation if one GOP is a unit of 0.5 second to 1 second. In this case, the MPU header or MPU metadata is not sent. As described above, a set of a set of MMTP packets with the random access flag as a delimiter is temporarily referred to as “stream transmission unit MPU”.

また、多重化されたデータを受信して、ファイルに記録する。このファイルに記録する際に用いられるデータ構造もMPUである。例えば、ファイルに記録する際に、番組全体で1つのMPUとすることができる。この用法でのMPUを、ここでは、仮に「番組蓄積用MPU」と呼ぶ。また、ストリーム伝送単位MPU単位で記録することもできる。この場合には、MPUのファイルの数が膨大になる。また、ストリーム伝送単位MPUを束ねてMPUに格納することもできる。このストリーム伝送単位MPUを束ねたMPUを、ここでは、仮に「番組蓄積用MPU」と呼ぶ。   The multiplexed data is received and recorded in a file. The data structure used when recording in this file is also MPU. For example, when recording in a file, the entire program can be one MPU. Here, the MPU in this usage is temporarily referred to as “program storage MPU”. It is also possible to record in units of stream transmission units MPU. In this case, the number of MPU files becomes enormous. Further, the stream transmission units MPU can be bundled and stored in the MPU. Here, the MPU in which the stream transmission units MPU are bundled is temporarily referred to as “program storage MPU”.

日本の新しい放送方式の場合には、GOP単位で「ストリーム伝送単位MPU」を構成している。MPT内の「MPUタイムスタンプ記述子」によって、先頭のフレームの表示時刻が指定されている。ここでの時刻は、NTP時刻である。「拡張タイムスタンプ記述子」によって、GOP内の後続のフレームの表示時刻が指定されている。後続のフレームの表示時刻は、先頭のフレームの表示時刻からの差で示される。   In the case of a new broadcasting system in Japan, a “stream transmission unit MPU” is configured in GOP units. The display time of the first frame is specified by the “MPU time stamp descriptor” in the MPT. The time here is NTP time. The display time of the subsequent frame in the GOP is designated by the “extended time stamp descriptor”. The display time of the subsequent frame is indicated by a difference from the display time of the first frame.

多重化が解除されエレメンタリーストリームSeが取り出された状態ではMPTが取り除かれている。そのため、MPTとその他の制御情報とを組み合わせて、トラックなどの管理情報を作成して、記録する必要がある。トラックは、時間の流れを持ったデータの管理情報である。時間の流れを持ったデータは、例えば、映像データまたは音声データなどである。トラックは、データの種類、再生時刻または実際のデータの記録位置へのポインタなどを含んでいる。これらのデータは、前述のタイムテーブルの作成と同様の手順で作成することが出来る。   In the state where the multiplexing is canceled and the elementary stream Se is taken out, the MPT is removed. Therefore, it is necessary to create and record management information such as tracks by combining MPT and other control information. A track is data management information with a flow of time. The data having the flow of time is, for example, video data or audio data. The track includes a data type, a reproduction time, a pointer to an actual data recording position, and the like. These data can be created in the same procedure as the time table creation described above.

トラックでは、細かな時間単位でデータの取り出し位置を指定することが出来る。そのため、再生時間の順番またはデコード時間の順番に、映像データと音声データとを混在させて並べることが出来る。このような構造を取ることによって、同時に再生する必要のある映像データと音声データとを、ヘッドシークを抑えて取り出すことができる。   In the track, the data extraction position can be specified in fine time units. Therefore, video data and audio data can be mixed and arranged in the order of reproduction time or decoding time. By adopting such a structure, video data and audio data that need to be reproduced at the same time can be extracted while suppressing head seek.

このようにして、MMTで送出された番組を、BMFF形式のファイルとして記録することが出来る。   In this way, a program transmitted by MMT can be recorded as a BMFF format file.

実施の形態2.
実施の形態2では、MMTPパケットを順次記録する。MMTPパケットは、受信した放送を番組レベルで選別したものである。
Embodiment 2. FIG.
In the second embodiment, MMTP packets are sequentially recorded. The MMTP packet is a selection of received broadcasts at the program level.

1つの送信機から送信されるデータは、複数の放送局の複数の番組を多重化できるように作られている。そのため、ユーザーが特定の番組を視聴し、または録画する場合には、放送局のレベルでの分離と、番組のレベルでの分離とが必要となる。   Data transmitted from one transmitter is created so that a plurality of programs from a plurality of broadcasting stations can be multiplexed. Therefore, when a user views or records a specific program, it is necessary to separate at the broadcast station level and at the program level.

ここでは、番組のレベルまでの分離が完了しており、録画の対象となる1つの番組を構成するMMTPが順次取り出されて、記録されているものとする。この状態は、部分的にデータの多重化が解除されている状態である。つまり、番組の単位までは多重化が解除されている。しかし、番組を構成する個々の映像、音声、字幕ストリームまたは制御データは多重化されている。   Here, it is assumed that the separation to the program level has been completed, and the MMTPs constituting one program to be recorded are sequentially taken out and recorded. This state is a state in which data multiplexing is partially canceled. That is, multiplexing is canceled up to the program unit. However, the individual video, audio, subtitle stream or control data constituting the program is multiplexed.

図11は、MMTP方式でのMPTによる多重化の解除を説明する説明図である。図12は、タイムテーブルと映像データの関係を説明する説明図である。図13は、MMTP方式でのMPTデータの構造の例を説明する図である。図14は、映像を中心に考えた場合のアライメントを説明する説明図である。   FIG. 11 is an explanatory diagram for explaining demultiplexing by MPT in the MMTP method. FIG. 12 is an explanatory diagram for explaining the relationship between the time table and the video data. FIG. 13 is a diagram for explaining an example of the structure of MPT data in the MMTP method. FIG. 14 is an explanatory diagram for explaining alignment when an image is mainly considered.

図11に示したMMTストリームは、番組を構成するMMTPパケット列の例である。このMMTストリームでは、例えば、映像、音声および字幕などが、それぞれ一本ずつ多重化されている。実際の放送では、複数の映像、音声および字幕などが多重化されることもある。   The MMT stream shown in FIG. 11 is an example of an MMTP packet sequence that constitutes a program. In this MMT stream, for example, video, audio, and subtitles are multiplexed one by one. In actual broadcasting, a plurality of video, audio, subtitles, and the like may be multiplexed.

映像、音声および字幕などは、番組を構成する要素である。これらの番組を構成する要素をアセットと呼ぶ。MMTストリームは、MMTPパケットの単位で多重化されている。このため、MMTストリームには、サービスインフォメーションのパケットとアセットデータのパケットとが混在している。   Video, audio, subtitles, and the like are elements that make up a program. Elements constituting these programs are called assets. The MMT stream is multiplexed in units of MMTP packets. Therefore, the service information packet and the asset data packet are mixed in the MMT stream.

サービスインフォメーションのパケットは、多重化ストリームのための制御信号である。サービスインフォメーションは、例えば、映像、音声または字幕を分離するための制御情報である。また、サービスインフォメーションは、映像、音声および字幕を同期して再生するための制御情報である。そして、サービスインフォメーションは、各アセットの名称を表示するための情報である。   The service information packet is a control signal for the multiplexed stream. The service information is, for example, control information for separating video, audio, or subtitles. The service information is control information for reproducing video, audio, and subtitles in synchronization. The service information is information for displaying the name of each asset.

アセットデータのパケットは、例えば、映像、音声および字幕のアセットを構成する。実施の形態2では、記録媒体の上にこれらのパケットを順次記録する。ここでは、簡単のため、ファイルとしてMMTストリームを構成するこれらのパケットを順次記録することとする。   The asset data packet constitutes, for example, video, audio, and subtitle assets. In the second embodiment, these packets are sequentially recorded on the recording medium. Here, for simplicity, it is assumed that these packets constituting the MMT stream are sequentially recorded as files.

図11に示すように、MMTストリームは、制御パケットSI(MPT)、映像パケットV、映像パケットV(RAP)、音声パケットAおよび字幕パケットTを含んでいる。制御パケットSI(MPT)は、でMPTの付いている制御パケットである。制御パケットSI(MPT)は、サービスインフォメーションの一種である。映像パケットV(RAP)は、RAPフラグの付いている映像パケットである。   As shown in FIG. 11, the MMT stream includes a control packet SI (MPT), a video packet V, a video packet V (RAP), an audio packet A, and a caption packet T. The control packet SI (MPT) is a control packet with MPT. The control packet SI (MPT) is a kind of service information. The video packet V (RAP) is a video packet with a RAP flag.

実際には、制御パケットSIとして多くの種類のものが送信されている。しかし、ここでは、説明を容易にするために、MPTに注目して記載してある。MPTは、放送規格では約100ms間隔で定期的に送信することになっている。   Actually, many types of control packets SI are transmitted. However, in order to facilitate the explanation, the description here focuses on MPT. According to the broadcast standard, MPT is to be transmitted periodically at intervals of about 100 ms.

MMTストリームを先頭から順次再生する場合には、MMTストリームを記録したファイルの先頭からデータを順次取り出す。そして、順次、MMTストリームを多重化解除部21に送り込むことで、データの再生を行うことができる。例えば、図1に示す多重化ストリームSmとして多重化解除部21に入力する。   When sequentially reproducing the MMT stream from the beginning, data is sequentially extracted from the beginning of the file in which the MMT stream is recorded. Then, data can be reproduced by sequentially sending the MMT stream to the demultiplexing unit 21. For example, the multiplexed stream Sm shown in FIG.

多重化解除部21は、受け取ったデータを順次解析する。多重化解除部21は、MPTを含むデータパケットを受け取ると、MPTの記述にから多重化解除および映像を表示するタイミング等に用いる情報を取り出す。そして、多重化解除部21は、多重化解除部21およびデコード部31,32,33,34の設定を行う。   The demultiplexing unit 21 sequentially analyzes the received data. When receiving the data packet including the MPT, the demultiplexing unit 21 extracts information used for the demultiplexing and video display timing from the description of the MPT. Then, the demultiplexing unit 21 sets the demultiplexing unit 21 and the decoding units 31, 32, 33, and 34.

図13に、MPTに記述されているデータの一例を示す。図13に示すデータは、ARIB規格STD−B60に基づいている。例えば、MPTには、複数のアセットを取りだすための情報が記述されている。各アセットは、MMT内の識別情報によって、データを取得するための情報とデータを分離するための情報とを得る。MMT内の識別情報は、例えば、ロケーション情報(MMT_general_location_info())である。   FIG. 13 shows an example of data described in MPT. The data shown in FIG. 13 is based on the ARIB standard STD-B60. For example, MPT describes information for extracting a plurality of assets. Each asset obtains information for acquiring data and information for separating the data based on the identification information in the MMT. The identification information in the MMT is, for example, location information (MMT_general_location_info ()).

また、図13では省略してあるが、コンポーネント記述子の情報から各アセットのストリームの詳細情報を得ることができる。この情報を基に、図11に示したように、多重化されている各種ストリームを分離して、再生する。   Although omitted in FIG. 13, the detailed information of each asset stream can be obtained from the component descriptor information. Based on this information, as shown in FIG. 11, the multiplexed streams are separated and reproduced.

放送を記録する場合にも、図11のMMTストリームのデータは、ファイルに順次記録される。そして、MMTストリームのデータは、ファイルの先頭から順次取出されて再生される。この場合には、必ずしも、MMTパケットそのものである必要はない。MMTパケットの内部のデータが取り出された状態で記録されてもよい。また、逆に、IPパケットの状態またはTLVパケットの状態で記録されてもよい。   Even when broadcasting is recorded, the data of the MMT stream of FIG. 11 is sequentially recorded in a file. The data of the MMT stream is sequentially extracted from the beginning of the file and reproduced. In this case, the MMT packet itself is not necessarily required. It may be recorded in a state where data inside the MMT packet is taken out. Conversely, it may be recorded in the state of an IP packet or the state of a TLV packet.

次に、ランダムアクセスを考える。ここでは、一例として、時刻指定ジャンプを説明する。しかし、チャプターサーチおよび早送り巻き戻しなどでも同様である。   Next, consider random access. Here, a time designation jump will be described as an example. However, the same applies to chapter search and fast forward / rewind.

図12を用いてランダムアクセスの動作について説明する。タイムテーブルTMは、番組上の時刻情報と、その時刻情報に対応する再生位置とを対応付けるデータである。再生位置は、ここでは、MMTストリームのデータを記録したファイルの先頭からのオフセットとして説明する。しかし、再生位置として、セクタアドレスまたはブロックアドレスなどが用いられることもある。   The random access operation will be described with reference to FIG. The time table TM is data for associating time information on a program with a reproduction position corresponding to the time information. Here, the reproduction position will be described as an offset from the beginning of the file in which the data of the MMT stream is recorded. However, a sector address or a block address may be used as the reproduction position.

このタイムテーブルTMを用いて、時刻に対応した再生位置からデータを取り出して再生する。これによって、時刻指定ジャンプを行うことができる。つまり、時刻を指定した再生を行うことができる。   Using this time table TM, data is extracted from the reproduction position corresponding to the time and reproduced. This makes it possible to perform a time designation jump. That is, it is possible to perform reproduction with a designated time.

通常、映像データはGOP単位で構成されている。GOPは、例えば、0.5秒から1秒間程度の映像をまとめて圧縮したものである。GOPは、例えば、数十枚の画像を含んでいる。1つのGOPは、1枚から複数枚の完全な画像と、数十枚の差分画像とを含んでいる。GOPは、圧縮された差分画像を含んでいるため効率が良い。   Usually, video data is configured in GOP units. The GOP is, for example, a compressed image of about 0.5 seconds to 1 second. The GOP includes, for example, several tens of images. One GOP includes one to a plurality of complete images and several tens of difference images. GOP is efficient because it contains a compressed difference image.

また、表示される順番とデコードされる順番とは、必ずしも対応していない。そのため、GOPの途中から再生したい場合でも、必ずGOP先頭からデータをデコードする必要がある。そのため、MMTPパケットでは、GOPの先頭に、RAPフラグを付けることができる。RAPフラグは、ランダムアクセスが可能であることを示すフラグである。図12では、このRAPフラグの付いているパケットの位置を、GOPの先頭としてタイムテーブルに格納している。そして、これによって、ランダムアクセスを実現している。   Further, the display order does not always correspond to the decoding order. Therefore, even if playback is desired from the middle of the GOP, it is necessary to always decode the data from the beginning of the GOP. Therefore, in the MMTP packet, the RAP flag can be added to the head of the GOP. The RAP flag is a flag indicating that random access is possible. In FIG. 12, the position of the packet with the RAP flag is stored in the time table as the head of the GOP. As a result, random access is realized.

1枚の画像データから完全な画像を再現できる画像データをIピクチャと呼ぶ。Iピクチャは、1つのGOP内に必ず1つ存在する。しかし、1つのGOP内に複数のIピクチャが存在することもある。Iピクチャのうち、他の画像との依存関係から、GOP内で最初にデコードされるIピクチャはIRAPと呼ばれている。このIピクチャから再生することで、後続の画像データを正しく表示できる。   Image data that can reproduce a complete image from one piece of image data is called an I picture. One I picture always exists in one GOP. However, a plurality of I pictures may exist in one GOP. Of the I pictures, the I picture that is first decoded in the GOP is called IRAP because of dependency with other images. By reproducing from this I picture, subsequent image data can be correctly displayed.

MMTPパケットのRAPフラグは、IRAPの画像データの先頭パケットまたは制御パケットに付けられている。1つのIピクチャとの差分データで構成された画像データはPピクチャと呼ばれている。参照先のIピクチャと、Pピクチャの画像データとを合成することで、このPピクチャの画像を再現できる。複数の他の画像を参照して画像を再現できる画像データをBピクチャと呼ぶ。   The RAP flag of the MMTP packet is attached to the head packet or control packet of the IRAP image data. Image data composed of difference data from one I picture is called a P picture. By synthesizing the reference destination I picture and the P picture image data, the P picture image can be reproduced. Image data that can be reproduced by referring to a plurality of other images is called a B picture.

映像データと同様に、音声データでも一つのかたまりのデータの先頭の概念が存在する。そして、音声データの先頭にRAPフラグが付けられている。しかし、説明を単純にするために、ここでは映像データのGOPの区切りで音声データパケットも区切る。   Similar to video data, audio data has the concept of the beginning of a piece of data. A RAP flag is added to the head of the audio data. However, in order to simplify the description, here, the audio data packet is also divided by the GOP of the video data.

図12に示すランダムアクセスの動作を、図11に示すパケットレベルでの読み出しに対応して考えてみる。   Let us consider the random access operation shown in FIG. 12 corresponding to the packet level reading shown in FIG.

タイムテーブルTMから再生位置の情報を取出す。そして、図11のMMTストリームの位置Pからパケットを取り出して再生を行う。位置Pは、最初の映像パケットV(RAP)の位置である。この時点では、MPT情報が取得できていない。そのため、映像、音声および字幕などアセット単位での分離を行うことができない。 Retrieving position information is extracted from the time table TM. Then, the play is taken out packets from the position P 1 of the MMT stream of FIG. Position P 1 is the position of the first video packet V (RAP). At this time, MPT information has not been acquired. Therefore, it is not possible to perform separation in units of assets such as video, audio and subtitles.

順次読み出しが行われて位置Pで制御パケットSI(MPT)が読み出される。これによって、アセットを分離するためのパラメーターが取得される。つまり、映像、音声および字幕などを分離することができる。 Control packet SI (MPT) are read is performed sequentially read at the position P 2. Thereby, a parameter for separating the assets is acquired. That is, video, audio, subtitles, and the like can be separated.

この時、位置Pから位置Pまでのデータが分離できず、結果として読まれなかった場合には、GOPの先頭のデータが失われることになる。そして、このGOPをデコードすることができない。 At this time, it can not be data to separate from the position P 1 to the position P 2, if it is not read as a result would beginning of the data of the GOP is lost. This GOP cannot be decoded.

位置P以降は、位置Pで既に取得済みのMPT情報があるためデコードが可能となる。位置Pは、位置Pの次のGOPの先頭である。そのため、本来、再生を開始したいGOPからではなく、次のGOPから再生されることがある。 Position P 3 later, it is possible to decode because it already has acquired the MPT information at the position P 2. Position P 3 is the beginning of the next GOP position P 1. For this reason, there is a case where the reproduction is started from the next GOP instead of the GOP which is originally intended to start the reproduction.

同一の番組内でのチャプターサーチまたは早送り等の場合において、再生に使用していたMPTのアセット情報がジャンプ先のMPTのアセット情報と一致する場合には、ジャンプ先の先頭である位置Pから始まるGOPから再生することが可能である。しかし、コマーシャル(CM)または番組の変更などを挟んで番組を再生する場合には、ジャンプ前のMPTとジャンプ後のMPTとでアセットが同一である保証はない。または、録画済みの異なる番組を繋いだ編集がされている場合には、ジャンプ前のMPTとジャンプ後のMPTとでアセットが同一である保証はない。 In the case of chapter search or fast-forwarding in the same program, if the MPT asset information used for playback matches the asset information of the jump destination MPT, from the position P 1 that is the head of the jump destination It is possible to play from the starting GOP. However, when a program is played back with a commercial (CM) or program change, there is no guarantee that the asset is the same between the MPT before the jump and the MPT after the jump. Alternatively, when editing is performed by connecting different recorded programs, there is no guarantee that the asset is the same in the MPT before the jump and the MPT after the jump.

また、アセットの変更が行われる場合には、放送規格案は、実際のデータが再生される0.5秒前からMPTを更新するように求めている。これは、例えば、アセットを分離するためのフィルタの設定などには時間がかかる。また、音声が切り替わる時のミュート処理などには時間がかかる。また、映像が切り替わる時のミュート処理などには時間がかかる。これらのために、実際のデータが切り替わる直前のタイミングでMPTを変更しても、フィルタの切り替え又はミュート等を行うための処理が間に合わない可能性があるためである。   In addition, when an asset is changed, the draft broadcast standard requires that the MPT be updated 0.5 seconds before the actual data is reproduced. For example, it takes time to set a filter for separating assets. Also, it takes time to perform mute processing when the sound is switched. Also, it takes time to perform mute processing when the video is switched. For this reason, even if the MPT is changed at the timing immediately before the actual data is switched, there is a possibility that the process for switching or muting the filter may not be in time.

これは、ランダムアクセスの時も同様である。ジャンプ先ですぐにMPTを取得することができても処理系の切り替えが間に合わず、最初のGOPを正しく表示できない可能性がある。または、データの切り替えに必要な時間を確保するために、表示を遅延させる必要がある。ここで、「処理系」とは、例えば、多重化解除部21およびデコード部31,32,33,34等である。   The same applies to random access. Even if the MPT can be acquired immediately at the jump destination, the processing system cannot be switched in time, and the first GOP may not be displayed correctly. Alternatively, the display needs to be delayed in order to secure the time required for switching data. Here, the “processing system” is, for example, the demultiplexing unit 21 and the decoding units 31, 32, 33, and 34.

そこで、この実施の形態2では、図12に示したように、まず、MPTの情報をタイムテーブルTM内に格納する。そして、時刻を指定してジャンプをする時には、MPTの情報を多重化解除部21およびデコード部31,32,33,34に設定する。その後、再生を開始する位置のデータを読み出す。   Therefore, in the second embodiment, as shown in FIG. 12, first, MPT information is stored in the time table TM. Then, when jumping by designating the time, the MPT information is set in the demultiplexing unit 21 and the decoding units 31, 32, 33, and 34. Thereafter, the data at the position where reproduction is started is read out.

このようにすることで、シークなどのデータの読み出しの準備と並行して、処理系(多重化解除部21およびデコード部31,32,33,34等)の切り替えを行うことがでる。そして、データの切り替えに必要な時間を短縮することができる。   In this way, the processing system (demultiplexing unit 21, decoding units 31, 32, 33, 34, etc.) can be switched in parallel with preparation for reading data such as seek. And the time required for data switching can be shortened.

この例では、MPTそのものをタイムテーブルTMに格納している。他の方法として、MPT内に記載されているアセットを分離するための情報と、GOPの表示開始の時刻とを、タイムテーブルTMに格納する。GOPの表示を開始する時刻をタイムテーブルTMの時刻として使用することもできる。このように、アセット情報を取出してタイムテーブルTMに格納する方法がある。   In this example, the MPT itself is stored in the time table TM. As another method, the information for separating the assets described in the MPT and the GOP display start time are stored in the time table TM. The time when the GOP display is started can also be used as the time of the time table TM. As described above, there is a method of extracting asset information and storing it in the time table TM.

また、他の方法として、別のテーブルにMPTまたはアセット情報を記録する。そして、タイムテーブルTMには該当するMPT情報またはアセット情報への参照を持たせる方法がある。また、参照ではなく、同一の時刻で検索できる別のタイムテーブルを用意して、そちらにMPTまたはアセット情報を記録する方法がある。MPTには複数GOPの表示開始の時刻が格納されている。これらの一部またはすべてをタイムテーブルTMに格納しても良い。   As another method, MPT or asset information is recorded in another table. Then, there is a method in which the time table TM has a reference to the corresponding MPT information or asset information. In addition, there is a method of preparing another time table that can be searched at the same time, not by reference, and recording MPT or asset information there. The MPT stores the display start time of a plurality of GOPs. Some or all of these may be stored in the time table TM.

同様に、HDRパラメーター等によってテレビの制御を変更する場合でも、バックライトの輝度の変更または液晶の駆動電圧の設定変更に時間がかかる場合がある。その場合には、HDRパラメーター等をタイムテーブルTMに格納する。これによって、事前にテレビの制御を行うことが可能となる。図12では、タイムテーブルTMのメタデータ領域が、これらのパラメーターを格納する領域の一例として示されている。   Similarly, even when the control of the television is changed by the HDR parameter or the like, it may take time to change the backlight luminance or the setting of the liquid crystal drive voltage. In that case, HDR parameters and the like are stored in the time table TM. This makes it possible to control the television in advance. In FIG. 12, the metadata area of the time table TM is shown as an example of an area for storing these parameters.

特殊再生を行う場合には、GOP内でIRAP画像(IRAPピクチャ)のみを再生して、他の画像を表示しない場合がある。特殊再生は、例えば、早送りまたは巻き戻し等である。IRAP画像は、デコードの順番で最初の画像である。また、IRAP画像は、データ配置の順番でもGOPの先頭に置かれる。つまり、IRAP画像は、GOPの先頭に位置している。また、IRAP画像は、他の画像に依存しない。このため、IRAP画像は、単独でデコード可能である。この場合には、IRAP画像の位置は、タイムテーブルTMから読み取れる。   When performing special reproduction, there are cases where only IRAP images (IRAP pictures) are reproduced in the GOP and other images are not displayed. Special reproduction is, for example, fast forward or rewind. The IRAP image is the first image in the decoding order. The IRAP image is also placed at the head of the GOP in the data arrangement order. That is, the IRAP image is located at the beginning of the GOP. The IRAP image does not depend on other images. For this reason, the IRAP image can be decoded independently. In this case, the position of the IRAP image can be read from the time table TM.

しかし、効率よく読み飛ばすためには、IRAP画像の末尾がわかる方が便利である。そこで、IRAP画像のサイズまたはIRAP画像の末尾をタイムテーブルTMに格納する。これによって、効率よく特殊再生を行うことができる。図12では、タイムテーブルTMのIRAPサイズ欄がこのデータを格納する領域の一例として示されている。   However, in order to skip reading efficiently, it is more convenient to know the end of the IRAP image. Therefore, the size of the IRAP image or the end of the IRAP image is stored in the time table TM. As a result, special reproduction can be performed efficiently. In FIG. 12, the IRAP size column of the time table TM is shown as an example of an area for storing this data.

映像を構成する画像データがスライスとして記録されている場合には、スライス単位でデータにアクセスできた方が良い場合がある。「スライス」とは、画像データがデコード可能な状態で分割されていることである。特殊再生用として考えた場合には、例えば、GOP内のIRAP画像の特定のスライスのみを再生して、他のスライスを表示しない方法がある。特殊再生は、例えば、早送りまたは巻き戻しなどである。   When image data constituting a video is recorded as a slice, it may be better to access the data in units of slices. “Slice” means that image data is divided in a decodable state. In the case of special reproduction, for example, there is a method in which only a specific slice of an IRAP image in a GOP is reproduced and no other slice is displayed. Special playback is, for example, fast forward or rewind.

この場合には、GOPの先頭にあるIRAP画像のデータとスライスとの各々の位置およびサイズをタイムテーブルTMに格納するこれによって、効率よく特殊再生を行うこと可能となる。図12では図示していないが、例えば、タイムテーブルTMのIRAPサイズ欄を拡張して、このデータを格納することができる。   In this case, the position and size of each IRAP image data and slice at the head of the GOP are stored in the time table TM, so that special reproduction can be performed efficiently. Although not shown in FIG. 12, for example, this data can be stored by expanding the IRAP size column of the time table TM.

早送り、巻き戻しをなめらかに行うために、IRAP画像に加えて、GOPに含まれている非IRAPのIピクチャまたは非IRAPのPピクチャを表示することもある。この場合には、IピクチャおよびPピクチャの各々の開始位置、サイズまたは末尾の位置をタイムテーブルTMに格納する。これによって、効率よく特殊再生を行うことが可能となる。   In order to smoothly perform fast forward and rewind, a non-IRAP I picture or non-IRAP P picture included in a GOP may be displayed in addition to an IRAP image. In this case, the start position, size, or end position of each of the I picture and P picture is stored in the time table TM. This makes it possible to perform special reproduction efficiently.

図12では図示していないが、例えば、タイムテーブルTMのIRAPサイズ欄を拡張して、これらのデータを格納することができる。または、別途、Iピクチャ用またはPピクチャ用の位置、サイズまたは末尾の位置を示すテーブルを用意する。そして、タイムテーブルTMには、このテーブルへの参照を格納することもできる。   Although not shown in FIG. 12, for example, these data can be stored by expanding the IRAP size column of the time table TM. Alternatively, a table indicating the position, size, or end position for I picture or P picture is prepared separately. The time table TM can also store a reference to this table.

次に、HDDまたは光ディスク等のディスクデバイスに、この実施の形態2でのMMTストリームを格納することを考える。   Next, consider storing the MMT stream in the second embodiment in a disk device such as an HDD or an optical disk.

多くのディスクフォーマットでは、固定サイズのデータブロックをアクセス単位としている。このアクセス単位は、セクタ、ブロック、クラスタまたはページ等と呼ばれている。ここでは、単に「ブロック」と呼ぶ。例えば、ブルーレイディスク規格では6144Byteをアラインドユニット(Aligned Unit)と呼び、1つの記録単位として取り扱う。また、ブルーレイディスク規格およびUDF規格では、1ブロック2048Byteが良く使われる。UDF(Universal Disk Format)は、光ディスク用のファイルシステムである。   Many disk formats use fixed-size data blocks as access units. This access unit is called a sector, block, cluster or page. Here, it is simply called “block”. For example, in the Blu-ray Disc standard, 6144 bytes are called an aligned unit and are handled as one recording unit. In the Blu-ray Disc standard and UDF standard, one block 2048 bytes is often used. UDF (Universal Disk Format) is a file system for optical disks.

ランダムアクセスを行う場合には、データの境界をこのブロックに合わせることで効率よくアクセスする事ができる。また、ディスクデバイスの構造だけでなく、例えば、暗号化の単位としてブロックサイズが決められることもある。この場合でも、アクセスの単位としてブロック境界に合わせてデータにアクセスできると効率が良い。このようなアクセス効率などを考慮してデータのサイズまたはデータを格納する位置を決めることをアライメントと呼ぶ。   When performing random access, it is possible to access efficiently by aligning the data boundary with this block. In addition to the structure of the disk device, for example, the block size may be determined as an encryption unit. Even in this case, it is efficient if the data can be accessed according to the block boundary as an access unit. Determining the data size or the data storage location in consideration of such access efficiency is called alignment.

トランスポートストリーム(TS)を記録する場合には、32個のTSパケットが接続されて、6144Byteのデータとなる。TSパケットは、192Byteである。これによって、UDFの3つのブロックに効率よく記録できる。UDFの1つのブロックは、2048Byteである。MMTPパケットは、可変長パケットである。このため、単純にパケットの数でブロックの境界に合わせることができない。   When recording a transport stream (TS), 32 TS packets are connected to form 6144-byte data. The TS packet is 192 bytes. This enables efficient recording in the three UDF blocks. One block of UDF is 2048 bytes. The MMTP packet is a variable length packet. For this reason, it is not possible to simply match the block boundary with the number of packets.

図12で示したように、ランダムアクセスを行う場合には、GOPの先頭へのアクセスを効率的に行うことが望ましい。しかし、GOP内のどの画像から再生する場合でも、GOPの先頭からデータを読み出す必要がある。そこで、GOP単位でブロックの境界に合わせて記録することを考える。   As shown in FIG. 12, when performing random access, it is desirable to efficiently access the head of the GOP. However, in the case of reproducing from any image in the GOP, it is necessary to read data from the head of the GOP. Therefore, it is considered to record in accordance with the block boundary in GOP units.

図14(A)に、GOPをデータアクセスの単位として、GOPの先頭がブロックサイズの整数倍になるようにしたMMTストリームを記録したファイルの一例を示す。   FIG. 14A shows an example of a file that records an MMT stream in which the GOP is used as a data access unit and the head of the GOP is an integral multiple of the block size.

図14(A)は、MMTストリームを記録したファイルのデータの一部を示している。図14(A)の左側がファイル前方に、右側がファイル後方に対応している。MMTストリームのパケットは、例えば、図14(A)の左側から右側に向けて順次記録されている。図14(A)は記録されているデータの一部のみを記載している。実際には、このデータ構造が多数繰り返して記録されている。   FIG. 14A shows a part of data of a file in which an MMT stream is recorded. The left side of FIG. 14A corresponds to the front of the file, and the right side corresponds to the back of the file. For example, the packets of the MMT stream are sequentially recorded from the left side to the right side in FIG. FIG. 14A shows only a part of the recorded data. In practice, this data structure is repeatedly recorded.

図14(A)中の符号Bbはブロック境界を示している。また、「n1」、「n2」、「n3」、「n4」、「n5」および「nm」は整数を示している。「m」は正の整数である。「×」は乗算を示している。そのため、「ブロック×n」は、データがブロックサイズの整数倍になっている事を示している。   Symbol Bb in FIG. 14A indicates a block boundary. “N1”, “n2”, “n3”, “n4”, “n5”, and “nm” indicate integers. “M” is a positive integer. “×” indicates multiplication. Therefore, “block × n” indicates that the data is an integral multiple of the block size.

GOPの先頭がブロックの境界となるようにアライメントする場合には、GOPのデータサイズが必ずしもブロックサイズの整数倍とならない。このため、図14中のパディング(Pad)を用いる。「パディング」とは、データをアライメントするために、意図的に無効領域を作ることである。パディングにはいくつかの方式がある。例えば、1つとして、無効を示すデータを記録する方式である。また、他には、OSまたはファイルシステムが無効なデータ領域を管理する方式などがある。   When alignment is performed so that the head of the GOP becomes a block boundary, the data size of the GOP is not necessarily an integer multiple of the block size. For this reason, padding (Pad) in FIG. 14 is used. “Padding” means intentionally creating an invalid area in order to align data. There are several methods of padding. For example, one method is to record data indicating invalidity. In addition, there is a method for managing an invalid data area by the OS or the file system.

図14(A)の例では、GOP単位でブロックにアライメントしている。このため、GOP単位でのランダムアクセスを効率よく行うことができる。なお、この例では、映像データについてのみ説明を行っている。しかし、実際には、図11に示すように、映像データ、音声データおよび字幕データなどが多重化され混在している。   In the example of FIG. 14 (A), alignment is performed in blocks in GOP units. For this reason, random access in GOP units can be performed efficiently. In this example, only video data is described. However, actually, as shown in FIG. 11, video data, audio data, caption data, and the like are multiplexed and mixed.

そのため、映像データの区切り位置でストリームデータを分割した場合には、映像以外の音声データまたは字幕データに関しては、適切な区切り位置で分割されるとは限らない。そのため、ランダムアクセス時に音声または字幕が遅れて再生される可能性がある。通常、音声または字幕の再生が遅れても、映像とのずれが発生しなければ問題とならない。このため、ここでは、映像の区切り位置を基に、他のデータも一固まりのデータとして取り扱う。   Therefore, when the stream data is divided at the video data break position, the audio data or subtitle data other than the video is not necessarily divided at an appropriate break position. Therefore, there is a possibility that audio or subtitles are reproduced with a delay during random access. Usually, even if the reproduction of audio or subtitles is delayed, there is no problem if there is no deviation from the video. For this reason, here, other data is also handled as a set of data based on the video break position.

図14(B)は、画像単位でアライメントしたMMTストリームを記録したファイルの一例を示す。図14(B)では、ピクチャ(AU)とパディングとの組み合わせがブロックの整数倍となっている。この場合には、画像単位でのアクセスが必要な時に効率が良い。   FIG. 14B shows an example of a file in which MMT streams aligned in units of images are recorded. In FIG. 14B, the combination of a picture (AU) and padding is an integral multiple of the block. In this case, the efficiency is high when access in units of images is required.

AUは、圧縮データの意味のある固まりの1種である。画像(ピクチャ)データの場合には、1枚分の画像である。つまり、AUは、IRAPピクチャ、Iピクチャ、PピクチャまたはBピクチャのいずれかになる。   AU is a kind of meaningful chunk of compressed data. In the case of image (picture) data, it is one image. That is, the AU is any one of an IRAP picture, an I picture, a P picture, or a B picture.

この図14(B)では、画像の単位ですべてのアライメントを行った。しかし、ランダムアクセスの時に重要になるのはIRAPピクチャである。IRAPピクチャは、GOPの先頭に置かれる。そのため、IRAPピクチャとそれ以外のピクチャをまとめたものとの2つに分けてアライメントを行うこともできる。   In FIG. 14B, all alignment is performed in image units. However, the IRAP picture is important for random access. The IRAP picture is placed at the beginning of the GOP. Therefore, it is possible to perform alignment by dividing into two, that is, an IRAP picture and a group of other pictures.

図14(C)に、IRAPピクチャの先頭、Iピクチャの先頭およびPピクチャの先頭をブロック境界にアライメントを行った。図14(C)は、Iピクチャを「I」と示し、Pピクチャを「P」と示し、Bピクチャを「B」と示す。早送りまたは巻き戻しなどの場合に、IRAPピクチャだけではなく、IピクチャまたはPピクチャ等を利用する場合に効率が良い。この図14(C)では、IRAPピクチャの先頭、Pピクチャの先頭または非IRAPのIピクチャの先頭でアライメントを行っている。しかし、Pピクチャ先頭またはIピクチャ先頭でのアライメントを省略しても良い。   In FIG. 14C, the IRAP picture head, the I picture head, and the P picture head are aligned with block boundaries. In FIG. 14C, the I picture is indicated as “I”, the P picture is indicated as “P”, and the B picture is indicated as “B”. In the case of fast-forwarding or rewinding, it is efficient when using not only an IRAP picture but also an I picture or a P picture. In FIG. 14C, alignment is performed at the head of the IRAP picture, the head of the P picture, or the head of the non-IRAP I picture. However, the alignment at the head of the P picture or the head of the I picture may be omitted.

図14(D)に、スライス単位でアクセスすることを考えてアライメントを設定したMMTストリームを記録したファイルの一例を示す。映像がスライス構成となっている場合には、スライス単位でのアクセスを効率よく行うことができる。   FIG. 14D shows an example of a file in which an MMT stream in which alignment is set in consideration of access in units of slices. When the video has a slice configuration, it is possible to efficiently access in units of slices.

図14(D)で、画像(ピクチャ)データの最初には、非VCLデータが記載されている。非VCLデータは、AUD、VPSまたはSPSなどのパラメーター類である。後続のスライス#1からスライス#4は、VCLデータである。VCLデータは、圧縮された画像データである。   In FIG. 14D, non-VCL data is described at the beginning of image (picture) data. Non-VCL data is parameters such as AUD, VPS or SPS. Subsequent slice # 1 to slice # 4 are VCL data. VCL data is compressed image data.

スライス単位でデコードを行う際にも、非VCLデータは各々のスライスをデコードする際に必要となる。例えば、スライス#2をデコードする際には、非VCLデータとスライス#2のデータとを組み合わせてデコードする。そのため、ここでは非VCLデータと、スライス#1からスライス#4とでそれぞれアライメントを行っている。   Even when decoding is performed in units of slices, non-VCL data is required when decoding each slice. For example, when decoding slice # 2, non-VCL data and slice # 2 data are combined and decoded. Therefore, here, the alignment is performed for each of the non-VCL data and slices # 1 to # 4.

実際には、非VCLデータは各スライスと比べて非常に小さいことが多い。また、スライス#1のデコードを行う前には、非VCLデータを必要とする。このことから、非VCLデータとスライス#1とをまとめてアライメントを行うことも考えられる。   In practice, non-VCL data is often very small compared to each slice. Also, before decoding slice # 1, non-VCL data is required. From this, it can be considered that the non-VCL data and the slice # 1 are aligned together.

スライス単位でのアライメントは、必ずしも全てのピクチャで行う必要はない。例えば、IRAPピクチャのみをスライス単位でのアライメントに用いることも考えられる。なぜなら、IRAPピクチャは、サイズの大きく、ランダムアクセスに用いられるからである。   Alignment in units of slices is not necessarily performed for all pictures. For example, it is also conceivable to use only IRAP pictures for alignment in units of slices. This is because the IRAP picture has a large size and is used for random access.

MMTPパケット単位でアライメントする方法も考えられる。MMTPパケットは、規格によってデータ量が異なる。例えば、放送規格案でのMMTPパケットの最大値は、約1500Byteである。   A method of aligning in units of MMTP packets is also conceivable. The amount of data of the MMTP packet differs depending on the standard. For example, the maximum value of the MMTP packet in the broadcast standard draft is about 1500 bytes.

例えば、2048Byteブロックを想定してアライメントを行った場合には、全データ量に占めるパディングの量が大きくなる。そして、記録効率が悪くなる。   For example, when alignment is performed assuming a 2048-byte block, the amount of padding in the total data amount increases. Then, the recording efficiency is deteriorated.

一方、パケット単位でのアクセスは効率よく行える。つまり、MMTPパケット単位でのアライメントは、パケット単位でのデータ加工が必要となる場合などの一時的なデータの格納に適している。パケット単位でのデータ加工は、例えば、記録再生時または編集時などに行われる。   On the other hand, access in packet units can be performed efficiently. That is, the alignment in units of MMTP packets is suitable for temporary data storage when data processing in units of packets is required. Data processing in packet units is performed, for example, at the time of recording / playback or editing.

タイムテーブルTMおよびアライメントを用いることによって、時刻を指定したデータの再生を効率よく行うことができる。   By using the time table TM and alignment, it is possible to efficiently reproduce data specifying a time.

ブルーレイディスクでは、この実施の形態2のタイムテーブルTMに相当する仕組みとして対応表(EPマップ、EP_map)を持っている。このEPマップは、再生位置をシステムクロックとTSパケットの位置とで示している。再生位置は、PTS(表示開始の時刻)とそのデータとを読み出すための位置である。   The Blu-ray disc has a correspondence table (EP map, EP_map) as a mechanism corresponding to the time table TM of the second embodiment. This EP map indicates the reproduction position by the system clock and the position of the TS packet. The reproduction position is a position for reading out PTS (display start time) and its data.

EPマップは、時刻を指定したジャンプ、ランダムアクセスまたはプレイリストによる再生などに用いられている。ランダムアクセスは、例えば、早送りまたは巻き戻しなどである。プレイリストは、ストリームの再生部分と再生順とを決めたリストである。   The EP map is used for jumping by specifying a time, random access, reproduction by a playlist, or the like. Random access is, for example, fast forward or rewind. The playlist is a list in which the playback part of the stream and the playback order are determined.

ブルーレイディスクのEPマップでは、時刻および再生位置のデータ形式がMMTの場合とは異なっている。しかし、時刻を指定して再生位置のデータを取得する仕組みはこの実施の形態2で説明したタイムテーブルTMを用いる場合と同じ考え方である。   In the EP map of the Blu-ray disc, the data format of the time and playback position is different from that in the case of MMT. However, the mechanism for specifying the time and acquiring the reproduction position data is the same as the case of using the time table TM described in the second embodiment.

タイムテーブルTMをEPマップと類似の構造とすることによって、これら再生の仕組みを大幅に変更することなく、ブルーレイディスクにMMT形式の放送を記録し再生することができる。   By making the time table TM similar in structure to the EP map, it is possible to record and play back an MMT broadcast on a Blu-ray disc without significantly changing the playback mechanism.

例えば、MMTの再生の時刻形式は、放送時の絶対時刻(世界時刻)である。一方、ブルーレイディスクのEPマップでは、内部クロックを用いた相対時刻である。そこで、タイムテーブルTMの時刻の表記を相対時刻の表記に換算する。または、絶対時刻と相対時刻との換算用のデータを別途持たせる。または、ブルーレイディスクで使用する再生の時刻情報を、絶対時刻の形式に変更する。   For example, the time format of MMT playback is the absolute time (world time) at the time of broadcasting. On the other hand, in the EP map of the Blu-ray disc, it is a relative time using an internal clock. Therefore, the time notation of the time table TM is converted into a relative time notation. Alternatively, separate data for conversion between absolute time and relative time is provided. Alternatively, the playback time information used on the Blu-ray disc is changed to the absolute time format.

実施の形態3.
日本の新しい放送方式では、多重化方式およびエンコード方式が変更されている。また、日本の新しい放送方式では、伝送レートも引きあげられている。例えば、ARIB TR B−39によると、4K放送では35Mbpsの伝送レートが想定され、8K放送では100Mbpsの伝送レートが想定されている。
Embodiment 3 FIG.
In the new broadcasting system in Japan, the multiplexing system and the encoding system are changed. Moreover, the transmission rate is also raised in the new broadcasting system in Japan. For example, according to ARIB TR B-39, a transmission rate of 35 Mbps is assumed for 4K broadcasting, and a transmission rate of 100 Mbps is assumed for 8K broadcasting.

一方、現在市販されているBDXL(登録商標)のディスクでは、光ディスクの伝送レートは、140Mbps前後である。   On the other hand, in the BDXL (registered trademark) disk currently on the market, the transmission rate of the optical disk is around 140 Mbps.

そのため、8K放送を録画したディスクを再生する場合には、通常の再生では問題がなく、再生可能である。しかし、8K放送を録画したディスクで早送りなどの特殊再生を行うと、1コマ分の画像を表示するのに時間がかかってしまうという問題がある。   Therefore, when playing back a disc recorded with 8K broadcast, there is no problem in normal playback and playback is possible. However, when special reproduction such as fast-forwarding is performed on a disc on which 8K broadcast is recorded, there is a problem that it takes time to display an image for one frame.

特開2000−125259には、記録媒体の記録領域を所定のデータサイズに分割し、記録時にストリームを解読して、Iピクチャであることを表すPCT(ピクチャタイプコード)を含むTSパケットを、セクタの先頭から記録すると共に、そのセクタの先頭アドレスを示すポインタを、記録媒体上に設けたテーブルに登録する。そして、この様に記録した記録媒体を用いた早送り、早戻し等の特殊再生動作は、ポインタテーブルからポインタアドレスを読み出し、そのポインタが示すセクタから一枚のIピクチャのみを再生し、その後次々とポインタが示すセクタを順次再生することが記載されている。   In Japanese Patent Laid-Open No. 2000-125259, a recording area of a recording medium is divided into a predetermined data size, a stream is decoded at the time of recording, and a TS packet including a PCT (picture type code) indicating an I picture is And a pointer indicating the start address of the sector is registered in a table provided on the recording medium. Then, special playback operations such as fast-forward and fast-rewind using the recording medium recorded in this way read the pointer address from the pointer table, reproduce only one I picture from the sector indicated by the pointer, and then successively It describes that the sector indicated by the pointer is sequentially reproduced.

このように、早送りなど特殊再生を行う際には、Iピクチャのみを再生する方法が取られる事が多い。Iピクチャは、映像ストリームのランダムアクセスポイントにある。早送り速度に応じて、通常の早送り(FF、Fast Foward)では、全てのIピクチャを表示する。また、2倍速の早送り(FF×2)では、Iピクチャを1つ飛ばしで表示する。また、3倍速の早送り(FF×3)では、Iピクチャを2つ飛ばしで表示する。このようにして、早送り時の再生速度の調整を行う。   As described above, when performing special reproduction such as fast-forwarding, a method of reproducing only an I picture is often used. The I picture is at a random access point of the video stream. In accordance with the fast forward speed, all the I pictures are displayed in normal fast forward (FF, Fast Forward). In double-speed fast forward (FF × 2), one I picture is skipped and displayed. Further, in the fast forward (FF × 3) at 3 × speed, two I pictures are skipped and displayed. In this way, the playback speed during fast forward is adjusted.

しかしながら、GOP内でのIピクチャの比率が大きい場合には、Iピクチャの読み出しに時間がかかり、画像(Iピクチャ)の更新間隔が長くなる。   However, when the ratio of the I picture in the GOP is large, it takes time to read out the I picture, and the update interval of the image (I picture) becomes long.

実施の形態3に係る映像再生装置は、特殊再生の際に、Iピクチャの読み出し時間を短くし、画像(Iピクチャ)の更新間隔を短くすることができる。   The video playback apparatus according to Embodiment 3 can shorten the I-picture readout time and the image (I-picture) update interval during special playback.

従来の早送り再生では、再生可能なIピクチャのディスク上の位置をテーブルで管理している。そして、そのテーブルを用いて、順次、Iピクチャのデータを読み出している。   In conventional fast-forward playback, the positions of reproducible I pictures on the disc are managed in a table. Then, using the table, I picture data is read sequentially.

光ディスクでは、読み出し位置を変更する際には、ヘッドの移動に時間が必要である。このヘッドの移動時間をシークタイムと呼ぶ。   In an optical disk, it takes time to move the head when changing the reading position. This moving time of the head is called a seek time.

画面上での早送り画像の更新間隔は、次の式1ようになる。
更新間隔 = シークタイム+Iピクチャデータの読み出し時間+デコード時間 ・・・(1)
The update interval of the fast-forward image on the screen is expressed by the following formula 1.
Update interval = seek time + I picture data read time + decode time (1)

そのため、GOP内でのIピクチャの比率が大きい場合には、Iピクチャの読み出しに時間がかかり、画像(Iピクチャ)の更新間隔が長くなる。4K/8K放送では、圧縮効率の良いHEVC圧縮方式を採用している。そのため、従来の画像圧縮方式よりもIピクチャの比率が大きい。   Therefore, when the ratio of the I picture in the GOP is large, it takes time to read out the I picture, and the update interval of the image (I picture) becomes long. In 4K / 8K broadcasting, the HEVC compression method with good compression efficiency is adopted. Therefore, the I picture ratio is larger than that of the conventional image compression method.

また、映像ストリームのデータレートとディスクからの最高読み出し速度との差が少ない場合にも、Iピクチャの読み出し時間が長くなり、画像の更新間隔が長くなる。例えば、100Mbpsの放送ストリームを最高読み出し速度140Mbpsの光ディスクから読み出す場合には、1.4倍の速度でしか読み出す事ができない。   Even when the difference between the data rate of the video stream and the maximum reading speed from the disk is small, the I picture read time becomes long and the image update interval becomes long. For example, when a 100 Mbps broadcast stream is read from an optical disc with a maximum read speed of 140 Mbps, it can be read only at a speed of 1.4 times.

このように、4K/8K映像を光ディスクに記録した場合には、特殊再生時の画像の更新間隔が従来よりも長くなる。その一方で、放送を記録した映像の再生時には、早送りなど特殊再生の操作が行われる事が多い。そして、利用者が目的のシーンを特定する際には、画像の更新間隔は短い方が望ましい。   As described above, when 4K / 8K video is recorded on the optical disc, the image update interval at the time of special reproduction becomes longer than that in the past. On the other hand, special playback operations such as fast-forwarding are often performed at the time of playback of video recording broadcasts. When the user specifies a target scene, it is desirable that the image update interval is short.

そのため、画像の更新間隔が長いと、利用者が早送りを使ってシーンを検索する際に、目的のシーンを見つける事が難しくなってしまう。   Therefore, if the image update interval is long, it becomes difficult for the user to find the target scene when searching for a scene using fast-forwarding.

この実施の形態3では、早送り再生などの特殊再生の際に、目的のシーンを見つける事が容易で、操作性の良い映像再生装置を提供する事を目的としている。   The object of the third embodiment is to provide a video playback apparatus that is easy to find a target scene during special playback such as fast-forward playback and has good operability.

利用者の観点から早送り時の画像の更新間隔について整理する。例えば、本来の再生時間が100秒の映像を10秒で再生する早送りを考える。ここでは仮に10倍速早送りと呼ぶ。   Organize the image update interval during fast-forward from the user's point of view. For example, consider fast-forwarding in which a video with an original playback time of 100 seconds is played back in 10 seconds. Here, it is referred to as 10 times fast forward.

通常、利用者は早送り中の映像を確認して、目的のシーンが現れた時点で早送り解除する。つまり、通常の再生速度に戻す。早送り再生の時には、表示される映像は間欠的な映像となる。しかし、表示されるシーンを利用者が認識するには、時間的な情報の欠落は少ない方が容易である。また、早送り操作が終了した後、早送りが解除されて通常再生に戻る位置のずれも少なくできる。   Normally, the user checks the fast-forwarding video and cancels fast-forwarding when the target scene appears. That is, the normal playback speed is restored. During fast-forward playback, the displayed video is intermittent video. However, it is easier for the user to recognize the displayed scene when there is less missing time information. In addition, it is possible to reduce the deviation of the position at which the fast-forwarding is canceled and the normal playback is resumed after the fast-forwarding operation is completed.

例えば、10倍速早送りに対して考える。早送り中の画像の更新間隔が1秒であれば、通常の再生時間の10秒に対して1コマ表示される。これに対して、早送り中の画像の更新間隔が0.5秒であれば、通常の再生時間の5秒に対して1コマが表示される。   For example, consider 10-times fast forward. If the update interval of the fast-forwarding image is 1 second, one frame is displayed for the normal reproduction time of 10 seconds. On the other hand, if the update interval of fast-forwarding images is 0.5 seconds, one frame is displayed for the normal playback time of 5 seconds.

早送り再生の際に、利用者が目的のシーンを見つけるためには、通常の再生時間当たりから抜き出されるコマ(画像)数が多い方が有利である。このように、早送り再生時に、多くの画像を表示することによって、操作性を向上させる事ができる。つまり、更新間隔を短くすることによって、操作性を向上させる事ができる。   In order to find a target scene during fast-forward playback, it is advantageous that the number of frames (images) extracted from the normal playback time is large. Thus, operability can be improved by displaying many images during fast-forward playback. That is, operability can be improved by shortening the update interval.

4K/8K放送では、分割デコードを想定して、複数のスライスセグメントを持ったストリーム形式を規定している。   In 4K / 8K broadcasting, a stream format having a plurality of slice segments is defined assuming division decoding.

例えば、1つの画像を4分割する場合には、縦と横とに2分割(以下、田の字型ともよぶ。)して4分割の画像を作成する。または、1つの画像を縦方向に4分割(以下目の字型ともよぶ。)する。そして、それぞれのスライスセグメント単位で、独立してデコードできるようになっている。これは、2K用のデコーダーを4つ用いて4K映像のデコードを行い、4K用のデコーダーを4つ用いて8K映像のデコードを行えるようにするための配慮である。   For example, when one image is divided into four, the image is divided into four vertically and horizontally (hereinafter also referred to as a square shape) to create a four-divided image. Alternatively, one image is divided into four parts in the vertical direction (hereinafter also referred to as the letter shape). Each slice segment can be decoded independently. This is a consideration for decoding 4K video using four 2K decoders and decoding 8K video using four 4K decoders.

これらの複数のスライスセグメントを持つ放送ストリームを光ディスクに記録した場合には、スライスセグメント単位でデータを読む出す事が出来れば、一部のスライスセグメントだけを再生することが可能である。   When a broadcast stream having a plurality of slice segments is recorded on an optical disc, only a part of the slice segments can be reproduced if the data can be read out in units of slice segments.

これを特殊再生時に使用すれば、更新される画像は通常の再生で表示されている画像の一部になる。しかし、式(1)の「Iピクチャデータの読み出し時間」を4分の1にすることができる。そして、特殊再生時の画像の更新間隔を短縮することができる。   If this is used during special playback, the updated image becomes part of the image displayed in normal playback. However, the “I picture data read time” in equation (1) can be reduced to a quarter. In addition, the image update interval during special reproduction can be shortened.

図15は、実施の形態3に係る映像ストリームの模式図である。   FIG. 15 is a schematic diagram of a video stream according to the third embodiment.

多重化方式としてはTS方式およびMMT方式の両方が考えられる。しかし、図15では、固有のヘッダ情報などを省略している。また、パディング等も省略している。   As the multiplexing method, both the TS method and the MMT method are conceivable. However, in FIG. 15, unique header information and the like are omitted. Also, padding and the like are omitted.

放送の場合には、1つのGOPは約60フレーム(画像またはピクチャ)まで含む事ができる。そして、1つのGOPの中に、少なくとも1つのIピクチャを含む。特に、デコードの際に開始点となるIピクチャはIRAPピクチャ(IRAP画像)と呼ばれる。そして、データ順では、通常、IRAPピクチャはGOPの先頭に配置されている。   In the case of broadcasting, one GOP can contain up to about 60 frames (images or pictures). Then, at least one I picture is included in one GOP. In particular, the I picture that is the starting point for decoding is called an IRAP picture (IRAP picture). In the data order, the IRAP picture is usually arranged at the head of the GOP.

Iピクチャ(IRAPピクチャを含む)、BピクチャおよびPピクチャは、それぞれフレーム(画像またはピクチャ)を表す。   An I picture (including an IRAP picture), a B picture, and a P picture each represent a frame (an image or a picture).

Iピクチャは、単独でデコード可能な独立した画像を示す。一方、BピクチャおよびPピクチャは、他の画像に依存している。BピクチャおよびPピクチャは、他の画像との差分データである。このため、BピクチャおよびPピクチャは、単独ではデコードすることができない。   The I picture indicates an independent image that can be decoded independently. On the other hand, the B picture and the P picture depend on other images. The B picture and the P picture are difference data from other images. For this reason, the B picture and the P picture cannot be decoded alone.

GOPは、GOPの中で画像間の依存関係が完結している。つまり、GOP内のすべての画像は、デコード可能となるデータのセットを構成している。   The GOP has a complete dependency relationship between images in the GOP. That is, all the images in the GOP constitute a set of data that can be decoded.

1つの画像が複数のスライスセグメントで構成されている場合には、それぞれの画像はパラメータセットと複数のスライスセグメントとで構成されている。パラメータセットと1つのスライスセグメントとを組み合わせる事で、スライスセグメントはデコード可能な単位となる。図15では、IRAPピクチャのみスライスセグメントの構造で記載している。しかし、BピクチャおよびPピクチャも、同様の構造を取ることができる。   When one image is composed of a plurality of slice segments, each image is composed of a parameter set and a plurality of slice segments. By combining the parameter set and one slice segment, the slice segment becomes a decodable unit. In FIG. 15, only the IRAP picture is described in the slice segment structure. However, the B picture and the P picture can take a similar structure.

デコーダーを4つ用いて並列でデコードする場合には、スライスセグメントごとにデータを取り出す。そして、それぞれのデータにパラメータセットを追加する。その後、それぞれのデータを個々のデコーダーに与える事によって、1つの画像を分割された状態でデコードすることができる。画像を表示する際には、個別にデコードされた画像を結合し、1つの画像にして表示する。   When decoding in parallel using four decoders, data is extracted for each slice segment. Then, a parameter set is added to each data. Thereafter, by supplying each data to each decoder, one image can be decoded in a divided state. When displaying an image, the individually decoded images are combined and displayed as one image.

図16には、縦横に4分割(田の字型)した例を示す。画像の左上には、スライス#1の画像が表示されている。画像の右上には、スライス#2の画像が表示されている。画像の左下には、スライス#3の画像が表示されている。画像の右下には、スライス#4の画像が表示されている。   FIG. 16 shows an example in which the image is vertically and horizontally divided into four (field shape). An image of slice # 1 is displayed on the upper left of the image. An image of slice # 2 is displayed on the upper right of the image. An image of slice # 3 is displayed at the lower left of the image. An image of slice # 4 is displayed at the lower right of the image.

図17には、縦方向に4分割(目の字型)した例を示す。画像の上から1番上には、スライス#1の画像が表示されている。画像の上から2番目には、スライス#2の画像が表示されている。画像の上から3番目には、スライス#3の画像が表示されている。画像の上から4番目には、スライス#4の画像が表示されている。   FIG. 17 shows an example in which the vertical direction is divided into four (eye shape). The image of slice # 1 is displayed on the top from the top of the image. The image of slice # 2 is displayed second from the top of the image. The image of slice # 3 is displayed third from the top of the image. In the fourth image from the top, an image of slice # 4 is displayed.

なお、分割されていない映像ストリームの場合には、1つのピクチャデータ内にスライスセグメントが1つだけ存在している。   In the case of an undivided video stream, there is only one slice segment in one picture data.

このような分割されたスライスセグメント構造を持った映像ストリームでの特殊再生を考える。   Consider special reproduction with a video stream having such a divided slice segment structure.

前述の通り、操作性を向上させるためには、表示画像の更新間隔を短くする必要がある。従来では、Iピクチャ全体のデータを読み込み、Iピクチャ全体を表示していた。しかし、Iピクチャの第1スライスセグメント(スライスセグメント#1)のデータのみを読み込み、Iピクチャの第1スライスセグメント(スライスセグメント#1)のみを表示する事を考える。   As described above, in order to improve operability, it is necessary to shorten the display image update interval. Conventionally, data of the entire I picture is read and the entire I picture is displayed. However, it is assumed that only the data of the first slice segment (slice segment # 1) of the I picture is read and only the first slice segment (slice segment # 1) of the I picture is displayed.

図18は、分割スライスセグメントの単位での読み出しに対応したタイムテーブル(TMS)の一例である。図19は、タイムテーブル(TMS)の各項目とデータ上との対応を示している。映像ストリームを記録する際に、映像ストリームの解析を行う。そして、時刻情報またはデータ区切り位置の情報などを取出してタイムテーブル(TMS)を作成する。   FIG. 18 is an example of a time table (TMS) corresponding to reading in units of divided slice segments. FIG. 19 shows the correspondence between each item of the time table (TMS) and the data. When recording a video stream, the video stream is analyzed. Then, the time table (TMS) is created by taking out the time information or the data delimiter position information.

なお、タイムテーブルとして符号TMと符号TMSとの2種類を用いている。分割スライスセグメントに対応したタイムテーブルを符号TMと区別して符号TMSを用いている。タイムテーブルは、映像ストリームと一緒に記録メディアに記録される。記録メディアは、例えば、光ディスクなどである。   Two types of codes TM and TMS are used as the time table. The time table corresponding to the divided slice segments is distinguished from the code TM and the code TMS is used. The time table is recorded on the recording medium together with the video stream. The recording medium is, for example, an optical disk.

タイムテーブル(TMS)の各項目について説明する。   Each item of the time table (TMS) will be described.

「時刻」は、各時刻の行が示すGOPの表示時刻である。時刻は、システムクロック形式の時刻情報、ntp形式の時刻情報またはストリームの先頭からの差分時間などの形で記録されている。時間を指定して再生を開始する場合には、この時刻欄を検索し、指定時間の近傍のデータから再生を開始する。   “Time” is the display time of the GOP indicated by the row of each time. The time is recorded in the form of time information in the system clock format, time information in the ntp format, or a difference time from the beginning of the stream. When starting reproduction by designating a time, the time column is searched, and reproduction is started from data in the vicinity of the designated time.

なお、「時刻」は、ここではGOPの表示時刻とした。1つのGOPには、通常、複数の画像が含まれている。そして、それぞれの画像の表示時刻があるため、GOPには表示時刻が複数存在する。GOPの表示時刻としてタイムテーブルに記録する場合には、GOP内での表示の順番で先頭になる画像の表示時刻を使用することができる。または、デコードの順番で先頭になる画像の表示時刻を使用することができる。この場合には、先頭になる画像は、IRAPピクチャになる。   Here, the “time” is the GOP display time. One GOP usually includes a plurality of images. Since each image has a display time, there are a plurality of display times in the GOP. When recording in the time table as the GOP display time, the display time of the first image in the display order in the GOP can be used. Alternatively, the display time of the first image in the decoding order can be used. In this case, the head image is an IRAP picture.

また、タイムテーブルに格納する「時刻」は、必ずしも、画像の表示時刻に一致する必要はない。例えば、画像の表示時刻そのものではなく、精度を落とした時刻情報または他のデータに対する時刻情報などを用いることができる。これらは、例えば、再生装置のシステムクロックの精度、データアクセスとの関係またはタイムテーブルに格納可能なデータ長などが考慮される。   Further, the “time” stored in the time table does not necessarily need to coincide with the display time of the image. For example, time information with reduced accuracy or time information for other data can be used instead of the image display time itself. For example, the accuracy of the system clock of the playback device, the relationship with data access, or the data length that can be stored in the time table is considered.

「IRAP開始位置」は、IRAPピクチャの格納位置である。IRAPピクチャの格納位置は、GOPのランダムアクセスポイントとなる。IRAPピクチャの格納位置は、通常、GOPの開始位置と同一となる。「IRAP終了位置」は、IRAPピクチャ全体のデータ末尾を示す。IRAP開始位置からIRAP終了位置までのデータを読み出すことによって、IRAPピクチャをデコードできるデータがそろう。   The “IRAP start position” is a storage position of the IRAP picture. The storage location of the IRAP picture is a GOP random access point. The storage position of the IRAP picture is normally the same as the start position of the GOP. The “IRAP end position” indicates the data end of the entire IRAP picture. By reading data from the IRAP start position to the IRAP end position, there is data that can decode the IRAP picture.

「#2開始位置」は、2つ目のスライスセグメント(スライス#2)の開始位置を示す。また、「#2開始位置」は、1つ目のスライスセグメント(スライス#1)の終了位置を示す。「#3開始位置」は、3つ目のスライスセグメント(スライス#3)の開始位置を示す。また、「#3開始位置」は、2つ目のスライスセグメント(スライス#2)の終了位置を示す。「#4開始位置」は、4つ目のスライスセグメント(スライス#4)の開始位置を示す。また、「#4開始位置」は、3つ目のスライスセグメント(スライス#3)の終了位置を示す。「#4終了位置」は、4つ目のスライスセグメント(スライス#4)の終了位置を表す。通常、この位置はIRAPピクチャの終了位置と同じである。   “# 2 start position” indicates the start position of the second slice segment (slice # 2). “# 2 start position” indicates the end position of the first slice segment (slice # 1). “# 3 start position” indicates the start position of the third slice segment (slice # 3). “# 3 start position” indicates the end position of the second slice segment (slice # 2). “# 4 start position” indicates the start position of the fourth slice segment (slice # 4). “# 4 start position” indicates the end position of the third slice segment (slice # 3). “# 4 end position” represents the end position of the fourth slice segment (slice # 4). Normally, this position is the same as the end position of the IRAP picture.

「パラメータセット」には、IRAPピクチャのデータのパラメータセットが格納されている。パラメータセットには、例えば、AUD(Access Unit Delimiter)、VPS(Video Parameter Set)、SPS(Sequence Parameter Set)、PPS(Picture Parameter Set)、SEI(Supplemental Enhancement Information)またはEOS(End of Stream)などが含まれている。   The “parameter set” stores a parameter set of IRAP picture data. The parameter set includes, for example, AUD (Access Unit Delimiter), VPS (Video Parameter Set), SPS (Sequence Parameter Set), SPS (Picture Parameter EnferE), and SEI (Supplementary Energy In). include.

図19に示したタイムテーブル(TMS)では、スライスセグメントの終了位置を格納している。例えば、IRAPピクチャの終了位置とスライス#4の終了位置とである。しかし、終了位置の代わりにデータサイズをテーブルに格納し利用する方法を取ることもできる。   In the time table (TMS) shown in FIG. 19, the end position of the slice segment is stored. For example, the end position of the IRAP picture and the end position of slice # 4. However, it is possible to use a method in which the data size is stored in a table instead of the end position.

開始位置および終了位置は、データの先頭からのバイト位置またはブロック位置などの形で記録されている。また、多重化方式にTSを採用している場合には、開始位置および終了位置は、TSパケットの位置などの形で記録されている。開始位置および終了位置は、データを読み出すのに必要な位置として記録されている。   The start position and end position are recorded in the form of a byte position or a block position from the beginning of the data. In addition, when TS is adopted as the multiplexing method, the start position and the end position are recorded in the form of the position of the TS packet. The start position and the end position are recorded as positions necessary for reading data.

セグメントのデータ位置を示す情報に関しては、GOPの先頭からの相対位置とすることができる。これによって、位置情報のデータサイズを小さくする事が出来る。   The information indicating the data position of the segment can be a relative position from the beginning of the GOP. As a result, the data size of the position information can be reduced.

光ディスクでは、ある程度まとまったデータ単位でデータの読み込みを行う。このため、位置に関しては必ずしも厳密である必要はない。位置を示す単位を大きくして、位置情報のデータ量を削減することも可能である。   In an optical disc, data is read in units of data that are collected to some extent. For this reason, the position need not be exact. It is also possible to reduce the amount of position information by increasing the unit indicating the position.

この例では、単一のタイムテーブルにスライスセグメントに関する情報も記録している。しかし、スライスセグメント情報を別のテーブルに格納することも可能である。この場合には、タイムスタンプ情報またはテーブル内でのエントリー位置などで、同一のGOPおよびIRAPピクチャに関する情報を取り出せるようにしておく。   In this example, information on slice segments is also recorded in a single time table. However, slice segment information can also be stored in a separate table. In this case, information about the same GOP and IRAP picture can be extracted from the time stamp information or the entry position in the table.

パラメータセットを、さらに別テーブルに格納する方法も考えられる。なぜなら、パラメータセットは、位置情報に比べるとサイズが大きいからである。また、パラメータセットは、画像によってデータ長が変化するからである。   A method of storing the parameter set in a separate table is also conceivable. This is because the parameter set is larger than the position information. This is because the data length of the parameter set varies depending on the image.

Iピクチャのスライスセグメント#1のみを用いて早送り再生を行う場合には、タイムテーブルで必要な情報は時刻、IRAP開始位置および#2開始位置である。この場合には、#2開始位置はスライスセグメント#1の終了位置として利用される。   When fast-forward playback is performed using only the slice segment # 1 of the I picture, the information required in the time table is the time, the IRAP start position, and the # 2 start position. In this case, the # 2 start position is used as the end position of the slice segment # 1.

図20を用いてスライスセグメント#1のみを用いた早送り再生の説明を行う。GOP(01)からGOP(06)までは、ストリームデータである。本来、ストリームデータは一続きのデータファイルである。しかし、説明を容易にするため、GOP単位で行を変えて表わしている。TMSは、前述のタイムテーブルである。TMS(タイムテーブル)は、時刻情報と画像データの位置を対応付けている。   The fast-forward playback using only slice segment # 1 will be described with reference to FIG. GOP (01) to GOP (06) are stream data. Originally, stream data is a continuous data file. However, for ease of explanation, the lines are changed for each GOP. TMS is the time table described above. The TMS (time table) associates time information with the position of image data.

なお、IRAP開始位置と#1開始位置とは、同じ値としてタイムテーブル上で兼用している。必要な値は、スライス#1の開始位置と終了位置である。IRAP開始位置を#1開始位置とみなし、#2開始位置を#1終了位置とみなしている。   The IRAP start position and the # 1 start position are also used as the same value on the time table. Necessary values are the start position and end position of slice # 1. The IRAP start position is regarded as the # 1 start position, and the # 2 start position is regarded as the # 1 end position.

早送り再生の場合には、タイムテーブルのエントリーを順次読み出す。それぞれのGOPのIRAP開始位置と#2開始位置とから、このGOPのIピクチャの1つ目のスライスセグメントのデータを読み出す。そして、このデータをデコードし、画面に表示する。IRAP開始位置は、スライスセグメント#1の開始位置である。#2開始位置は、スライスセグメント#1の終了位置である。   In the case of fast-forward playback, timetable entries are read sequentially. From the IRAP start position and # 2 start position of each GOP, the data of the first slice segment of the I picture of this GOP is read. Then, this data is decoded and displayed on the screen. The IRAP start position is the start position of slice segment # 1. The # 2 start position is the end position of the slice segment # 1.

これを繰り返す事によって、早送り再生を行うことができる。この場合には、Iピクチャを全て表示する場合に比べて、読み出しデータ量が4分の1になっている。このため、早送り再生時の画像の更新間隔を短くする事ができる。   By repeating this, fast-forward playback can be performed. In this case, the read data amount is ¼ compared with the case where all I pictures are displayed. For this reason, the image update interval during fast-forward playback can be shortened.

この例の場合には、表示が更新されるのは画面の一部である。つまり、1つ目のスライスセグメントの位置の画像のみ表示される。縦横4分割(田の字型)の場合には、例えば、画像の左上の4分の1の領域である。縦方向4分割(目の字型)の場合には、画像の上部4分の1の領域である。他の部分は更新されないまま残る。または、他の部分は表示されない状態である。   In this example, the display is updated on a part of the screen. That is, only the image at the position of the first slice segment is displayed. In the case of vertical and horizontal division (field shape), for example, the upper left quarter of the image. In the case of vertical division (eye shape), it is the upper quarter region of the image. Other parts remain unupdated. Alternatively, other parts are not displayed.

利用者が早送り操作を行う場合には、目的のシーンを判別できればよい。そのため、画面全体が見える事よりも、更新間隔の短い方が操作性を考慮すると良い場合も多い。   When the user performs a fast-forward operation, it is sufficient that the target scene can be determined. Therefore, it is often better to consider the operability when the update interval is shorter than when the entire screen is visible.

また、同じ方法で、1つ目のスライスセグメントと2つ目のスライスセグメントの2つとを表示する。このようにすれば、画面の半分を表示して早送りを行うこともできる。   Also, the first slice segment and the second slice segment are displayed in the same manner. In this way, half of the screen can be displayed and fast forward can be performed.

さらに、高速で早送り再生を行う場合には、表示するGOPを間引きして再生することができる。つまり、GOPを1つ飛ばし又は2つ飛ばし等で表示する。   Furthermore, when fast-forward playback is performed at high speed, the displayed GOP can be thinned and played back. That is, one GOP is skipped or two are skipped.

早送り再生の操作では、リモコンの早送りボタンを複数回押す事で早送り速度を調整する事が出来るものが多い。従来のIピクチャ全体を表示する早送りと組み合わせて使う場合には、リモコンボタンを押す回数によって表示方式を選択することができる。   In many fast-forward playback operations, the fast-forward speed can be adjusted by pressing the fast-forward button on the remote controller multiple times. When used in combination with conventional fast-forwarding that displays the entire I picture, the display method can be selected by the number of times the remote control button is pressed.

例えば、ボタンを1回押すと、全てのGOPのIピクチャの全体を表示して早送り再生を行う。ボタンを2回押すと、全てのGOPのIピクチャの一部のスライスセグメントのみを表示して早送り再生を行う。ボタンを3回押すと、GOPを1つ飛ばしして、Iピクチャの一部のスライスセグメントのみを表示して早送り再生を行う。ボタンを4回押すと、GOPを2つ飛ばしして、Iピクチャの一部のスライスセグメントのみを表示して早送り再生を行う。   For example, when the button is pressed once, the entire I picture of all GOPs is displayed and fast-forward playback is performed. When the button is pressed twice, only some slice segments of the I picture of all GOPs are displayed and fast-forward playback is performed. When the button is pressed three times, one GOP is skipped and only some slice segments of the I picture are displayed and fast-forward playback is performed. When the button is pressed four times, two GOPs are skipped and only some slice segments of the I picture are displayed and fast-forward playback is performed.

放送ストリームが複数のスライスセグメントを持たない場合には、この方法を使うことができない。しかし、放送を記録する際に、再圧縮またはフォーマット変換を行うことも多い。その際に、複数のスライスセグメントを持つHEVC映像ストリームとして再構成する事も可能である。放送以外の外部入力の映像を記録する場合でも、同様に、複数のスライスセグメントを持つHEVC映像ストリームとして圧縮データを作成する事で、この方法による特殊再生を行う事ができる。   This method cannot be used if the broadcast stream does not have multiple slice segments. However, re-compression or format conversion is often performed when recording a broadcast. At that time, it is also possible to reconstruct the HEVC video stream having a plurality of slice segments. Even when recording externally input video other than broadcast, special reproduction by this method can be performed by creating compressed data as a HEVC video stream having a plurality of slice segments.

<変形例1>
これまでの説明では、早送りなど特殊再生時に画像の一部のみの更新でも良いとした。しかし、画像の全体が更新された方が目的のシーンを見つけやすいことも考えられる。そこで、読み出すデータは一部スライスセグメント分としながら、画像の全体を更新する方法を考える。
<Modification 1>
In the description so far, only a part of the image may be updated during special playback such as fast-forwarding. However, it may be easier to find the target scene if the entire image is updated. Therefore, a method of updating the entire image while considering the data to be read out as a part of the slice segment is considered.

図21は、早送り再生の説明図である。この例では、タイムテーブル(TMS)の中の全てのスライスの位置情報を利用している。   FIG. 21 is an explanatory diagram of fast-forward playback. In this example, position information of all slices in the time table (TMS) is used.

早送り再生の場合には、タイムテーブルのエントリーを順次読み出す。最初のGOPのIRAP開始位置と#2開始位置とから、このGOPのIピクチャの1つ目のスライスセグメントのデータを読み出す。IRAP開始位置は、スライスセグメント#1の開始位置である。#2開始位置は、スライスセグメント#1の終了位置である。このデータをデコードして、画面のスライスセグメント#1の位置に表示する。図21では、画面のスライスセグメント#1の位置は、画面の左上である。   In the case of fast-forward playback, timetable entries are read sequentially. From the IRAP start position and # 2 start position of the first GOP, the data of the first slice segment of the I picture of this GOP is read. The IRAP start position is the start position of slice segment # 1. The # 2 start position is the end position of the slice segment # 1. This data is decoded and displayed at the position of slice segment # 1 on the screen. In FIG. 21, the position of slice segment # 1 on the screen is at the upper left of the screen.

次のGOPの#2開始位置と#3開始位置とから、このGOPのIピクチャの2つ目のスライスセグメントのデータを読み出す。#2開始位置は、スライスセグメント#2の開始位置である。#3開始位置は、スライスセグメント#2の終了位置である。このデータをデコードして、画面のスライスセグメント#2の位置に表示する。   From the # 2 start position and # 3 start position of the next GOP, the data of the second slice segment of the I picture of this GOP is read. The # 2 start position is the start position of slice segment # 2. The # 3 start position is the end position of the slice segment # 2. This data is decoded and displayed at the position of slice segment # 2 on the screen.

この時、スライスセグメント#2のデコードには、このピクチャのパラメータセット(PS)のデータが必要になる。パラメータセット(PS)は、ピクチャ先頭に配置されている。つまり、パラメータセット(PS)は、スライスセグメント#1の前に配置されている。このため、パラメータセット(PS)をスライスセグメント#1と同時に読み込む場合には、1度に読み込める。しかし、パラメータセット(PS)とスライスセグメント#2とを読み込む場合には、2回の読み込みが発生する。   At this time, the decoding of slice segment # 2 requires the parameter set (PS) data of this picture. The parameter set (PS) is arranged at the top of the picture. That is, the parameter set (PS) is arranged before slice segment # 1. Therefore, when the parameter set (PS) is read at the same time as the slice segment # 1, it can be read at a time. However, when reading the parameter set (PS) and slice segment # 2, two readings occur.

光ディスクの読み出し動作では、読み出し位置の変更に時間がかかる。そのため、この時の読み込み動作としては次の3つの方法が考えられる   In the optical disk read operation, it takes time to change the read position. Therefore, the following three methods can be considered as the reading operation at this time.

1つ目の方法は、パラメータセット(PS)とスライスセグメント#2との2回の読み込み動作を行う。2つ目の方法は、パラメータセット(PS)、スライスセグメント#1およびスライスセグメント#2を一度に読み込む。3つ目の方法は、パラメータセット(PS)とスライスセグメント#2のデータとを使用する。そして、タイムテーブルを作成する時に、Iピクチャのデコードに必要なパラメータセット(PS)のデータのコピーをタイムテーブルに格納する。   The first method performs two reading operations of the parameter set (PS) and slice segment # 2. The second method reads the parameter set (PS), slice segment # 1, and slice segment # 2 at a time. The third method uses a parameter set (PS) and data of slice segment # 2. Then, when creating the time table, a copy of the parameter set (PS) data necessary for decoding the I picture is stored in the time table.

この説明では、3つ目の方法を説明している。つまり、タイムテーブル内にパラメータセット(PS)のデータのコピーが格納されているものとして説明している。この場合には、タイムテーブルに格納されていたパラメータセット(PS)のデータとスライスセグメント#2のデータとをデコーダーに入力して、デコードを行う。   In this description, the third method is described. That is, it is assumed that a copy of parameter set (PS) data is stored in the time table. In this case, the parameter set (PS) data and the slice segment # 2 data stored in the time table are input to the decoder for decoding.

次のGOPでは、同様にスライスセグメント#3のデータを取り出し、画面上のスライスセグメント#3の位置の画像を更新する。図21では、画面上のスライスセグメント#3の位置は、画面の左下である。   In the next GOP, similarly, the data of slice segment # 3 is taken out, and the image at the position of slice segment # 3 on the screen is updated. In FIG. 21, the position of slice segment # 3 on the screen is the lower left of the screen.

このように画像の更新のたびに、表示するスライスセグメントをずらしていく事によって、一回の更新では画像の一部の更新ではあっても、数回の画像の更新によって画面全体を更新することができる。画面の位置によって、異なる時刻の画像が表示される。スライスセグメントごとに、異なる時刻の画像が表示される。しかし、一部分の画像の表示に比べると、シーンの把握が容易になる。つまり、より操作性の良い特殊再生を実現することができる。   In this way, by shifting the slice segment to be displayed each time the image is updated, the entire screen is updated by updating the image several times even if it is a partial update of the image by one update. Can do. Depending on the position of the screen, images at different times are displayed. Images at different times are displayed for each slice segment. However, it is easier to grasp the scene than when displaying a partial image. That is, special reproduction with better operability can be realized.

この説明では、1つのスライスセグメントで画像の更新を行った。しかし、1つのGOPで複数のスライスセグメントの画像を更新することができる。例えば、画像の半分ずつを交互に更新する事もできる。   In this description, the image is updated in one slice segment. However, it is possible to update images of a plurality of slice segments with one GOP. For example, half of the image can be alternately updated.

上記の説明では、スライス番号の順にスライス#1、スライス#2、スライス#3、スライス#4の順番で画像の更新を行った。画像の更新は、必ずしもスライス番号の順である必要はない。再生時に任意の順番とすることができる。   In the above description, images are updated in the order of slice # 1, slice # 2, slice # 3, and slice # 4 in the order of slice numbers. The images need not be updated in the order of slice numbers. It can be in any order during playback.

図22に画像の更新の順番の例を示す。図22(1)は、スライス#1、スライス#2、スライス#3、スライス#4の順で画像を更新する例である。図22(2)は、スライス#1、スライス#2、スライス#4、スライス#3の順で画像を更新する例である。図22(2)は、時計回りで画像を更新している。図22(3)は、スライス#1、スライス#4、スライス#3、スライス#2の順で画像を更新する例である。図22(4)は、スライス#1、スライス#3、スライス#4、スライス#2の順で画像を更新する例である。図22(4)は、反時計回りで画像を更新している。   FIG. 22 shows an example of the update order of images. FIG. 22 (1) is an example in which images are updated in the order of slice # 1, slice # 2, slice # 3, and slice # 4. FIG. 22 (2) is an example in which images are updated in the order of slice # 1, slice # 2, slice # 4, and slice # 3. In FIG. 22 (2), the image is updated clockwise. FIG. 22 (3) is an example in which images are updated in the order of slice # 1, slice # 4, slice # 3, and slice # 2. FIG. 22 (4) is an example in which images are updated in the order of slice # 1, slice # 3, slice # 4, and slice # 2. In FIG. 22 (4), the image is updated counterclockwise.

再生の時に表示するスライスセグメントを選択できる場合には、早送り再生時と巻き戻し再生時とで、画像を更新する順番を逆にすることもできる。例えば、早送りの場合には、図22(2)の時計回りとし、巻き戻しの場合には、図22(4)の反時計回りとする。このように、早送りと巻き戻しとで画像の更新の順番を逆にすることによって、早送りの操作と巻き戻しの操作とを繰り返した場合でも、現在の状態の把握が容易になり、操作性が向上する。   When the slice segment to be displayed at the time of playback can be selected, the order in which images are updated can be reversed between fast forward playback and rewind playback. For example, in the case of fast-forwarding, the rotation is clockwise in FIG. 22 (2), and in the case of rewinding, the rotation is counterclockwise in FIG. In this way, by reversing the image update order between fast-forward and rewind, even when fast-forward and rewind operations are repeated, the current state can be easily grasped and operability is improved. improves.

図23は、縦方向に4分割(目の字型)の場合の例である。この場合にも、画像の更新の順番を逆にすることで、早送りと巻き戻しとの把握が容易になる。例えば、早送りをスライス#1からスライス4に向けて更新する(図23(1))。そして、巻き戻しをスライス#4からスライス1に向けて更新する(図23(2))。   FIG. 23 is an example in the case of four divisions (eye shape) in the vertical direction. Also in this case, by reversing the image update order, it becomes easy to grasp fast forward and rewind. For example, the fast forward is updated from slice # 1 to slice 4 (FIG. 23 (1)). Then, rewinding is updated from slice # 4 toward slice 1 (FIG. 23 (2)).

<変形例2>
前記の説明では、タイムテーブルに全てのスライスセグメントへの読み出し位置情報を格納していた。タイムテーブルのサイズを小さくするために、一部のスライスセグメントの読み出し位置情報だけを記録する方法も考えられる。
<Modification 2>
In the above description, read position information for all slice segments is stored in the time table. In order to reduce the size of the time table, a method of recording only the read position information of some slice segments is also conceivable.

図24では、1つのスライスセグメントの読み出し位置情報を格納したタイムテーブル(TMS)を示している。   FIG. 24 shows a time table (TMS) storing read position information of one slice segment.

この例では、タイムテーブルの各時刻に対応するスライスセグメントの読み出し位置の情報を格納している。例えば、GOP(01)とGOP(05)とに対応する行には、スライスセグメント#1の読み出し位置情報が格納されている。図23では、例えば、GOP(01)の情報はタイムテーブルの1行目に記載されている。また、GOP(05)の情報はタイムテーブルの5行目に記載されている。   In this example, information on the read position of the slice segment corresponding to each time in the time table is stored. For example, the read position information of slice segment # 1 is stored in the rows corresponding to GOP (01) and GOP (05). In FIG. 23, for example, information on GOP (01) is described in the first row of the time table. Further, information on GOP (05) is described in the fifth row of the time table.

ストリームを記録する際に、記録するGOPを順次カウントする。そして、このGOPのカウント値を1つの画像中のスライスセグメント数で割った余り(剰余)を取る。図24では、1つの画像中のスライスセグメント数は4である。この値(剰余)に1を足した値をスライスセグメントの値とする。そして、そのスライスセグメントの位置をタイムテーブルに記録する。   When recording a stream, the GOPs to be recorded are sequentially counted. Then, the remainder (remainder) obtained by dividing the GOP count value by the number of slice segments in one image is taken. In FIG. 24, the number of slice segments in one image is four. A value obtained by adding 1 to this value (remainder) is set as the value of the slice segment. Then, the position of the slice segment is recorded in the time table.

この例では、各時刻のスライス開始位置とスライス終了位置とには情報が記載されている。スライスの順番は、スライス#1、スライス#2、スライス#3、スライス#4の順番である。なお、図24では記載を省略しているが、IRAP開始位置およびIRAP終了位置なども記録する。他の特殊再生または従来のIRAP画像全体の表示との互換のためである。   In this example, information is described in the slice start position and the slice end position at each time. The order of the slices is the order of slice # 1, slice # 2, slice # 3, and slice # 4. Although not shown in FIG. 24, the IRAP start position and IRAP end position are also recorded. This is for compatibility with other special playback or conventional display of the entire IRAP image.

このタイムテーブルを用いて早送りなどの特殊再生を行う場合には、GOPを飛ばさずに早送りを行うと、画面全体が更新される。また、例えば、GOPを1つずつ飛ばして再生すると、スライス#1とスライス#3とが更新される。また、例えば、GOPを3つずつ飛ばしで再生すると、スライス#1が更新される。   When special playback such as fast-forwarding is performed using this time table, the entire screen is updated when fast-forwarding is performed without skipping the GOP. For example, when the GOP is skipped one by one and reproduced, slice # 1 and slice # 3 are updated. Further, for example, when the GOP is skipped and reproduced by three, slice # 1 is updated.

早送りの倍速にかかわらず、画像の全体を更新するためには、タイムテーブルに読み出し位置情報を格納する際に、乱数または疑似乱数などを用いてスライスセグメントを選択することもできる。この場合には、画面上で更新されるスライスセグメントは不規則である。しかし、早送りの倍数などによらず、画像全体を更新することができる。   In order to update the entire image regardless of the fast-forwarding double speed, a slice segment can be selected using a random number or a pseudo-random number when the read position information is stored in the time table. In this case, the slice segment updated on the screen is irregular. However, the entire image can be updated regardless of the multiple of fast-forwarding.

疑似乱数の生成手段としては、例えば、M系列を用いた線形帰還シフトレジスタなどが挙げられる。   Examples of the pseudo random number generating means include a linear feedback shift register using an M series.

M系列を用いた疑似乱数生成では、値数および回数を指定して、各値の出現確率が一様で指定回数の間に周期性の無いデータ列を生成することができる。値数は、例えば、1から4の4値である。回数は、例えば、1000回である。   In the pseudo-random number generation using the M series, it is possible to specify the number of values and the number of times, and to generate a data string having a uniform appearance probability of each value and having no periodicity between the specified number of times. The number of values is, for example, four values from 1 to 4. The number of times is, for example, 1000 times.

例えば、これらの疑似乱数の生成手段を用いてタイムテーブルを作成すれば、タイムテーブルの中で同じパターンの繰り返しが発生しないように、スライスセグメントを選択することができる。これによって、早送りの倍速を変更した場合でも、特定のスライスセグメントだけが更新されることを防ぐことができる。必ずしも、タイムテーブルの全体で同じパターンの繰り返しを無くす必要はない。十分に長い周期で同じパターンを繰り返せば、実用上問題は無い。十分に長い周期は、例えば、1000行程度である。   For example, if a time table is created using these pseudo-random number generation means, slice segments can be selected so that the same pattern is not repeated in the time table. As a result, even when the fast-forward double speed is changed, it is possible to prevent only a specific slice segment from being updated. It is not always necessary to eliminate repetition of the same pattern in the entire time table. If the same pattern is repeated with a sufficiently long period, there is no practical problem. A sufficiently long cycle is, for example, about 1000 rows.

タイムテーブル全体で周期性が発生しないように、この疑似乱数の回数を選択する。しかし、疑似乱数の周期性を長く設定すると演算量が多くなる。そして、乱数のデータ列として予め与える場合でも、データ量が多くなる。   The number of pseudo random numbers is selected so that periodicity does not occur in the entire time table. However, the calculation amount increases when the periodicity of the pseudo random number is set to be long. And even when it is given in advance as a random number data string, the amount of data increases.

早送りの操作または巻き戻しの操作の際には、主にスキップ量の少ない早送りまたは巻き戻しが利用される。例えば、GOPのスキップを行わないか、1から数十程度のGOPのスキップを行う。そのため、疑似乱数の周期を短く設定することができる。   In the fast forward operation or the rewind operation, fast forward or rewind with a small skip amount is mainly used. For example, GOP skipping is not performed, or one to several tens of GOPs are skipped. For this reason, the period of the pseudo random number can be set short.

一例として、1000行程度の周期性を持つタイムテーブルを挙げた。999のGOPをスキップした時に、一部の画像のみが更新されるという問題が発生する。しかし、999のGOPをスキップした時の早送り再生と巻き戻し再生とは、あまり利用されない。また、999のGOPをスキップする場合に代わって、1000のGOPをスキップすることを採用しても、利用者から見た早送りの倍速は、ほとんど変わらない。このため、容易に回避できる。   As an example, a time table having a periodicity of about 1000 rows is given. When a 999 GOP is skipped, only a part of the image is updated. However, fast-forward playback and rewind playback when a 999 GOP is skipped are rarely used. Further, even if the skip of 1000 GOPs is adopted instead of skipping the 999 GOPs, the fast-forwarding double speed as seen from the user is hardly changed. For this reason, it can avoid easily.

GOPの長さの平均を0.5秒とすると、2時間の映像は14400個のGOPで構成される。そして、1000行の周期性は、2時間の映像で15回程度発生することになる。周期性が問題になるのは、2時間映像を15コマで再生する早送りの時である。通常は、このような高速の早送りの操作は行われない。   If the average length of GOP is 0.5 seconds, a 2-hour video is composed of 14400 GOPs. Then, the periodicity of 1000 rows occurs about 15 times in a 2-hour video. The periodicity becomes a problem when fast-forwarding in which a 2-hour video is played back in 15 frames. Normally, such high-speed fast-forward operation is not performed.

この場合の疑似乱数列を事前に、計算済み乱数表として制御プログラムに与える場合の乱数表のサイズを見積もる。値数が4値で、回数が1000回の乱数列を、1つを2ビットで表現する。この場合には、全体で250バイトのサイズとなる。疑似乱数の周期性の長さは、操作性と装置実装との関係で設定することができる。   In this case, the size of the random number table when the pseudo random number sequence is given to the control program as a calculated random number table in advance is estimated. A random number sequence having 4 values and 1000 times is represented by 2 bits. In this case, the total size is 250 bytes. The length of the periodicity of the pseudo random number can be set according to the relationship between operability and device mounting.

<変形例3>
これまでの例では、スライスセグメントの表示位置を変更する場合には、タイムテーブルにスライスセグメントの読み出し位置および終了位置を格納していた。また、必要な場合には、タイムテーブルにパラメータセット(PS)を格納していた。そのため、タイムテーブルのデータが大きくなる。また、パラメータセット(PS)とスライスセグメントとの2回の読み出しが発生する。
<Modification 3>
In the examples so far, when the display position of the slice segment is changed, the read position and end position of the slice segment are stored in the time table. Further, when necessary, the parameter set (PS) is stored in the time table. Therefore, the time table data becomes large. In addition, two readings of the parameter set (PS) and the slice segment occur.

映像ストリームの記録の際に、スライスセグメントの順序を入れ替えることによって、これらの余分な作業を回避し、効率のよい特殊再生を行うことができる。   By switching the order of the slice segments when recording the video stream, these extra operations can be avoided and efficient special reproduction can be performed.

図25は、早送り再生の説明図である。図24と同様にGOP(01)からGOP(06)は、ストリームデータである。本来、一続きのデータファイルであるが、説明を容易にするために、GOP単位で行を変えて表わしている。   FIG. 25 is an explanatory diagram of fast-forward playback. Similarly to FIG. 24, GOP (01) to GOP (06) are stream data. Originally, it is a series of data files, but for ease of explanation, the lines are changed in units of GOPs.

図25のストリームでは、それぞれのGOPの先頭にあるIRAPピクチャごとに、スライスセグメントの格納順を変更している。ここで、スライスセグメントの番号は、画面上の表示位置を示している。この表示位置に表示されるスライスセグメントの番号を、ストリームデータ上の番号として示している。   In the stream of FIG. 25, the storage order of slice segments is changed for each IRAP picture at the head of each GOP. Here, the slice segment number indicates the display position on the screen. The number of the slice segment displayed at this display position is shown as the number on the stream data.

図25では、一例として、次のようにデータを配置している。GOP(01)には、IRAPピクチャの先頭にスライスセグメント#1を配置している。GOP(02)には、IRAPピクチャの先頭にスライスセグメント#2を配置している。GOP(03)には、IRAPピクチャの先頭にスライスセグメント#3を配置している。GOP(04)には、IRAPピクチャの先頭にスライスセグメント#4を配置している。GOP(05)には、IRAPピクチャの先頭にスライスセグメント#1を配置している。GOP(06)には、IRAPピクチャの先頭にスライスセグメント#2を配置している。   In FIG. 25, as an example, data is arranged as follows. In GOP (01), slice segment # 1 is arranged at the head of the IRAP picture. In GOP (02), slice segment # 2 is arranged at the head of the IRAP picture. In GOP (03), slice segment # 3 is arranged at the head of the IRAP picture. In GOP (04), slice segment # 4 is arranged at the head of the IRAP picture. In GOP (05), slice segment # 1 is arranged at the head of the IRAP picture. In GOP (06), slice segment # 2 is arranged at the head of the IRAP picture.

これまでの説明では、データ分割の観点から、単にスライスセグメントとして説明してきた。しかし、表示位置も含めた管理は、HEVC規格のスライスセグメントの他に、タイルも用いて実現されている。そのため、タイムテーブルのスライスセグメントの格納位置を入れ替える場合には、必要に応じて、各スライスセグメントのスライスヘッダ情報およびタイル情報などを修正して、整合性を取る必要がある。タイル情報は、パラメータセットに含まれている。   In the above description, the slice segment has been described from the viewpoint of data division. However, the management including the display position is realized using tiles in addition to the slice segment of the HEVC standard. Therefore, when the storage position of the slice segment in the time table is exchanged, it is necessary to modify the slice header information and tile information of each slice segment as necessary to ensure consistency. Tile information is included in the parameter set.

早送り再生時の手順は、図20を用いた説明と同一である。図20を用いた説明は、スライスセグメント#1のみの再生を行う場合である。ただし、図25の例では、先頭に置かれるスライスセグメントが入れ替えられている。このため、画像の更新がされるスライスセグメントが変化し、画面の全体が更新される。   The procedure at the time of fast-forward playback is the same as the description using FIG. The explanation using FIG. 20 is a case where only the slice segment # 1 is reproduced. However, in the example of FIG. 25, the slice segment placed at the head is replaced. For this reason, the slice segment in which the image is updated changes, and the entire screen is updated.

単純な順序で先頭に配置されたスライスセグメントを選択する場合には、早送りの倍速によって一部のスライスセグメントの画像だけが更新される。そこで、前述の乱数または疑似乱数などを用いる方式で、先頭に配置するスライスセグメントを決定することができる。   When the slice segment arranged at the head in a simple order is selected, only the image of a part of the slice segment is updated by the fast-forward double speed. Therefore, the slice segment to be arranged at the head can be determined by using the above-described random number or pseudo-random number.

このように、記録時のスライスセグメントの順番を入れ替える事によって、早送り及び巻き戻し等の特殊再生によるシーンサーチの操作性を向上する事が可能である。   As described above, by switching the order of the slice segments at the time of recording, it is possible to improve the operability of scene search by special reproduction such as fast forward and rewind.

これまで、スライスセグメントとして4分割を例にして説明をしてきた。これは、日本の4K/8K放送で採用されているためである。   So far, the description has been given by taking four divisions as an example of the slice segment. This is because it is adopted in 4K / 8K broadcasting in Japan.

実際には、放送の録画時または光ディスクへの記録時に、再圧縮またはフォーマット変換などを行うこともある。この場合には、4分割だけでなく、スライスセグメント分割の形式を自由に変更することができる。   Actually, recompression or format conversion may be performed during broadcast recording or recording onto an optical disc. In this case, not only the four divisions but also the slice segment division format can be freely changed.

例えば、1つの画像を3×3の9分割にすることもできる。この場合には、中心のセグメントのみを特殊再生で更新することも考えられる。なぜなら、中心のセグメントには重要な情報が含まれる可能性が高いからである。また、単純に2分割のスライスセグメントとすることができる。2つのセグメントを交互に更新することで特殊再生を行うこともできる。   For example, one image can be divided into 3 × 3 9 divisions. In this case, it is also possible to update only the central segment by special reproduction. This is because the central segment is likely to contain important information. Further, it can be simply divided into two slice segments. Special playback can also be performed by alternately updating two segments.

また、光ディスクの例で説明したが、ハードディスクドライブ(HDD)またはSSD(solid state drive)など、他の記憶デバイスでも同様の効果が得られる。   Further, although the example of the optical disk has been described, the same effect can be obtained with other storage devices such as a hard disk drive (HDD) or an SSD (solid state drive).

ネットワークなど伝送帯域で制限があり、データ転送の遅延が大きい場合でも、特殊再生時のデータ転送量を抑制し、操作性を向上させることも可能である。   Even when there is a limitation in the transmission band such as a network and the delay of data transfer is large, it is possible to suppress the data transfer amount during special reproduction and improve operability.

なお、以上のように本発明の実施の形態について説明したが、本発明はこれらの実施の形態に限るものではない。   In addition, although embodiment of this invention was described as mentioned above, this invention is not limited to these embodiment.

100 映像記録再生装置、 11 チューナー・復調部、 12 外部入力部、 13 ネットワーク部、 21 多重化解除部、 31 音声デコード部、 32 映像デコード部、 33 字幕デコード・レンダリング部、 34 データ放送・EPG処理部、 41 記録再生制御部、 51 内蔵記録装置、 52 光ディスクドライブ、 53 光ディスク、 Af 管理用ファイル、 Hm 先頭のデータ、 Ba 放送波、 Sm 多重化ストリーム、 Se エレメンタリーストリーム、 Ds 音声データ、 Di,Di 映像データ、 Dc 字幕データ、 Db データ放送のデータ、 Dd 表示装置、 Es 音響装置、 Ei 外部装置、 Ne ネットワーク、 Ha 横軸、 Va,Va 縦軸、 P1,P2,P3 位置、 Pad パディング、 SI(MPT) 制御パケット、 TP TLVパケット、 TM,TMS タイムテーブル、 V 映像パケット、 V(RAP) 映像パケット。 DESCRIPTION OF SYMBOLS 100 Video recording / reproducing apparatus, 11 Tuner / demodulation part, 12 External input part, 13 Network part, 21 Demultiplexing part, 31 Audio decoding part, 32 Video decoding part, 33 Subtitle decoding / rendering part, 34 Data broadcasting and EPG processing Unit, 41 recording / playback control unit, 51 built-in recording device, 52 optical disc drive, 53 optical disc, Af management file, Hm head data, Ba broadcast wave, Sm multiplexed stream, Se elementary stream, Ds audio data, Di 0 , Di 1 video data, Dc caption data, Db data broadcast data, Dd display device, Es sound device, Ei external device, Ne network, Ha horizontal axis, Va 1 , Va 2 vertical axis, P1, P2, P3 position, Pad padding, SI (MPT) control packet , TP TLV packet, TM, TMS timetable, V video packet, V (RAP) video packet.

Claims (19)

放送波を受け取るチューナー・復調部と、
前記放送波の多重化ストリームの多重化を解除する多重化解除部と、
前記多重化ストリームの多重化が解除された圧縮データを伸長するデコード部と、
前記デコード部で伸長されたデータから記録するための映像データまたは制御情報を収集する記録再生制御部と
を備え、
MMT形式を用いた前記放送波に含まれた映像データを記録する際に、パケットデータを結合した映像データとして記録することを特徴とする映像記録再生装置。
A tuner / demodulator that receives broadcast waves,
A demultiplexing unit that demultiplexes the multiplexed stream of the broadcast wave;
A decoding unit for decompressing the compressed data that has been demultiplexed from the multiplexed stream;
A recording / playback control unit for collecting video data or control information for recording from the data decompressed by the decoding unit;
A video recording / reproducing apparatus, wherein when video data included in the broadcast wave using the MMT format is recorded, packet data is recorded as combined video data.
収集された前記映像データを再生する時刻と、当該時刻の映像データが記録されている位置とを含むタイムテーブルを作成し、前記収集された映像データと共に記録する請求項1に記載の映像記録再生装置。   The video recording / reproducing according to claim 1, wherein a time table including a time at which the collected video data is reproduced and a position at which the video data at the time is recorded is created and recorded together with the collected video data. apparatus. 放送波を受け取るチューナー・復調部と、
前記放送波の多重化ストリームの多重化を解除する多重化解除部と、
前記多重化ストリームの多重化が解除された圧縮データを伸長するデコード部と、
前記デコード部で伸長されたデータから記録するための映像データまたは制御情報を収集する記録再生制御部と
を備え、
MMT形式を用いた前記放送波に含まれた映像データを記録する際に、BMFF形式のファイルとして前記映像データを記録することを特徴とする映像記録再生装置。
A tuner / demodulator that receives broadcast waves,
A demultiplexing unit that demultiplexes the multiplexed stream of the broadcast wave;
A decoding unit for decompressing the compressed data that has been demultiplexed from the multiplexed stream;
A recording / playback control unit for collecting video data or control information for recording from the data decompressed by the decoding unit;
A video recording / reproducing apparatus for recording the video data as a BMFF format file when recording the video data included in the broadcast wave using the MMT format.
前記映像データを光ディスクに記録する際に、前記BMFF形式のファイルの管理データ部分とストリームデータ部分とを前記光ディスク上の異なった位置に記録することを特長とする請求項3に記載の映像記録再生装置。   4. The video recording / playback according to claim 3, wherein when the video data is recorded on the optical disc, the management data portion and the stream data portion of the BMFF format file are recorded at different positions on the optical disc. apparatus. 前記タイムテーブルにアセット情報を記録する請求項2に記載の映像記録再生装置。   The video recording / reproducing apparatus according to claim 2, wherein asset information is recorded in the time table. 前記タイムテーブルにHDRメタデータを記録する請求項2に記載の映像記録再生装置。   The video recording / reproducing apparatus according to claim 2, wherein HDR metadata is recorded in the time table. 前記タイムテーブルにGOP内で最初にデコードされるIRAPピクチャのデータサイズまたは終了位置を記録する請求項2に記載の映像記録再生装置。   The video recording / reproducing apparatus according to claim 2, wherein a data size or an end position of an IRAP picture that is first decoded in a GOP is recorded in the time table. 前記タイムテーブルにGOP内の複数の画像の位置を記録する請求項2に記載の映像記録再生装置。   The video recording / reproducing apparatus according to claim 2, wherein positions of a plurality of images in the GOP are recorded in the time table. 前記映像データは画像を構成するスライスセグメントの構造を持ち、
前記タイムテーブルに前記スライスセグメントの単位での位置を記録する請求項2に記載の映像記録再生装置。
The video data has a structure of slice segments constituting an image,
The video recording / reproducing apparatus according to claim 2, wherein a position of each slice segment is recorded in the time table.
前記パケットデータを結合または記録する際に、前記映像データを区切り、
区切られた前記映像データの先頭を、当該映像データにアクセスする際に用いるブロックの区切り位置に置く請求項1に記載の映像記録再生装置。
When combining or recording the packet data, the video data is separated,
2. The video recording / reproducing apparatus according to claim 1, wherein a head of the divided video data is placed at a block separation position used when accessing the video data.
前記映像データを区切る単位はGOPの単位である請求項10に記載の映像記録再生装置。   The video recording / reproducing apparatus according to claim 10, wherein a unit for dividing the video data is a GOP unit. 前記映像データを区切る単位はピクチャの単位である請求項10に記載の映像記録再生装置。   The video recording / reproducing apparatus according to claim 10, wherein a unit for dividing the video data is a unit of a picture. 前記映像データを区切る位置はIRAPピクチャ先頭、Iピクチャ先頭またはPピクチャ先頭である請求項10に記載の映像記録再生装置。   The video recording / reproducing apparatus according to claim 10, wherein the position at which the video data is divided is a head of an IRAP picture, a head of an I picture or a head of a P picture. 前記映像データを区切る単位はスライスセグメントの単位である請求項10に記載の映像記録再生装置。   The video recording / reproducing apparatus according to claim 10, wherein a unit for dividing the video data is a unit of a slice segment. 前記映像データを記録する際に、管理データとしてIピクチャのスライスセグメントの単位で前記映像データの読み出し位置の情報を記録する請求項14に記載の映像記録再生装置。   15. The video recording / reproducing apparatus according to claim 14, wherein when the video data is recorded, information on a reading position of the video data is recorded as management data in units of slice segments of an I picture. 前記読み出し位置の情報は、前記スライスセグメントの読み出し位置の情報である請求項15に記載の映像記録再生装置。   The video recording / reproducing apparatus according to claim 15, wherein the information on the reading position is information on a reading position of the slice segment. 前記映像データを記録する際に、GOPごとに前記スライスセグメントを記録する順序を入れ替える請求項15または16に記載の映像記録再生装置。   The video recording / reproducing apparatus according to claim 15 or 16, wherein when the video data is recorded, the order of recording the slice segments is changed for each GOP. 前記映像データを再生する際に、画像ごとに一部の前記スライスセグメントを表示する請求項15から17のいずれか1項に記載の映像記録再生装置。   The video recording / reproducing apparatus according to claim 15, wherein a part of the slice segment is displayed for each image when the video data is reproduced. 前記一部のスライスセグメントは、前記画像ごとに表示される位置が変更される請求項18に記載の映像記録再生装置。   The video recording / reproducing apparatus according to claim 18, wherein a position of the partial slice segment displayed for each image is changed.
JP2017098366A 2016-07-08 2017-05-17 Video recording device and video playback device Active JP6964436B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016135667 2016-07-08
JP2016135667 2016-07-08
JP2017020039 2017-02-07
JP2017020039 2017-02-07

Publications (3)

Publication Number Publication Date
JP2018129782A true JP2018129782A (en) 2018-08-16
JP2018129782A5 JP2018129782A5 (en) 2020-08-20
JP6964436B2 JP6964436B2 (en) 2021-11-10

Family

ID=63174568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017098366A Active JP6964436B2 (en) 2016-07-08 2017-05-17 Video recording device and video playback device

Country Status (1)

Country Link
JP (1) JP6964436B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018135258A1 (en) * 2017-01-17 2019-11-07 ソニー株式会社 Information processing apparatus, information recording medium, information processing method, and program
JPWO2018135259A1 (en) * 2017-01-17 2019-11-07 ソニー株式会社 Information processing apparatus, information recording medium, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015023574A (en) * 2013-07-22 2015-02-02 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Storage method, reproduction method, storage device, and reproducer
JP2015520968A (en) * 2012-05-02 2015-07-23 サムスン エレクトロニクス カンパニー リミテッド Multimedia service transmitting / receiving method and apparatus
JP2016100844A (en) * 2014-11-25 2016-05-30 シャープ株式会社 Receiving device, receiving method, and program
JP2016103745A (en) * 2014-11-28 2016-06-02 ソニー株式会社 Transmitter and transmission method, receiver and reception method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015520968A (en) * 2012-05-02 2015-07-23 サムスン エレクトロニクス カンパニー リミテッド Multimedia service transmitting / receiving method and apparatus
JP2015023574A (en) * 2013-07-22 2015-02-02 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Storage method, reproduction method, storage device, and reproducer
JP2016100844A (en) * 2014-11-25 2016-05-30 シャープ株式会社 Receiving device, receiving method, and program
JP2016103745A (en) * 2014-11-28 2016-06-02 ソニー株式会社 Transmitter and transmission method, receiver and reception method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018135258A1 (en) * 2017-01-17 2019-11-07 ソニー株式会社 Information processing apparatus, information recording medium, information processing method, and program
JPWO2018135259A1 (en) * 2017-01-17 2019-11-07 ソニー株式会社 Information processing apparatus, information recording medium, information processing method, and program
JP7070433B2 (en) 2017-01-17 2022-05-18 ソニーグループ株式会社 Information processing equipment, information recording media, information processing methods, and programs
JP7070432B2 (en) 2017-01-17 2022-05-18 ソニーグループ株式会社 Information processing equipment, information recording media, information processing methods, and programs

Also Published As

Publication number Publication date
JP6964436B2 (en) 2021-11-10

Similar Documents

Publication Publication Date Title
US7218635B2 (en) Apparatus and method for indexing MPEG video data to perform special mode playback in a digital video recorder and indexed signal associated therewith
CN100520938C (en) Information storage medium storing still picture, reproducing apparatus and method therefor
JP7022947B2 (en) Content recording device, content editing device, content playback device, content recording method, content editing method, and content playback method
JP2003158719A (en) Video data stream multiplexing system for digital video recorder and method for operating the same
KR100770908B1 (en) Apparatus and method for tricking playing of a digital broadcasting stream
JP6415652B1 (en) VIDEO REPRODUCTION DEVICE, VIDEO RECORDING DEVICE, AND VIDEO RECORDING METHOD
JP6964436B2 (en) Video recording device and video playback device
JP6600059B2 (en) Video playback device and video recording device
KR101731829B1 (en) Device and method for processing digital contents in digital video receiver
JP6991185B2 (en) Video playback device and video recording device
JP2015109131A (en) File generation method, reproduction method, file generation device, regeneration device and recording medium
JP6982829B2 (en) Recording device, recording method and recording medium
WO2015083354A1 (en) File generation method, playback method, file generation device, playback device, and recording medium
JP2022156728A (en) Video playback device and video recording medium
WO2012123982A1 (en) Recording device/method/medium and replaying device/method
JPH11312381A (en) Recording device and method, reproducing device and method, recording and reproducing device and method, recording medium, and providing medium
JP4941128B2 (en) Video processing device
JP2013058287A (en) Recording device/method/medium and reproducing device/method
WO2013031307A1 (en) Recording device, method and medium, and playback device and method
JP2008277930A (en) Moving picture recording/reproducing device
JP5120322B2 (en) Data signal recording apparatus and data signal reproducing apparatus
JP5120479B2 (en) Data signal recording apparatus and data signal reproducing apparatus
JP2011146118A (en) Data recording method, recording medium and playback device
JP2009017380A (en) Recording/reproduction control circuit
WO2012123981A1 (en) Recording device/method/medium, replaying device/method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20180822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200511

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211019

R150 Certificate of patent or registration of utility model

Ref document number: 6964436

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150