JP2020017996A - Video reproduction device, video recording device, and video recording medium - Google Patents

Video reproduction device, video recording device, and video recording medium Download PDF

Info

Publication number
JP2020017996A
JP2020017996A JP2019182572A JP2019182572A JP2020017996A JP 2020017996 A JP2020017996 A JP 2020017996A JP 2019182572 A JP2019182572 A JP 2019182572A JP 2019182572 A JP2019182572 A JP 2019182572A JP 2020017996 A JP2020017996 A JP 2020017996A
Authority
JP
Japan
Prior art keywords
data
video
information
time
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019182572A
Other languages
Japanese (ja)
Other versions
JP6991185B2 (en
Inventor
孝介 八木
Kosuke Yagi
孝介 八木
島田 昌明
Masaaki Shimada
昌明 島田
伸夫 竹下
Nobuo Takeshita
伸夫 竹下
智 岸上
Satoshi Kishigami
智 岸上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2019182572A priority Critical patent/JP6991185B2/en
Publication of JP2020017996A publication Critical patent/JP2020017996A/en
Application granted granted Critical
Publication of JP6991185B2 publication Critical patent/JP6991185B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide a video reproduction device, a video recording device, and a video recording medium for enhancing responsiveness during special reproduction.SOLUTION: A video recording/playback device 100 comprises: a tuner-modulator section 11; a multiplexing/demultiplexing section 21; decode sections 31, 32, 33, and 34; and a recording/reproducing control section 41. The tuner-modulator section 11 receives broadcast waves Ba. The multiplexing/demultiplexing section 21 demultiplexes multiplexed streams Sm of the broadcast waves Ba. The decode sections 31, 32, 33, and 34 decompress compressed data of the demultiplexed multiplexed streams Sm. The recording/reproducing control section 41 collects video data or control information for recording from the data decompressed in the decode sections 31, 32, 33, and 34. When recording video data contained in the broadcast waves Ba using an MMT system, the video recording/playback device 100 records as video data made by coupling packet data.SELECTED DRAWING: Figure 1

Description

本発明は、映像再生装置、映像記録装置および映像記録媒体に関する。   The present invention relates to a video playback device, a video recording device, and a video recording medium.

近年、映像圧縮技術または放送波の変調技術の進歩に伴い、各国で新しいテレビ放送方式の導入が検討されている。新しい方式によって、伝送効率が向上する。このため、これまでと同じ電波帯域を用いて、より高品質な映像を放送することが可能になる。また、これまでと同じ品質の映像を、より狭い電波帯域で放送することも可能である。新しい方式の導入に伴い、ネットワークとの連携が検討されている。また、受信機に蓄積されて動作するアプリケーションまたはコンテンツなども検討されている。   2. Description of the Related Art In recent years, with the advance of video compression technology or broadcast wave modulation technology, introduction of a new television broadcast system is being considered in each country. The new scheme improves transmission efficiency. For this reason, it is possible to broadcast a higher quality video using the same radio band as before. It is also possible to broadcast a video of the same quality as before in a narrower radio band. With the introduction of new methods, cooperation with networks is being considered. In addition, applications and contents that are stored and operated in the receiver are also being studied.

テレビ放送を録画する方式は、通常のテレビ放送方式と密接に関係している。新しいテレビ放送方式が採用された場合には、新しいテレビ放送方式の番組を、そのまま録画することはできない。そのため、テレビ放送方式が変更される際には、録画方式も新しい放送方式に対応した方式に変更する必要がある。   A system for recording a television broadcast is closely related to a normal television broadcast system. When a new television broadcasting system is adopted, a program in the new television broadcasting system cannot be recorded as it is. Therefore, when the television broadcasting system is changed, it is necessary to change the recording system to a system corresponding to the new broadcasting system.

特に、可換型記録メディアを使用する場合には,他の再生装置との互換性も含めて考慮する必要がある。可換型記録メディアは、例えば、DVD(登録商標:Digital Versatile Disc)またはブルーレイディスク(登録商標:BLU−RAY DISC)などである。   In particular, when a replaceable recording medium is used, it is necessary to consider compatibility with other playback devices. The exchangeable recording medium is, for example, a DVD (registered trademark: Digital Versatile Disc) or a Blu-ray disc (registered trademark: BLU-RAY DISC).

現在採用されている録画方式では、新しいテレビ放送方式をそのまま記録することは困難である。このため、新しいテレビ放送方式に対応した録画方式が必要となっている。   With the currently adopted recording method, it is difficult to record a new television broadcasting method as it is. For this reason, a recording system compatible with a new television broadcasting system is required.

例えば、特許文献1には、BDAV方式を用いたテレビ放送の記録方式、大容量になる記録データを分割記録する方法および大容量になる記録データにアクセスする方法が記載されている。また、圧縮された映像データと音声データとを、MPEG2TSに格納して記録する方法が記載されている。また、MPEG2TSで送信されたテレビ放送を受信して、MPEG2TSの形式で記録する方法が記載されている。   For example, Patent Literature 1 describes a recording method of a television broadcast using the BDAV method, a method of dividing and recording large-capacity recording data, and a method of accessing large-capacity recording data. It also describes a method of storing compressed video data and audio data in an MPEG2TS for recording. It also describes a method of receiving a television broadcast transmitted by MPEG2TS and recording it in MPEG2TS format.

WO2006/030767(0021段〜0105段、図1〜図21)WO 2006/030767 (0021 stage to 0105 stage, FIGS. 1 to 21)

高品質な8K映像の放送を録画したディスク再生する場合、早送りなどの特殊再生を行うと、1コマ分の画像を表示するのに時間がかかってしまうという問題がある。   When playing back a disc on which a high-quality 8K video broadcast is recorded, if special playback such as fast forward is performed, there is a problem that it takes time to display an image for one frame.

本発明は、これらの問題を鑑みて、特殊再生時の応答性を向上することを目的としている。   The present invention has been made in view of these problems, and has as its object to improve responsiveness during special reproduction.

本発明に係る映像再生装置は、放送ストリームを記録した記録データを再生する映像再生装置であって、前記記録データは、Iピクチャを含んで構成される映像情報と、前記Iピクチャの開始位置を示す第1のタイムテーブルと、前記Iピクチャを構成する複数のスライスセグメントの開始位置を示す第2のタイムテーブルと、前記映像情報に含まれる映像シーンの連続性を示す連続性情報とを含み、前記記録データを早送り再生する際に、前記連続性情報が連続であることを示している場合には、前記Iピクチャを構成する複数の前記スライスセグメントのうちの1つの前記スライスセグメントを再生し、前記連続性情報が不連続であることを示している場合には、前記Iピクチャを構成する全ての前記スライスセグメントを再生することを特徴とする。
本発明に係る映像記録装置は、放送ストリームを記録媒体に記録する映像記録装置であって、Iピクチャを含んで構成される映像情報を含む前記放送ストリームを記録し、前記Iピクチャの開始位置を示す第1のタイムテーブルを生成及び記録媒体に記録し、前記Iピクチャを構成する複数のスライスセグメントの開始位置を示す第2のタイムテーブルを生成及び記録媒体に記録し、前記映像情報に含まれる映像シーンの連続性を示す連続性情報を生成及び記録媒体に記録し、前記放送ストリームを早送り再生する際に、前記連続性情報が連続であることを示している場合には、前記Iピクチャを構成する複数の前記スライスセグメントのうちの1つの前記スライスセグメントを再生し、前記連続性情報が不連続であることを示している場合には、前記Iピクチャを構成する全ての前記スライスセグメントを再生することを特徴とする。
本発明に係る映像記録媒体は、映像再生装置によって再生される放送ストリームを記録する映像記録媒体であって、Iピクチャを含んで構成される映像情報を含む前記放送ストリームと、前記Iピクチャの開始位置を示す第1のタイムテーブルと、前記Iピクチャを構成する複数のスライスセグメントの開始位置を示す第2のタイムテーブルと、前記映像情報に含まれる映像シーンの連続性を示す連続性情報と、が記録され、前記映像再生装置が、前記放送ストリームを早送り再生する際に、前記連続性情報が連続であることを示しているか、不連続であることを示しているかを判定し、前記連続性情報が連続であることを示している場合には、前記Iピクチャを構成する複数の前記スライスセグメントのうちの1つの前記スライスセグメントを再生し、前記連続性情報が不連続であることを示している場合には、前記Iピクチャを構成する全ての前記スライスセグメントを再生する処理に用いられることを特徴とする。
A video playback device according to the present invention is a video playback device that plays back recorded data in which a broadcast stream is recorded, wherein the recorded data includes video information including an I picture, and a start position of the I picture. A first time table, a second time table indicating a start position of a plurality of slice segments constituting the I picture, and continuity information indicating continuity of video scenes included in the video information, When fast-forwarding playback of the recording data, if the continuity information indicates that the continuity information is continuous, one of the plurality of slice segments constituting the I picture is played back, and When the continuity information indicates discontinuity, all the slice segments constituting the I picture are reproduced. Features.
A video recording apparatus according to the present invention is a video recording apparatus that records a broadcast stream on a recording medium, records the broadcast stream including video information including an I picture, and sets a start position of the I picture. A first time table is generated and recorded on a recording medium, and a second time table indicating start positions of a plurality of slice segments constituting the I picture is generated and recorded on a recording medium, and is included in the video information. The continuity information indicating the continuity of the video scene is generated and recorded on a recording medium, and when the broadcast stream is fast-forward reproduced, if the continuity information indicates that the continuity is continuous, the I picture is A case where one of the plurality of slice segments constituting the slice segment is reproduced and the continuity information indicates that the continuity information is discontinuous It is characterized by reproducing all of said slice segments constituting the I-picture.
A video recording medium according to the present invention is a video recording medium for recording a broadcast stream reproduced by a video reproduction device, wherein the broadcast stream including video information including an I picture, and the start of the I picture A first time table indicating a position, a second time table indicating a start position of a plurality of slice segments constituting the I picture, continuity information indicating continuity of video scenes included in the video information, Is recorded, and when the video playback device performs fast-forward playback of the broadcast stream, the video playback device determines whether the continuity information indicates that the continuity information is continuous or discontinuous. If the information indicates that it is continuous, the slice segment of one of the plurality of slice segments constituting the I picture Play the, when said continuity information indicates that it is a discontinuous, characterized in that it is used in the process of reproducing all of the slice segments constituting the I-picture.

本発明に係る映像再生装置、映像記録装置および映像記録媒体は、特殊再生時の応答性を向上することができる。   The video reproduction device, the video recording device, and the video recording medium according to the present invention can improve responsiveness during special reproduction.

実施の形態1に係る映像記録再生装置100の構成図である。1 is a configuration diagram of a video recording / reproducing device 100 according to Embodiment 1. 多重化解除手順を説明する図である。It is a figure explaining a demultiplexing procedure. データの論理構造を示した図である。FIG. 3 is a diagram illustrating a logical structure of data. TLVパケットを結合して記録した場合の模式図である。It is a schematic diagram at the time of combining and recording TLV packet. パケットの選択と時間の同期とを説明する概念図である。FIG. 4 is a conceptual diagram illustrating packet selection and time synchronization. MMTP方式でのMPUタイムスタンプ記述子を用いた同期方式を説明する図である。FIG. 3 is a diagram illustrating a synchronization method using an MPU time stamp descriptor in the MMTP method. タイムテーブルを作成する手順を示すフローチャートである。9 is a flowchart illustrating a procedure for creating a time table. フレーム単位の時刻で検索できるタイムテーブルを示す図である。FIG. 5 is a diagram showing a time table that can be searched for at times in frame units. MMTP方式でのMPUタイムスタンプ記述子を用いた同期方式を説明する図である。FIG. 3 is a diagram illustrating a synchronization method using an MPU time stamp descriptor in the MMTP method. BMFFとしてストリームデータを記録した場合の説明図である。FIG. 4 is an explanatory diagram when stream data is recorded as a BMFF. 実施の形態2に係るMMTP方式でのMPTによる多重化解除の説明図である。FIG. 14 is an explanatory diagram of demultiplexing by MPT in the MMTP method according to the second embodiment. タイムテーブルと映像データの関係の説明図である。FIG. 4 is an explanatory diagram of a relationship between a time table and video data. MMTP方式でのMPTデータ構造の例である。It is an example of the MPT data structure in the MMTP method. 映像を中心に考えた場合のアライメントの説明図である。FIG. 4 is an explanatory diagram of alignment when focusing on an image. 実施の形態3に係る映像ストリームの模式図である。FIG. 14 is a schematic diagram of a video stream according to Embodiment 3. 画像の分割を示した図である。FIG. 4 is a diagram illustrating division of an image. 画像の分割を示した図である。FIG. 4 is a diagram illustrating division of an image. 分割スライスセグメントに対応したタイムテーブルの図である。It is a figure of a time table corresponding to a division slice segment. タイムテーブルの各項目とデータ上との対応を示す図である。It is a figure which shows the correspondence between each item of a time table and data. 早送り再生の説明図である。FIG. 3 is an explanatory diagram of fast-forward playback. 変形例1に係る早送り再生の説明図である。FIG. 11 is an explanatory diagram of fast-forward playback according to Modification 1. 画像の更新の順番の説明図である。FIG. 9 is an explanatory diagram of an image update order. 画像の更新の順番の説明図である。FIG. 9 is an explanatory diagram of an image update order. 変形例2に係るタイムテーブルの図である。FIG. 14 is a diagram of a time table according to a second modification. 早送り再生の説明図である。FIG. 3 is an explanatory diagram of fast-forward playback. タイムテーブル(TMSN)の説明図である。FIG. 4 is an explanatory diagram of a time table (TMSN). シーン連続性番号の効果の説明図である。FIG. 9 is an explanatory diagram of an effect of a scene continuity number. シーン連続性番号を用いた表示画面更新のフローチャートである。9 is a flowchart of a display screen update using a scene continuity number. 優先スライス情報の効果の説明図である。FIG. 9 is an explanatory diagram of an effect of priority slice information. 優先スライス情報を用いた表示画面更新のフローチャートである。9 is a flowchart of a display screen update using priority slice information.

テレビ放送の楽しみ方の1つとして、テレビ放送の番組を録画(記録)して、後日、再生して視聴することは、従来から行われてきた。録画の楽しみ方は、大きく分けて2種類ある。1つは、「タイムシフト」と呼ばれるものである。タイムシフトは、放送が行われている時間に番組を視聴することができない場合に、番組を録画しておき、後で番組を再生するものである。他は、「アーカイブ」と呼ばれるものである。アーカイブは、番組を録画して、保管しておくものである。そのため、録画した番組を、いつでも見ることができる。   2. Description of the Related Art As one of the ways to enjoy a television broadcast, recording (recording) a television broadcast program and reproducing and viewing the program at a later date has conventionally been performed. There are roughly two ways to enjoy recording. One is called "time shift". In the time shift, when the program cannot be watched during the broadcast time, the program is recorded and the program is reproduced later. Others are called "archives." The archive is for recording and storing programs. Therefore, the recorded program can be viewed at any time.

タイムシフトを利用する場合には、番組を録画した後に、短期間で利用が終了する事が多い。一方、アーカイブを利用する場合には、番組を録画した後に、長期間保存して利用されることが多い。   In the case of using the time shift, the use is often ended in a short period after recording the program. On the other hand, when using an archive, a program is often recorded and stored for a long time before use.

テレビ放送以外にも、利用者自身が撮影した映像を記録することも行われている。家庭用ビデオカメラなどで撮影された映像データを、光ディスク又はハードディスク等に記録して保管する。   In addition to television broadcasting, recording of images taken by users themselves is also performed. Video data captured by a home video camera or the like is recorded and stored on an optical disk or a hard disk.

最近では、ネットワークなどで収集した映像を記録することもある。また、家庭での録画以外にも、美術館、博物館またはデジタル・サイネージにおいても、録画された映像が使用されている。「デジタル・サイネージ」とは、表示と通信とにデジタル技術を活用して、平面ディスプレイ又はプロジェクタなどによって、映像または情報を表示する広告媒体である。   Recently, video collected by a network or the like is sometimes recorded. In addition to recording at home, recorded images are also used in museums, museums, or digital signage. “Digital signage” is an advertising medium that displays video or information using a flat display or a projector by utilizing digital technology for display and communication.

映画などの市販コンテンツとしては、コンテンツを記録した読み出し専用のDVDまたはブルーレイディスクなどがある。最近では、パッケージ入りの光ディスクの他に、ネットワーク経由でダウンロードを行うコンテンツのサービスも増えている。   Commercial contents such as a movie include a read-only DVD or a Blu-ray disc on which the content is recorded. In recent years, in addition to optical discs containing packages, services for contents downloaded via a network have been increasing.

放送されたコンテンツを記録するフォーマットと、市販されているコンテンツの記録フォーマットとは、異なることがある。たとえば、ブルーレイディスクの場合には、2種類のフォーマットを規定している。第1に、BDAVは、放送されたコンテンツの記録用フォーマットである。BDAVは、放送波をそのまま記録することができる。第2に、BDMVは、市販されているコンテンツ向けのフォーマットである。BDMVは、高度な再生制御機能を持っている。また、AVCHDは、カメラ等で用いられるHDDまたはメモリーカードなどに映像を記録する場合に用いられている。AVCHDは、BDMVを基にして変更が加えられている。   The format for recording broadcast content may be different from the format for recording commercially available content. For example, in the case of a Blu-ray disc, two types of formats are defined. First, BDAV is a format for recording broadcasted content. BDAV can record broadcast waves as they are. Second, BDMV is a format for commercially available content. BDMV has an advanced playback control function. AVCHD is used when recording video on an HDD or a memory card used in a camera or the like. AVCHD is modified based on BDMV.

テレビ放送では、従来方式の4倍の解像度を持つ4K映像に対応したウルトラハイビジョン方式の導入が予定されている。また、さらに高品質な8K映像の放送も検討されている。同様に、北米地域または欧州地域でも、それぞれ現在の放送方式を拡張する形で、新しいテレビ放送方式の導入が検討されている。   In television broadcasting, the introduction of the Ultra Hi-Vision system corresponding to 4K video having a resolution four times that of the conventional system is scheduled. Also, broadcasting of higher quality 8K video is being studied. Similarly, in North America and Europe, the introduction of new television broadcasting schemes is being considered, each extending the current broadcasting scheme.

地域ごとに差異はあるが、従来のテレビ放送方式は、映像圧縮方式としてMPEG2またはAVC(h.264)を採用している。また、従来のテレビ放送方式は、多重化方式としてMPEG2TSを採用していた。MPEG2TSは、放送という単一の伝送路を前提としており、映像または音声などを放送局が1つにまとめて送る形となっている。MPEG2TSでは伝送単位として同期マーク付きの固定長パケット方式が採用されている。そのため、録画方式でもMPEG2TSを記録する方式が採用されることが多い。   Although there are differences between regions, the conventional television broadcasting system employs MPEG2 or AVC (h.264) as a video compression system. Also, the conventional television broadcasting system has adopted MPEG2TS as a multiplexing system. MPEG2TS presupposes a single transmission path called broadcasting, and is a form in which a broadcasting station collectively transmits video or audio. In MPEG2TS, a fixed-length packet system with a synchronization mark is used as a transmission unit. For this reason, a method of recording MPEG2TS is often adopted as a recording method.

一方、新しいテレビ放送方式では、映像圧縮方式としてMPEG2、AVCまたはHEVC(h.265)を取り入れる規格が多い。HEVC(High Efficiency Video Coding)は、同一の画質で比べた場合には、圧縮効率がMPEG2の4倍であり、AVCの2倍である。HEVCは、高画質化または狭帯域化を目指す新しいテレビ放送方式に必要な圧縮技術である。   On the other hand, in many new television broadcasting systems, there are many standards that adopt MPEG2, AVC or HEVC (h.265) as a video compression system. HEVC (High Efficiency Video Coding) has a compression efficiency that is four times that of MPEG2 and twice that of AVC when compared with the same image quality. HEVC is a compression technology required for a new television broadcasting system aiming at higher image quality or narrower band.

また、新しいテレビ放送方式では、ネットワーク技術との整合性を重視している。そのため、新しいテレビ放送方式では、多重化方式として、MMT(MPEG Media Transport)の採用が検討されている。MMTは、複数の伝送路で情報を提供できる方式で、映像または音声などを別々に伝送し、受信機がそれらを選択して受信できる。また、MMTは、可変長パケットを採用している。また、受信状況に応じて、再生する映像ストリームを変更する方式も検討されている。   In addition, the new television broadcasting system places importance on compatibility with network technology. Therefore, in a new television broadcasting system, adoption of MMT (MPEG Media Transport) as a multiplexing system is being studied. The MMT is a system capable of providing information through a plurality of transmission paths, and separately transmits video or audio, and a receiver can select and receive them. Further, the MMT employs a variable length packet. Further, a method of changing a video stream to be reproduced according to a reception state is also being studied.

上述のように、現在採用されている録画方式では、新しいテレビ放送方式をそのまま記録することは困難である。このため、新しいテレビ放送方式に対応した録画方式が必要となっている。   As described above, it is difficult to record a new television broadcast system as it is in the currently used recording system. For this reason, a recording system compatible with a new television broadcasting system is required.

ここで、新しく記録方式を作る場合には、いくつかのアプローチが考えられる。   Here, when making a new recording method, several approaches are conceivable.

第1に、新しい放送方式を完全に従来方式の映像に変換して記録する方法である。この場合には、記録方式の変更は必要なく、従来の再生装置との互換もとれる。しかし、高画質などの新しい方式のメリットを受けることはできない。   First, there is a method of completely converting a new broadcasting system into a video of a conventional system and recording it. In this case, there is no need to change the recording method, and compatibility with the conventional reproducing apparatus can be maintained. However, it cannot take advantage of new methods such as high image quality.

第2に、従来の録画方式をできるだけ踏襲して、テレビ放送の情報の中心となる映像と音声とを新しい方式に変換して記録する方法である。この場合には、映像と音声とに関しては、新しい方式のメリットを受けることができる。しかし、字幕またはデータ放送などを楽しむことはできない。   Secondly, there is a method in which the video and audio, which are the center of the information of the television broadcast, are converted into a new system and recorded by following the conventional recording system as much as possible. In this case, the advantages of the new system can be obtained for video and audio. However, subtitles or data broadcasting cannot be enjoyed.

第3に、新しい放送方式の番組データをそのまま記録する方式である。ネットワークサービスなど外部に依存する部分を除けば、新しい方式のメリットの多くを利用することができる。   Third, there is a method of recording program data of a new broadcasting method as it is. Except for external services such as network services, many of the benefits of the new method can be used.

実施の形態1.
図1は、実施の形態1に係る映像記録再生装置100の構成図である。映像記録再生装置100は、以下において録画再生装置100としても説明する。映像記録再生装置100と録画再生装置100とは、同じ装置である。
Embodiment 1 FIG.
FIG. 1 is a configuration diagram of a video recording / reproducing device 100 according to Embodiment 1. The video recording / reproducing device 100 is also described below as the recording / reproducing device 100. The video recording / reproducing device 100 and the recording / reproducing device 100 are the same device.

映像記録再生装置100は、チューナー・復調部11と多重化解除部21および記録再生制御部41を備えている。なお、以下の実施の形態では、録画再生装置として説明するが、再生部分を含まない録画装置とすることができる。   The video recording / reproducing apparatus 100 includes a tuner / demodulator 11, a demultiplexer 21, and a recording / reproducing controller 41. In the following embodiments, a recording and playback device will be described, but a recording device that does not include a playback portion can be used.

映像記録再生装置100は、映像デコード部32、音声デコード部31、字幕デコード・レンダリング部33またはデータ放送・EPG処理部34を備える。なお、デコード部は、映像デコード部32、音声デコード部31、字幕デコード・レンダリング部33またはデータ放送・EPG処理部34を含む。   The video recording / reproducing apparatus 100 includes a video decoding unit 32, an audio decoding unit 31, a subtitle decoding / rendering unit 33, or a data broadcasting / EPG processing unit. The decoding unit includes a video decoding unit 32, an audio decoding unit 31, a subtitle decoding / rendering unit 33, or a data broadcasting / EPG processing unit.

また、映像記録再生装置100は、内蔵記録装置51または光ディスクドライブ52を備えることができる。   In addition, the video recording / reproducing device 100 can include a built-in recording device 51 or an optical disk drive 52.

また、映像記録再生装置100は、外部入力部12またはネットワーク部13を備えることができる。外部入力部12およびネットワーク部13は、外部からの信号入力を受け取る機能を有している。また、チューナー・復調部11も、外部からの信号入力を受け取る機能を有している。   Further, the video recording / reproducing apparatus 100 can include an external input unit 12 or a network unit 13. The external input unit 12 and the network unit 13 have a function of receiving an external signal input. The tuner / demodulator 11 also has a function of receiving an external signal input.

<映像記録再生装置100の構成>
チューナー・復調部11は、放送波Baを受け取る。そして、チューナー・復調部11は、受け取った放送波Baを復調する。外部入力部12は、外部の装置Eiからデータを受け取る。外部の装置は、例えば、ビデオカメラなどの録画装置である。なお、「データ」は、映像データ、音声データ、字幕データ、データ放送のデータまたは制御情報などを含む。
<Configuration of video recording / reproducing device 100>
The tuner / demodulation unit 11 receives the broadcast wave Ba. Then, the tuner / demodulation unit 11 demodulates the received broadcast wave Ba. The external input unit 12 receives data from an external device Ei. The external device is, for example, a recording device such as a video camera. The “data” includes video data, audio data, caption data, data of data broadcasting, control information, and the like.

ネットワーク部13は、ネットワークNeからデータを受け取る。ネットワークNeは、例えば、複数のコンピュータまたは電子機器などを繋いで、信号、データまたは情報をやりとりすることができるコンピュータネットワークまたは通信ネットワークである。   The network unit 13 receives data from the network Ne. The network Ne is a computer network or a communication network capable of exchanging signals, data, or information by connecting a plurality of computers or electronic devices, for example.

多重化解除部21は、多重化ストリームSmの多重化を解除する。つまり、多重化解除部21は、多重化ストリームSmから、各種のデータを分けて取り出す。   The demultiplexing unit 21 demultiplexes the multiplexed stream Sm. That is, the demultiplexing unit 21 separately extracts various data from the multiplexed stream Sm.

音声デコード部31は、圧縮された音声データを伸長する。音声デコード部31は、エレメンタリーストリームSeに含まれる圧縮された音声データを伸長する。   The audio decoder 31 expands the compressed audio data. The audio decoding unit 31 expands the compressed audio data included in the elementary stream Se.

映像デコード部32は、圧縮された映像データを伸長する。映像デコード部32は、エレメンタリーストリームSeに含まれる圧縮された映像データを伸長する。   The video decoding unit 32 decompresses the compressed video data. The video decoding unit 32 decompresses the compressed video data included in the elementary stream Se.

字幕デコード・レンダリング部33は、圧縮された字幕データを伸長する。字幕デコード・レンダリング部33は、エレメンタリーストリームSeに含まれる圧縮された字幕データを伸長する。   The subtitle decoding / rendering unit 33 decompresses the compressed subtitle data. The subtitle decoding / rendering unit 33 decompresses the compressed subtitle data included in the elementary stream Se.

データ放送・EPG処理部34は、圧縮されたデータ放送のデータを伸長する。データ放送・EPG処理部34は、エレメンタリーストリームSeに含まれる圧縮されたデータ放送のデータを伸長する。   The data broadcast / EPG processing unit 34 expands the data of the compressed data broadcast. The data broadcast / EPG processing unit 34 expands the compressed data broadcast data included in the elementary stream Se.

記録再生制御部41は、記録用の映像データ、音声データまたは制御情報などを収集する。記録再生制御部41は、収集したデータを記録用のデータフォーマットに変換する。   The recording and reproduction control unit 41 collects recording video data, audio data, control information, and the like. The recording / reproduction control unit 41 converts the collected data into a data format for recording.

内蔵記録装置51は、映像記録再生装置100に備えられた記録装置である。内蔵記録装置51は、例えば、ハードディスクドライブ、揮発性メモリまたは不揮発性メモリ等である。   The built-in recording device 51 is a recording device provided in the video recording / reproducing device 100. The internal recording device 51 is, for example, a hard disk drive, a volatile memory, a nonvolatile memory, or the like.

光ディスクドライブ52は、光ディスク53にデータを記録する。また、光ディスクドライブ52は、光ディスク53からデータを読み出す。光ディスク53は、例えば、ブルーレイディスクまたはDVDなどである。   The optical disk drive 52 records data on the optical disk 53. The optical disk drive 52 reads data from the optical disk 53. The optical disk 53 is, for example, a Blu-ray disk or a DVD.

<データを記録しない場合のデータ処理の流れ>
まず、放送番組を記録せずに、テレビに表示する場合の流れを説明する。つまり、放送波を一例として、放送波の受信から映像および音声の出力までについて説明する。テレビは、図1では、表示装置Ddおよび音響装置Esである。
<Data processing flow when data is not recorded>
First, a flow of displaying a broadcast program on a television without recording it will be described. That is, the process from reception of a broadcast wave to output of video and audio will be described using a broadcast wave as an example. The television is the display device Dd and the audio device Es in FIG.

外部からの入力信号としては、アンテナで受信された放送波Ba、ビデオカメラ(外部装置Ei)などからの映像信号、映像再生装置等からの映像信号またはネットワークNeからの映像データ等がある。利用者は、リモコン(リモート・コントローラー)または操作ボタンなどを用いて、入力部を選択する。入力部は、チューナー・復調部11、外部入力部12またはネットワーク部13等である。リモコンは、利用者が操作する遠隔操作機器のことである。   The external input signal includes a broadcast wave Ba received by an antenna, a video signal from a video camera (external device Ei) or the like, a video signal from a video playback device or the like, or video data from a network Ne. The user selects an input unit using a remote controller (remote controller) or operation buttons. The input unit is the tuner / demodulation unit 11, the external input unit 12, the network unit 13, or the like. The remote control is a remote control device operated by a user.

また、放送波Baの場合には、放送局または番組などが設定される。また、ネットワークNeの場合には、データ取得先またはデータへのアクセス情報などが設定される。なお、利用者の視聴したい映像サービスまたは利用者の記録したい映像サービスは、特定されているものとする。また、利用者の視聴したい映像サービスまたは利用者の記録したい映像サービスは、受信できる状態になっているものとする。   In the case of the broadcast wave Ba, a broadcast station or a program is set. In the case of the network Ne, a data acquisition destination or access information to data is set. It is assumed that the video service that the user wants to view or the video service that the user wants to record is specified. Also, it is assumed that the video service that the user wants to view or the video service that the user wants to record is in a receivable state.

アンテナ等で受信した放送波Baは、チューナー・復調部11に入力される。チューナー・復調部11は、放送波Baの中から指定された放送局の電波を取り出す。そして、チューナー・復調部11は、規定された復調方式で、放送波Baを復調する。そして、チューナー・復調部11は、放送波Baからデジタルデータを取り出す。   The broadcast wave Ba received by an antenna or the like is input to the tuner / demodulator 11. The tuner / demodulation unit 11 extracts the radio wave of the designated broadcast station from the broadcast wave Ba. Then, the tuner / demodulation unit 11 demodulates the broadcast wave Ba by a specified demodulation method. Then, the tuner / demodulation unit 11 extracts digital data from the broadcast wave Ba.

ここで、取り出されたデジタルデータは、映像データ、音声データ、字幕データまたは制御情報などを多重化した多重化ストリームSmである。また、複数の番組を、まとめて1つの多重化ストリームSmに格納することもある。   Here, the extracted digital data is a multiplexed stream Sm obtained by multiplexing video data, audio data, caption data, control information, and the like. Also, a plurality of programs may be stored together in one multiplexed stream Sm.

なお、「ストリーム」とは、時間の流れを持ったデータまたは時間的な流れを持った形で伝送されるデータを表わす。例えば、ストリームは、映像データの場合は、映像ストリームであり、音声データの場合は、音声ストリームである。また、その他には、字幕ストリーム、多重化ストリーム、受信ストリーム、データストリームなどが挙げられる。   The “stream” represents data having a time flow or data transmitted in a form having a time flow. For example, the stream is a video stream in the case of video data, and is an audio stream in the case of audio data. Other examples include a subtitle stream, a multiplexed stream, a received stream, a data stream, and the like.

多重化ストリームSmは、チューナー・復調部11で取り出される。チューナー・復調部11で取り出された多重化ストリームSmは、多重化解除部21に送られる。多重化解除部21は、多重化ストリームSmから、各種のデータまたは各種の制御情報などを分けて取り出す。データは、例えば、番組を直接構成するデータである。データは、例えば、映像ストリーム、音声ストリームまたは字幕ストリームなどである。データは、例えば、多重化ストリームSmに格納されたデータ放送用のプログラムまたはデータである。   The multiplexed stream Sm is extracted by the tuner / demodulator 11. The multiplexed stream Sm extracted by the tuner / demodulation unit 11 is sent to the demultiplexing unit 21. The demultiplexing unit 21 separately extracts various data or various control information from the multiplexed stream Sm. The data is, for example, data that directly constitutes a program. The data is, for example, a video stream, an audio stream, or a subtitle stream. The data is, for example, a data broadcast program or data stored in the multiplexed stream Sm.

多重化を解除された各種のデータ(エレメンタリーストリームSe)は、圧縮されたデータである。   Various data (elementary stream Se) demultiplexed are compressed data.

映像ストリームは、圧縮された映像データである。映像デコード部32は、圧縮された映像データを伸長する。伸長された映像データは、表示装置Ddなどから映像として出力される。表示装置Ddは、例えば、テレビなどである。   The video stream is compressed video data. The video decoding unit 32 decompresses the compressed video data. The expanded video data is output as a video from the display device Dd or the like. The display device Dd is, for example, a television.

同様に、音声ストリームは、圧縮された音声データである。音声デコード部31は、圧縮された音声データを伸長する。伸長された音声データは、音響装置Esから音声として出力される。音響装置Esは、例えば、テレビなどである。   Similarly, the audio stream is compressed audio data. The audio decoder 31 expands the compressed audio data. The expanded sound data is output as sound from the sound device Es. The sound device Es is, for example, a television.

表示装置Ddまたは音響装置Esから出力される際に、映像データDi1と音声データDsとは、バッファリングと同期とが行われる(図示せず)。これによって、映像と音声とにずれが生じない。映像データと音声データとの出力のタイミングは、制御情報またはシステムクロック等から指定されたタイミングまたは算出されたタイミングである。   When output from the display device Dd or the audio device Es, the video data Di1 and the audio data Ds are buffered and synchronized (not shown). As a result, no shift occurs between the video and the audio. The output timing of the video data and the audio data is a timing designated or calculated from control information or a system clock.

字幕ストリームは、圧縮された字幕データである。字幕デコード・レンダリング部33は、圧縮された字幕データを伸長する。字幕デコード・レンダリング部33は、伸長された字幕データを解釈する。字幕デコード・レンダリング部33は、解釈された字幕データを映像化する。映像化された字幕データは、指定されたタイミングで映像データまたは音声データと合成される。合成された字幕データは、表示装置Ddなどから映像として出力される。   The subtitle stream is compressed subtitle data. The subtitle decoding / rendering unit 33 decompresses the compressed subtitle data. The subtitle decoding / rendering unit 33 interprets the expanded subtitle data. The subtitle decoding / rendering unit 33 visualizes the interpreted subtitle data. The imaged subtitle data is synthesized with video data or audio data at a specified timing. The combined subtitle data is output as a video from the display device Dd or the like.

データ放送のストリームは、圧縮されたデータである。データ放送・EPG処理部34は、圧縮されたデータ放送のデータを伸長する。データ放送・EPG処理部34は、指定されたタイミングで、伸長された映像データと伸長された音声データとを合成する。合成された映像データおよび音声データは、テレビなどから映像および音声として出力される。   The data broadcast stream is compressed data. The data broadcast / EPG processing unit 34 expands the data of the compressed data broadcast. The data broadcast / EPG processing unit 34 combines the expanded video data and the expanded audio data at the designated timing. The synthesized video data and audio data are output as video and audio from a television or the like.

映像記録再生装置100は、このようにして受信した放送波Baを、同期の取れた映像および音声として出力する。   The video recording / reproducing apparatus 100 outputs the broadcast wave Ba thus received as synchronized video and audio.

<データの記録>
次に、この映像データを記録することを考える。
<Recording data>
Next, recording this video data will be considered.

記録再生制御部41は、前述の放送波Baの受信から映像の表示までの流れの中で、記録用の映像データ、音声データまたは制御情報などを収集する。収集されたデータは、記録用のデータフォーマットに変換される。記録用のデータフォーマットに変換されたデータは、内蔵記録装置51または光ディスクドライブ52を通じて光ディスク53等に記録される。   The recording / reproduction control unit 41 collects recording video data, audio data, control information, and the like in the flow from the reception of the broadcast wave Ba to the display of the video. The collected data is converted to a data format for recording. The data converted into the data format for recording is recorded on the optical disk 53 or the like through the built-in recording device 51 or the optical disk drive 52.

記録再生制御部41が映像データまたは音声データを取り出す位置は、様々な組み合わせが考えられる。しかし、説明を容易にするために、次の(A)から(C)の3つ経路に単純化して説明する。3つ経路は、(A)多重化ストリームSmの状態での取り出し、(B)多重化が解除されたエレメンタリーストリームSeの状態での取り出し及び(C)映像音声が伸長された状態(映像データDi1)での取り出しである。   Various combinations of positions where the recording / reproduction control unit 41 extracts the video data or the audio data can be considered. However, in order to facilitate the explanation, the explanation is simplified to the following three paths (A) to (C). The three paths are (A) extraction in the state of the multiplexed stream Sm, (B) extraction in the state of the demultiplexed elementary stream Se, and (C) the state in which video and audio are expanded (video data Di1).

なお、以下においては、(A)と(B)とに関して説明する。   Hereinafter, (A) and (B) will be described.

≪(A−1)多重化ストリームSmの状態でのデータの記録(1)≫
多重化ストリームの状態でのデータ取り出しとブルーレイディスク(光ディスク53)への記録とを考える。データは、図1中の(A)の経路を使って取り出される。
{(A-1) Recording of data in the state of multiplexed stream Sm (1)}
Consider data extraction in the state of a multiplexed stream and recording on a Blu-ray disc (optical disc 53). The data is extracted using the path (A) in FIG.

例えば、日本方式の従来の放送方式の場合には、チューナー・復調部11から取り出される多重化ストリームSmは、MPEG2TSの多重化ストリーム内にMPEG2形式で圧縮された映像信号が格納された形のデータである。   For example, in the case of a conventional broadcasting system of the Japanese system, the multiplexed stream Sm extracted from the tuner / demodulator 11 is a data in which a video signal compressed in the MPEG2 format is stored in a multiplexed stream of MPEG2TS. It is.

MPEG2TSの放送用ストリームは、192バイトサイズの固定長パケットを採用している。また、このパケットを受信順に結合することによって、記録フォーマット用のデータファイルを作成することができる。このようにして作成されたデータファイルをストリームファイルと呼ぶ。   An MPEG2TS broadcast stream employs fixed-length packets of 192 bytes. By combining these packets in the order of reception, a data file for a recording format can be created. The data file created in this way is called a stream file.

実際に放送されているストリームには、複数の番組が多重化されている。その中から目的の番組を取り出す過程が必要となる。しかし、ここでは、その説明を省略する。   A plurality of programs are multiplexed in an actually broadcasted stream. A process of extracting a target program from the program is required. However, the description is omitted here.

まず、ブルーレイディスクのBDAVフォーマットの場合を説明する。   First, the case of the BDAV format of a Blu-ray disc will be described.

ブルーレイディスクのBDAVフォーマットの場合には、ストリームファイルの他に、クリップファイル、プレイリストファイルまたはインフォファイルなどが必要である。クリップファイルは、ストリームファイル内のデータにアクセスするための詳細情報を記録したファイルである。プレイリストファイルは、時系列の情報を管理する。時系列の情報は、例えば、一つの番組の開始点、終了点または再生ストリームの切り替えなどの情報である。インフォファイルは、再生可能な番組リストなどディスク全体の情報を管理する。   In the case of the Blu-ray Disc BDAV format, a clip file, a playlist file, an info file, and the like are required in addition to the stream file. A clip file is a file in which detailed information for accessing data in a stream file is recorded. The playlist file manages time-series information. The time-series information is, for example, information such as a start point and an end point of one program or switching of a playback stream. The info file manages information of the entire disc such as a list of reproducible programs.

これらの情報は、ストリーム内の管理情報、利用者の設定した予約情報またはチューナー・復調部11から得られる管理情報などから作成される。これらに関しては、例えば、特許文献1に詳しく書かれている。   These pieces of information are created from management information in the stream, reservation information set by the user, management information obtained from the tuner / demodulation unit 11, and the like. These are described in detail in Patent Document 1, for example.

次に、日本の新しい放送方式の場合を説明する。   Next, the case of a new broadcasting system in Japan will be described.

これは、例えば、放送サービス高度化推進協会の「高度高帯域衛星デジタル放送 運用規定1.1版 NEXTVF TR−004」(2016年3月30日発行、第一部・第二編・第5章、2−31〜2−40ページ、図5−1)に記載されている。   This is described in, for example, "Advanced High Bandwidth Satellite Digital Broadcasting Operational Regulations, Version 1.1 NEXTVF TR-004" (published March 30, 2016, Part I, Part II, Chapter V by the Japan Broadcasting Services Advancement Association). Pp. 2-31 to 2-40, and FIG. 5-1).

この方式は、4Kおよび8Kの高解像度映像に対応している。また、この方式は、色域および輝度域拡大に対応している。この方式は、映像圧縮方式として、HEVCを採用している。また、この方式は、多重化方式として、MMTとTLVとを組み合わせて採用している。   This method supports 4K and 8K high-resolution video. Also, this method supports color gamut and luminance gamut expansion. This system employs HEVC as a video compression system. This method employs a combination of MMT and TLV as a multiplexing method.

MMTおよびTLVは、ネットワークで用いられているIPパケットとの整合性を考えて設計されている。TLVは、IPパケットの放送波を用いた伝送方式である。MMTは、IPパケットを用いて映像データを転送する方式およびそのデータ形式を規定している。IPパケットは、可変長パケットを採用している。このため、MMTおよびTLVも可変長パケットを採用している。   MMT and TLV are designed in consideration of compatibility with IP packets used in a network. TLV is a transmission method using broadcast waves of IP packets. The MMT defines a method for transferring video data using IP packets and its data format. The IP packet employs a variable length packet. For this reason, MMT and TLV also employ variable length packets.

図2を用いてこの方式での多重化解除手順を説明する。図2は、多重化解除手順を説明する図である。   A demultiplexing procedure in this method will be described with reference to FIG. FIG. 2 is a diagram illustrating a demultiplexing procedure.

図2において、横方向は、データの受信の順番を示している。つまり、横軸Ha方向には、受信された順番にデータが並べられている。受信した順番に左から右に記載してある。また、縦軸Va方向は、データの処理の流れを示している。つまり、縦軸Va方向には、パケット解析によるデータの取り出しの順番が示されている。縦軸Va1の範囲では、多重化ストリームSmの多重化を解除している。縦軸Va2の範囲では、エレメンタリーストリームSeの多重化を解除している。   In FIG. 2, the horizontal direction indicates the order of data reception. That is, in the direction of the horizontal axis Ha, the data is arranged in the order of reception. It is described from left to right in the order of reception. The direction of the vertical axis Va indicates the flow of data processing. That is, in the direction of the vertical axis Va, the order of extracting data by packet analysis is shown. In the range of the vertical axis Va1, the multiplexing of the multiplexed stream Sm is released. In the range of the vertical axis Va2, the multiplexing of the elementary stream Se is released.

TLVパケットのデータは、放送波Baの復調によって得られる。TLVパケットは、放送に関する情報を含んでいる。放送に関する情報は、例えば、放送の識別子、チャンネル、放送局名、IPアドレス、ポート番号または使用する電波の情報などである。「使用する電波」とは、地上波、BS放送またはCS放送などである。「使用する電波の情報」とは、放送の形態、変調方式、周波数、偏向方向または旋回方向などである。   The data of the TLV packet is obtained by demodulating the broadcast wave Ba. The TLV packet contains information on broadcasting. The information on the broadcast is, for example, a broadcast identifier, a channel, a broadcast station name, an IP address, a port number, or information on a radio wave to be used. The “radio wave to be used” is a terrestrial wave, a BS broadcast, a CS broadcast, or the like. “Information on radio waves to be used” includes the form of broadcast, modulation method, frequency, deflection direction or turning direction, and the like.

ペイロードは、データ伝送におけるデータ部分を指す。つまり、ペイロードは、伝送されるデータ全体のうち、伝送処理のための管理情報を除いたものにあたる。管理情報は、例えば、ヘッダまたはメタデータなどである。   Payload refers to the data portion in data transmission. That is, the payload corresponds to the entire data to be transmitted excluding management information for transmission processing. The management information is, for example, a header or metadata.

また、TLV(Type−Length−Value)は、情報の種類、長さおよび値をまとめて表現するフォーマットである。UDP(User Datagram Protocol)は、IPの上位プロトコルのトランスポート層で動作するプロトコルである。UDPは、ネットワーク層のIPとセッション層以上のプロトコルの橋渡しをするかたちで動作する。MMTP(登録商標)は、マルチメディア多重化伝送プロトコルである。   The TLV (Type-Length-Value) is a format for collectively expressing the type, length, and value of information. UDP (User Datagram Protocol) is a protocol that operates in the transport layer of a protocol higher than IP. UDP operates by bridging the network layer IP with the protocol above the session layer. MMTP (registered trademark) is a multimedia multiplexing transmission protocol.

チューナー・復調部11は、放送局の情報、IPアドレスの情報またはポート番号の情報をTLVパケットから取り出す。チューナー・復調部11は、IPアドレスの情報を用いて、必要なIPパケットを取り出す。次に、チューナー・復調部11は、ポート番号の情報を用いてUDPパケットを取り出す。   The tuner / demodulator 11 extracts broadcast station information, IP address information, or port number information from the TLV packet. The tuner / demodulation unit 11 extracts a necessary IP packet using the information of the IP address. Next, the tuner / demodulation unit 11 extracts a UDP packet using the information of the port number.

この時点で、チューナー・復調部11は、放送局から送られてきた放送波Baの多重化を解除している。そして、チューナー・復調部11は、UDPパケットのデータを取り出している。チューナー・復調部11は、UDPパケットからUDPヘッダを取り除く。そして、チューナー・復調部11は、UDPパケットからUDPペイロードを取り出す。これによって、チューナー・復調部11は、UDPパケットからMMTPパケットを取り出すことができる。   At this point, the tuner / demodulator 11 has demultiplexed the broadcast wave Ba sent from the broadcast station. Then, the tuner / demodulation unit 11 extracts the data of the UDP packet. The tuner / demodulator 11 removes the UDP header from the UDP packet. Then, the tuner / demodulation unit 11 extracts the UDP payload from the UDP packet. Thereby, the tuner / demodulation unit 11 can extract the MMTP packet from the UDP packet.

日本の新しい放送規格では、1つのMMTPパケットは、1つのUDP/IPパケットに格納されている。さらに、1つのUDP/IPパケットは、1つのTLVパケットに格納されている。そのため、制御用データを分離した後のMMTPを伝送しているパケットでは、MMTPパケットは、TLVパケットから単純にTLVヘッダ、IPヘッダおよびUDPヘッダを取り除くことによって取り出される。   According to a new broadcasting standard in Japan, one MMTP packet is stored in one UDP / IP packet. Further, one UDP / IP packet is stored in one TLV packet. Therefore, in the packet transmitting the MMTP after separating the control data, the MMTP packet is extracted by simply removing the TLV header, the IP header, and the UDP header from the TLV packet.

MMTPパケットとして取り出された時点で、放送局から送られてきた放送波Baの多重化は解除されている。しかし、放送波Baは、複数の番組をまとめた一連のMMTPパケットとして多重化されていることもある。その場合には、目的の番組だけを取り出すために、まず、制御情報を取り出して、その制御情報の記載に従って、MMTPパケットを選択して取り出す。   At the time when the broadcast wave Ba has been extracted as an MMTP packet, the multiplexing of the broadcast wave Ba sent from the broadcast station has been released. However, the broadcast wave Ba may be multiplexed as a series of MMTP packets in which a plurality of programs are put together. In that case, in order to take out only a target program, control information is first taken out, and an MMTP packet is selected and taken out according to the description of the control information.

MMTPパケットとして送られてくる制御信号の1つにPLT(Package List Table)がある。全ての情報が放送波で送信されてくる場合には、PLTの中の「MMT_general_location_info」によって指定された「packet_id」を参照する。この「packet_id」を用いて、MMTPパケットをフィルタリングする。これによって、目的とする番組の管理情報を含むMMTPパケットを選択することができる。「目的とする番組」とは、視聴する予定の番組である。   One of the control signals sent as the MMTP packet is a PLT (Package List Table). When all information is transmitted by broadcast waves, the “packet_id” specified by “MMT_general_location_info” in the PLT is referred to. The MMTP packet is filtered using the “packet_id”. As a result, it is possible to select the MMTP packet including the management information of the target program. The “target program” is a program to be viewed.

ネットワークから番組の管理情報を取得する場合には、「MMT_general_location_info」に記載されているIPアドレスおよびポート番号が指定される。または、「MMT_general_location_info」によって、URLによる番組の取得先が指定される。   When acquiring program management information from the network, the IP address and port number described in “MMT_general_location_info” are specified. Alternatively, “MMT_general_location_info” specifies a program acquisition destination by a URL.

次に、選択されたMMTPパケットからMPT(MMT_Package_Table)を含むデータを取り出す。MPTには、目的とする番組を構成する映像、音声または字幕などのアセットの組合せと取得先とが記述されている。それぞれのアセットの取得先は、「MMT_general_location_info」によって、「packet_id」またはネットワーク情報で示されている。ここで、ネットワーク情報は、IPアドレス、ポート番号またはURLである。   Next, data including MPT (MMT_Package_Table) is extracted from the selected MMTP packet. The MPT describes a combination of assets such as video, audio, or subtitles that constitute a target program, and an acquisition source. The acquisition source of each asset is indicated by “packet_id” or network information by “MMT_general_location_info”. Here, the network information is an IP address, a port number, or a URL.

このようにして、PLTで示された制御データと、MPTで示された番組を構成するアセットとを、例えば、「packet_id」でフィルタリングする。これよって、目的とする番組のMMTPパケットを取り出すことができる。   In this way, the control data indicated by the PLT and the assets constituting the program indicated by the MPT are filtered by, for example, “packet_id”. Thus, the MMTP packet of the target program can be extracted.

TLVパケットからMMTPパケットまたはMMTPペイロードを取りだす過程で、1つのパケットに着目する。パケットヘッダは、取り除かれる。しかし、パケット内のデータは変化しない。ところが、実際には、制御情報と各段階でのパケットヘッダの内容とから、パケットの取捨選択と分類とが行われている。   In the process of extracting the MMTP packet or the MMTP payload from the TLV packet, attention is focused on one packet. The packet header is stripped. However, the data in the packet does not change. However, packets are actually selected and classified based on the control information and the contents of the packet header at each stage.

[標準フォーマットを用いないで記録する場合]
番組を記録する方法の1つとして、例えば、受信した放送のパケットを、そのまま記録する方法を説明する。
[Recording without using standard format]
As one method of recording a program, for example, a method of recording a received broadcast packet as it is will be described.

図4は、TLVパケットを結合して記録した場合の模式図である。   FIG. 4 is a schematic diagram when TLV packets are combined and recorded.

図4に示す例では、TLVパケットの時点で、放送局から送られてきた多重化ストリームSmの多重化を解除している。番組のTLVパケットは、そのまま結合されている。結合されたTLVパケットは、ファイルを構成している。   In the example shown in FIG. 4, at the time of the TLV packet, the multiplexing of the multiplexed stream Sm sent from the broadcasting station is released. The TLV packets of the program are combined as they are. The combined TLV packets make up a file.

図4中に、TLVパケットTP−0,TP−1,TP−2,TP−3を示している。「−0」などは、TLVパケットTPの受信の順番を表わしている。例えば、TLVパケットTP−0は、最初に受信したTLVパケットTPである。横軸Haは、受信の順番を表わしている。   FIG. 4 shows TLV packets TP-0, TP-1, TP-2, and TP-3. “−0” or the like indicates the order in which the TLV packets TP are received. For example, the TLV packet TP-0 is the first TLV packet TP received. The horizontal axis Ha represents the order of reception.

最初に受信したTLVパケットTP−0の後ろには、TLVパケットTP−0の後に受信したTLVパケットTP−1,TP−2,TP−3が結合している。そして、結合されたTLVパケットTP−0,TP−1,TP−2,TP−3は記録される。TLVパケットTPは、可変長パケットを採用している。   The TLV packets TP-1, TP-2, and TP-3 received after the TLV packet TP-0 are connected behind the first received TLV packet TP-0. Then, the combined TLV packets TP-0, TP-1, TP-2, TP-3 are recorded. The TLV packet TP employs a variable length packet.

データをパケット単位で受信するため、受信時点で、パケットの先頭は明確である。しかし、他のパケットと結合して、1つのファイルを作成した場合には、それぞれのパケットの先頭位置を判別する必要がある。   Since data is received in packet units, the head of the packet is clear at the time of reception. However, when one file is created by combining with other packets, it is necessary to determine the head position of each packet.

第1の方法は、記録する時点で、パケットの先頭位置のリストを、管理用ファイルAfとして作成する方法である。   The first method is to create a list of the start position of a packet as a management file Af at the time of recording.

これは、パケットを記録する時点では、パケットのファイル内での先頭位置が判明するためである。この場合には、パケット番号などと関連付けてパケットの先頭位置のリストを作成しても良い。   This is because the head position of the packet in the file is known at the time of recording the packet. In this case, a list of the start position of the packet may be created in association with the packet number or the like.

第2の方法は、ファイルの先頭からデータを読み込み、先頭のデータHmがあった場合には、TLVパケットTPの先頭と判断する。そして、TLVパケットTPが結合したデータを読み込む。   In the second method, data is read from the beginning of a file, and if there is leading data Hm, it is determined to be the beginning of the TLV packet TP. Then, the data combined with the TLV packet TP is read.

TLVパケットTPには、パケットの先頭を識別するために、最初の1バイトには、固定値「0x7F」が格納されている。そして、先頭バイトの後ろには、パケット種別を表す1バイトのデータが格納されている。そして、その後ろには、データ長を示す2バイトのデータが格納されている。   In the TLV packet TP, a fixed value “0x7F” is stored in the first byte to identify the head of the packet. After the first byte, 1-byte data indicating the packet type is stored. After that, 2-byte data indicating the data length is stored.

ここで、TLVパケットTPの先頭のデータHmは、固定値「0x7F」である。   Here, the head data Hm of the TLV packet TP is a fixed value “0x7F”.

固定値「0x7F」(先頭のデータHm)が読み込まれれば、直前に読み込まれたデータを、TLVパケットTPとして解釈して処理を行う。   When the fixed value “0x7F” (the leading data Hm) is read, the data read immediately before is interpreted as the TLV packet TP and the processing is performed.

固定値「0x7F」は、特別な値ではない。固定値「0x7F」は、データ中にも存在している。そのため、間違った位置から読み込む可能性がある。この場合でも、TLVパケットTPのデータとしての矛盾の有無を確認する。または、データ長のデータを読み込んだ後に、次のデータの先頭が毎回固定値「0x7F」になっているか否かを確認する。これらによって、正しいデータの区切りで、パケットを読み込むことができる。   The fixed value “0x7F” is not a special value. The fixed value “0x7F” also exists in the data. Therefore, there is a possibility of reading from the wrong position. Even in this case, it is checked whether there is any contradiction as the data of the TLV packet TP. Alternatively, after reading the data of the data length, it is checked whether or not the head of the next data is a fixed value “0x7F” every time. As a result, packets can be read at the correct data breaks.

この例では、TLVパケットを記録する方法を示した。しかし、他にも、UDP/IPパケットを記録する方法も採用できる。また、MMTPパケットを、そのまま記録する方法なども採用できる。   In this example, a method of recording a TLV packet has been described. However, another method of recording a UDP / IP packet can be adopted. In addition, a method of recording the MMTP packet as it is can be adopted.

しかし、TLVパケットを選んだ理由は、TLVパケットの先頭に識別用の固定バイトが用意されていて、パケットの識別が比較的に容易だからである。   However, the reason for selecting the TLV packet is that a fixed byte for identification is prepared at the head of the TLV packet, and the identification of the packet is relatively easy.

他のパケットを記録する方法では、識別のためのマークが挿入されていない場合がある。そこで、識別子を独自に挿入する手法も採用できる。また、UDP/IPパケットの場合には、例えば、IPアドレス情報を用いて識別のためのマークとする方法も採用できる。IPアドレス情報は、同じ番組中では変化しない。   In another method of recording a packet, a mark for identification may not be inserted. Therefore, a method of independently inserting an identifier can also be adopted. In the case of a UDP / IP packet, for example, a method of using IP address information as a mark for identification can be adopted. The IP address information does not change during the same program.

≪(A−2)多重化ストリームSmの状態でのデータの記録(2)≫
MPTは、MMTPパケットに格納されて伝送される。MPTは、制御情報を含んでいる。多重化解除部21は、MPTに記載された情報に基づいて、パケットを振り分ける。MPTに記載された情報は、例えば、MMTPヘッダに含まれるパケットID情報である。これによって、多重化解除部21は、映像情報または音声情報などを個別に取り出すことができる。そして、多重化解除部21は、多重化ストリームSmの多重化を解除することができる。
{(A-2) Recording of data in state of multiplexed stream Sm (2)}
The MPT is stored in an MMTP packet and transmitted. MPT contains control information. The demultiplexing unit 21 sorts the packet based on the information described in the MPT. The information described in the MPT is, for example, packet ID information included in the MMTP header. Thus, the demultiplexing unit 21 can individually extract video information, audio information, and the like. Then, the demultiplexing unit 21 can demultiplex the multiplexed stream Sm.

MFUは、MMTPパケットに格納されている。複数のMFUが1つのMMTPパケットに格納されている場合がある。また、1つのMFUが1つのMMTPパケットに格納されている場合がある。そして、1つのMFUが複数のMMTPパケットに格納されている場合がある。   The MFU is stored in the MMTP packet. A plurality of MFUs may be stored in one MMTP packet. Further, one MFU may be stored in one MMTP packet. One MFU may be stored in a plurality of MMTP packets.

MMTPに含まれる映像データのMFUまたは音声データのMFUは、アクセスユニット(以下、AUと示す。)またはNALユニットと呼ばれる処理単位になっている。そして、NAL(Network Abstraction Layer)ユニットは、AUをさらに細かく分割したデータである。   The MFU of the video data or the MFU of the audio data included in the MMTP is a processing unit called an access unit (hereinafter, referred to as an AU) or a NAL unit. The NAL (Network Abstraction Layer) unit is data obtained by further dividing the AU.

MFUに直接映像データを格納する場合には、AUを格納する場合とNALユニットを格納する場合とが定義されている。しかし、日本の新しい放送方式では、NALユニットで格納する方式を採用している。そのため、以降の説明ではNALユニットとして格納されているものとして説明する。   When video data is stored directly in the MFU, a case where an AU is stored and a case where a NAL unit is stored are defined. However, a new broadcasting method in Japan adopts a method of storing in a NAL unit. Therefore, in the following description, it will be described as being stored as a NAL unit.

図2では、NALユニットを直接MFUに格納した場合を示している。NALユニットには、映像データのみを含んだVCL−NALユニットと、映像データを含まず管理情報を格納した非VCL−NALユニットとがある(VCL:Video Coding Layer)。   FIG. 2 shows a case where the NAL unit is directly stored in the MFU. The NAL units include a VCL-NAL unit containing only video data and a non-VCL-NAL unit containing management information without containing video data (VCL: Video Coding Layer).

非VCL−NALユニットは、NALヘッダを取り除くと、制御情報が得られる。   For a non-VCL-NAL unit, control information is obtained by removing the NAL header.

VCL−NALユニットは、NALヘッダを取り除くと、分割された映像データが取り出される。これらの分割された映像データを結合することによって、1フレーム分の圧縮された映像データとなる。   When the VCL-NAL unit removes the NAL header, the divided video data is extracted. By combining these divided video data, one frame of compressed video data is obtained.

通常、NALユニットは1フレーム分の管理情報と映像データとを含む複数のNALユニットを一式として扱い、AUと呼ばれている。多重化解除部21は、映像データの場合には、AUは、映像データを含んでいる。そして、多重化解除部21は、ES(エレメンタリーストリーム)を再構築することができる。   Normally, a NAL unit handles a plurality of NAL units including management information and video data for one frame as a set, and is called an AU. In the case of video data, the AU includes video data. Then, the demultiplexing unit 21 can reconstruct the ES (elementary stream).

映像データのAUは、基本的には、1フレーム分の映像単位である。1フレーム分の映像単位は、ピクチャを表現する単位である。映像装置では、このピクチャを時系列的に順次切り替えながら表示することで動画として表示している。しかし、前後のフレームとの依存関係で、いくつかの種類がある。   The AU of video data is basically a video unit for one frame. The video unit for one frame is a unit expressing a picture. The video device displays the picture as a moving image by displaying the picture while sequentially switching the picture in time series. However, there are several types of dependencies with the frames before and after.

1つは、Iピクチャと呼ばれるものである。Iピクチャは、このデータ単独で、1枚のピクチャを再現できる。   One is called an I picture. An I picture can reproduce one picture only with this data.

他には、PピクチャまたはBピクチャと呼ばれるものである。これらのデータは、他のピクチャに依存している。そのため、PピクチャおよびBピクチャは、単独では1枚のピクチャを再現できない。PピクチャおよびBピクチャは、他のピクチャを参照することによって、ピクチャを再現できる。Pピクチャは、1枚の他のピクチャを参照する。Bピクチャは、2枚の他のピクチャを参照する。   Others are called P pictures or B pictures. These data are dependent on other pictures. Therefore, a P picture and a B picture cannot alone reproduce one picture. The P picture and the B picture can reproduce the picture by referring to other pictures. The P picture refers to one other picture. The B picture refers to two other pictures.

テレビ放送または映像記録再生装置などでは、番組の途中からの視聴できることが求められている。また、テレビ放送または映像記録再生装置などでは、ランダムアクセスできることが求められている。そのため、参照するピクチャが広範囲であると都合が悪い。   In a television broadcast or a video recording / reproducing device, it is required that the program can be viewed from the middle of the program. In addition, a television broadcast or a video recording / reproducing device or the like is required to be capable of random access. Therefore, it is inconvenient if the picture to be referred to is wide.

そこで、ある程度の時間またはフレーム枚数を一式として扱う。この一式のデータの中で、参照するピクチャが完結するように定められてある。   Therefore, a certain amount of time or the number of frames is treated as one set. In this set of data, a reference picture is defined so as to be completed.

この一式のデータは、GOP(Group Of Pictures)と呼ばれている。GOPは、少なくとも1つのIピクチャを含んでいる。番組の途中から視聴する際には、取得したストリームデータが映像を再現できない不完全な位置から始まっている場合でも、次のGOPの始まりからは映像を再現して表示することができる。   This set of data is called a GOP (Group Of Pictures). A GOP includes at least one I picture. When viewing from the middle of a program, even if the acquired stream data starts from an incomplete position where the video cannot be reproduced, the video can be reproduced and displayed from the beginning of the next GOP.

例えば、日本の新しい放送方式は、2K放送では0.5秒を目途に、また、4K放送では1秒を目途に、GOPを作成するよう求めている。これによって、テレビの電源投入した際に、または、チャンネルを切り替えた際にも、1秒から2秒で、映像を表示できる。   For example, a new broadcasting system in Japan requires a GOP to be created in about 0.5 seconds for 2K broadcasting and about 1 second in 4K broadcasting. Thus, even when the power of the television is turned on or when the channel is switched, an image can be displayed in one to two seconds.

なお、映像が画面の全体で入れ替わる場合には、切り替わりの前後でGOPを分けた方が、効率が良い。例えば、圧縮率または画像再生などの効率が向上する。画面の全体で入れ替わる場合には、例えば、シーンの切り替わりなどである。そのため、GOP長は、固定した値ではなく、柔軟に運用される。つまり、状況に応じて、GOP長は、変更される。   When the video is switched over the entire screen, it is more efficient to divide GOPs before and after the switching. For example, the efficiency such as the compression ratio or the image reproduction is improved. When the entire screen is switched, for example, the scene is switched. Therefore, the GOP length is not a fixed value but is operated flexibly. That is, the GOP length is changed according to the situation.

なお、通信またはネット配信では、日本の新しい放送方式よりも長い単位のGOPが使用されることもある。   In communication or Internet distribution, a GOP in a unit longer than a new broadcasting system in Japan may be used.

記録された映像を再生する際には、表示したいフレームを含むGOPの先頭から映像にアクセスする。これによって、スムーズなランダムアクセスが可能になる。また、早送りなどの際には、GOPごとにIピクチャのみを表示することができる。GOPは、動画として再生できる映像データの一固まりの単位である。また、GOPは、再生が可能な位置を示す単位である。また、GOPは、ランダムアクセスが可能な位置を示す単位である。   When reproducing the recorded video, the video is accessed from the beginning of the GOP including the frame to be displayed. This enables smooth random access. When fast-forwarding or the like, only I pictures can be displayed for each GOP. A GOP is a unit of a group of video data that can be reproduced as a moving image. GOP is a unit indicating a position where reproduction is possible. GOP is a unit indicating a position where random access is possible.

放送波Baを受信する際には、PLT(Package List Table)を受信する。PLTは、MMTPパケットとして送られてくる制御信号の1つである。   When receiving the broadcast wave Ba, a PLT (Package List Table) is received. PLT is one of the control signals sent as MMTP packets.

全ての情報が放送波Baで送られてくる場合には、PLT内の「MMT_general_location_info」で指定された「packet_id」を参照する。そして、この「packet_id」でMMTPパケットをフィルタリングする。これによって、目的とする番組の管理情報を含むMMTPパケットを選択することができる。   When all the information is transmitted by the broadcast wave Ba, the “packet_id” specified by “MMT_general_location_info” in the PLT is referred to. Then, the MMTP packet is filtered by the “packet_id”. As a result, it is possible to select the MMTP packet including the management information of the target program.

ネットワークNeから番組の管理情報を取得する場合には、「MMT_general_location_info」に記載されているIPアドレスとポート番号とによって番組の取得先が指定される。または、「MMT_general_location_info」に記載されているURLによって番組の取得先が指定される。   When acquiring the management information of the program from the network Ne, the acquisition source of the program is specified by the IP address and the port number described in “MMT_general_location_info”. Alternatively, the acquisition source of the program is specified by the URL described in “MMT_general_location_info”.

次に、選択したMMTPパケットの中から、MPT(MMT_Package_Table)を含むデータを選択する。MPTには、番組を構成する映像、音声または字幕などのアセットの組合せと取得先とが記述されている。それぞれのアセットの取得先は、「MMT_general_location_info」に記載されている「packet_id」またはネットワーク情報に示されている。ネットワーク情報は、IPアドレスとポート番号とである。または、ネットワーク情報は、URLである。   Next, data including MPT (MMT_Package_Table) is selected from the selected MMTP packets. The MPT describes a combination of assets such as video, audio, and subtitles that constitute a program, and an acquisition source. The acquisition source of each asset is indicated by “packet_id” described in “MMT_general_location_info” or network information. The network information is an IP address and a port number. Alternatively, the network information is a URL.

また、それぞれの映像、音声または字幕などの時間で同期する必要のあるアセットに関しては、アセットごとにMPUタイムスタンプ記述子とMPU拡張タイムスタンプ記述子とが定義されている。   For assets that need to be synchronized in time, such as video, audio, and subtitles, an MPU time stamp descriptor and an MPU extension time stamp descriptor are defined for each asset.

アセットなどの取得先としては、放送波Baに含まれて送られてくる場合と、ネットワークNeから取得する場合とが定められている。しかし、説明の簡略化のため、以降では放送波Baに含まれて送られてくる場合を一例として説明する。   As the acquisition destination of the asset and the like, a case where the asset is transmitted by being included in the broadcast wave Ba and a case where the asset is acquired from the network Ne are defined. However, for the sake of simplicity of description, a case where the broadcast wave Ba is transmitted and included in the broadcast wave Ba will be described as an example.

新しい日本の放送方式では、映像データと音声データとに関しては、MFUに直接NALユニットを格納して送出する方式を採用している。また、新しい日本の放送方式では、「RAP_flag」の付加されたMMTPパケットから次の「RAP_flag」の付加されたMMTPパケットの直前までを、1つのデータの集まりとして取り扱われる。そして、その1つのデータの集まりは、MPUとして取り扱われる。「RAP_flag」は、ランダムアクセス可能なデータの開始点を示す。   The new Japanese broadcasting system employs a system in which video data and audio data are stored in a MFU directly and transmitted. Further, in the new Japanese broadcasting system, the data from the MMTP packet with “RAP_flag” added to immediately before the MMTP packet with “RAP_flag” added is treated as one data set. Then, the one set of data is handled as an MPU. “RAP_flag” indicates a start point of data that can be randomly accessed.

これらは、MMTPパケットの「RAP_flag」の有無の調査によって、同一MPUに属していることを識別できる。または、これらは、MMTPパケットの「MPU_sequence_number」によって、同一MPUに属していることを識別できる。この用法でのMPUを、ここでは、仮に「ストリーム伝送単位MPU」と呼ぶ。   By examining the presence or absence of “RAP_flag” of the MMTP packet, these can be identified as belonging to the same MPU. Alternatively, these can be identified as belonging to the same MPU by “MPU_sequence_number” of the MMTP packet. Here, the MPU in this usage is temporarily referred to as a “stream transmission unit MPU”.

この「ストリーム伝送単位MPU」は、ランダムアクセス可能なデータを先頭としている。このため、映像の観点から考えると、GOP単位になっている。つまり、「ストリーム伝送単位MPU」は、MMTPの観点からは1GOPを構成するMMTPパケットの集まりと考えることができる。   The “stream transmission unit MPU” is headed by data that can be randomly accessed. For this reason, from the viewpoint of video, it is a GOP unit. That is, the “stream transmission unit MPU” can be considered as a group of MMTP packets constituting one GOP from the viewpoint of MMTP.

前述のMPUタイムスタンプ記述子とMPU拡張タイムスタンプ記述子とは、この「ストリーム伝送単位MPU」に関連付けて、同期する時間の情報を与えている。   The above-mentioned MPU time stamp descriptor and MPU extension time stamp descriptor provide information on the time to be synchronized in association with the “stream transmission unit MPU”.

MPUタイムスタンプ記述子には、映像または音声などのMPUで、それぞれのMPUの中で最初に再生されるタイミングがNTP(Network Time Protocol)形式の時刻で示されている。NTPは、コンピュータに内蔵されているシステムクロックを、ネットワークを介して、コンピュータどうしの時刻を正しく同期させるためのプロトコルである。   In the MPU time stamp descriptor, the timing at which the MPU such as video or audio is reproduced first in each MPU is indicated by the time in NTP (Network Time Protocol) format. NTP is a protocol for properly synchronizing the time between computers with a system clock built in the computer via a network.

MPU拡張タイムスタンプ記述子には、それぞれのMPUの中のAU(映像の場合はフレーム)ごとに、再生されるタイミングがMPU内での相対的な時間として記述されている。MPU内での相対的な時間は、AU内での先頭からの差分または直前のAUからの差分などである。「差分」とは、2つの値の差のことである。例えば、ここでは、2つの値は時刻である。   In the MPU extension time stamp descriptor, the reproduction timing is described as a relative time in the MPU for each AU (frame in the case of video) in each MPU. The relative time in the MPU is a difference from the head in the AU or a difference from the immediately preceding AU. "Difference" refers to the difference between two values. For example, here, the two values are time.

これらの記述によって、映像、音声または字幕などの組合せを指定することができる。そして、映像、音声または字幕などの時間的な同期を取りながら再生することができる。   With these descriptions, a combination of video, audio, subtitles, and the like can be specified. Then, it is possible to reproduce the video, audio, subtitles, and the like while synchronizing with time.

テレビ放送では、PLTおよびMPTは、テレビの電源を入れた後に、短時間で番組を表示できるために、比較的に短い周期で再送されている。新しい日本の放送方式案の場合には、PLTおよびMPTは、100msごとに送られる。   In television broadcasting, PLT and MPT are retransmitted at a relatively short cycle so that a program can be displayed in a short time after the television is turned on. In the case of the new Japanese broadcast scheme, PLT and MPT are sent every 100 ms.

これまで、TLVパケット、TCPパケットおよびMMTPパケットを結合したファイルを記録する方法を説明した。または、TLVパケット、UDPパケットおよびMMTPパケットを結合したファイルを記録する方法を説明した。   The method of recording a file in which the TLV packet, the TCP packet, and the MMTP packet are combined has been described. Alternatively, a method of recording a file in which a TLV packet, a UDP packet, and an MMTP packet are combined has been described.

しかし、このままでは、再生時刻の情報またはランダムアクセス可能な位置を示す情報などが、ファイル内の各所に分散して記録される。これは、情報へのアクセスにとっては、適していない。また、同じ情報が何度も記録されるため冗長である。   However, in this state, information on the reproduction time, information indicating the position where random access is possible, and the like are dispersedly recorded in various places in the file. This is not suitable for accessing information. Further, since the same information is recorded many times, it is redundant.

この情報が分散して記録されることは、放送では、どの時点から番組の受信を開始しても、短時間で情報をそろえて、表示を開始する必要があるからである。このため、ストリーム中の各所に分散して情報を持たせている。また、放送では、記録およびランダムアクセスを考慮する必要がないためである。   This information is recorded in a distributed manner because in broadcasting, it is necessary to arrange the information in a short time and start displaying the program, regardless of the point in time at which reception of the program starts. For this reason, information is distributed to various places in the stream. Also, in broadcasting, it is not necessary to consider recording and random access.

記録した番組を視聴する際には、頭出し、シーンの検索または編集による映像間の接続などが行われる。そのためランダムアクセスが必要となる。そこで、ランダムアクセスに必要な情報を、情報の記録時または情報の記録後に、独自に作成する。   When the recorded program is viewed, a search for a scene, a search or editing of a scene, and a connection between videos are performed. Therefore, random access is required. Therefore, information necessary for random access is created independently at the time of recording information or after recording information.

図5、図6および図7を用いて、ランダムアクセスのためのデータ生成について説明する。   Data generation for random access will be described with reference to FIG. 5, FIG. 6, and FIG.

ここでは、MMTPパケット結合したファイルとして映像または音声などを含む映像データを作成する例を説明する。しかし、TLVまたはUDP/IPパケットを使用する場合も同様である。   Here, an example will be described in which video data including video or audio is created as a file combined with MMTP packets. However, the same applies to the case where TLV or UDP / IP packets are used.

図5は、パケットの選択と時間の同期とを説明する概念図である。四角で表わしたものが、MMTPパケットである。   FIG. 5 is a conceptual diagram illustrating packet selection and time synchronization. What is represented by a square is an MMTP packet.

図5において、横方向は、データの受信の順番を示している。つまり、横軸Ha方向には、受信された順番にデータが並べられている。受信した順番に左から右に記載してある。   In FIG. 5, the horizontal direction indicates the order of data reception. That is, in the direction of the horizontal axis Ha, the data is arranged in the order of reception. It is described from left to right in the order of reception.

映像のMMTPパケットの「R」と記載されているパケットは、「RAP_flag」が設定されている。そして、GOPの先頭を含んでいる。   “RAP_flag” is set in the packet of the video MMTP packet described as “R”. And it includes the head of the GOP.

図5中において、MPTから引き出されている矢印は、このMPTのMPUタイムスタンプ記述子でそれぞれどのMPUの再生時刻を決めている関係を表している。   In FIG. 5, the arrows drawn from the MPT indicate the relationship in which the MPU time stamp descriptor of the MPT determines the playback time of each MPU.

例えば、最初に現れるMPT−0は、映像アセットとして、「packet_ID」を指定する。図5では、一例として、MPT−0は、MPU−v0とMPU−v1との再生タイムスタンプを指定している。MPUは、複数のMMTPパケットで構成されている。   For example, MPT-0 that appears first specifies “packet_ID” as a video asset. In FIG. 5, as an example, the MPT-0 specifies the reproduction time stamps of the MPU-v0 and the MPU-v1. The MPU is composed of a plurality of MMTP packets.

また、同じMPT−0は、音声アセットとして「packet_ID」を指定する。図5では、一例として、MPT−0は、MPU−a0とMPU−a1との再生タイムスタンプを指定している。なお、音声のMPUは、1つのMMTPパケットに1つとは限らない。また、音声のMPUは、映像のMPUと同頻度で出現するとも限らない。しかし、作図上、1つのMMTPパケットに1つの音声MPUとしている。また、映像のMPUの出現頻度と音声のMPUの出現頻度とを同程度として描画している。   Also, the same MPT-0 specifies “packet_ID” as a voice asset. In FIG. 5, as an example, the MPT-0 specifies reproduction time stamps of the MPU-a0 and the MPU-a1. Note that the number of audio MPUs is not limited to one for one MMTP packet. Further, the audio MPU does not always appear at the same frequency as the video MPU. However, one MMTP packet is one audio MPU for drawing. In addition, the frequency of appearance of the video MPU and the frequency of appearance of the audio MPU are approximately the same.

図5中では、音声、映像および制御情報の3つの流れが書いてある。しかし、実際には、映像記録再生装置100は、1つのデータの流れとして混在した状態で受信している。   In FIG. 5, three flows of audio, video and control information are written. However, actually, the video recording / reproducing apparatus 100 receives the data in a mixed state as one data flow.

このような異なる種類の情報を、一つのデータとして混在させている状態を多重化されているという。多重化された状態から、「packet_ID」、各種のフラグまたは各種の識別子などを用いて、目的とするデータの流れ(ストリーム)を抽出して、分離することができる。「packet_ID」、各種のフラグまたは各種の識別子などは、それぞれのMMTPパケット付加されている。多重化されたデータから目的のデータを取り出すことを多重化の解除という。   A state in which such different types of information are mixed as one piece of data is called multiplexed. From the multiplexed state, a target data flow (stream) can be extracted and separated using “packet_ID”, various flags or various identifiers. “Packet_ID”, various flags or various identifiers are added to each MMTP packet. Extracting target data from the multiplexed data is called demultiplexing.

対象とする番組の多重化されたデータの中から、MPTを含むMMTPパケットを抽出する。そして、MMTPパケットからMPTを取り出す。MPTには、番組を構成する各種アセットのリストとその取得方法とが格納されている。   An MMTP packet containing the MPT is extracted from the multiplexed data of the target program. Then, the MPT is extracted from the MMTP packet. In the MPT, a list of various assets constituting the program and a method of obtaining the list are stored.

例えば、映像の種類とそのデータを格納している「packet_ID」とを知ることができる。また、音声の種類とそのデータを格納している「packet_ID」とを知ることができる。これらの「packet_ID」で、受信したMMTPパケットを選択し、または、分類する。これらによって、番組を構成する映像データまたは音声データを個別に取出すことができる。つまり、多重化を解除できる。   For example, it is possible to know the type of video and “packet_ID” that stores the data. In addition, it is possible to know the type of voice and “packet_ID” storing the data. With these “packet_IDs”, the received MMTP packets are selected or classified. With these, video data or audio data constituting a program can be individually taken out. That is, the multiplexing can be released.

コンテナフォーマットの目的の一つは、このように、異なるデータを一組にまとめて多重化して取り扱いやすくするものである。コンテナフォーマットは、例えば、MMTまたはMPEG2TSなどである。   One of the purposes of the container format is to collectively multiplex different data into a set to facilitate handling. The container format is, for example, MMT or MPEG2TS.

図5では、受信したストリームデータをMPTストリーム、映像ストリームおよび音声ストリームの3つのストリームに分けている。   In FIG. 5, the received stream data is divided into three streams: an MPT stream, a video stream, and an audio stream.

コンテナフォーマットのもう一つの目的は、タイミングを合わせてこれらのデータを再生することである。つまり、コンテナフォーマットのもう一つの目的は、これらのデータを同期して再生することである。   Another purpose of the container format is to reproduce these data in time. That is, another purpose of the container format is to reproduce these data in synchronization.

図5では、MPT−0を受信すると、この番組を構成する映像または音声などのアセット情報を得ることができる。さらに、これらのアセットごとにタイムスタンプ情報が記載されている。タイムスタンプ情報は、映像の表示または音声の再生などのタイミングを示す情報である。タイムスタンプ情報は、MPT内に記載されている。タイムスタンプ情報は、アセットごとの「ストリーム伝送単位MPU」の番号に対しての再生時刻である。   In FIG. 5, when MPT-0 is received, asset information such as video or audio constituting the program can be obtained. Further, time stamp information is described for each of these assets. The time stamp information is information indicating the timing of video display or audio reproduction. The time stamp information is described in the MPT. The time stamp information is the reproduction time for the number of the “stream transmission unit MPU” for each asset.

例えば、映像に対しては、MPT−0に、MPU−v0の最初のフレームの再生時刻およびMPU−v1の最初のフレームの再生時刻が記載されている。また、MPT−1に、MPU−v1およびMPU−v2のそれぞれの最初のフレームの再生時刻が記載されている。   For example, for a video, the reproduction time of the first frame of MPU-v0 and the reproduction time of the first frame of MPU-v1 are described in MPT-0. The reproduction time of the first frame of each of MPU-v1 and MPU-v2 is described in MPT-1.

音声に対しても、同様に、MPT−0に、MPU−a0の再生時刻およびMPU−a1の再生時刻が記載されている。また、MPT−1に、MPU−a1再生時刻およびMPU−a2の提示時刻が記載されている。   Similarly, for audio, the reproduction time of MPU-a0 and the reproduction time of MPU-a1 are described in MPT-0. Further, in MPT-1, the reproduction time of MPU-a1 and the presentation time of MPU-a2 are described.

ここでは、説明のために、アセットごとに「ストリーム伝送単位MPU」の2つ分のタイムスタンプを持っているものとして説明した。しかし、実際には、さらに多くのタイムスタンプを持たせることもできる。   Here, for the sake of explanation, it has been described that each asset has two time stamps of “stream transmission unit MPU”. However, in practice, more timestamps can be provided.

このようにして、MPUによって「ストリーム伝送単位MPU」の再生時刻を指定することができる。そして、映像と音声とを同期して再生することができる。ここでは説明しなかったが、字幕に関しても同様である。   In this way, the reproduction time of the “stream transmission unit MPU” can be designated by the MPU. Then, the video and the audio can be reproduced in synchronization. Although not described here, the same applies to subtitles.

これらの情報を記録する場合について、図6を用いて説明する。図6は、MMTP方式でのMPUタイムスタンプ記述子を用いた同期方式を説明する図である。図6には、アセットデーブル、タイムテーブルおよびデータファイルが記載されている。データファイルの上側は、データの先頭である。   The case of recording such information will be described with reference to FIG. FIG. 6 is a diagram illustrating a synchronization method using an MPU time stamp descriptor in the MMTP method. FIG. 6 shows an asset table, a time table, and a data file. The upper part of the data file is the head of the data.

データファイルには、番組を構成するMMTPパケットが順次記録される。単純に、MMTPパケットを受信順に記録した場合には、映像データ、音声データまたは制御情報等が混在した状態で記録される。ここでは、説明のために「ストリーム伝送単位MPU」ごとにまとめた形で記載している。   In the data file, MMTP packets constituting the program are sequentially recorded. When MMTP packets are simply recorded in the order of reception, video data, audio data, control information, and the like are recorded in a mixed state. Here, for the sake of explanation, it is described in a form in which each “stream transmission unit MPU” is summarized.

例えば、「MPT−0」は、MPTである。そして、受け取られた順番が付されている。「MPT−0」の順番は、「0」であるため、最初に受け取られたことを示している。   For example, “MPT-0” is MPT. And the order in which they were received is given. Since the order of “MPT-0” is “0”, it indicates that it was received first.

例えば、「MPU−v0」は、ビデオストリームとして選択されたMMTPパケットである。MMTPパケットは、MMTPパケットを複数まとめたMPUとして扱っている。そして、受け取られた順番が付されている。「MPU−v0」の順番は、「0」であるため、最初に受け取られたことを示している。   For example, “MPU-v0” is an MMTP packet selected as a video stream. The MMTP packet is treated as an MPU in which a plurality of MMTP packets are put together. And the order in which they were received is given. Since the order of “MPU-v0” is “0”, it indicates that it has been received first.

例えば、「MPU−a0」は、音声ストリームとして選択されたMMTPパケットである。音声のMPUは、1つのMMTPパケットに1つとは限らない。また、音声のMPUは、映像のMPUと同頻度で出現するとも限らない。しかし、説明を簡単にするため、音声のMPUが映像のMPUと同じ頻度で発生するとしている。また、音声のMPUは、1つのMMTPパケットに1つとしている。   For example, “MPU-a0” is an MMTP packet selected as an audio stream. The number of audio MPUs is not limited to one for one MMTP packet. Further, the audio MPU does not always appear at the same frequency as the video MPU. However, for the sake of simplicity, it is assumed that audio MPUs occur at the same frequency as video MPUs. Also, one MPU for voice is provided for one MMTP packet.

データファイル中の「R」と記載されているパケットは、「RAP_flag」が設定されている。そして、GOPの先頭を含んでいる。そのため、このパケットからデータを読み始めることによって、効率よく映像を再生できる。   The packet described as “R” in the data file has “RAP_flag” set. And it includes the head of the GOP. Therefore, the video can be efficiently reproduced by starting to read the data from the packet.

また、不完全なデータを破棄することが低減される。映像データは、GOPを構成している。このため、先頭のIピクチャ部分のデータを取り損ねると後続の何十枚かのピクチャは映像として再現できない。GOPの先頭のデータを取り損ねた場合には、読み取ったデータを破棄しながら、次のGOP先頭が来るのを待つ。このような、データの破棄を低減することができる。このようなデータの破棄は、頭出しまたはランダムアクセス時に、表示の遅延となる。このため、データの破棄の低減によって、スムーズな再生が可能になる。   Also, discarding incomplete data is reduced. The video data forms a GOP. For this reason, if the data of the leading I-picture part is missed, dozens of subsequent pictures cannot be reproduced as video. If the first data of the GOP is missed, the read data is discarded while waiting for the next GOP. Such discarding of data can be reduced. Such discarding of data causes display delay at the time of cueing or random access. Therefore, smooth reproduction can be achieved by reducing data discarding.

前述の通り、このように記録したデータファイルは、ランダムアクセスを行うには適していない。   As described above, the data file thus recorded is not suitable for random access.

第1には、映像データは可変長データである。このため、目的とする映像を再生するためのデータがどこに存在するのかを特定することができない。第2には、「RAP_flag」が設定されているパケットを直接呼び出すことができない。   First, the video data is variable length data. For this reason, it is not possible to specify where the data for reproducing the target video exists. Second, a packet in which “RAP_flag” is set cannot be directly called.

そこで、ランダムアクセス用の検索テーブルを用意する。   Therefore, a search table for random access is prepared.

図6のアセットテーブルには、「packet_id」を格納しておく。「packet_id」を用いて、データファイル内のMMTPパケットから必要なアセットを取りだすことができる。   “Packet_id” is stored in the asset table of FIG. By using “packet_id”, necessary assets can be extracted from MMTP packets in the data file.

タイムテーブルには、「RAP_flag」を含むパケットのファイル内での記録位置を格納する。そして、このパケットを含む「ストリーム伝送単位MPU」の指定された再生時間を格納する。そして、これらの情報を再生時間の時系列順に並べておく。   The time table stores the recording position in the file of the packet including “RAP_flag”. Then, the designated reproduction time of the “stream transmission unit MPU” including this packet is stored. These pieces of information are arranged in chronological order of the reproduction time.

アセットテーブルおよびタイムテーブルの内容は、例えば、MPTに記載されている情報と映像記録再生装置100に記録される際の情報とから作成することができる。   The contents of the asset table and the time table can be created, for example, from information described in the MPT and information recorded on the video recording / reproducing apparatus 100.

時刻を決めて再生を行う場合について説明する。   A case where reproduction is performed at a predetermined time will be described.

例えば、図6において、時刻「0:0:1.00」からの映像を表示する場合には、まず、タイムテーブルの時刻を検索する。そして、時刻が一致する欄からファイル上の位置である「25000000」を読み出す。   For example, in FIG. 6, when displaying the video from the time “0: 0: 1.00”, first, the time in the time table is searched. Then, "25000000", which is the position on the file, is read from the column where the times match.

そこで、データファイルの位置「25000000」から、データを読み込む。そして、データの再生処理を行う。これによって、指定された位置から、データを再生することができる。   Therefore, data is read from the data file at the position "25000000". Then, data reproduction processing is performed. Thereby, data can be reproduced from the designated position.

データファイルは、映像データ、音声データまたはその他のデータがパケット単位で混在した状態である。しかし、アセットテーブルまたはMPTを参照して、パケットの分類を行うことによって、映像データまたは音声データ等を分離して再生することが可能である。   The data file is a state in which video data, audio data, or other data is mixed in packet units. However, by classifying packets with reference to the asset table or the MPT, it is possible to separate and reproduce video data or audio data.

再生を開始したい時刻と同一の時刻が、タイムテーブルに無い場合もある。この場合には、タイムテーブルに記載されている時刻から、再生を開始したい時刻に近いものを選び、そこからデータを再生する。   There is a case where the same time as the time to start the reproduction does not exist in the time table. In this case, from the times described in the time table, the one closest to the time at which the reproduction is to be started is selected, and the data is reproduced therefrom.

例えは、再生開始時刻として「0:0:1.70」が指定された場合には、タイムテーブルに記載されている「0:0:1.50」と「0:0:2.00」とのうち、指定された時刻に近い「0:0:1.50」を選ぶ。そして、データファイル上の位置「33000000」からデータを再生する。   For example, when “0: 0: 1.70” is designated as the reproduction start time, “0: 0: 1.50” and “0: 0: 2.00” described in the time table "0: 0: 1.50", which is close to the designated time, is selected. Then, the data is reproduced from the position "33000000" on the data file.

データファイル上の位置は、例えば、ファイル先頭からのバイト単位での位置である。または、データファイル上の位置は、例えば、ブロック単位での位置である。または、データファイル上の位置は、例えば、セクタ単位での位置である。   The position on the data file is, for example, a position in byte units from the head of the file. Alternatively, the position on the data file is, for example, a position in block units. Alternatively, the position on the data file is, for example, a position in sector units.

特殊再生の場合について説明する。特殊再生は、例えば、早送りまたは巻き戻しなどである。例えば、早送りの場合には、タイムテーブルを順に読み出し、指定された位置からファイルを読み出す。そして、1フレーム分のデータを再生した時点で、次の時刻の位置に移る。これによって、早送りでデータを再生できる。   The case of special reproduction will be described. The trick play is, for example, fast forward or rewind. For example, in the case of fast-forward, the time table is sequentially read, and the file is read from the designated position. Then, when the data for one frame is reproduced, the process moves to the next time position. As a result, data can be reproduced in fast forward.

図7は、タイムテーブルを作成する手順を示すフローチャートである。   FIG. 7 is a flowchart showing a procedure for creating a time table.

日本の放送方式では、MPTは100msごとに再送される。1GOPが0.5秒であれば、その間にMPTを5回受信する。1GOPは、一つの「ストリーム伝送単位MPU」である。   In the Japanese broadcasting system, the MPT is retransmitted every 100 ms. If one GOP is 0.5 seconds, MPT is received five times during that time. One GOP is one “stream transmission unit MPU”.

また、1つのMPTの1つのアセットにタイムスタンプを15個格納することが許されている。つまり、タイムスタンプは重複して送出されている。   Also, it is allowed to store 15 time stamps in one asset of one MPT. That is, the time stamps are transmitted in duplicate.

ステップS7001において、ストリームデータを受信する際に、MMTPパケットを取り出す。そして、MMTPパケットがMPTを含む場合には、タイムスタンプ処理を実施する。   In step S7001, an MMTP packet is extracted when receiving stream data. When the MMTP packet includes the MPT, the time stamp processing is performed.

ステップS7002において、MMTPパケットからMPTを取り出す。そして、アセットごとの「ストリーム伝送単位MPU」のシーケンス番号とタイムスタンプ情報との組合せを取り出す。   In step S7002, the MPT is extracted from the MMTP packet. Then, a combination of the sequence number of the “stream transmission unit MPU” and the time stamp information for each asset is extracted.

ステップS7003において、タイムスタンプ情報の重複を取り除く。前述のように、タイムスタンプ情報は重複して送出されているためである。この時点で、「ストリーム伝送単位MPU」のシーケンス番号と再生時刻を示すタイムスタンプのリストとが得られる。   In step S7003, the duplication of the time stamp information is removed. As described above, this is because the time stamp information is transmitted in duplicate. At this point, a sequence number of the “stream transmission unit MPU” and a list of time stamps indicating the reproduction time are obtained.

このフローチャートには含まれていないが、並行して映像データまたは音声データを含むMMTPパケットは、順次、データファイルとして内蔵記録装置51または光ディスク53に記録される。そして、データファイル上の位置は記録時に判明する。   Although not included in this flowchart, MMTP packets containing video data or audio data in parallel are sequentially recorded as data files on the built-in recording device 51 or the optical disk 53. Then, the position on the data file is known at the time of recording.

ステップS7004において、「RAP_flag」が設定されているMMTPパケットを記録する際に、このパケットのファイル上での位置と、このMMTPパケットが属する「ストリーム伝送単位MPU」のシーケンス番号とを取り出す。タイムスタンプのリストの中で、同じ「ストリーム伝送単位MPU」のシーケンス番号を持つタイムスタンプ情報に、ファイル上に記録した位置の情報を追加する。   In step S7004, when recording the MMTP packet in which “RAP_flag” is set, the position of the packet in the file and the sequence number of the “stream transmission unit MPU” to which the MMTP packet belongs are extracted. In the list of time stamps, information on the position recorded on the file is added to the time stamp information having the same sequence number of “stream transmission unit MPU”.

ステップS7005において、これらの処理が終了したか否かを確認する。処理が終了していない場合には、「no」を選択して、ステップS7001に進む。処理が終了した場合には、「yes」を選択して、ステップS7006に進む。   In step S7005, it is confirmed whether these processes have been completed. If the processing has not been completed, "no" is selected, and the flow advances to step S7001. When the process is completed, “yes” is selected, and the process proceeds to step S7006.

ステップS7006において、内蔵記録装置51または光ディスク53に作成したデータを書き込む。   In step S7006, the created data is written to the built-in recording device 51 or the optical disk 53.

このようにして、タイムテーブルを作成することができる。   In this way, a time table can be created.

ここでは、GOPごとに設定されているMPUタイムスタンプ記述子のタイムスタンプ情報を使って、ランダムアクセスを実現している。GOPは、「ストリーム伝送単位MPU」である。そのため、データの再生を開始できる位置は、GOP単位となる。つまり、0.5秒または1秒などの単位でしか再生位置を指定できない。例えば、時間指定による頭出し、早送りまたは巻き戻し等の場合には、この程度の精度で十分である。   Here, random access is realized using the time stamp information of the MPU time stamp descriptor set for each GOP. The GOP is a “stream transmission unit MPU”. Therefore, the position where data reproduction can be started is in GOP units. That is, the reproduction position can be specified only in units of 0.5 seconds or 1 second. For example, in the case of cueing, fast-forwarding or rewinding by specifying time, such accuracy is sufficient.

しかし、内蔵記録装置51または光ディスク53などに記録した後に、編集などを行う場合には、GOP単位での位置指定では不十分である。例えば、同一番組の別の位置どうしを組み合わせ連続して再生する場合、または、別の番組どうしを組み合わせ連続して再生する場合などである。このような組み合せによって、お気に入りシーン集などを作成することができる。   However, when editing or the like is performed after recording on the built-in recording device 51 or the optical disk 53, the position specification in GOP units is not sufficient. For example, there are cases where different positions of the same program are combined and played back continuously, or where different programs are combined and played back continuously. With such a combination, a favorite scene collection or the like can be created.

そこで、MPT内のMPU拡張タイムスタンプ記述子を利用する。   Therefore, the MPU extension time stamp descriptor in the MPT is used.

図8は、フレーム単位の時刻で検索できるタイムテーブルを示す図である。   FIG. 8 is a diagram showing a time table that can be searched at a time of a frame unit.

図8に示したタイムテーブルは、通常のタイムテーブルを拡張して、フレーム単位の時刻で検索できるようにしたタイムテーブルである。図8に示すタイムテーブルは、再生時刻、ファイル上のデータの位置およびAU番号の情報を持つ。   The time table shown in FIG. 8 is a time table obtained by expanding a normal time table so that a search can be performed at a time of a frame unit. The time table shown in FIG. 8 has information on a reproduction time, a data position on a file, and an AU number.

AU番号は、同一の「ストリーム伝送単位MPU」に属するデータの中の何番目のAUであるかを示す。映像データの場合には、AUはピクチャに相当する。しかし、デコードの効率のために、GOP内でのAUの並びの順は、ピクチャの表示順とは必ずしも一致していない。   The AU number indicates the AU number of the data belonging to the same “stream transmission unit MPU”. In the case of video data, AU corresponds to a picture. However, for decoding efficiency, the order of the AUs in the GOP does not always match the display order of the pictures.

このタイムテーブルでは、再生時刻の順番で並べられている。このため、AU番号は、前後している。つまり、AU番号は、順番に並んでいない。   In this time table, they are arranged in the order of the reproduction time. Therefore, the AU numbers are different. That is, the AU numbers are not arranged in order.

MPU拡張タイムスタンプ記述子には、それぞれの「ストリーム伝送単位MPU」内のAUに対して、最初に表示されるAUからの差分で再生時刻が与えられている。または、MPU拡張タイムスタンプ記述子には、それぞれの「ストリーム伝送単位MPU」内のAUに対して、再生時刻の間隔が与えられている。   In the MPU extension time stamp descriptor, a reproduction time is given to an AU in each “stream transmission unit MPU” as a difference from an AU displayed first. Alternatively, in the MPU extension time stamp descriptor, an interval of a reproduction time is given to an AU in each “stream transmission unit MPU”.

そこで、MPUタイムスタンプ記述子の再生時刻と、MPU拡張タイムスタンプ記述子の差分時刻から各AUの再生時刻を算出することが出来る。または、MPUタイムスタンプ記述子の再生時刻と、MPU拡張タイムスタンプ記述子の再生時刻の間隔とから各AUの再生時刻を算出することが出来る。   Therefore, the playback time of each AU can be calculated from the playback time of the MPU time stamp descriptor and the difference time between the MPU extension time stamp descriptor. Alternatively, the reproduction time of each AU can be calculated from the reproduction time of the MPU time stamp descriptor and the interval between the reproduction times of the MPU extended time stamp descriptor.

なお、図8では、説明のために、一例として、100分の1秒単位で記載してある。   Note that, in FIG. 8, for the sake of explanation, an example is shown in units of 1/100 second.

MPU拡張タイムスタンプ記述子の中では、タイムスケール(timescale)として、1秒を分割する数を定義している。そして、各AUの再生時刻は、このタイムスケールを用いて表記する。映像で使用されるフレームレートは、毎秒60枚または毎秒24枚である。そして、1フレームを秒の小数単位で表記しようとすると、割り切れず、誤差が発生する。このため、タイムスケールを用いる。そこで、タイムテーブルのフレーム単位での時刻欄に、このタイムスケールを用いた値を採用することもできる。   In the MPU extended time stamp descriptor, a number for dividing one second is defined as a time scale. The playback time of each AU is described using this time scale. The frame rate used for video is 60 frames per second or 24 frames per second. If one frame is expressed in fractional seconds, an error occurs because it is not divisible. For this reason, a time scale is used. Therefore, a value using this time scale can be adopted in the time column for each frame of the time table.

GOPの途中からデータの再生を開始したい場合でも、デコードは必ずGOPの先頭から行う。そのため、データの読み込み開始位置は、同一の「ストリーム伝送単位MPU」内では同一となる。   Even if it is desired to start reproducing data from the middle of the GOP, decoding is always performed from the beginning of the GOP. Therefore, the data reading start position is the same in the same “stream transmission unit MPU”.

このタイムテーブルを使ってデータの再生する場合の一例を説明する。   An example of a case where data is reproduced using this time table will be described.

時刻「00:00:01.04」を指定して検索した場合には、この時刻に相当するピクチャは存在しない。このため、直前のピクチャとなる「00:00:01.03」のピクチャから再生を行う。   When the search is performed by designating the time “00: 00: 01.04”, there is no picture corresponding to this time. For this reason, reproduction is performed from the immediately preceding picture "00: 00: 01.03".

タイムテーブルを参照すると、このピクチャは、ファイル上の位置「25000000」から始まる「ストリーム伝送単位MPU」のAU番号2のAUである。つまり、このピクチャのAUは、3番目のAUである。   Referring to the time table, this picture is the AU with the AU number 2 of the “stream transmission unit MPU” starting from the position “25000000” on the file. That is, the AU of this picture is the third AU.

そこで、ファイル上の位置「25000000」から読み出しを開始すると共に、デコードを開始する。1番目のAUのデコードが完了して、ピクチャのデータが作成される。この後に、この作成されたピクチャを表示しない。そして、差分情報しか持たない後続のAUのデコードを行う。そして、3番目のAUのデコードが完了した後に、この3番目のAUの映像から再生を開始する。このようにして、GOPの途中からデータ(映像)の再生を行うことができる。   Therefore, reading is started from the position "25500000" on the file and decoding is started. Decoding of the first AU is completed, and picture data is created. After this, the created picture is not displayed. Then, the subsequent AU having only the difference information is decoded. Then, after the decoding of the third AU is completed, the reproduction is started from the video of the third AU. In this way, data (video) can be reproduced from the middle of the GOP.

この例では、詳細な情報を持つタイムテーブルを1つ用いて再生するようにした。しかし、例えば、前述の早送り再生の場合などでは、必ずしも効率の良い方法とはいえない。そこで、標準のタイムテーブルと詳細なタイムテーブルとの2段階で検索を行う方法を取ることもできる。   In this example, reproduction is performed using one time table having detailed information. However, for example, in the case of the above-described fast-forward playback, it is not always an efficient method. Therefore, a method of performing a search in two stages of a standard time table and a detailed time table may be adopted.

日本の新しい放送方式では、MPU拡張タイムスタンプ記述子は、AU間の再生間隔を指定している。その間隔は、60分の1秒または120分の1秒である。この間隔は可変である。しかし、番組内では同一フレームレートを用いている。そのため、詳細なタイムテーブルを用いずに、計算によって各フレームの再生時刻を求めることが出来る。   In a new broadcasting system in Japan, the MPU extended time stamp descriptor specifies a playback interval between AUs. The interval is 1/60 second or 1/120 second. This interval is variable. However, the same frame rate is used in a program. Therefore, the reproduction time of each frame can be obtained by calculation without using a detailed time table.

この場合には、図6に示した「ストリーム伝送単位MPU」ごとのタイムテーブルを利用して検索する。そして、再生を開始したい時刻を含む「ストリーム伝送単位MPU」を特定する。そして、この再生時刻と再生を開始したい時刻との差を求める。この時刻の差とフレームレートとから、この「ストリーム伝送単位MPU」内の表示順で、何枚目のピクチャであるのかを求めることが出来る。   In this case, the search is performed using the time table for each “stream transmission unit MPU” shown in FIG. Then, the “stream transmission unit MPU” including the time at which the reproduction is to be started is specified. Then, a difference between the reproduction time and the time at which reproduction is desired to be started is obtained. From the time difference and the frame rate, it is possible to determine the number of the picture in the display order within the “stream transmission unit MPU”.

指定された時刻にフレームがない場合には、表示の順番で指定時刻の直前のフレーム、または直後のフレームとする。つまり、指定時刻の直前のフレーム、または直後のフレームを採用する。   If there is no frame at the designated time, the frame is set to the frame immediately before or immediately after the designated time in display order. That is, the frame immediately before or immediately after the designated time is adopted.

前述のように、AUの並び順とピクチャの再生時刻の順番とが異なる。しかし、「ストリーム伝送単位MPU」の先頭からデコードを開始する。そして、算出された再生の順番を持つピクチャのデコードが完了する。デコードが完了したピクチャから再生を開始する。これによって、ピクチャ単位の精度での頭出しを行うことが出来る。   As described above, the order of the AUs and the order of the picture playback times are different. However, decoding starts from the head of the “stream transmission unit MPU”. Then, decoding of the picture having the calculated reproduction order is completed. Playback starts from the decoded picture. This makes it possible to perform cueing with the accuracy of a picture unit.

ここで、説明したタイムテーブルを別ファイルとして作成して録画を行った場合には、番組内容を記録するデータファイルにタイムスタンプを記録する必要はない。   Here, when the time table described above is created as a separate file for recording, it is not necessary to record a time stamp in a data file for recording program contents.

MPTは、タイムスタンプ以外の制御情報を含んでいる。例えば、MPTは、アセット情報などを含んでいる。タイムスタンプは、例えば、MPUタイムスタンプ記述子またはMPU拡張タイムスタンプ記述子などである。つまり、MPTは、MPUタイムスタンプ記述子またはMPU拡張タイムスタンプ記述子以外にも、アセット情報などのタイムスタンプ以外の制御情報を含んでいる。   The MPT includes control information other than the time stamp. For example, the MPT includes asset information and the like. The time stamp is, for example, an MPU time stamp descriptor or an MPU extended time stamp descriptor. That is, the MPT includes control information other than the time stamp, such as asset information, in addition to the MPU time stamp descriptor or the MPU extended time stamp descriptor.

しかし、これらの情報は、番組の途中で変更される性格のものではない。このため、別ファイルなどで1箇所に記録しておくことで、MPTそのものは記録を省略することが出来る。例えば、図6では、アセットテーブルとして管理情報(Packet_id)を保持している。   However, such information is not of a nature that is changed during the program. For this reason, by recording at one place in a separate file or the like, the recording of MPT itself can be omitted. For example, in FIG. 6, management information (Packet_id) is held as an asset table.

MPTが単独でMMTPパケットに格納されている場合には、データファイルにMMTPパケットを記録する際に、MPTを格納したMMTPパケットを記録する必要がなくなる。   When the MPT is stored alone in the MMTP packet, it is not necessary to record the MMTP packet storing the MPT when recording the MMTP packet in the data file.

MPTが他の管理情報と一緒にMMTPパケットに格納されている場合には、MPTを除いた管理情報でMMTPパケットを再構成する。そして、再構成されたMMTPパケットを記録することが出来る。   When the MPT is stored in the MMTP packet together with other management information, the MMTP packet is reconfigured with the management information excluding the MPT. Then, the reconstructed MMTP packet can be recorded.

MPUタイムスタンプ記述子またはMPU拡張タイムスタンプ記述子は、放送時には重複度の高いデータである。このため、省略することが出来れば、記録するデータサイズを小さくすることが可能となる。   The MPU time stamp descriptor or the MPU extended time stamp descriptor is data having a high degree of duplication during broadcasting. Therefore, if it can be omitted, the data size to be recorded can be reduced.

前述では、MPTを記録する必要はないとした。しかし、MPTを映像ストリームまたは音声ストリームなどのストリームを含むMMTPパケットと一緒に記録しておいた方が便利なこともある。   In the above description, it was not necessary to record the MPT. However, it may be more convenient to record the MPT together with the MMTP packet including a stream such as a video stream or an audio stream.

例えば、多重化解除部21とデコード部31,32,33,34とが一体となったLSIを用いてデコード処理を行う場合には、MPTを含んだデータを多重化解除部21に入力することで、多重化解除、デコードおよび同期処理を一括して行うことができる。   For example, when decoding processing is performed using an LSI in which the demultiplexing unit 21 and the decoding units 31, 32, 33, and 34 are integrated, data including MPT is input to the demultiplexing unit 21. Thus, demultiplexing, decoding, and synchronization can be performed collectively.

また、フレーム単位の頭出しを行う場合にも、「ストリーム伝送単位MPU」の前または先頭にMPTがあれば、このMPTを参照して、再生を開始する前に、フレーム単位での再生時刻を求めて頭出しを行うことが出来る。MPTは、「ストリーム伝送単位MPU」の先頭付近にあってもよい。   Also, when performing cueing in units of frames, if there is an MPT before or at the beginning of the "stream transmission unit MPU", referring to this MPT, the reproduction time in units of frames is determined before starting reproduction. You can search for the beginning. The MPT may be near the head of the “stream transmission unit MPU”.

この場合にも、テレビ局から送信されてきたMPTの全てを記録する必要はない。MPTの一部だけを記録することで処理することも出来る。   Also in this case, it is not necessary to record all the MPTs transmitted from the television station. Processing can also be performed by recording only a part of the MPT.

図9は、MMTP方式でのMPUタイムスタンプ記述子を用いた同期方式を説明する図である。図9では、「ストリーム伝送単位MPU」の直前にMPTを格納している。タイムテーブルには、「ストリーム伝送単位MPU」の先頭の位置ではなく、このMPTの位置を示している。   FIG. 9 is a diagram illustrating a synchronization method using an MPU time stamp descriptor in the MMTP method. In FIG. 9, the MPT is stored immediately before the “stream transmission unit MPU”. The time table indicates the position of the MPT, not the head position of the “stream transmission unit MPU”.

従来のブルーレイディスクの記録方式では、これらのタイムテーブルに相当する情報としてクリップファイル内に「EP_map」を格納していた。しかし、「EP_map」は、固定長パケットとパケットごとのタイムスタンプを持つMPEG2TSを前提とした構造になっている。そのため、そのままではMMTのデータに適用できない。   In a conventional Blu-ray disc recording method, “EP_map” is stored in a clip file as information corresponding to these time tables. However, the “EP_map” has a structure based on an MPEG2TS having a fixed-length packet and a time stamp for each packet. Therefore, it cannot be applied to MMT data as it is.

そこで、前述のタイムテーブルを「EP_map」の代わりに使用する。これによって、MMTのデータをブルーレイディスクに記録した際に、データアクセスを容易にすることができる。   Therefore, the above-mentioned time table is used instead of “EP_map”. Thus, when MMT data is recorded on a Blu-ray disc, data access can be facilitated.

この例では、MMTPパケットを結合して記録する説明を行った。しかし、TLVパケット、IPパケットまたはUDPパケットのそれぞれの状態で、パケットを結合して記録することもできる。また、タイムテーブルを拡張して、アセットごとに記録することも可能である。つまり、映像データまたは音声データの読み出し開始位置を検索できるようにする。そして、MFUの羅列としてデータを結合して記録する。   In this example, a description has been given of combining and recording MMTP packets. However, it is also possible to combine and record the packets in the respective states of the TLV packet, the IP packet and the UDP packet. In addition, it is also possible to extend the time table and record each asset. That is, it is possible to search for the reading start position of the video data or the audio data. Then, the data is combined and recorded as a list of MFUs.

[標準フォーマットを用いて記録する場合]
MMTでは、前述のように伝送フォーマットとは別に、蓄積フォーマットが規定されている。MMTの蓄積フォーマットでは、BMFF(ISO/IEC 14496−12 ISO Base Media File Format)形式をベースに、データを格納する。この場合には、データのレイアウトは、図3に示された論理構造をしている。図3は、データの論理構造を示した図である。
[When recording using standard format]
In the MMT, the storage format is defined separately from the transmission format as described above. In the storage format of the MMT, data is stored based on the BMFF (ISO / IEC 14496-12 ISO Base Media File Format) format. In this case, the data layout has the logical structure shown in FIG. FIG. 3 is a diagram showing a logical structure of data.

このデータの塊は、MPUと呼ばれている。このMPUは前述の「ストリーム伝送単位MPU」とは異なるものである。ここでは、仮に「番組蓄積用MPU」と呼ぶ。「番組蓄積用MPU」は、通常ファイルとして格納され、管理されている。   This block of data is called an MPU. This MPU is different from the aforementioned “stream transmission unit MPU”. Here, it is tentatively called a “program storage MPU”. The “program storage MPU” is stored and managed as a normal file.

図3の論理構造を用いて「番組蓄積用MPU」の構造を説明する。   The structure of the "program storage MPU" will be described using the logical structure of FIG.

MPUメタデータは、ファイルの管理データ、アセット情報、各種パラメーターまたはヒント情報などを含んでいる。アセット情報は、映像データと音声データとの組み合わせなどを管理する情報である。各種パラメーターは、デコーダーの動作モード等を設定するためのパラメーターである。ヒント情報は、MPUファイルに格納されたMFUからMMTPパケットを再構成するための情報である。   The MPU metadata includes file management data, asset information, various parameters or hint information, and the like. The asset information is information for managing a combination of video data and audio data. The various parameters are parameters for setting the operation mode and the like of the decoder. The hint information is information for reconstructing the MMTP packet from the MFU stored in the MPU file.

ムービーフラグメントメタデータは、再生時間で区切られた映像データまたは音声データなどにアクセスするための情報である。また、ムービーフラグメントメタデータは、映像データまたは音声データなどを再生するための情報である。   Movie fragment metadata is information for accessing video data, audio data, and the like delimited by the playback time. The movie fragment metadata is information for reproducing video data, audio data, or the like.

実際の映像データおよび音声データは、MFUの羅列として格納されている。1つのムービーフラグメントメタデータとそれによって管理される一塊のMFUとは、まとめてムービーフラグメントと呼ばれている。一般的には、複数のムービーフラグメントで1つのコンテンツを構成している。ネットワークストリーミング等では、一般的には、1フラグメントは10秒から15秒で構成されている。   Actual video data and audio data are stored as a list of MFUs. One piece of movie fragment metadata and a block of MFU managed by it are collectively called a movie fragment. Generally, a plurality of movie fragments constitute one content. In network streaming or the like, one fragment generally consists of 10 to 15 seconds.

MPUメタデータおよびムービーフラグメントメタデータが放送波Ba等で送られてくる場合には、これらを利用してMPUを構成することができる。PLT、MPT、その他の制御情報またはMFUを取り出すまでの各種ヘッダ情報は、冗長になるため、記録する必要はない。   When the MPU metadata and the movie fragment metadata are transmitted in a broadcast wave Ba or the like, an MPU can be configured using these. PLT, MPT, other control information, or various header information until the MFU is extracted are redundant and need not be recorded.

一方、新しい日本の放送方式案では、MPUメタデータおよびムービーフラグメントメタデータは、放送時に送出されない。そのため、PLT情報、MPT情報および各種のヘッダ情報を組み合わせて、独自にMPUメタデータ等を作成する。   On the other hand, in the new Japanese broadcasting scheme proposal, MPU metadata and movie fragment metadata are not transmitted at the time of broadcasting. Therefore, PPU information, MPT information, and various types of header information are combined to independently create MPU metadata and the like.

光ディスク53への記録にも、上記の蓄積フォーマットを使用することを考える。光ディスク53では、物理的に連続して格納されたデータを比較的高速に読み出すことが可能である。しかし、光ディスク53上の直径方向に離れた位置にあるデータを読み出す場合には、ヘッドシークを伴うため、データを読み出しに時間を要する。つまり、光ディスク53では、前後して使用される可能性の高いデータを、連続した領域またはディスク53上の近い位置に配置した方が、効率よくデータを読み出すことが可能になる。   It is considered that the above storage format is also used for recording on the optical disc 53. The optical disk 53 can read data stored physically continuously at a relatively high speed. However, reading data at a position distant in the diameter direction on the optical disc 53 involves a head seek, so that it takes time to read the data. That is, in the optical disc 53, if data that is likely to be used before and after is arranged in a continuous area or a close position on the disc 53, the data can be read out more efficiently.

図3に示された論理構造そのままのデータ配置で、データを記録すると、MPUメタデータ、ムービーフラグメントメタデータおよびMFUが、物理的な配置として分散して格納される。MPUメタデータは、再生に必要なデータである。MFUは、映像データを格納している。このため、光ディスクの特性上、図3に示された論理構造のままのデータ配置は、不利なデータ配置となる。   When data is recorded in the data arrangement with the logical structure shown in FIG. 3 as it is, MPU metadata, movie fragment metadata and MFU are stored in a distributed manner as a physical arrangement. MPU metadata is data necessary for reproduction. The MFU stores video data. Therefore, due to the characteristics of the optical disk, the data arrangement with the logical structure shown in FIG. 3 is disadvantageous.

多くのファイルシステムでは、蓄積されるデータの論理構造と物理配置とを別々に管理することができる。ブルーレイディスクで採用しているUDFも同様である。   In many file systems, the logical structure and physical arrangement of stored data can be managed separately. The same applies to the UDF used in Blu-ray discs.

そこで、論理構造は規格通りとして、物理配置では、MPUメタデータとムービーフラグメントデータとをまとめて記録する。   Accordingly, the MPU metadata and the movie fragment data are collectively recorded in the physical arrangement with the logical structure as specified.

図3の物理配置に示したデータ構造は、光ディスク上の物理的なデータ配置として、管理情報をまとめて配置した例である。このようなデータ配置とすることで、MPUメタデータとムービーフラグメントメタデータとを一度に読み込むことが可能となる。   The data structure shown in the physical arrangement of FIG. 3 is an example in which management information is collectively arranged as a physical data arrangement on an optical disk. With such a data arrangement, the MPU metadata and the movie fragment metadata can be read at once.

なお、「データ構造」は、ここでは、ファイルシステムよりも上位からみた構造を示している。例えば、論理的なデータ構造、ディレクトリまたは1つのファイル内でのデータの並びなどである。一方、「データ配置」は、ファイルシステムよりも下位から見た配置を示している。例えば、物理的なデータのレイアウトなどである。ファイル名とファイル名とで結び付けられたブロック、または、データのつながりを示すブロック同士のリンク情報などで構成されている。この場合には、ブロックは、ディスク上の物理的な位置と結びついて管理されているデータの集合である。ファイルシステムによっては、他の名称が用いられる事もある。   Here, the “data structure” indicates a structure viewed from a higher level than the file system. For example, a logical data structure, a data arrangement in a directory or one file, and the like. On the other hand, “data arrangement” indicates an arrangement viewed from a lower level than the file system. For example, a physical data layout is used. It is composed of blocks linked by a file name and a file name, or link information between blocks indicating data connection. In this case, a block is a set of data managed in association with a physical location on the disk. Other names may be used depending on the file system.

そして、図3の物理配置に示したデータ配置は、ヘッドシーク回数を減らす。そして、図3の物理配置に示したデータ配置は、再生を開始する際にかかる時間およびランダムアクセスの際にかかる時間を短くすることができる。   The data arrangement shown in the physical arrangement in FIG. 3 reduces the number of head seeks. The data arrangement shown in the physical arrangement of FIG. 3 can reduce the time required for starting reproduction and the time required for random access.

また、論理構造と物理配置とを分けて考えることはせずに、単純に管理情報のコピーを別ファイルにもたせることも考えられる。図3に示した追加クリップファイルは、そのような場合の一例である。この場合には、例えば、ランダムアクセスを容易にするための追加情報等を、ファイルに追加することも可能である。   It is also conceivable to simply give a copy of the management information to another file without considering the logical structure and the physical arrangement separately. The additional clip file shown in FIG. 3 is an example of such a case. In this case, for example, additional information or the like for facilitating random access can be added to the file.

これまで示した例では、フラグメントを用いたデータ構造の例で説明した。しかし、フラグメント単位での送出を想定しない場合には、ムービーフラグメントメタデータをもたないデータ構造での記録も可能である。   In the example shown so far, the example of the data structure using the fragment has been described. However, when transmission in units of fragments is not assumed, recording in a data structure without movie fragment metadata is also possible.

BMFFによるファイルフォーマットでは、管理情報とストリームデータとは、同一ファイルにまとめて記録されている。一方、従来のブルーレイディスクの記録方式では、管理情報とストリームデータとは、分けて管理されていた。   In the BMFF file format, management information and stream data are collectively recorded in the same file. On the other hand, in a conventional Blu-ray disc recording method, management information and stream data are separately managed.

これは、管理情報をまとめて読み込み、再生するデータにあわせて機器を設定した後に、ストリームデータの再生を行うことが、光ディスクの機器に適しているためである。管理情報とストリーム情報とは、光ディスク上では、領域を分けて記録されている。また、管理データは光ディスクの損傷に備えて、光ディスク上に2重に記録して、バックアップデータとしているためでもある。このバックアップデータは、光ディスク上の離れた位置に記録されている。   This is because it is suitable for the device of the optical disc to read the management information collectively, set the device according to the data to be reproduced, and then reproduce the stream data. The management information and the stream information are recorded on the optical disc in different areas. Also, this is because the management data is double-recorded on the optical disk and used as backup data in preparation for damage to the optical disk. This backup data is recorded at a remote position on the optical disk.

BMFFにおける管理データは、ブルーレイディスクでは、主にクリップファイルで管理されている情報である。そこで、BMFFとして記録する際に、番組の管理データ部分をファイルシステム上の別ファイルから参照する。つまり、見かけ上、番組の管理データ部分を別のファイルとすることができる。   The management data in the BMFF is information managed mainly by a clip file in a Blu-ray disc. Therefore, when recording as a BMFF, the management data portion of the program is referred to from another file on the file system. That is, apparently, the management data portion of the program can be a separate file.

図10は、BMFFとしてストリームデータを記録した場合の説明図である。   FIG. 10 is an explanatory diagram when stream data is recorded as a BMFF.

図10に示したのは、BMFFとしてストリームデータを記録した場合の例である。   FIG. 10 shows an example in which stream data is recorded as BMFF.

物理的な配置としては、管理データは、光ディスク53上の管理データ領域に記録される。ストリームデータ部分は、光ディスク53上のストリームデータ領域に記録される。   As a physical arrangement, the management data is recorded in a management data area on the optical disk 53. The stream data portion is recorded in a stream data area on the optical disc 53.

ストリームファイルとして、このデータにアクセスする際には、ファイルシステムが管理データ部分とストリームデータ部分とを関連付けて、論理的に1つのBMFFファイルとして見えるようにする。   When accessing this data as a stream file, the file system associates the management data portion with the stream data portion so that it can be logically viewed as one BMFF file.

一方、ブルーレイディスクの管理データであるクリップファイルとしてこのデータにアクセスする際には、BMFFファイルの管理データ部分のみをファイルとして見えるようにする。クリップファイルは、ブルーレイディスクの管理データである。   On the other hand, when accessing this data as a clip file, which is management data of a Blu-ray disc, only the management data portion of the BMFF file is made to appear as a file. A clip file is management data of a Blu-ray disc.

このような配置とすることによって、MMTの標準記録フォーマットとしてBMFF形式のファイルを作成することができる。また、ブルーレイディスクの管理方法とも整合性のあるデータ形式とすることができる。   With such an arrangement, a BMFF format file can be created as a standard recording format of MMT. In addition, a data format compatible with the Blu-ray disc management method can be used.

このようにして、BMFFとして記録されたデータのヘッダ部分を、別のファイルとして参照できるようにすると、光ディスク53上でのデータ管理においても有利になる。また、管理データのバックアップデータの作成も容易になる。   If the header portion of the data recorded as the BMFF can be referred to as another file in this manner, it is advantageous in data management on the optical disc 53. Also, it becomes easy to create backup data of the management data.

例えば、PCなどで映像データを取り出す際には、BMFFファイルをコピーすれば管理情報とストリームデータとの両方を含むBMFFファイルとしてコピーできる。一方、光ディスク内の管理情報のバックアップを作成する際には、BMFFCLIPファイルからコピーを作成すれば、バックアップの必要な管理データ部分のみのデータがコピーできる。   For example, when video data is taken out by a PC or the like, if a BMFF file is copied, it can be copied as a BMFF file containing both management information and stream data. On the other hand, when making a backup of the management information in the optical disk, if a copy is made from the BMFFCLIP file, only the management data portion that needs to be backed up can be copied.

また、管理データとストリームデータとを分けて保管している光ディスクのフォーマットに合わせて、BMFFの管理データ部分を光ディスク53の他の管理データを格納している領域に格納できる。このため、再生を準備する際のヘッドシーク量を減らすことが出来る。   Further, the management data portion of the BMFF can be stored in another area of the optical disk 53 where the management data is stored, in accordance with the format of the optical disk storing the management data and the stream data separately. Therefore, the amount of head seek when preparing for reproduction can be reduced.

≪(B)多重化が解除されたエレメンタリーストリームSeの状態でのデータの記録≫
前述の例では、受け取ったデータに対して、部分的に多重化を解除ながら、蓄積用フォーマットに変換する方法について説明した。受け取ったデータは、放送波Ba、外部装置EiまたはネットワークNeなどから受け取ったデータである。
{(B) Recording of Data in Demultiplexed Elementary Stream Se State}
In the above-described example, the method of converting the received data into the storage format while partially demultiplexing the received data has been described. The received data is data received from the broadcast wave Ba, the external device Ei, the network Ne, or the like.

しかし、多重化解除部21がハードウェアとして作られている場合などには、映像または音声などに分離されたES(Elementary stream)の状態で取り出して、記録することができる。なお、ESは、図1ではエレメンタリーストリームSeとして示されている。   However, when the demultiplexing unit 21 is made as hardware, it can be extracted and recorded in an ES (Elementary stream) state separated into video or audio. Note that the ES is shown as an elementary stream Se in FIG.

ESは、圧縮された映像データのストリームまたは音声データのストリームである。ESは単位ごとに区切られるが、ここで「単位」は、処理する上で意味のある単位である。この単位は、例えば、映像データの場合にはピクチャあるいはNALである。また、この単位は、例えば、音声データの場合にはブロックである。   ES is a stream of compressed video data or a stream of audio data. The ES is divided for each unit. Here, the “unit” is a meaningful unit for processing. This unit is, for example, a picture or NAL in the case of video data. This unit is, for example, a block in the case of audio data.

以下において、映像記録フォーマットは、ISO BMFFを例に取って説明する。   In the following, the video recording format will be described using ISO BMFF as an example.

BMFFにおいて、多重化された状態でデータを記録する方式では、時間の流れを持ったデータを管理するデータをトラックと呼ぶ。   In a method of recording data in a multiplexed state in the BMFF, data for managing data having a time flow is called a track.

前述の多重化が解除されていない状態で記録する方式では、トラックは1つである。これは、例えば、映像データと音声データとが多重化された状態であるため、時間の流れを持ったデータは、多重化ストリームSmの1つである。多重化ストリームSmは、MFUの羅列として表現されている。   In the above-described method of recording in a state where multiplexing is not released, there is one track. This is, for example, a state in which video data and audio data are multiplexed, so that data having a time flow is one of the multiplexed streams Sm. The multiplexed stream Sm is represented as a list of MFUs.

一方、エレメンタリーストリームSeの状態では、例えば、映像データと音声データとは分離されたESストリームデータとして存在する。そのため、映像データのトラックと音声データのトラックとを個別に作成する。映像データのトラックと音声データのトラックとは、データファイル上の管理データを格納する領域に記録される。そして、映像データと音声データとは、メディアデータを格納する領域に格納される。   On the other hand, in the state of the elementary stream Se, for example, the video data and the audio data exist as separated ES stream data. Therefore, a track for video data and a track for audio data are separately created. The track of the video data and the track of the audio data are recorded in an area for storing management data in the data file. Then, the video data and the audio data are stored in an area for storing the media data.

それぞれのトラックは、再生時刻を示している。また、それぞれのトラックは、再生時刻に対応したメディアデータを格納する領域の位置を示している。メディアデータは、映像データまたは音声データなどである。   Each track indicates a playback time. Each track indicates the position of an area for storing media data corresponding to the playback time. The media data is video data, audio data, or the like.

そして、映像データと音声データとは、時間的に同期を取った状態で関係付けがされる。また、字幕なども、同様に、表示タイミングを含めて関係付けがされている。   Then, the video data and the audio data are associated with each other in a time-synchronized state. Similarly, subtitles and the like are also related, including display timing.

新しい日本の放送方式案では、MMTPパケットのMTP内に、番組内で使用される映像、音声または字幕などの組合せが示されている。また、MMTPパケットのMTP内に、映像、音声または字幕などの表示タイミングまたは再生タイミングが示されている。また、MMTPパケットのMTP内に、映像、音声または字幕などのデータの格納位置が示されている。   In the new Japanese broadcasting scheme proposal, combinations of video, audio, subtitles, and the like used in a program are indicated in the MTP of the MMTP packet. The display timing or reproduction timing of video, audio, subtitles, or the like is indicated in the MTP of the MMTP packet. Further, in the MTP of the MMTP packet, the storage position of data such as video, audio, or subtitles is shown.

番組を構成する(データ放送の部品等)データファイルなどをMMTで送る場合には、1つのファイルを1つのMPUに格納する。このMPUを「データ要素MPU」と呼ぶ。そして、この1つの「データ要素MPU」を分割して、MFUとしてMMTPで送付する。この場合には、MPUヘッダまたはMPUメタデータも同時に送付される。   When transmitting a data file or the like (such as a part of a data broadcast) constituting a program by MMT, one file is stored in one MPU. This MPU is called a “data element MPU”. Then, this one “data element MPU” is divided and sent as MMTP as MFU. In this case, an MPU header or MPU metadata is also sent at the same time.

また、映像または音声などのストリームデータでは、オーバーヘッドを回避するために、データ要素MPUを使用しない。その代わりに、AUまたはNALを直接MFUに入れてMMTPで送付する。   Also, for stream data such as video or audio, the data element MPU is not used to avoid overhead. Instead, the AU or NAL is put directly into the MFU and sent by MMTP.

しかし、新しい日本の放送方式案の時間管理では、ランダムアクセスフラグの単位でMPUを構成することになっている。時間の指定は、MPUに対して行う。このため、1つのGOPで0.5秒から1秒の単位であれば、時間指定の単位として問題はない。この場合には、MPUヘッダまたはMPUメタデータ等は送付されない。このランダムアクセスフラグを区切りとした一式のMMTPパケットの集合を、前述の通り、ここでは、仮に「ストリーム伝送単位MPU」と呼んでいる。   However, in the time management of the new Japanese broadcasting scheme proposal, the MPU is configured in units of random access flags. The time is specified for the MPU. Therefore, there is no problem as a unit for specifying time as long as the unit is 0.5 seconds to 1 second in one GOP. In this case, no MPU header or MPU metadata is sent. As described above, a set of a set of MMTP packets separated by the random access flag is herein temporarily referred to as a “stream transmission unit MPU”.

また、多重化されたデータを受信して、ファイルに記録する。このファイルに記録する際に用いられるデータ構造もMPUである。例えば、ファイルに記録する際に、番組全体で1つのMPUとすることができる。この用法でのMPUを、ここでは、仮に「番組蓄積用MPU」と呼ぶ。また、ストリーム伝送単位MPU単位で記録することもできる。この場合には、MPUのファイルの数が膨大になる。また、ストリーム伝送単位MPUを束ねてMPUに格納することもできる。このストリーム伝送単位MPUを束ねたMPUを、ここでは、仮に「番組蓄積用MPU」と呼ぶ。   Also, the multiplexed data is received and recorded in a file. The data structure used for recording in this file is also MPU. For example, when recording in a file, one MPU can be used for the entire program. Here, the MPU in this usage is temporarily referred to as a “program storage MPU”. Also, recording can be performed in units of stream transmission units MPU. In this case, the number of MPU files becomes enormous. Also, the stream transmission unit MPU can be bundled and stored in the MPU. Here, the MPU in which the stream transmission unit MPUs are bundled is temporarily referred to as a “program storage MPU”.

日本の新しい放送方式の場合には、GOP単位で「ストリーム伝送単位MPU」を構成している。MPT内の「MPUタイムスタンプ記述子」によって、先頭のフレームの表示時刻が指定されている。ここでの時刻は、NTP時刻である。「拡張タイムスタンプ記述子」によって、GOP内の後続のフレームの表示時刻が指定されている。後続のフレームの表示時刻は、先頭のフレームの表示時刻からの差で示される。   In the case of a new broadcasting system in Japan, a “stream transmission unit MPU” is configured in GOP units. The “MPU time stamp descriptor” in the MPT specifies the display time of the first frame. The time here is the NTP time. The “extended time stamp descriptor” specifies the display time of the subsequent frame in the GOP. The display time of the subsequent frame is indicated by a difference from the display time of the first frame.

多重化が解除されエレメンタリーストリームSeが取り出された状態ではMPTが取り除かれている。そのため、MPTとその他の制御情報とを組み合わせて、トラックなどの管理情報を作成して、記録する必要がある。トラックは、時間の流れを持ったデータの管理情報である。時間の流れを持ったデータは、例えば、映像データまたは音声データなどである。トラックは、データの種類、再生時刻または実際のデータの記録位置へのポインタなどを含んでいる。これらのデータは、前述のタイムテーブルの作成と同様の手順で作成することが出来る。   In a state where the multiplexing has been released and the elementary stream Se has been extracted, the MPT has been removed. Therefore, it is necessary to create and record management information such as tracks by combining the MPT and other control information. The track is data management information having a time flow. The data having a time flow is, for example, video data or audio data. The track includes a data type, a reproduction time, a pointer to a recording position of actual data, and the like. These data can be created in the same procedure as the above-described time table creation.

トラックでは、細かな時間単位でデータの取り出し位置を指定することが出来る。そのため、再生時間の順番またはデコード時間の順番に、映像データと音声データとを混在させて並べることが出来る。このような構造を取ることによって、同時に再生する必要のある映像データと音声データとを、ヘッドシークを抑えて取り出すことができる。   In the track, the data extraction position can be specified in minute time units. Therefore, the video data and the audio data can be mixed and arranged in the order of the reproduction time or the order of the decode time. By adopting such a structure, video data and audio data that need to be reproduced at the same time can be extracted while suppressing head seek.

このようにして、MMTで送出された番組を、BMFF形式のファイルとして記録することが出来る。   In this way, a program transmitted by MMT can be recorded as a file in the BMFF format.

実施の形態2.
実施の形態2では、MMTPパケットを順次記録する。MMTPパケットは、受信した放送を番組レベルで選別したものである。
Embodiment 2 FIG.
In the second embodiment, MMTP packets are sequentially recorded. The MMTP packet is obtained by selecting a received broadcast at a program level.

1つの送信機から送信されるデータは、複数の放送局の複数の番組を多重化できるように作られている。そのため、ユーザーが特定の番組を視聴し、または録画する場合には、放送局のレベルでの分離と、番組のレベルでの分離とが必要となる。   The data transmitted from one transmitter is designed so that a plurality of programs from a plurality of broadcasting stations can be multiplexed. Therefore, when a user watches or records a specific program, it is necessary to separate at a broadcast station level and at a program level.

ここでは、番組のレベルまでの分離が完了しており、録画の対象となる1つの番組を構成するMMTPが順次取り出されて、記録されているものとする。この状態は、部分的にデータの多重化が解除されている状態である。つまり、番組の単位までは多重化が解除されている。しかし、番組を構成する個々の映像、音声、字幕ストリームまたは制御データは多重化されている。   Here, it is assumed that the separation up to the program level has been completed, and MMTPs constituting one program to be recorded are sequentially extracted and recorded. In this state, data multiplexing is partially released. That is, the multiplexing is released up to the program unit. However, individual video, audio, subtitle streams, or control data constituting a program are multiplexed.

図11は、MMTP方式でのMPTによる多重化の解除を説明する説明図である。図12は、タイムテーブルと映像データの関係を説明する説明図である。図13は、MMTP方式でのMPTデータの構造の例を説明する図である。図14は、映像を中心に考えた場合のアライメントを説明する説明図である。   FIG. 11 is an explanatory diagram for explaining demultiplexing by MPT in the MMTP method. FIG. 12 is an explanatory diagram illustrating the relationship between the time table and the video data. FIG. 13 is a diagram illustrating an example of the structure of MPT data in the MMTP method. FIG. 14 is an explanatory diagram for explaining the alignment in a case where an image is mainly considered.

図11に示したMMTストリームは、番組を構成するMMTPパケット列の例である。このMMTストリームでは、例えば、映像、音声および字幕などが、それぞれ一本ずつ多重化されている。実際の放送では、複数の映像、音声および字幕などが多重化されることもある。   The MMT stream shown in FIG. 11 is an example of an MMTP packet sequence forming a program. In the MMT stream, for example, video, audio, subtitles, and the like are multiplexed one by one. In an actual broadcast, a plurality of videos, sounds, subtitles, and the like may be multiplexed.

映像、音声および字幕などは、番組を構成する要素である。これらの番組を構成する要素をアセットと呼ぶ。MMTストリームは、MMTPパケットの単位で多重化されている。このため、MMTストリームには、サービスインフォメーションのパケットとアセットデータのパケットとが混在している。   Video, audio, subtitles, and the like are elements that constitute a program. Elements that make up these programs are called assets. The MMT stream is multiplexed in units of MMTP packets. For this reason, the service information packet and the asset data packet are mixed in the MMT stream.

サービスインフォメーションのパケットは、多重化ストリームのための制御信号である。サービスインフォメーションは、例えば、映像、音声または字幕を分離するための制御情報である。また、サービスインフォメーションは、映像、音声および字幕を同期して再生するための制御情報である。そして、サービスインフォメーションは、各アセットの名称を表示するための情報である。   The service information packet is a control signal for the multiplexed stream. The service information is, for example, control information for separating video, audio, or subtitles. The service information is control information for synchronously reproducing video, audio, and subtitles. The service information is information for displaying the name of each asset.

アセットデータのパケットは、例えば、映像、音声および字幕のアセットを構成する。実施の形態2では、記録媒体の上にこれらのパケットを順次記録する。ここでは、簡単のため、ファイルとしてMMTストリームを構成するこれらのパケットを順次記録することとする。   The asset data packets constitute, for example, video, audio, and subtitle assets. In the second embodiment, these packets are sequentially recorded on a recording medium. Here, for simplicity, these packets constituting the MMT stream are sequentially recorded as a file.

図11に示すように、MMTストリームは、制御パケットSI(MPT)、映像パケットV、映像パケットV(RAP)、音声パケットAおよび字幕パケットTを含んでいる。制御パケットSI(MPT)は、でMPTの付いている制御パケットである。制御パケットSI(MPT)は、サービスインフォメーションの一種である。映像パケットV(RAP)は、RAPフラグの付いている映像パケットである。   As shown in FIG. 11, the MMT stream includes a control packet SI (MPT), a video packet V, a video packet V (RAP), an audio packet A, and a caption packet T. The control packet SI (MPT) is a control packet with an MPT. The control packet SI (MPT) is a type of service information. The video packet V (RAP) is a video packet with a RAP flag.

実際には、制御パケットSIとして多くの種類のものが送信されている。しかし、ここでは、説明を容易にするために、MPTに注目して記載してある。MPTは、放送規格では約100ms間隔で定期的に送信することになっている。   Actually, many types of control packets SI are transmitted. However, here, for ease of explanation, attention is paid to MPT. According to the broadcasting standard, MPT is to be transmitted periodically at intervals of about 100 ms.

MMTストリームを先頭から順次再生する場合には、MMTストリームを記録したファイルの先頭からデータを順次取り出す。そして、順次、MMTストリームを多重化解除部21に送り込むことで、データの再生を行うことができる。例えば、図1に示す多重化ストリームSmとして多重化解除部21に入力する。   When sequentially reproducing the MMT stream from the beginning, data is sequentially extracted from the beginning of the file in which the MMT stream is recorded. Then, the data can be reproduced by sequentially sending the MMT stream to the demultiplexing unit 21. For example, the multiplexed stream Sm shown in FIG.

多重化解除部21は、受け取ったデータを順次解析する。多重化解除部21は、MPTを含むデータパケットを受け取ると、MPTの記述にから多重化解除および映像を表示するタイミング等に用いる情報を取り出す。そして、多重化解除部21は、多重化解除部21およびデコード部31,32,33,34の設定を行う。   The demultiplexing unit 21 sequentially analyzes the received data. Upon receiving the data packet including the MPT, the demultiplexing unit 21 extracts information used for demultiplexing and timing for displaying a video from the description of the MPT. Then, the demultiplexing unit 21 sets the demultiplexing unit 21 and the decoding units 31, 32, 33, and 34.

図13に、MPTに記述されているデータの一例を示す。図13に示すデータは、ARIB規格STD−B60に基づいている。例えば、MPTには、複数のアセットを取りだすための情報が記述されている。各アセットは、MMT内の識別情報によって、データを取得するための情報とデータを分離するための情報とを得る。MMT内の識別情報は、例えば、ロケーション情報(MMT_general_location_info())である。   FIG. 13 shows an example of data described in the MPT. The data shown in FIG. 13 is based on ARIB standard STD-B60. For example, in the MPT, information for extracting a plurality of assets is described. Each asset obtains information for acquiring data and information for separating data by the identification information in the MMT. The identification information in the MMT is, for example, location information (MMT_general_location_info ()).

また、図13では省略してあるが、コンポーネント記述子の情報から各アセットのストリームの詳細情報を得ることができる。この情報を基に、図11に示したように、多重化されている各種ストリームを分離して、再生する。   Further, although omitted in FIG. 13, detailed information of the stream of each asset can be obtained from the information of the component descriptor. Based on this information, various multiplexed streams are separated and reproduced as shown in FIG.

放送を記録する場合にも、図11のMMTストリームのデータは、ファイルに順次記録される。そして、MMTストリームのデータは、ファイルの先頭から順次取出されて再生される。この場合には、必ずしも、MMTパケットそのものである必要はない。MMTパケットの内部のデータが取り出された状態で記録されてもよい。また、逆に、IPパケットの状態またはTLVパケットの状態で記録されてもよい。   Also when recording a broadcast, the data of the MMT stream in FIG. 11 is sequentially recorded in a file. Then, the data of the MMT stream is sequentially taken out from the head of the file and reproduced. In this case, the MMT packet does not necessarily need to be the MMT packet itself. The data may be recorded in a state where the data inside the MMT packet is extracted. Conversely, it may be recorded in a state of an IP packet or a state of a TLV packet.

次に、ランダムアクセスを考える。ここでは、一例として、時刻指定ジャンプを説明する。しかし、チャプターサーチおよび早送り巻き戻しなどでも同様である。   Next, consider random access. Here, a time designation jump will be described as an example. However, the same applies to chapter search and fast forward rewind.

図12を用いてランダムアクセスの動作について説明する。タイムテーブルTMは、番組上の時刻情報と、その時刻情報に対応する再生位置とを対応付けるデータである。再生位置は、ここでは、MMTストリームのデータを記録したファイルの先頭からのオフセットとして説明する。しかし、再生位置として、セクタアドレスまたはブロックアドレスなどが用いられることもある。   The operation of random access will be described with reference to FIG. The time table TM is data for associating time information on a program with a reproduction position corresponding to the time information. Here, the reproduction position is described as an offset from the head of the file in which the data of the MMT stream is recorded. However, a sector address or a block address may be used as the reproduction position.

このタイムテーブルTMを用いて、時刻に対応した再生位置からデータを取り出して再生する。これによって、時刻指定ジャンプを行うことができる。つまり、時刻を指定した再生を行うことができる。   Using this time table TM, data is taken out from the reproduction position corresponding to the time and reproduced. Thus, a time designation jump can be performed. That is, it is possible to perform reproduction with a specified time.

通常、映像データはGOP単位で構成されている。GOPは、例えば、0.5秒から1秒間程度の映像をまとめて圧縮したものである。GOPは、例えば、数十枚の画像を含んでいる。1つのGOPは、1枚から複数枚の完全な画像と、数十枚の差分画像とを含んでいる。GOPは、圧縮された差分画像を含んでいるため効率が良い。   Normally, video data is configured in GOP units. The GOP is obtained by, for example, compressing a video of about 0.5 to 1 second at a time. The GOP includes, for example, several tens of images. One GOP includes one to a plurality of complete images and several tens of difference images. The GOP is efficient because it includes a compressed difference image.

また、表示される順番とデコードされる順番とは、必ずしも対応していない。そのため、GOPの途中から再生したい場合でも、必ずGOP先頭からデータをデコードする必要がある。そのため、MMTPパケットでは、GOPの先頭に、RAPフラグを付けることができる。RAPフラグは、ランダムアクセスが可能であることを示すフラグである。図12では、このRAPフラグの付いているパケットの位置を、GOPの先頭としてタイムテーブルに格納している。そして、これによって、ランダムアクセスを実現している。   Also, the order of display and the order of decoding do not always correspond. Therefore, even if it is desired to reproduce the data in the middle of the GOP, it is necessary to decode the data from the beginning of the GOP. Therefore, in the MMTP packet, a RAP flag can be added to the head of the GOP. The RAP flag is a flag indicating that random access is possible. In FIG. 12, the position of the packet with the RAP flag is stored in the time table as the head of the GOP. This realizes random access.

1枚の画像データから完全な画像を再現できる画像データをIピクチャと呼ぶ。Iピクチャは、1つのGOP内に必ず1つ存在する。しかし、1つのGOP内に複数のIピクチャが存在することもある。Iピクチャのうち、他の画像との依存関係から、GOP内で最初にデコードされるIピクチャはIRAPと呼ばれている。このIピクチャから再生することで、後続の画像データを正しく表示できる。   Image data that can reproduce a complete image from one image data is called an I picture. One I picture always exists in one GOP. However, a plurality of I pictures may exist in one GOP. Of the I pictures, the I picture that is decoded first in a GOP is called an IRAP because of the dependency on other images. By reproducing from this I picture, the subsequent image data can be displayed correctly.

MMTPパケットのRAPフラグは、IRAPの画像データの先頭パケットまたは制御パケットに付けられている。1つのIピクチャとの差分データで構成された画像データはPピクチャと呼ばれている。参照先のIピクチャと、Pピクチャの画像データとを合成することで、このPピクチャの画像を再現できる。複数の他の画像を参照して画像を再現できる画像データをBピクチャと呼ぶ。   The RAP flag of the MMTP packet is attached to the head packet or control packet of the IRAP image data. Image data composed of difference data from one I picture is called a P picture. By synthesizing the I picture of the reference destination and the image data of the P picture, the image of the P picture can be reproduced. Image data that can reproduce an image with reference to a plurality of other images is called a B picture.

映像データと同様に、音声データでも一つのかたまりのデータの先頭の概念が存在する。そして、音声データの先頭にRAPフラグが付けられている。しかし、説明を単純にするために、ここでは映像データのGOPの区切りで音声データパケットも区切る。   As with video data, audio data also has the concept of the head of one block of data. Then, a RAP flag is added to the head of the audio data. However, for the sake of simplicity, the audio data packet is also separated here by the GOP of video data.

図12に示すランダムアクセスの動作を、図11に示すパケットレベルでの読み出しに対応して考えてみる。   The operation of the random access shown in FIG. 12 will be considered in correspondence with the reading at the packet level shown in FIG.

タイムテーブルTMから再生位置の情報を取出す。そして、図11のMMTストリームの位置P1からパケットを取り出して再生を行う。位置P1は、最初の映像パケットV(RAP)の位置である。この時点では、MPT情報が取得できていない。そのため、映像、音声および字幕などアセット単位での分離を行うことができない。   The information on the reproduction position is extracted from the time table TM. Then, the packet is taken out from the position P1 of the MMT stream in FIG. 11 and reproduced. The position P1 is the position of the first video packet V (RAP). At this point, the MPT information has not been obtained. For this reason, it is not possible to separate video, audio, and subtitles in units of assets.

順次読み出しが行われて位置P2で制御パケットSI(MPT)が読み出される。これによって、アセットを分離するためのパラメーターが取得される。つまり、映像、音声および字幕などを分離することができる。   The control packet SI (MPT) is read out at the position P2 by sequentially reading out. Thereby, a parameter for separating the asset is obtained. That is, video, audio, subtitles, and the like can be separated.

この時、位置P1から位置P2までのデータが分離できず、結果として読まれなかった場合には、GOPの先頭のデータが失われることになる。そして、このGOPをデコードすることができない。   At this time, if the data from the position P1 to the position P2 cannot be separated and is not read as a result, the data at the head of the GOP will be lost. Then, this GOP cannot be decoded.

位置P3以降は、位置P2で既に取得済みのMPT情報があるためデコードが可能となる。位置P3は、位置P1の次のGOPの先頭である。そのため、本来、再生を開始したいGOPからではなく、次のGOPから再生されることがある。   After the position P3, decoding is possible because there is MPT information already acquired at the position P2. Position P3 is the head of the next GOP after position P1. Therefore, the reproduction may be performed from the next GOP instead of the GOP from which reproduction is originally desired.

同一の番組内でのチャプターサーチまたは早送り等の場合において、再生に使用していたMPTのアセット情報がジャンプ先のMPTのアセット情報と一致する場合には、ジャンプ先の先頭である位置P1から始まるGOPから再生することが可能である。しかし、コマーシャル(CM)または番組の変更などを挟んで番組を再生する場合には、ジャンプ前のMPTとジャンプ後のMPTとでアセットが同一である保証はない。または、録画済みの異なる番組を繋いだ編集がされている場合には、ジャンプ前のMPTとジャンプ後のMPTとでアセットが同一である保証はない。   In the case of chapter search or fast-forward in the same program, if the asset information of the MPT used for reproduction matches the asset information of the MPT of the jump destination, the process starts from the position P1 which is the head of the jump destination. It is possible to reproduce from a GOP. However, when a program is reproduced with a commercial (CM) or a change in the program interposed, there is no guarantee that the MPT before the jump and the MPT after the jump have the same asset. Alternatively, when editing is performed by connecting different recorded programs, there is no guarantee that the MPT before jumping and the MPT after jumping have the same asset.

また、アセットの変更が行われる場合には、放送規格案は、実際のデータが再生される0.5秒前からMPTを更新するように求めている。これは、例えば、アセットを分離するためのフィルタの設定などには時間がかかる。また、音声が切り替わる時のミュート処理などには時間がかかる。また、映像が切り替わる時のミュート処理などには時間がかかる。これらのために、実際のデータが切り替わる直前のタイミングでMPTを変更しても、フィルタの切り替え又はミュート等を行うための処理が間に合わない可能性があるためである。   Also, when an asset is changed, the proposed broadcasting standard requires that the MPT be updated 0.5 seconds before the actual data is reproduced. This takes time, for example, in setting a filter for separating assets. Further, it takes time to perform a mute process when the sound is switched. Further, it takes time to perform a mute process when the video is switched. For this reason, even if the MPT is changed at a timing immediately before the actual data is switched, there is a possibility that the processing for switching or muting the filter may not be performed in time.

これは、ランダムアクセスの時も同様である。ジャンプ先ですぐにMPTを取得することができても処理系の切り替えが間に合わず、最初のGOPを正しく表示できない可能性がある。または、データの切り替えに必要な時間を確保するために、表示を遅延させる必要がある。ここで、「処理系」とは、例えば、多重化解除部21およびデコード部31,32,33,34等である。   This is the same for random access. Even if the MPT can be obtained immediately at the jump destination, the processing system cannot be switched in time, and the first GOP may not be displayed correctly. Alternatively, it is necessary to delay the display in order to secure the time required for data switching. Here, the “processing system” is, for example, the demultiplexing unit 21 and the decoding units 31, 32, 33, and 34.

そこで、この実施の形態2では、図12に示したように、まず、MPTの情報をタイムテーブルTM内に格納する。そして、時刻を指定してジャンプをする時には、MPTの情報を多重化解除部21およびデコード部31,32,33,34に設定する。その後、再生を開始する位置のデータを読み出す。   Therefore, in the second embodiment, as shown in FIG. 12, first, the MPT information is stored in the time table TM. When a jump is performed by designating a time, the information of the MPT is set in the demultiplexing unit 21 and the decoding units 31, 32, 33, and 34. Thereafter, the data at the position where the reproduction is started is read.

このようにすることで、シークなどのデータの読み出しの準備と並行して、処理系(多重化解除部21およびデコード部31,32,33,34等)の切り替えを行うことができる。そして、データの切り替えに必要な時間を短縮することができる。   In this way, the processing system (the demultiplexing unit 21 and the decoding units 31, 32, 33, 34, etc.) can be switched in parallel with the preparation for reading data such as a seek. Then, the time required for data switching can be reduced.

この例では、MPTそのものをタイムテーブルTMに格納している。他の方法として、MPT内に記載されているアセットを分離するための情報と、GOPの表示開始の時刻とを、タイムテーブルTMに格納する。GOPの表示を開始する時刻をタイムテーブルTMの時刻として使用することもできる。このように、アセット情報を取出してタイムテーブルTMに格納する方法がある。   In this example, the MPT itself is stored in the time table TM. As another method, information for separating the assets described in the MPT and the time at which the display of the GOP is started are stored in the time table TM. The time at which the display of the GOP is started may be used as the time in the time table TM. As described above, there is a method of extracting asset information and storing it in the time table TM.

また、他の方法として、別のテーブルにMPTまたはアセット情報を記録する。そして、タイムテーブルTMには該当するMPT情報またはアセット情報への参照を持たせる方法がある。また、参照ではなく、同一の時刻で検索できる別のタイムテーブルを用意して、そちらにMPTまたはアセット情報を記録する方法がある。MPTには複数GOPの表示開始の時刻が格納されている。これらの一部またはすべてをタイムテーブルTMに格納しても良い。   As another method, the MPT or asset information is recorded in another table. Then, there is a method in which the time table TM has a reference to the corresponding MPT information or asset information. In addition, there is a method of preparing another time table that can be searched at the same time, instead of referencing, and recording MPT or asset information there. The MPT stores the display start time of a plurality of GOPs. Some or all of them may be stored in the time table TM.

同様に、HDRパラメーター等によってテレビの制御を変更する場合でも、バックライトの輝度の変更または液晶の駆動電圧の設定変更に時間がかかる場合がある。その場合には、HDRパラメーター等をタイムテーブルTMに格納する。これによって、事前にテレビの制御を行うことが可能となる。図12では、タイムテーブルTMのメタデータ領域が、これらのパラメーターを格納する領域の一例として示されている。   Similarly, even when the control of the television is changed by the HDR parameter or the like, it may take time to change the luminance of the backlight or the setting of the driving voltage of the liquid crystal. In that case, the HDR parameters and the like are stored in the time table TM. This makes it possible to control the television in advance. FIG. 12 shows a metadata area of the time table TM as an example of an area for storing these parameters.

特殊再生を行う場合には、GOP内でIRAP画像(IRAPピクチャ)のみを再生して、他の画像を表示しない場合がある。特殊再生は、例えば、早送りまたは巻き戻し等である。IRAP画像は、デコードの順番で最初の画像である。また、IRAP画像は、データ配置の順番でもGOPの先頭に置かれる。つまり、IRAP画像は、GOPの先頭に位置している。また、IRAP画像は、他の画像に依存しない。このため、IRAP画像は、単独でデコード可能である。この場合には、IRAP画像の位置は、タイムテーブルTMから読み取れる。   When performing special reproduction, there is a case where only an IRAP image (IRAP picture) is reproduced in a GOP and other images are not displayed. The trick play is, for example, fast forward or rewind. The IRAP image is the first image in decoding order. The IRAP image is also placed at the head of the GOP in the order of data arrangement. That is, the IRAP image is located at the head of the GOP. Also, an IRAP image does not depend on other images. Therefore, the IRAP image can be decoded independently. In this case, the position of the IRAP image can be read from the time table TM.

しかし、効率よく読み飛ばすためには、IRAP画像の末尾がわかる方が便利である。そこで、IRAP画像のサイズまたはIRAP画像の末尾をタイムテーブルTMに格納する。これによって、効率よく特殊再生を行うことができる。図12では、タイムテーブルTMのIRAPサイズ欄がこのデータを格納する領域の一例として示されている。   However, it is more convenient to know the end of the IRAP image in order to skip the reading efficiently. Therefore, the size of the IRAP image or the end of the IRAP image is stored in the time table TM. As a result, trick play can be performed efficiently. In FIG. 12, the IRAP size column of the time table TM is shown as an example of an area for storing this data.

映像を構成する画像データがスライスとして記録されている場合には、スライス単位でデータにアクセスできた方が良い場合がある。「スライス」とは、画像データがデコード可能な状態で分割されていることである。特殊再生用として考えた場合には、例えば、GOP内のIRAP画像の特定のスライスのみを再生して、他のスライスを表示しない方法がある。特殊再生は、例えば、早送りまたは巻き戻しなどである。   When image data constituting a video is recorded as a slice, it may be better to access the data in slice units. “Slice” means that the image data is divided in a decodable state. When considered for special reproduction, for example, there is a method of reproducing only a specific slice of an IRAP image in a GOP and not displaying other slices. The trick play is, for example, fast forward or rewind.

この場合には、GOPの先頭にあるIRAP画像のデータとスライスとの各々の位置およびサイズをタイムテーブルTMに格納するこれによって、効率よく特殊再生を行うことが可能となる。図12では図示していないが、例えば、タイムテーブルTMのIRAPサイズ欄を拡張して、このデータを格納することができる。   In this case, the position and size of each of the data and the slice of the IRAP image at the head of the GOP are stored in the time table TM, so that the special reproduction can be performed efficiently. Although not shown in FIG. 12, for example, the data can be stored by expanding the IRAP size column of the time table TM.

早送り、巻き戻しをなめらかに行うために、IRAP画像に加えて、GOPに含まれている非IRAPのIピクチャまたは非IRAPのPピクチャを表示することもある。この場合には、IピクチャおよびPピクチャの各々の開始位置、サイズまたは末尾の位置をタイムテーブルTMに格納する。これによって、効率よく特殊再生を行うことが可能となる。   In order to smoothly perform fast-forward and rewind, a non-IRAP I-picture or a non-IRAP P-picture included in a GOP may be displayed in addition to an IRAP image. In this case, the start position, size, or end position of each of the I picture and the P picture is stored in the time table TM. This makes it possible to perform trick play efficiently.

図12では図示していないが、例えば、タイムテーブルTMのIRAPサイズ欄を拡張して、これらのデータを格納することができる。または、別途、Iピクチャ用またはPピクチャ用の位置、サイズまたは末尾の位置を示すテーブルを用意する。そして、タイムテーブルTMには、このテーブルへの参照を格納することもできる。   Although not shown in FIG. 12, for example, these data can be stored by expanding the IRAP size column of the time table TM. Alternatively, a table indicating the position, size, or end position for an I picture or a P picture is separately prepared. The time table TM can also store a reference to this table.

次に、HDDまたは光ディスク等のディスクデバイスに、この実施の形態2でのMMTストリームを格納することを考える。   Next, storage of the MMT stream according to the second embodiment in a disk device such as an HDD or an optical disk will be considered.

多くのディスクフォーマットでは、固定サイズのデータブロックをアクセス単位としている。このアクセス単位は、セクタ、ブロック、クラスタまたはページ等と呼ばれている。ここでは、単に「ブロック」と呼ぶ。例えば、ブルーレイディスク規格では6144Byteをアラインドユニット(Aligned Unit)と呼び、1つの記録単位として取り扱う。また、ブルーレイディスク規格およびUDF規格では、1ブロック2048Byteが良く使われる。UDF(Universal Disk Format)は、光ディスク用のファイルシステムである。   Many disk formats use fixed-size data blocks as access units. This access unit is called a sector, block, cluster, page, or the like. Here, it is simply called a “block”. For example, according to the Blu-ray Disc standard, 6144 Byte is called an aligned unit and is handled as one recording unit. In the Blu-ray Disc standard and the UDF standard, 2048 bytes per block is often used. UDF (Universal Disk Format) is a file system for optical disks.

ランダムアクセスを行う場合には、データの境界をこのブロックに合わせることで効率よくアクセスする事ができる。また、ディスクデバイスの構造だけでなく、例えば、暗号化の単位としてブロックサイズが決められることもある。この場合でも、アクセスの単位としてブロック境界に合わせてデータにアクセスできると効率が良い。このようなアクセス効率などを考慮してデータのサイズまたはデータを格納する位置を決めることをアライメントと呼ぶ。   In the case of performing random access, efficient access can be achieved by aligning data boundaries with this block. In addition, not only the structure of the disk device but also a block size may be determined as an encryption unit, for example. Even in this case, it is efficient if data can be accessed in accordance with a block boundary as a unit of access. Determining the data size or data storage position in consideration of such access efficiency and the like is called alignment.

トランスポートストリーム(TS)を記録する場合には、32個のTSパケットが接続されて、6144Byteのデータとなる。TSパケットは、192Byteである。これによって、UDFの3つのブロックに効率よく記録できる。UDFの1つのブロックは、2048Byteである。MMTPパケットは、可変長パケットである。このため、単純にパケットの数でブロックの境界に合わせることができない。   When recording a transport stream (TS), 32 TS packets are connected to form 6144 bytes of data. The TS packet is 192 bytes. This allows efficient recording in three blocks of the UDF. One block of the UDF is 2048 bytes. The MMTP packet is a variable length packet. For this reason, it is not possible to simply match the block boundaries with the number of packets.

図12で示したように、ランダムアクセスを行う場合には、GOPの先頭へのアクセスを効率的に行うことが望ましい。しかし、GOP内のどの画像から再生する場合でも、GOPの先頭からデータを読み出す必要がある。そこで、GOP単位でブロックの境界に合わせて記録することを考える。   As shown in FIG. 12, when performing random access, it is desirable to efficiently access the head of the GOP. However, when reproducing from any image in the GOP, it is necessary to read data from the head of the GOP. Therefore, recording is performed in GOP units in accordance with block boundaries.

図14(A)に、GOPをデータアクセスの単位として、GOPの先頭がブロックサイズの整数倍になるようにしたMMTストリームを記録したファイルの一例を示す。   FIG. 14A shows an example of a file recording an MMT stream in which the GOP is set as a unit of data access and the head of the GOP is an integral multiple of the block size.

図14(A)は、MMTストリームを記録したファイルのデータの一部を示している。図14(A)の左側がファイル前方に、右側がファイル後方に対応している。MMTストリームのパケットは、例えば、図14(A)の左側から右側に向けて順次記録されている。図14(A)は記録されているデータの一部のみを記載している。実際には、このデータ構造が多数繰り返して記録されている。   FIG. 14A shows a part of data of a file in which an MMT stream is recorded. The left side of FIG. 14A corresponds to the front of the file, and the right side corresponds to the back of the file. The packets of the MMT stream are sequentially recorded, for example, from left to right in FIG. FIG. 14A shows only a part of the recorded data. In practice, this data structure is repeatedly recorded.

図14(A)中の符号Bbはブロック境界を示している。また、「n1」、「n2」、「n3」、「n4」、「n5」および「nm」は整数を示している。「m」は正の整数である。「×」は乗算を示している。そのため、「ブロック×n」は、データがブロックサイズの整数倍になっている事を示している。   A symbol Bb in FIG. 14A indicates a block boundary. “N1”, “n2”, “n3”, “n4”, “n5” and “nm” indicate integers. “M” is a positive integer. “×” indicates multiplication. Therefore, “block × n” indicates that the data is an integral multiple of the block size.

GOPの先頭がブロックの境界となるようにアライメントする場合には、GOPのデータサイズが必ずしもブロックサイズの整数倍とならない。このため、図14中のパディング(Pad)を用いる。「パディング」とは、データをアライメントするために、意図的に無効領域を作ることである。パディングにはいくつかの方式がある。例えば、1つとして、無効を示すデータを記録する方式である。また、他には、OSまたはファイルシステムが無効なデータ領域を管理する方式などがある。   When the alignment is performed so that the head of the GOP is at the boundary of the block, the data size of the GOP is not always an integral multiple of the block size. Therefore, padding (Pad) in FIG. 14 is used. "Padding" is to intentionally create an invalid area in order to align data. There are several types of padding. For example, one method is to record data indicating invalidity. In addition, there is a method of managing an invalid data area by the OS or the file system.

図14(A)の例では、GOP単位でブロックにアライメントしている。このため、GOP単位でのランダムアクセスを効率よく行うことができる。なお、この例では、映像データについてのみ説明を行っている。しかし、実際には、図11に示すように、映像データ、音声データおよび字幕データなどが多重化され混在している。   In the example of FIG. 14A, the blocks are aligned on a GOP basis. Therefore, random access in GOP units can be efficiently performed. In this example, only the video data is described. However, actually, as shown in FIG. 11, video data, audio data, subtitle data, and the like are multiplexed and mixed.

そのため、映像データの区切り位置でストリームデータを分割した場合には、映像以外の音声データまたは字幕データに関しては、適切な区切り位置で分割されるとは限らない。そのため、ランダムアクセス時に音声または字幕が遅れて再生される可能性がある。通常、音声または字幕の再生が遅れても、映像とのずれが発生しなければ問題とならない。このため、ここでは、映像の区切り位置を基に、他のデータも一固まりのデータとして取り扱う。   Therefore, when the stream data is divided at the break position of the video data, the audio data other than the video or the subtitle data is not always divided at the appropriate break position. Therefore, at the time of random access, there is a possibility that audio or subtitles will be reproduced with a delay. Usually, even if the reproduction of audio or subtitles is delayed, there is no problem as long as there is no deviation from the video. For this reason, here, other data is also handled as a set of data based on the video delimiter position.

図14(B)は、画像単位でアライメントしたMMTストリームを記録したファイルの一例を示す。図14(B)では、ピクチャ(AU)とパディングとの組み合わせがブロックの整数倍となっている。この場合には、画像単位でのアクセスが必要な時に効率が良い。   FIG. 14B shows an example of a file in which an MMT stream aligned in image units is recorded. In FIG. 14B, the combination of the picture (AU) and padding is an integral multiple of the block. In this case, efficiency is high when access in units of images is required.

AUは、圧縮データの意味のある固まりの1種である。画像(ピクチャ)データの場合には、1枚分の画像である。つまり、AUは、IRAPピクチャ、Iピクチャ、PピクチャまたはBピクチャのいずれかになる。   AU is one type of meaningful chunk of compressed data. In the case of image (picture) data, it is one image. That is, the AU is one of an IRAP picture, an I picture, a P picture, and a B picture.

この図14(B)では、画像の単位ですべてのアライメントを行った。しかし、ランダムアクセスの時に重要になるのはIRAPピクチャである。IRAPピクチャは、GOPの先頭に置かれる。そのため、IRAPピクチャとそれ以外のピクチャをまとめたものとの2つに分けてアライメントを行うこともできる。   In FIG. 14B, all alignments are performed in image units. However, what is important at the time of random access is the IRAP picture. An IRAP picture is placed at the beginning of a GOP. Therefore, it is possible to perform alignment separately into two, that is, an IRAP picture and a group of other pictures.

図14(C)に、IRAPピクチャの先頭、Iピクチャの先頭およびPピクチャの先頭をブロック境界にアライメントを行った。図14(C)は、Iピクチャを「I」と示し、Pピクチャを「P」と示し、Bピクチャを「B」と示す。早送りまたは巻き戻しなどの場合に、IRAPピクチャだけではなく、IピクチャまたはPピクチャ等を利用する場合に効率が良い。この図14(C)では、IRAPピクチャの先頭、Pピクチャの先頭または非IRAPのIピクチャの先頭でアライメントを行っている。しかし、Pピクチャ先頭またはIピクチャ先頭でのアライメントを省略しても良い。   In FIG. 14C, the alignment is performed with the head of the IRAP picture, the head of the I picture, and the head of the P picture as block boundaries. FIG. 14C illustrates an I picture as “I”, a P picture as “P”, and a B picture as “B”. In the case of fast-forwarding or rewinding, efficiency is high when not only an IRAP picture but also an I picture or a P picture is used. In FIG. 14C, alignment is performed at the head of an IRAP picture, the head of a P picture, or the head of a non-IRAP I picture. However, the alignment at the head of the P picture or the head of the I picture may be omitted.

図14(D)に、スライス単位でアクセスすることを考えてアライメントを設定したMMTストリームを記録したファイルの一例を示す。映像がスライス構成となっている場合には、スライス単位でのアクセスを効率よく行うことができる。   FIG. 14D shows an example of a file in which an MMT stream in which alignment is set in consideration of access in slice units is recorded. When the video has a slice configuration, access can be efficiently performed in slice units.

図14(D)で、画像(ピクチャ)データの最初には、非VCLデータが記載されている。非VCLデータは、AUD、VPSまたはSPSなどのパラメーター類である。後続のスライス#1からスライス#4は、VCLデータである。VCLデータは、圧縮された画像データである。   In FIG. 14D, non-VCL data is described at the beginning of image (picture) data. The non-VCL data is parameters such as AUD, VPS or SPS. Subsequent slices # 1 to # 4 are VCL data. VCL data is compressed image data.

スライス単位でデコードを行う際にも、非VCLデータは各々のスライスをデコードする際に必要となる。例えば、スライス#2をデコードする際には、非VCLデータとスライス#2のデータとを組み合わせてデコードする。そのため、ここでは非VCLデータと、スライス#1からスライス#4とでそれぞれアライメントを行っている。   Even when decoding is performed in units of slices, non-VCL data is required when decoding each slice. For example, when decoding slice # 2, non-VCL data and data of slice # 2 are combined and decoded. Therefore, here, alignment is performed for the non-VCL data and slice # 1 to slice # 4.

実際には、非VCLデータは各スライスと比べて非常に小さいことが多い。また、スライス#1のデコードを行う前には、非VCLデータを必要とする。このことから、非VCLデータとスライス#1とをまとめてアライメントを行うことも考えられる。   In practice, non-VCL data is often very small compared to each slice. Before decoding slice # 1, non-VCL data is required. For this reason, it is conceivable to perform alignment of the non-VCL data and slice # 1 collectively.

スライス単位でのアライメントは、必ずしも全てのピクチャで行う必要はない。例えば、IRAPピクチャのみをスライス単位でのアライメントに用いることも考えられる。なぜなら、IRAPピクチャは、サイズの大きく、ランダムアクセスに用いられるからである。   Alignment in slice units does not necessarily need to be performed for all pictures. For example, it is conceivable to use only the IRAP picture for alignment in slice units. This is because the IRAP picture has a large size and is used for random access.

MMTPパケット単位でアライメントする方法も考えられる。MMTPパケットは、規格によってデータ量が異なる。例えば、放送規格案でのMMTPパケットの最大値は、約1500Byteである。   A method of performing alignment in units of MMTP packets is also conceivable. The data amount of the MMTP packet differs depending on the standard. For example, the maximum value of the MMTP packet in the proposed broadcasting standard is about 1500 bytes.

例えば、2048Byteブロックを想定してアライメントを行った場合には、全データ量に占めるパディングの量が大きくなる。そして、記録効率が悪くなる。   For example, when alignment is performed assuming a 2048-byte block, the amount of padding in the entire data amount becomes large. Then, the recording efficiency deteriorates.

一方、パケット単位でのアクセスは効率よく行える。つまり、MMTPパケット単位でのアライメントは、パケット単位でのデータ加工が必要となる場合などの一時的なデータの格納に適している。パケット単位でのデータ加工は、例えば、記録再生時または編集時などに行われる。   On the other hand, access in packet units can be performed efficiently. That is, the alignment in MMTP packet units is suitable for temporary data storage when data processing in packet units is required. Data processing in packet units is performed, for example, at the time of recording / reproduction or editing.

タイムテーブルTMおよびアライメントを用いることによって、時刻を指定したデータの再生を効率よく行うことができる。   By using the time table TM and the alignment, it is possible to efficiently reproduce the data with the specified time.

ブルーレイディスクでは、この実施の形態2のタイムテーブルTMに相当する仕組みとして対応表(EPマップ、EP_map)を持っている。このEPマップは、再生位置をシステムクロックとTSパケットの位置とで示している。再生位置は、PTS(表示開始の時刻)とそのデータとを読み出すための位置である。   The Blu-ray disc has a correspondence table (EP map, EP_map) as a mechanism corresponding to the time table TM of the second embodiment. This EP map indicates the reproduction position by the system clock and the position of the TS packet. The reproduction position is a position for reading a PTS (display start time) and its data.

EPマップは、時刻を指定したジャンプ、ランダムアクセスまたはプレイリストによる再生などに用いられている。ランダムアクセスは、例えば、早送りまたは巻き戻しなどである。プレイリストは、ストリームの再生部分と再生順とを決めたリストである。   The EP map is used for jumping at a specified time, random access, or reproduction using a playlist. The random access is, for example, fast forward or rewind. The play list is a list in which the reproduction portions and the reproduction order of the stream are determined.

ブルーレイディスクのEPマップでは、時刻および再生位置のデータ形式がMMTの場合とは異なっている。しかし、時刻を指定して再生位置のデータを取得する仕組みはこの実施の形態2で説明したタイムテーブルTMを用いる場合と同じ考え方である。   In the EP map of the Blu-ray disc, the data format of the time and the reproduction position is different from the case of the MMT. However, the mechanism for acquiring the data of the reproduction position by designating the time is the same concept as when using the time table TM described in the second embodiment.

タイムテーブルTMをEPマップと類似の構造とすることによって、これら再生の仕組みを大幅に変更することなく、ブルーレイディスクにMMT形式の放送を記録し再生することができる。   By making the time table TM similar in structure to the EP map, it is possible to record and reproduce MMT-format broadcasts on a Blu-ray disc without significantly changing these playback mechanisms.

例えば、MMTの再生の時刻形式は、放送時の絶対時刻(世界時刻)である。一方、ブルーレイディスクのEPマップでは、内部クロックを用いた相対時刻である。そこで、タイムテーブルTMの時刻の表記を相対時刻の表記に換算する。または、絶対時刻と相対時刻との換算用のデータを別途持たせる。または、ブルーレイディスクで使用する再生の時刻情報を、絶対時刻の形式に変更する。   For example, the time format of the reproduction of the MMT is the absolute time (world time) at the time of broadcasting. On the other hand, in the EP map of the Blu-ray disc, the relative time using the internal clock is used. Therefore, the notation of the time in the time table TM is converted to the notation of the relative time. Alternatively, data for conversion between the absolute time and the relative time is separately provided. Alternatively, the playback time information used on the Blu-ray disc is changed to an absolute time format.

実施の形態3.
日本の新しい放送方式では、多重化方式およびエンコード方式が変更されている。また、日本の新しい放送方式では、伝送レートも引きあげられている。例えば、ARIB TR B−39によると、4K放送では35Mbpsの伝送レートが想定され、8K放送では100Mbpsの伝送レートが想定されている。
Embodiment 3 FIG.
In a new broadcasting system in Japan, the multiplexing system and the encoding system have been changed. In Japan's new broadcasting system, the transmission rate has also been raised. For example, according to ARIB TR B-39, a transmission rate of 35 Mbps is assumed for 4K broadcasting, and a transmission rate of 100 Mbps is assumed for 8K broadcasting.

一方、現在市販されているBDXL(登録商標)のディスクでは、光ディスクの伝送レートは、140Mbps前後である。   On the other hand, with a BDXL (registered trademark) disk currently on the market, the transmission rate of the optical disk is around 140 Mbps.

そのため、8K放送を録画したディスクを再生する場合には、通常の再生では問題がなく、再生可能である。しかし、8K放送を録画したディスクで早送りなどの特殊再生を行うと、1コマ分の画像を表示するのに時間がかかってしまうという問題がある。   Therefore, when reproducing a disk on which 8K broadcast is recorded, normal reproduction has no problem and can be reproduced. However, when special playback such as fast-forwarding is performed on a disc on which 8K broadcast is recorded, there is a problem that it takes time to display an image for one frame.

特開2000−125259には、記録媒体の記録領域を所定のデータサイズに分割し、記録時にストリームを解読して、Iピクチャであることを表すPCT(ピクチャタイプコード)を含むTSパケットを、セクタの先頭から記録すると共に、そのセクタの先頭アドレスを示すポインタを、記録媒体上に設けたテーブルに登録する。そして、この様に記録した記録媒体を用いた早送り、早戻し等の特殊再生動作は、ポインタテーブルからポインタアドレスを読み出し、そのポインタが示すセクタから一枚のIピクチャのみを再生し、その後次々とポインタが示すセクタを順次再生することが記載されている。   Japanese Patent Application Laid-Open No. 2000-125259 discloses that a recording area of a recording medium is divided into a predetermined data size, a stream is decoded at the time of recording, and a TS packet including PCT (picture type code) indicating an I picture is And a pointer indicating the start address of the sector is registered in a table provided on the recording medium. Then, special playback operations such as fast forward and fast rewind using the recording medium recorded in this way read a pointer address from a pointer table, reproduce only one I picture from a sector indicated by the pointer, and thereafter successively. It describes that the sectors indicated by the pointer are sequentially reproduced.

このように、早送りなど特殊再生を行う際には、Iピクチャのみを再生する方法が取られる事が多い。Iピクチャは、映像ストリームのランダムアクセスポイントにある。早送り速度に応じて、通常の早送り(FF、Fast Foward)では、全てのIピクチャを表示する。また、2倍速の早送り(FF×2)では、Iピクチャを1つ飛ばしで表示する。また、3倍速の早送り(FF×3)では、Iピクチャを2つ飛ばしで表示する。このようにして、早送り時の再生速度の調整を行う。   As described above, when performing special reproduction such as fast forward, a method of reproducing only an I picture is often adopted. The I picture is at a random access point in the video stream. In normal fast-forward (FF, Fast Forward), all I-pictures are displayed according to the fast-forward speed. In double speed fast forward (FF × 2), one I picture is skipped and displayed. In the case of triple-speed fast-forward (FF × 3), two I pictures are skipped and displayed. In this way, the reproduction speed at the time of fast forward is adjusted.

しかしながら、GOP内でのIピクチャの比率が大きい場合には、Iピクチャの読み出しに時間がかかり、画像(Iピクチャ)の更新間隔が長くなる。   However, when the ratio of the I pictures in the GOP is large, it takes time to read the I pictures, and the update interval of the image (I picture) becomes long.

実施の形態3に係る映像再生装置は、特殊再生の際に、Iピクチャの読み出し時間を短くし、画像(Iピクチャ)の更新間隔を短くすることができる。   The video playback device according to Embodiment 3 can shorten the read time of an I picture and the update interval of an image (I picture) during special playback.

従来の早送り再生では、再生可能なIピクチャのディスク上の位置をテーブルで管理している。そして、そのテーブルを用いて、順次、Iピクチャのデータを読み出している。   In the conventional fast-forward reproduction, the position of a reproducible I picture on a disk is managed in a table. Then, I-picture data is sequentially read out using the table.

光ディスクでは、読み出し位置を変更する際には、ヘッドの移動に時間が必要である。このヘッドの移動時間をシークタイムと呼ぶ。   In the case of an optical disc, when the read position is changed, it takes time to move the head. The moving time of the head is called a seek time.

画面上での早送り画像の更新間隔は、次の式1ようになる。
更新間隔 = シークタイム+Iピクチャデータの読み出し時間+デコード時間 ・・・(1)
The update interval of the fast-forward image on the screen is represented by the following equation 1.
Update interval = seek time + read time of I picture data + decode time (1)

4K/8K放送では、従来の2K放送よりもIピクチャのサイズが大きい。そのため、Iピクチャのサイズが大きい場合には、Iピクチャの読み出しに時間がかかり、画像(Iピクチャ)の更新間隔が長くなる。   In the 4K / 8K broadcast, the size of the I picture is larger than that in the conventional 2K broadcast. Therefore, when the size of the I picture is large, it takes time to read the I picture, and the update interval of the image (I picture) becomes long.

また、映像ストリームのデータレートとディスクからの最高読み出し速度との差が少ない場合にも、Iピクチャの読み出し時間が長くなり、画像の更新間隔が長くなる。例えば、100Mbpsの放送ストリームを最高読み出し速度140Mbpsの光ディスクから読み出す場合には、1.4倍の速度でしか読み出す事ができない。   Also, when the difference between the data rate of the video stream and the maximum reading speed from the disk is small, the reading time of the I picture becomes longer, and the image update interval becomes longer. For example, when a broadcast stream of 100 Mbps is read from an optical disk having a maximum read speed of 140 Mbps, it can be read only at a speed of 1.4 times.

このように、4K/8K映像を光ディスクに記録した場合には、特殊再生時の画像の更新間隔が従来よりも長くなる。その一方で、放送を記録した映像の再生時には、早送りなど特殊再生の操作が行われる事が多い。そして、利用者が目的のシーンを特定する際には、画像の更新間隔は短い方が望ましい。   As described above, when 4K / 8K video is recorded on the optical disc, the update interval of the image at the time of special reproduction becomes longer than before. On the other hand, when playing back a video recorded with a broadcast, special playback operations such as fast forward are often performed. When the user specifies a target scene, it is desirable that the image update interval be short.

画像の更新間隔が長い場合には、利用者が早送りを使ってシーンを検索する際に、目的のシーンを見つける事が難しくなってしまう。   If the image update interval is long, it becomes difficult for the user to find the target scene when searching for a scene using fast forward.

この実施の形態3では、早送り再生などの特殊再生の際に、目的のシーンを見つける事が容易で、操作性の良い映像再生装置を提供する事を目的としている。   In the third embodiment, it is an object to provide a video playback device that can easily find a target scene and has good operability during special playback such as fast-forward playback.

利用者の観点から早送り時の画像の更新間隔について整理する。例えば、本来の再生時間が100秒の映像を10秒で再生する早送りを考える。ここでは仮に10倍速早送りと呼ぶ。   From the user's point of view, the update interval of the image at the time of fast forward is arranged. For example, consider fast-forwarding in which a video whose original playback time is 100 seconds is played back in 10 seconds. Here, it is tentatively called 10-times fast forward.

通常、利用者は早送り中の映像を確認して、目的のシーンが現れた時点で早送り解除する。つまり、通常の再生速度に戻す。早送り再生の時には、表示される映像は間欠的な映像となる。しかし、表示されるシーンを利用者が認識するには、時間的な情報の欠落は少ない方が容易である。また、早送り操作が終了した後、早送りが解除されて通常再生に戻る位置のずれも少なくできる。   Normally, the user checks the video being fast-forwarded and cancels the fast-forward when a target scene appears. That is, the normal reproduction speed is restored. At the time of fast-forward playback, the displayed video is intermittent. However, it is easier for the user to recognize the scene to be displayed, with less temporal information missing. Further, after the fast-forward operation is completed, the shift of the position at which the fast-forward is released and the normal playback is returned can be reduced.

例えば、10倍速早送りに対して考える。早送り中の画像の更新間隔が1秒であれば、通常の再生時間の10秒に対して1コマ表示される。これに対して、早送り中の画像の更新間隔が0.5秒であれば、通常の再生時間の5秒に対して1コマが表示される。   For example, consider fast forward at 10 times speed. If the update interval of the fast-forwarding image is 1 second, one frame is displayed for 10 seconds of the normal reproduction time. On the other hand, if the update interval of the fast-forwarding image is 0.5 seconds, one frame is displayed for the normal reproduction time of 5 seconds.

早送り再生の際に、利用者が目的のシーンを見つけるためには、通常の再生時間当たりから抜き出されるコマ(画像)数が多い方が有利である。このように、早送り再生時に、多くの画像を表示することによって、操作性を向上させる事ができる。つまり、更新間隔を短くすることによって、操作性を向上させる事ができる。   At the time of fast-forward playback, in order for the user to find a target scene, it is advantageous that the number of frames (images) extracted from the normal playback time is large. In this way, operability can be improved by displaying many images during fast-forward playback. That is, operability can be improved by shortening the update interval.

4K/8K放送では、分割デコードを想定して、複数のスライスセグメントを持ったストリーム形式を規定している。   In 4K / 8K broadcasting, a stream format having a plurality of slice segments is defined assuming divisional decoding.

例えば、1つの画像を4分割する場合には、縦と横とに2分割(以下、田の字型ともよぶ。)して4分割の画像を作成する。または、1つの画像を縦方向に4分割(以下目の字型ともよぶ。)する。そして、それぞれのスライスセグメント単位で、独立してデコードできるようになっている。これは、2K用のデコーダーを4つ用いて4K映像のデコードを行い、4K用のデコーダーを4つ用いて8K映像のデコードを行えるようにするための配慮である。   For example, when one image is divided into four parts, the image is divided into two parts in the vertical and horizontal directions (hereinafter also referred to as a cross-shaped) to create a four-part image. Alternatively, one image is divided into four in the vertical direction (hereinafter also referred to as a character shape). Then, decoding can be performed independently for each slice segment. This is a consideration for decoding 4K video using four 2K decoders and decoding 8K video using four 4K decoders.

これらの複数のスライスセグメントを持つ放送ストリームを光ディスクに記録した場合には、スライスセグメント単位でデータを読む出す事が出来れば、一部のスライスセグメントだけを再生することが可能である。   When a broadcast stream having these plurality of slice segments is recorded on an optical disc, if data can be read out in units of slice segments, it is possible to reproduce only some of the slice segments.

これを特殊再生時に使用すれば、更新される画像は通常の再生で表示されている画像の一部になる。しかし、式(1)の「Iピクチャデータの読み出し時間」を4分の1にすることができる。そして、特殊再生時の画像の更新間隔を短縮することができる。   If this is used during special playback, the updated image will be part of the image displayed in normal playback. However, the “I-picture data read time” in equation (1) can be reduced to a quarter. And the update interval of the image at the time of special reproduction can be shortened.

図15は、実施の形態3に係る映像ストリームの模式図である。   FIG. 15 is a schematic diagram of a video stream according to Embodiment 3.

多重化方式としてはTS方式およびMMT方式の両方が考えられる。しかし、図15では、固有のヘッダ情報などを省略している。また、パディング等も省略している。   As the multiplexing method, both the TS method and the MMT method can be considered. However, in FIG. 15, unique header information and the like are omitted. Also, padding and the like are omitted.

放送の場合には、1つのGOPは約60フレーム(画像またはピクチャ)まで含む事ができる。そして、1つのGOPの中に、少なくとも1つのIピクチャを含む。特に、デコードの際に開始点となるIピクチャはIRAPピクチャ(IRAP画像)と呼ばれる。そして、データ順では、通常、IRAPピクチャはGOPの先頭に配置されている。   In the case of broadcasting, one GOP can include up to about 60 frames (image or picture). One GOP includes at least one I picture. In particular, an I picture that is a starting point at the time of decoding is called an IRAP picture (IRAP picture). In the data order, the IRAP picture is usually arranged at the head of the GOP.

Iピクチャ(IRAPピクチャを含む)、BピクチャおよびPピクチャは、それぞれフレーム(画像またはピクチャ)を表す。   An I picture (including an IRAP picture), a B picture, and a P picture each represent a frame (image or picture).

Iピクチャは、単独でデコード可能な独立した画像を示す。一方、BピクチャおよびPピクチャは、他の画像に依存している。BピクチャおよびPピクチャは、他の画像との差分データである。このため、BピクチャおよびPピクチャは、単独ではデコードすることができない。   The I picture indicates an independent image that can be decoded independently. On the other hand, B pictures and P pictures are dependent on other pictures. The B picture and the P picture are difference data from other images. Therefore, the B picture and the P picture cannot be decoded alone.

GOPは、GOPの中で画像間の依存関係が完結している。つまり、GOP内のすべての画像は、デコード可能となるデータのセットを構成している。   In the GOP, a dependency between images is completed in the GOP. That is, all images in the GOP constitute a set of data that can be decoded.

1つの画像が複数のスライスセグメントで構成されている場合には、それぞれの画像はパラメータセットと複数のスライスセグメントとで構成されている。パラメータセットと1つのスライスセグメントとを組み合わせる事で、スライスセグメントはデコード可能な単位となる。図15では、IRAPピクチャのみスライスセグメントの構造で記載している。しかし、BピクチャおよびPピクチャも、同様の構造を取ることができる。   When one image is composed of a plurality of slice segments, each image is composed of a parameter set and a plurality of slice segments. By combining the parameter set and one slice segment, the slice segment is a unit that can be decoded. In FIG. 15, only the IRAP picture is described in a slice segment structure. However, the B picture and the P picture can have the same structure.

デコーダーを4つ用いて並列でデコードする場合には、スライスセグメントごとにデータを取り出す。そして、それぞれのデータにパラメータセットを追加する。その後、それぞれのデータを個々のデコーダーに与える事によって、1つの画像を分割された状態でデコードすることができる。画像を表示する際には、個別にデコードされた画像を結合し、1つの画像にして表示する。   When decoding is performed in parallel using four decoders, data is extracted for each slice segment. Then, a parameter set is added to each data. Thereafter, by giving each data to each decoder, one image can be decoded in a divided state. When displaying images, individually decoded images are combined and displayed as one image.

図16には、縦横に4分割(田の字型)した例を示す。画像の左上には、スライス#1の画像が表示されている。画像の右上には、スライス#2の画像が表示されている。画像の左下には、スライス#3の画像が表示されている。画像の右下には、スライス#4の画像が表示されている。   FIG. 16 shows an example in which the image is divided into four in the vertical and horizontal directions (a cross-shaped). At the upper left of the image, the image of slice # 1 is displayed. At the upper right of the image, the image of slice # 2 is displayed. At the lower left of the image, the image of slice # 3 is displayed. At the lower right of the image, the image of slice # 4 is displayed.

図17には、縦方向に4分割(目の字型)した例を示す。画像の上から1番上には、スライス#1の画像が表示されている。画像の上から2番目には、スライス#2の画像が表示されている。画像の上から3番目には、スライス#3の画像が表示されている。画像の上から4番目には、スライス#4の画像が表示されている。   FIG. 17 shows an example in which the image is divided into four in the vertical direction (eye shape). At the top of the image, the image of slice # 1 is displayed. The second image from the top of the image displays the image of slice # 2. At the third position from the top of the image, the image of slice # 3 is displayed. At the fourth position from the top of the image, the image of slice # 4 is displayed.

なお、分割されていない映像ストリームの場合には、1つのピクチャデータ内にスライスセグメントが1つだけ存在している。   In the case of an undivided video stream, only one slice segment exists in one picture data.

このような分割されたスライスセグメント構造を持った映像ストリームでの特殊再生を考える。   A special reproduction in a video stream having such a divided slice segment structure will be considered.

前述の通り、操作性を向上させるためには、表示画像の更新間隔を短くする必要がある。従来では、Iピクチャ全体のデータを読み込み、Iピクチャ全体を表示していた。しかし、Iピクチャの第1スライスセグメント(スライスセグメント#1)のデータのみを読み込み、Iピクチャの第1スライスセグメント(スライスセグメント#1)のみを表示する事を考える。   As described above, in order to improve the operability, it is necessary to shorten the update interval of the display image. Conventionally, data of the entire I picture has been read and the entire I picture has been displayed. However, it is assumed that only the data of the first slice segment (slice segment # 1) of the I picture is read and only the first slice segment (slice segment # 1) of the I picture is displayed.

図18は、分割スライスセグメントの単位での読み出しに対応したタイムテーブル(TMS)の一例である。図19は、タイムテーブル(TMS)の各項目とデータ上との対応を示している。映像ストリームを記録する際に、映像ストリームの解析を行う。そして、時刻情報またはデータ区切り位置の情報などを取出してタイムテーブル(TMS)を作成する。   FIG. 18 is an example of a time table (TMS) corresponding to reading in units of divided slice segments. FIG. 19 shows the correspondence between each item of the time table (TMS) and the data. When recording a video stream, the video stream is analyzed. Then, a time table (TMS) is created by extracting the time information or information on the data separation position.

なお、タイムテーブルとして符号TMと符号TMSとの2種類を用いている。分割スライスセグメントに対応したタイムテーブルを符号TMと区別して符号TMSを用いている。タイムテーブルは、映像ストリームと一緒に記録メディアに記録される。記録メディアは、例えば、光ディスクなどである。   Note that two types of time tables, code TM and code TMS, are used. The time table corresponding to the divided slice segment is distinguished from the code TM by the code TMS. The time table is recorded on the recording medium together with the video stream. The recording medium is, for example, an optical disk.

タイムテーブル(TMS)の各項目について説明する。   Each item of the time table (TMS) will be described.

「時刻」は、各時刻の行が示すGOPの表示時刻である。時刻は、システムクロック形式の時刻情報、ntp形式の時刻情報またはストリームの先頭からの差分時間などの形で記録されている。時間を指定して再生を開始する場合には、この時刻欄を検索し、指定時間の近傍のデータから再生を開始する。   “Time” is the display time of the GOP indicated by the row at each time. The time is recorded in the form of time information in the system clock format, time information in the ntp format, or the time difference from the head of the stream. When the reproduction is started by designating the time, the time column is searched, and the reproduction is started from the data near the specified time.

なお、「時刻」は、ここではGOPの表示時刻とした。1つのGOPには、通常、複数の画像が含まれている。そして、それぞれの画像の表示時刻があるため、GOPには表示時刻が複数存在する。GOPの表示時刻としてタイムテーブルに記録する場合には、GOP内での表示の順番で先頭になる画像の表示時刻を使用することができる。または、デコードの順番で先頭になる画像の表示時刻を使用することができる。この場合には、先頭になる画像は、IRAPピクチャになる。   Here, “time” is the display time of the GOP. One GOP usually includes a plurality of images. Since there is a display time for each image, the GOP has a plurality of display times. When recording in the time table as the display time of the GOP, the display time of the first image in the order of display in the GOP can be used. Alternatively, the display time of the first image in the decoding order can be used. In this case, the leading image is an IRAP picture.

また、タイムテーブルに格納する「時刻」は、必ずしも、画像の表示時刻に一致する必要はない。例えば、画像の表示時刻そのものではなく、精度を落とした時刻情報または他のデータに対する時刻情報などを用いることができる。これらは、例えば、再生装置のシステムクロックの精度、データアクセスとの関係またはタイムテーブルに格納可能なデータ長などが考慮される。   The “time” stored in the time table does not necessarily need to match the display time of the image. For example, instead of the image display time itself, time information with reduced accuracy or time information for other data can be used. These factors take into account, for example, the accuracy of the system clock of the playback device, the relationship with the data access, or the data length that can be stored in the time table.

「IRAP開始位置」は、IRAPピクチャの格納位置である。IRAPピクチャの格納位置は、GOPのランダムアクセスポイントとなる。IRAPピクチャの格納位置は、通常、GOPの開始位置と同一となる。「IRAP終了位置」は、IRAPピクチャ全体のデータ末尾を示す。IRAP開始位置からIRAP終了位置までのデータを読み出すことによって、IRAPピクチャをデコードできるデータがそろう。   “IRAP start position” is a storage position of an IRAP picture. The storage position of the IRAP picture is a random access point of the GOP. The storage position of the IRAP picture is usually the same as the start position of the GOP. “IRAP end position” indicates the end of data of the entire IRAP picture. By reading the data from the IRAP start position to the IRAP end position, there is data that can decode the IRAP picture.

「#2開始位置」は、2つ目のスライスセグメント(スライス#2)の開始位置を示す。また、「#2開始位置」は、1つ目のスライスセグメント(スライス#1)の終了位置を示す。「#3開始位置」は、3つ目のスライスセグメント(スライス#3)の開始位置を示す。また、「#3開始位置」は、2つ目のスライスセグメント(スライス#2)の終了位置を示す。「#4開始位置」は、4つ目のスライスセグメント(スライス#4)の開始位置を示す。また、「#4開始位置」は、3つ目のスライスセグメント(スライス#3)の終了位置を示す。「#4終了位置」は、4つ目のスライスセグメント(スライス#4)の終了位置を表す。通常、この位置はIRAPピクチャの終了位置と同じである。   “# 2 start position” indicates the start position of the second slice segment (slice # 2). “# 2 start position” indicates the end position of the first slice segment (slice # 1). “# 3 start position” indicates the start position of the third slice segment (slice # 3). Further, “# 3 start position” indicates the end position of the second slice segment (slice # 2). “# 4 start position” indicates the start position of the fourth slice segment (slice # 4). Further, “# 4 start position” indicates the end position of the third slice segment (slice # 3). “# 4 end position” indicates the end position of the fourth slice segment (slice # 4). Usually, this position is the same as the end position of the IRAP picture.

「パラメータセット」には、IRAPピクチャのデータのパラメータセットが格納されている。パラメータセットには、例えば、AUD(Access Unit Delimiter)、VPS(Video Parameter Set)、SPS(Sequence Parameter Set)、PPS(Picture Parameter Set)、SEI(Supplemental Enhancement Information)またはEOS(End of Stream)などが含まれている。   The “parameter set” stores a parameter set of data of the IRAP picture. The parameter set includes, for example, an AUD (Access Unit Delimiter), a VPS (Video Parameter Set), an SPS (Sequence Parameter Set), a PPS (Picture Parameter Set Entrance Entrance Entrance), and a SEI (Supplemental Entrance Entrance Enhancement). include.

図19に示したタイムテーブル(TMS)では、スライスセグメントの終了位置を格納している。例えば、IRAPピクチャの終了位置とスライス#4の終了位置とである。しかし、終了位置の代わりにデータサイズをテーブルに格納し利用する方法を取ることもできる。   In the time table (TMS) shown in FIG. 19, the end position of the slice segment is stored. For example, the end position of the IRAP picture and the end position of slice # 4. However, a method of storing and using the data size in the table instead of the end position can be adopted.

開始位置および終了位置は、データの先頭からのバイト位置またはブロック位置などの形で記録されている。また、多重化方式にTSを採用している場合には、開始位置および終了位置は、TSパケットの位置などの形で記録されている。開始位置および終了位置は、データを読み出すのに必要な位置として記録されている。   The start position and the end position are recorded in the form of a byte position or a block position from the beginning of the data. Further, when the TS is used as the multiplexing method, the start position and the end position are recorded in the form of the position of the TS packet. The start position and the end position are recorded as positions necessary for reading data.

セグメントのデータ位置を示す情報に関しては、GOPの先頭からの相対位置とすることができる。これによって、位置情報のデータサイズを小さくする事が出来る。   The information indicating the data position of the segment can be a relative position from the head of the GOP. As a result, the data size of the position information can be reduced.

光ディスクでは、ある程度まとまったデータ単位でデータの読み込みを行う。このため、位置に関しては必ずしも厳密である必要はない。位置を示す単位を大きくして、位置情報のデータ量を削減することも可能である。   In the optical disk, data is read in a unit of data to some extent. For this reason, the position does not necessarily have to be strict. It is also possible to reduce the data amount of the position information by increasing the unit indicating the position.

この例では、単一のタイムテーブルにスライスセグメントに関する情報も記録している。しかし、スライスセグメント情報を別のテーブルに格納することも可能である。この場合には、タイムスタンプ情報またはテーブル内でのエントリー位置などで、同一のGOPおよびIRAPピクチャに関する情報を取り出せるようにしておく。   In this example, information on slice segments is also recorded in a single time table. However, it is also possible to store the slice segment information in another table. In this case, information about the same GOP and IRAP picture can be extracted from the time stamp information or the entry position in the table.

パラメータセットを、さらに別テーブルに格納する方法も考えられる。なぜなら、パラメータセットは、位置情報に比べるとサイズが大きいからである。また、パラメータセットは、画像によってデータ長が変化するからである。   A method of storing the parameter set in another table is also conceivable. This is because the parameter set has a larger size than the position information. Also, the data length of the parameter set changes depending on the image.

Iピクチャのスライスセグメント#1のみを用いて早送り再生を行う場合には、タイムテーブルで必要な情報は時刻、IRAP開始位置および#2開始位置である。この場合には、#2開始位置はスライスセグメント#1の終了位置として利用される。   When fast-forward playback is performed using only the slice segment # 1 of the I-picture, the information required in the time table is the time, the IRAP start position, and the # 2 start position. In this case, the start position of # 2 is used as the end position of slice segment # 1.

図20を用いてスライスセグメント#1のみを用いた早送り再生の説明を行う。GOP(01)からGOP(06)までは、ストリームデータである。本来、ストリームデータは一続きのデータファイルである。しかし、説明を容易にするため、GOP単位で行を変えて表わしている。TMS(タイムテーブル)は、前述のタイムテーブルである。TMS(タイムテーブル)は、時刻情報と画像データの位置を対応付けている。   The fast forward reproduction using only the slice segment # 1 will be described with reference to FIG. GOP (01) to GOP (06) are stream data. Originally, stream data is a continuous data file. However, for ease of explanation, the lines are changed in GOP units. TMS (time table) is the above-mentioned time table. The TMS (time table) associates the time information with the position of the image data.

なお、IRAP開始位置と#1開始位置とは、同じ値としてタイムテーブル上で兼用している。必要な値は、スライス#1の開始位置と終了位置である。IRAP開始位置を#1開始位置とみなし、#2開始位置を#1終了位置とみなしている。   It should be noted that the IRAP start position and the # 1 start position have the same value and are also used on the time table. The required values are the start position and end position of slice # 1. The IRAP start position is regarded as the # 1 start position, and the # 2 start position is regarded as the # 1 end position.

早送り再生の場合には、タイムテーブルのエントリーを順次読み出す。それぞれのGOPのIRAP開始位置と#2開始位置とから、このGOPのIピクチャの1つ目のスライスセグメントのデータを読み出す。そして、このデータをデコードし、画面に表示する。IRAP開始位置は、スライスセグメント#1の開始位置である。#2開始位置は、スライスセグメント#1の終了位置である。   In the case of fast forward reproduction, the entries of the time table are sequentially read. From the IRAP start position and # 2 start position of each GOP, data of the first slice segment of the I picture of this GOP is read. Then, this data is decoded and displayed on the screen. The IRAP start position is the start position of slice segment # 1. The # 2 start position is the end position of the slice segment # 1.

これを繰り返す事によって、早送り再生を行うことができる。この場合には、Iピクチャを全て表示する場合に比べて、読み出しデータ量が4分の1になっている。このため、早送り再生時の画像の更新間隔を短くする事ができる。   By repeating this, fast forward reproduction can be performed. In this case, the read data amount is one fourth that of the case where all the I pictures are displayed. For this reason, the update interval of the image at the time of fast forward reproduction can be shortened.

この例の場合には、表示が更新されるのは画面の一部である。つまり、1つ目のスライスセグメントの位置の画像のみ表示される。縦横4分割(田の字型)の場合には、例えば、画像の左上の4分の1の領域である。縦方向4分割(目の字型)の場合には、画像の上部4分の1の領域である。他の部分は更新されないまま残る。または、他の部分は表示されない状態である。   In this example, the display is updated only for a part of the screen. That is, only the image at the position of the first slice segment is displayed. In the case of vertical / horizontal division into four (cross-shaped), for example, it is an upper left quarter area of the image. In the case of vertical division into four (eye-shaped), it is the upper quarter area of the image. Other parts remain unchanged. Alternatively, other parts are not displayed.

利用者が早送り操作を行う場合には、目的のシーンを判別できればよい。そのため、画面全体が見える事よりも、更新間隔の短い方が操作性を考慮すると良い場合も多い。   When the user performs a fast-forward operation, it is only necessary that the target scene can be determined. For this reason, it is often better to consider operability when the update interval is shorter than when the entire screen is visible.

また、同じ方法で、1つ目のスライスセグメントと2つ目のスライスセグメントの2つとを表示する。このようにすれば、画面の半分を表示して早送りを行うこともできる。   In addition, the first slice segment and the second slice segment are displayed in the same manner. In this way, fast-forwarding can be performed by displaying half of the screen.

さらに、高速で早送り再生を行う場合には、表示するGOPを間引きして再生することができる。つまり、GOPを1つ飛ばし又は2つ飛ばし等で表示する。   Furthermore, when fast-forward playback is performed at high speed, the GOP to be displayed can be thinned out and played back. In other words, one GOP is skipped or two GOPs are displayed.

早送り再生の操作では、リモコンの早送りボタンを複数回押す事で早送り速度を調整する事が出来るものが多い。従来のIピクチャ全体を表示する早送りと組み合わせて使う場合には、リモコンボタンを押す回数によって表示方式を選択することができる。   In the fast-forward playback operation, the fast-forward speed can be adjusted by pressing the fast-forward button on the remote control a plurality of times. When used in combination with the conventional fast-forward for displaying the entire I picture, the display method can be selected by the number of times the remote control button is pressed.

例えば、ボタンを1回押すと、全てのGOPのIピクチャの全体を表示して早送り再生を行う。ボタンを2回押すと、全てのGOPのIピクチャの一部のスライスセグメントのみを表示して早送り再生を行う。ボタンを3回押すと、GOPを1つ飛ばしして、Iピクチャの一部のスライスセグメントのみを表示して早送り再生を行う。ボタンを4回押すと、GOPを2つ飛ばしして、Iピクチャの一部のスライスセグメントのみを表示して早送り再生を行う。   For example, when the button is pressed once, the entire I picture of all GOPs is displayed and fast-forward playback is performed. When the button is pressed twice, only some of the slice segments of the I pictures of all GOPs are displayed, and fast-forward playback is performed. When the button is pressed three times, one GOP is skipped, and only a partial slice segment of the I picture is displayed to perform fast-forward playback. When the button is pressed four times, two GOPs are skipped, only a partial slice segment of the I picture is displayed, and fast forward reproduction is performed.

放送ストリームが複数のスライスセグメントを持たない場合には、この方法を使うことができない。しかし、放送を記録する際に、再圧縮またはフォーマット変換を行うことも多い。その際に、複数のスライスセグメントを持つHEVC映像ストリームとして再構成する事も可能である。放送以外の外部入力の映像を記録する場合でも、同様に、複数のスライスセグメントを持つHEVC映像ストリームとして圧縮データを作成する事で、この方法による特殊再生を行う事ができる。   If the broadcast stream does not have multiple slice segments, this method cannot be used. However, when recording a broadcast, re-compression or format conversion is often performed. At this time, it is also possible to reconstruct an HEVC video stream having a plurality of slice segments. Even when recording an externally input video other than a broadcast, special reproduction can be performed by this method by similarly creating compressed data as an HEVC video stream having a plurality of slice segments.

<変形例1>
これまでの説明では、早送りなど特殊再生時に画像の一部のみの更新でも良いとした。しかし、画像の全体が更新された方が目的のシーンを見つけやすいことも考えられる。そこで、読み出すデータは一部スライスセグメント分としながら、画像の全体を更新する方法を考える。
<Modification 1>
In the description so far, only a part of the image may be updated at the time of special reproduction such as fast forward. However, it may be easier to find the target scene when the entire image is updated. Therefore, a method of updating the entire image while setting the data to be read to be a part of a slice segment is considered.

図21は、早送り再生の説明図である。この例では、タイムテーブル(TMS)の中の全てのスライスの位置情報を利用している。   FIG. 21 is an explanatory diagram of fast-forward playback. In this example, the position information of all slices in the time table (TMS) is used.

早送り再生の場合には、タイムテーブルのエントリーを順次読み出す。最初のGOPのIRAP開始位置と#2開始位置とから、このGOPのIピクチャの1つ目のスライスセグメントのデータを読み出す。IRAP開始位置は、スライスセグメント#1の開始位置である。#2開始位置は、スライスセグメント#1の終了位置である。このデータをデコードして、画面のスライスセグメント#1の位置に表示する。図21では、画面のスライスセグメント#1の位置は、画面の左上である。   In the case of fast forward reproduction, the entries of the time table are sequentially read. From the IRAP start position and # 2 start position of the first GOP, data of the first slice segment of the I picture of this GOP is read. The IRAP start position is the start position of slice segment # 1. The # 2 start position is the end position of the slice segment # 1. This data is decoded and displayed at the position of slice segment # 1 on the screen. In FIG. 21, the position of slice segment # 1 on the screen is at the upper left of the screen.

次のGOPの#2開始位置と#3開始位置とから、このGOPのIピクチャの2つ目のスライスセグメントのデータを読み出す。#2開始位置は、スライスセグメント#2の開始位置である。#3開始位置は、スライスセグメント#2の終了位置である。このデータをデコードして、画面のスライスセグメント#2の位置に表示する。   From the # 2 start position and # 3 start position of the next GOP, data of the second slice segment of the I picture of this GOP is read. The # 2 start position is a start position of the slice segment # 2. The start position of # 3 is the end position of slice segment # 2. This data is decoded and displayed at the position of slice segment # 2 on the screen.

この時、スライスセグメント#2のデコードには、このピクチャのパラメータセット(PS)のデータが必要になる。パラメータセット(PS)は、ピクチャ先頭に配置されている。つまり、パラメータセット(PS)は、スライスセグメント#1の前に配置されている。このため、パラメータセット(PS)をスライスセグメント#1と同時に読み込む場合には、1度に読み込める。しかし、パラメータセット(PS)とスライスセグメント#2とを読み込む場合には、2回の読み込みが発生する。   At this time, decoding of the slice segment # 2 requires data of the parameter set (PS) of this picture. The parameter set (PS) is located at the head of the picture. That is, the parameter set (PS) is arranged before the slice segment # 1. Therefore, when the parameter set (PS) is read simultaneously with the slice segment # 1, it can be read at once. However, when reading the parameter set (PS) and the slice segment # 2, two readings occur.

光ディスクの読み出し動作では、読み出し位置の変更に時間がかかる。そのため、この時の読み込み動作としては次の3つの方法が考えられる   In the read operation of the optical disk, it takes time to change the read position. Therefore, the following three methods can be considered as the reading operation at this time.

1つ目の方法は、パラメータセット(PS)とスライスセグメント#2との2回の読み込み動作を行う。2つ目の方法は、パラメータセット(PS)、スライスセグメント#1およびスライスセグメント#2を一度に読み込む。3つ目の方法は、パラメータセット(PS)とスライスセグメント#2のデータとを使用する。そして、タイムテーブルを作成する時に、Iピクチャのデコードに必要なパラメータセット(PS)のデータのコピーをタイムテーブルに格納する。   In the first method, two reading operations of the parameter set (PS) and the slice segment # 2 are performed. The second method reads the parameter set (PS), slice segment # 1 and slice segment # 2 at a time. The third method uses a parameter set (PS) and data of slice segment # 2. Then, when creating the time table, a copy of the data of the parameter set (PS) necessary for decoding the I picture is stored in the time table.

この説明では、3つ目の方法を説明している。つまり、タイムテーブル内にパラメータセット(PS)のデータのコピーが格納されているものとして説明している。この場合には、タイムテーブルに格納されていたパラメータセット(PS)のデータとスライスセグメント#2のデータとをデコーダーに入力して、デコードを行う。   In this description, the third method is described. That is, the description is based on the assumption that a copy of the data of the parameter set (PS) is stored in the time table. In this case, the data of the parameter set (PS) and the data of the slice segment # 2 stored in the time table are input to the decoder, and decoding is performed.

次のGOPでは、同様にスライスセグメント#3のデータを取り出し、画面上のスライスセグメント#3の位置の画像を更新する。図21では、画面上のスライスセグメント#3の位置は、画面の左下である。   In the next GOP, data of slice segment # 3 is similarly extracted, and the image at the position of slice segment # 3 on the screen is updated. In FIG. 21, the position of slice segment # 3 on the screen is at the lower left of the screen.

このように画像の更新のたびに、表示するスライスセグメントをずらしていく事によって、一回の更新では画像の一部の更新ではあっても、数回の画像の更新によって画面全体を更新することができる。画面の位置によって、異なる時刻の画像が表示される。スライスセグメントごとに、異なる時刻の画像が表示される。しかし、一部分の画像の表示に比べると、シーンの把握が容易になる。つまり、より操作性の良い特殊再生を実現することができる。   By shifting the slice segment to be displayed every time the image is updated in this way, the entire screen can be updated by updating the image several times, even if one update is a part of the image Can be. Images at different times are displayed depending on the position of the screen. Images at different times are displayed for each slice segment. However, it is easier to grasp the scene than when displaying a part of the image. That is, it is possible to realize special reproduction with better operability.

この説明では、1つのスライスセグメントで画像の更新を行った。しかし、1つのGOPで複数のスライスセグメントの画像を更新することができる。例えば、画像の半分ずつを交互に更新する事もできる。   In this description, the image is updated in one slice segment. However, one GOP can update the images of a plurality of slice segments. For example, half of the image can be updated alternately.

上記の説明では、スライス番号の順にスライス#1、スライス#2、スライス#3、スライス#4の順番で画像の更新を行った。画像の更新は、必ずしもスライス番号の順である必要はない。再生時に任意の順番とすることができる。   In the above description, the images were updated in the order of slice # 1, slice # 2, slice # 3, and slice # 4 in the order of the slice numbers. The update of the image does not necessarily need to be performed in the order of the slice numbers. Any order can be set during reproduction.

図22に画像の更新の順番の例を示す。図22(1)は、スライス#1、スライス#2、スライス#3、スライス#4の順で画像を更新する例である。図22(2)は、スライス#1、スライス#2、スライス#4、スライス#3の順で画像を更新する例である。図22(2)は、時計回りで画像を更新している。図22(3)は、スライス#1、スライス#4、スライス#3、スライス#2の順で画像を更新する例である。図22(4)は、スライス#1、スライス#3、スライス#4、スライス#2の順で画像を更新する例である。図22(4)は、反時計回りで画像を更新している。   FIG. 22 shows an example of an image update order. FIG. 22A shows an example in which an image is updated in the order of slice # 1, slice # 2, slice # 3, and slice # 4. FIG. 22 (2) is an example in which an image is updated in the order of slice # 1, slice # 2, slice # 4, and slice # 3. FIG. 22 (2) updates the image clockwise. FIG. 22 (3) is an example in which an image is updated in the order of slice # 1, slice # 4, slice # 3, and slice # 2. FIG. 22D is an example in which the image is updated in the order of slice # 1, slice # 3, slice # 4, and slice # 2. FIG. 22D updates the image in a counterclockwise direction.

再生の時に表示するスライスセグメントを選択できる場合には、早送り再生時と巻き戻し再生時とで、画像を更新する順番を逆にすることもできる。例えば、早送りの場合には、図22(2)の時計回りとし、巻き戻しの場合には、図22(4)の反時計回りとする。このように、早送りと巻き戻しとで画像の更新の順番を逆にすることによって、早送りの操作と巻き戻しの操作とを繰り返した場合でも、現在の状態の把握が容易になり、操作性が向上する。   If a slice segment to be displayed at the time of reproduction can be selected, the order of updating images can be reversed between fast forward reproduction and rewind reproduction. For example, in the case of fast-forward, the clockwise rotation is as shown in FIG. 22 (2), and in the case of rewinding, it is counterclockwise as shown in FIG. 22 (4). In this way, by reversing the order of updating the image between fast-forward and rewind, even if the fast-forward operation and the rewind operation are repeated, it is easy to grasp the current state, and the operability is improved. improves.

図23は、縦方向に4分割(目の字型)の場合の例である。この場合にも、画像の更新の順番を逆にすることで、早送りと巻き戻しとの把握が容易になる。例えば、早送りをスライス#1からスライス4に向けて更新する(図23(1))。そして、巻き戻しをスライス#4からスライス1に向けて更新する(図23(2))。   FIG. 23 is an example of a case where the image is divided into four in the vertical direction (eye shape). Also in this case, by reversing the order of updating the images, it is easy to grasp fast-forward and rewind. For example, the fast forward is updated from slice # 1 to slice 4 (FIG. 23 (1)). Then, rewinding is updated from slice # 4 to slice 1 (FIG. 23 (2)).

<変形例2>
前記の説明では、タイムテーブルに全てのスライスセグメントへの読み出し位置情報を格納していた。タイムテーブルのサイズを小さくするために、一部のスライスセグメントの読み出し位置情報だけを記録する方法も考えられる。
<Modification 2>
In the above description, the readout position information for all slice segments is stored in the time table. In order to reduce the size of the time table, a method of recording only read position information of some slice segments is also conceivable.

図24では、1つのスライスセグメントの読み出し位置情報を格納したタイムテーブル(TMS)を示している。   FIG. 24 shows a time table (TMS) storing read position information of one slice segment.

この例では、タイムテーブルの各時刻に対応するスライスセグメントの読み出し位置の情報を格納している。例えば、GOP(01)とGOP(05)とに対応する行には、スライスセグメント#1の読み出し位置情報が格納されている。図23では、例えば、GOP(01)の情報はタイムテーブルの1行目に記載されている。また、GOP(05)の情報はタイムテーブルの5行目に記載されている。   In this example, information on the read position of the slice segment corresponding to each time in the time table is stored. For example, in the rows corresponding to GOP (01) and GOP (05), read position information of slice segment # 1 is stored. In FIG. 23, for example, the information of GOP (01) is described in the first row of the time table. The information of GOP (05) is described in the fifth row of the time table.

ストリームを記録する際に、記録するGOPを順次カウントする。そして、このGOPのカウント値を1つの画像中のスライスセグメント数で割った余り(剰余)を取る。図24では、1つの画像中のスライスセグメント数は4である。この値(剰余)に1を足した値をスライスセグメントの値とする。そして、そのスライスセグメントの位置をタイムテーブルに記録する。   When recording a stream, GOPs to be recorded are counted sequentially. Then, the remainder (remainder) of dividing the count value of the GOP by the number of slice segments in one image is obtained. In FIG. 24, the number of slice segments in one image is four. The value obtained by adding 1 to this value (remainder) is defined as the value of the slice segment. Then, the position of the slice segment is recorded in the time table.

この例では、各時刻のスライス開始位置とスライス終了位置とには情報が記載されている。スライスの順番は、スライス#1、スライス#2、スライス#3、スライス#4の順番である。なお、図24では記載を省略しているが、IRAP開始位置およびIRAP終了位置なども記録する。他の特殊再生または従来のIRAP画像全体の表示との互換のためである。   In this example, information is described at the slice start position and the slice end position at each time. The order of the slices is the order of slice # 1, slice # 2, slice # 3, and slice # 4. Although not shown in FIG. 24, an IRAP start position and an IRAP end position are also recorded. This is for compatibility with other trick play or display of the entire IRAP image.

このタイムテーブルを用いて早送りなどの特殊再生を行う場合には、GOPを飛ばさずに早送りを行うと、画面全体が更新される。また、例えば、GOPを1つずつ飛ばして再生すると、スライス#1とスライス#3とが更新される。また、例えば、GOPを3つずつ飛ばしで再生すると、スライス#1が更新される。   When performing special reproduction such as fast forward using this time table, performing fast forward without skipping a GOP updates the entire screen. Also, for example, when the GOPs are skipped one by one and reproduced, slice # 1 and slice # 3 are updated. Also, for example, when a GOP is reproduced skipping every three, slice # 1 is updated.

早送りの倍速にかかわらず、画像の全体を更新するためには、タイムテーブルに読み出し位置情報を格納する際に、乱数または疑似乱数などを用いてスライスセグメントを選択することもできる。この場合には、画面上で更新されるスライスセグメントは不規則である。しかし、早送りの倍数などによらず、画像全体を更新することができる。   Regardless of the double speed of fast-forward, in order to update the entire image, a slice segment can be selected by using a random number or a pseudo-random number when reading position information is stored in the time table. In this case, the slice segments updated on the screen are irregular. However, the entire image can be updated irrespective of the multiple of the fast forward.

疑似乱数の生成手段としては、例えば、M系列を用いた線形帰還シフトレジスタなどが挙げられる。   As a pseudo random number generating means, for example, a linear feedback shift register using an M-sequence can be used.

M系列を用いた疑似乱数生成では、値数および回数を指定して、各値の出現確率が一様で指定回数の間に周期性の無いデータ列を生成することができる。値数は、例えば、1から4の4値である。回数は、例えば、1000回である。   In the pseudo-random number generation using the M-sequence, it is possible to specify the number of values and the number of times, and to generate a data string in which the appearance probabilities of each value are uniform and have no periodicity during the specified times. The number of values is, for example, four values from 1 to 4. The number of times is, for example, 1000 times.

例えば、これらの疑似乱数の生成手段を用いてタイムテーブルを作成すれば、タイムテーブルの中で同じパターンの繰り返しが発生しないように、スライスセグメントを選択することができる。これによって、早送りの倍速を変更した場合でも、特定のスライスセグメントだけが更新されることを防ぐことができる。必ずしも、タイムテーブルの全体で同じパターンの繰り返しを無くす必要はない。十分に長い周期で同じパターンを繰り返せば、実用上問題は無い。十分に長い周期は、例えば、1000行程度である。   For example, if a time table is created using these pseudo-random number generating means, a slice segment can be selected so that the same pattern is not repeated in the time table. As a result, even when the double speed of the fast forward is changed, it is possible to prevent only a specific slice segment from being updated. It is not always necessary to eliminate the repetition of the same pattern throughout the time table. If the same pattern is repeated at a sufficiently long period, there is no practical problem. A sufficiently long cycle is, for example, about 1000 rows.

タイムテーブル全体で周期性が発生しないように、この疑似乱数の回数を選択する。しかし、疑似乱数の周期性を長く設定すると演算量が多くなる。そして、乱数のデータ列として予め与える場合でも、データ量が多くなる。   The number of pseudo-random numbers is selected so that periodicity does not occur in the entire time table. However, if the periodicity of the pseudo-random numbers is set long, the amount of calculation increases. And even if it is given in advance as a data string of random numbers, the data amount increases.

早送りの操作または巻き戻しの操作の際には、主にスキップ量の少ない早送りまたは巻き戻しが利用される。例えば、GOPのスキップを行わないか、1から数十程度のGOPのスキップを行う。そのため、疑似乱数の周期を短く設定することができる。   In the fast forward operation or the rewind operation, fast forward or rewind with a small skip amount is mainly used. For example, no GOP is skipped, or one to several tens of GOPs are skipped. Therefore, the period of the pseudo random number can be set short.

一例として、1000行程度の周期性を持つタイムテーブルを挙げた。999のGOPをスキップした時に、一部の画像のみが更新されるという問題が発生する。しかし、999のGOPをスキップした時の早送り再生と巻き戻し再生とは、あまり利用されない。また、999のGOPをスキップする場合に代わって、1000のGOPをスキップすることを採用しても、利用者から見た早送りの倍速は、ほとんど変わらない。このため、容易に回避できる。   As an example, a time table having a periodicity of about 1000 lines has been described. When the GOP of 999 is skipped, there occurs a problem that only some of the images are updated. However, fast-forward playback and rewind playback when a 999 GOP is skipped are not often used. Further, even if skipping the GOP of 999 instead of skipping the GOP of 999 is adopted, the double speed of the fast forward seen from the user hardly changes. Therefore, it can be easily avoided.

GOPの長さの平均を0.5秒とすると、2時間の映像は14400個のGOPで構成される。そして、1000行の周期性は、2時間の映像で15回程度発生することになる。周期性が問題になるのは、2時間映像を15コマで再生する早送りの時である。通常は、このような高速の早送りの操作は行われない。   Assuming that the average length of a GOP is 0.5 second, a 2-hour video is composed of 14,400 GOPs. Then, the periodicity of 1000 rows occurs about 15 times in a 2-hour video. The periodicity becomes a problem when fast-forwarding a 2-hour video at 15 frames. Normally, such a high-speed fast-forward operation is not performed.

この場合の疑似乱数列を事前に、計算済み乱数表として制御プログラムに与える場合の乱数表のサイズを見積もる。値数が4値で、回数が1000回の乱数列を、1つを2ビットで表現する。この場合には、全体で250バイトのサイズとなる。疑似乱数の周期性の長さは、操作性と装置実装との関係で設定することができる。   In this case, the size of the random number table when the pseudo random number sequence is given to the control program as a calculated random number table is estimated in advance. A random number sequence having four values and the number of times of 1000 is represented by 2 bits. In this case, the total size is 250 bytes. The length of the periodicity of the pseudo-random number can be set in relation to operability and device implementation.

<変形例3>
これまでの例では、スライスセグメントの表示位置を変更する場合には、タイムテーブルにスライスセグメントの読み出し位置および終了位置を格納していた。また、必要な場合には、タイムテーブルにパラメータセット(PS)を格納していた。そのため、タイムテーブルのデータが大きくなる。また、パラメータセット(PS)とスライスセグメントとの2回の読み出しが発生する。
<Modification 3>
In the examples so far, when changing the display position of the slice segment, the readout position and the end position of the slice segment are stored in the time table. When necessary, a parameter set (PS) is stored in a time table. Therefore, the data of the time table becomes large. Also, two readings of the parameter set (PS) and the slice segment occur.

映像ストリームの記録の際に、スライスセグメントの順序を入れ替えることによって、これらの余分な作業を回避し、効率のよい特殊再生を行うことができる。   By replacing the order of the slice segments when recording the video stream, these extra operations can be avoided, and efficient special reproduction can be performed.

図25は、早送り再生の説明図である。図24と同様にGOP(01)からGOP(06)は、ストリームデータである。本来、一続きのデータファイルであるが、説明を容易にするために、GOP単位で行を変えて表わしている。   FIG. 25 is an explanatory diagram of fast-forward playback. As in FIG. 24, GOP (01) to GOP (06) are stream data. Originally, it is a continuous data file, but for ease of explanation, the lines are changed in GOP units.

図25のストリームでは、それぞれのGOPの先頭にあるIRAPピクチャごとに、スライスセグメントの格納順を変更している。ここで、スライスセグメントの番号は、画面上の表示位置を示している。この表示位置に表示されるスライスセグメントの番号を、ストリームデータ上の番号として示している。   In the stream of FIG. 25, the storage order of the slice segments is changed for each IRAP picture at the head of each GOP. Here, the number of the slice segment indicates the display position on the screen. The number of the slice segment displayed at this display position is shown as a number on the stream data.

図25では、一例として、次のようにデータを配置している。GOP(01)には、IRAPピクチャの先頭にスライスセグメント#1を配置している。GOP(02)には、IRAPピクチャの先頭にスライスセグメント#2を配置している。GOP(03)には、IRAPピクチャの先頭にスライスセグメント#3を配置している。GOP(04)には、IRAPピクチャの先頭にスライスセグメント#4を配置している。GOP(05)には、IRAPピクチャの先頭にスライスセグメント#1を配置している。GOP(06)には、IRAPピクチャの先頭にスライスセグメント#2を配置している。   In FIG. 25, as an example, data is arranged as follows. In GOP (01), slice segment # 1 is arranged at the head of an IRAP picture. In GOP (02), slice segment # 2 is arranged at the head of the IRAP picture. In GOP (03), slice segment # 3 is arranged at the head of the IRAP picture. In GOP (04), slice segment # 4 is arranged at the head of the IRAP picture. In GOP (05), slice segment # 1 is arranged at the head of the IRAP picture. In GOP (06), slice segment # 2 is arranged at the head of the IRAP picture.

これまでの説明では、データ分割の観点から、単にスライスセグメントとして説明してきた。しかし、表示位置も含めた管理は、HEVC規格のスライスセグメントの他に、タイルも用いて実現されている。そのため、タイムテーブルのスライスセグメントの格納位置を入れ替える場合には、必要に応じて、各スライスセグメントのスライスヘッダ情報およびタイル情報などを修正して、整合性を取る必要がある。タイル情報は、パラメータセットに含まれている。   In the above description, the slice segment has been simply described from the viewpoint of data division. However, the management including the display position is realized using tiles in addition to the slice segment of the HEVC standard. Therefore, when replacing the storage position of the slice segment in the time table, it is necessary to correct the slice header information and the tile information of each slice segment as necessary to obtain consistency. The tile information is included in the parameter set.

早送り再生時の手順は、図20を用いた説明と同一である。図20を用いた説明は、スライスセグメント#1のみの再生を行う場合である。ただし、図25の例では、先頭に置かれるスライスセグメントが入れ替えられている。このため、画像の更新がされるスライスセグメントが変化し、画面の全体が更新される。   The procedure at the time of fast-forward playback is the same as that described with reference to FIG. The description using FIG. 20 is for the case of reproducing only the slice segment # 1. However, in the example of FIG. 25, the slice segment placed at the head is replaced. Therefore, the slice segment for which the image is updated changes, and the entire screen is updated.

単純な順序で先頭に配置されたスライスセグメントを選択する場合には、早送りの倍速によって一部のスライスセグメントの画像だけが更新される。そこで、前述の乱数または疑似乱数などを用いる方式で、先頭に配置するスライスセグメントを決定することができる。   When selecting the slice segment arranged at the top in a simple order, only the images of some of the slice segments are updated at double speed of fast forward. Therefore, a slice segment to be arranged at the head can be determined by a method using the above-described random number or pseudo random number.

このように、記録時のスライスセグメントの順番を入れ替える事によって、早送り及び巻き戻し等の特殊再生によるシーンサーチの操作性を向上する事が可能である。   As described above, by changing the order of the slice segments at the time of recording, it is possible to improve the operability of scene search by special reproduction such as fast forward and rewind.

これまで、スライスセグメントとして4分割を例にして説明をしてきた。これは、日本の4K/8K放送で採用されているためである。   Up to now, the slice segment has been described as being divided into four segments. This is because it is adopted in 4K / 8K broadcasting in Japan.

実際には、放送の録画時または光ディスクへの記録時に、再圧縮またはフォーマット変換などを行うこともある。この場合には、4分割だけでなく、スライスセグメント分割の形式を自由に変更することができる。   In practice, re-compression or format conversion may be performed when recording a broadcast or recording on an optical disc. In this case, the form of the slice segment division can be freely changed in addition to the division into four.

例えば、1つの画像を3×3の9分割にすることもできる。この場合には、中心のセグメントのみを特殊再生で更新することも考えられる。なぜなら、中心のセグメントには重要な情報が含まれる可能性が高いからである。また、単純に2分割のスライスセグメントとすることができる。2つのセグメントを交互に更新することで特殊再生を行うこともできる。   For example, one image can be divided into 3 × 3 nine divisions. In this case, it is conceivable to update only the center segment by trick play. This is because the central segment is likely to contain important information. Further, the slice segment can be simply divided into two. Special reproduction can also be performed by updating two segments alternately.

また、光ディスクの例で説明したが、ハードディスクドライブ(HDD)またはSSD(solid state drive)など、他の記憶デバイスでも同様の効果が得られる。   Further, although the description has been given of the example of the optical disk, the same effect can be obtained with other storage devices such as a hard disk drive (HDD) or an SSD (solid state drive).

ネットワークなど伝送帯域で制限があり、データ転送の遅延が大きい場合でも、特殊再生時のデータ転送量を抑制し、操作性を向上させることも可能である。   Even when the transmission band is limited by a network or the like and the delay of data transfer is large, it is possible to suppress the data transfer amount at the time of trick play and improve the operability.

実施の形態4.
実施の形態4の課題は、実施の形態3の課題と同様である。つまり、実施の形態4は、8K放送を録画したディスクで早送りなどの特殊再生を行うと、1コマ分の画像を表示するのに時間がかかってしまうという課題に対応する。
Embodiment 4 FIG.
The problem of the fourth embodiment is similar to the problem of the third embodiment. That is, the fourth embodiment addresses the problem that it takes time to display one frame of image when performing special playback such as fast forward on a disc on which 8K broadcast is recorded.

例えば、特許公開公報の特開2006−245744(0016段〜0020段、図2)には、情報記録媒体に保存されたIピクチャのアドレスと、算出されたIピクチャの再生予定時刻を含むアクセスタイムテーブルを作成することが記載されている。そして、特殊再生時に、アクセスタイムテーブルの再生予定時間を参照して、Iピクチャの再生が行われる。もしIピクチャの復号に時間がかかれば再生予定時間に再生が行えなくなってしまう。   For example, Japanese Patent Application Laid-Open Publication No. 2006-245744 (0016 to 0020, FIG. 2) discloses an access time including an address of an I picture stored in an information recording medium and a calculated scheduled playback time of the I picture. Creating a table is described. Then, at the time of special reproduction, reproduction of the I picture is performed with reference to the planned reproduction time of the access time table. If it takes a long time to decode the I picture, the reproduction cannot be performed at the scheduled reproduction time.

実施の形態3では、画像を構成する複数のスライスセグメントに分割する。そして、特殊再生時にはスライスセグメント単位で部分的に画面表示を更新する。これによって、画像(Iピクチャ)の更新間隔を短くし、特殊再生時の応答性を向上させている。   In the third embodiment, an image is divided into a plurality of slice segments. At the time of special reproduction, the screen display is partially updated in slice segment units. Thereby, the update interval of the image (I picture) is shortened, and the responsiveness at the time of special reproduction is improved.

しかしながら、画面の一部の表示を更新する場合には、映像シーンの視認性が低下する場合がある。例えば、異なるシーンの画像が画面上に混在する場合である。   However, when the display of a part of the screen is updated, the visibility of the video scene may be reduced. For example, there is a case where images of different scenes are mixed on the screen.

実施の形態4では、実施の形態3の方法を利用しつつ、表示されている映像シーンを把握しやすいように構成した。実施の形態4に係る映像再生装置は、特殊再生の際にスライスセグメント単位で画面表示の更新をする場合でも、映像シーンの視認性の低下を抑えることができる。   In the fourth embodiment, a configuration is adopted in which the displayed video scene is easily grasped while utilizing the method of the third embodiment. The video playback device according to Embodiment 4 can suppress a decrease in visibility of a video scene even when updating the screen display in slice segment units during special playback.

そのため、実施の形態4では、タイムテーブル(TMS)に「映像シーンの連続性」の情報を付与する。「映像シーンの連続性」の情報は、図26の「シーン連続性番号」である。また、タイムテーブル(TMS)に「画面表示更新すべき優先スライスセグメント」の情報を付与する。「画面表示更新すべき優先スライスセグメント」の情報は、図26の「優先スライス情報」である。   Therefore, in the fourth embodiment, information of “continuity of video scene” is added to the time table (TMS). The information of “continuity of video scene” is “scene continuity number” in FIG. Further, information of “priority slice segment to be updated in screen display” is added to the time table (TMS). The information of “priority slice segment to be updated in screen display” is “priority slice information” in FIG.

なお、実施の形態4では、縦方向4分割(目の字型)のスライスセグメントであった場合について説明を進めている。しかし、他の分割方法でも対応可能である。例えば、縦横4分割(田の字型)にスライスセグメントが構成されていても対応可能である。また、縦方向8分割のように更に細かくスライスセグメントが構成されていても対応可能である。ここで、分割方法を「行列」で説明すると、縦方向4分割(目の字型)は4行に分割することを表す。同様に、縦横4分割(田の字型)は2行2列に分割することを表す。   In the fourth embodiment, the case where the slice segment is divided into four in the vertical direction (eye shape) is described. However, other division methods can be used. For example, it is possible to cope with the case where the slice segment is configured in the vertical and horizontal four divisions (the cross-shaped). Further, it is possible to cope with a case where the slice segment is configured more finely as in the case of eight divisions in the vertical direction. Here, when the dividing method is described as a “matrix”, the vertical division into four (eye-shaped) indicates that the image is divided into four rows. Similarly, the vertical / horizontal division into four (cross-shaped) indicates division into two rows and two columns.

図26は、図18のタイムテーブル(TMS)に対して、「シーン連続性番号2601」および「優先スライス情報2602」を付与した新タイムテーブル(TMSN)である。その他の構成要素については、図18と同様のため説明を省略する。タイムテーブル(TMSN)の1行が1エントリーの情報である。各エントリーはランダムアクセス可能なIピクチャを指している。   FIG. 26 is a new time table (TMSN) obtained by adding “scene continuity number 2601” and “priority slice information 2602” to the time table (TMS) of FIG. The other components are the same as in FIG. 18 and will not be described. One line of the time table (TMSN) is information of one entry. Each entry points to a randomly accessible I picture.

シーン連続性番号2601は、「映像シーンの連続性」を示す指標となる情報である。そのため、シーン連続性番号2601は、数値情報でもよく、フラグなどの情報でもよい。実施の形態4では、シーン連続性番号2601に0から255までの数値が設定できるものとして説明する。この指標となる情報を作成する場合には、まず、各エントリーのIピクチャの画像毎にヒストグラムを作成する。ヒストグラムは画像中の各色のピクセル数を測定した色分布情報である。各画像のヒストグラムを比較することによって、容易に類似画像か否かを判別できる。   The scene continuity number 2601 is information serving as an index indicating “continuity of video scenes”. Therefore, the scene continuity number 2601 may be numerical information or information such as a flag. In the fourth embodiment, a description will be given assuming that a numerical value from 0 to 255 can be set in the scene continuity number 2601. When creating this index information, first, a histogram is created for each I-picture image of each entry. The histogram is color distribution information obtained by measuring the number of pixels of each color in the image. By comparing the histograms of the images, it can be easily determined whether or not the images are similar.

このような比較を用いて、前のエントリーと現在のエントリーとが類似画像か否かを判別する。類似画像であればシーン連続性番号2601を同じ値に設定する。類似画像でない場合には、前のエントリーのシーン連続性番号2601の値をインクリメントして値を設定する。つまり、シーン連続性番号2601の値を1増やす演算を行う。   Using such a comparison, it is determined whether the previous entry and the current entry are similar images. If the images are similar, the scene continuity number 2601 is set to the same value. If the image is not a similar image, the value of the scene continuity number 2601 of the previous entry is incremented to set the value. That is, an operation of increasing the value of the scene continuity number 2601 by 1 is performed.

本実施の形態4では、シーン連続性番号2601の値を0から255の範囲で値設定している。このため、最大値である255をインクリメントする場合には、巡回して0の値が設定されるものとする。なお、本実施例ではシーン連続性番号2601の値を0から255までの範囲としている。しかし、シーン連続性番号2601の値の範囲はこれより狭くてもよい。また、シーン連続性番号2601の値の範囲はこれより広くてもよい。   In the fourth embodiment, the value of the scene continuity number 2601 is set in the range of 0 to 255. Therefore, when incrementing the maximum value of 255, it is assumed that a value of 0 is set in a round. In this embodiment, the value of the scene continuity number 2601 is set in a range from 0 to 255. However, the range of the value of the scene continuity number 2601 may be narrower. Also, the range of the value of the scene continuity number 2601 may be wider.

また、実施の形態4では、比較的簡単で処理負荷が少ないヒストグラムによる類似画像比較を行っている。しかし、画像内のオブジェクト形状、テクスチャまたは特徴量を用いて類似画像か否かを判別してもよい。   In the fourth embodiment, similar image comparison using a histogram that is relatively simple and has a small processing load is performed. However, whether or not the image is similar may be determined using the object shape, texture, or feature amount in the image.

優先スライス情報2602は、映像シーン中に画面把握に重要な情報が画面のどの部分に集中しているかを示す。そのため、優先スライス情報2602は、特殊再生時にどのスライスセグメントを更新させるかを決定する際に用いられる。つまり、「画面表示更新すべき優先スライスセグメント」を示す情報である。   The priority slice information 2602 indicates in which part of the screen important information for grasping the screen is concentrated in the video scene. Therefore, the priority slice information 2602 is used when determining which slice segment is updated at the time of trick play. That is, this is information indicating “priority slice segment to be updated in screen display”.

優先スライス情報は、画面中央が重要であることを示す1ビットのフラグ情報としてもよい。また、優先スライス情報は、画面を複数に分割して、分割画面毎に重要性を示す数値情報でもよい。   The priority slice information may be 1-bit flag information indicating that the center of the screen is important. Alternatively, the priority slice information may be numerical information indicating the importance of each divided screen by dividing the screen into a plurality.

実施の形態4では、画面中央が重要であることを示す1ビットフラグを優先スライス情報2602として説明する。1つの画像を縦方向に4分割(目の字型)した場合を例とする。例えば、映画のように上下に黒帯が入るようなコンテンツの場合には、画面の最上部のスライスセグメント#1と画面の最下部のスライスセグメント#4は、黒帯を含む。そのため、スライスセグメント#1とスライスセグメント#4とは、ユーザーが画面認識するための有用な映像情報が少ない。また一般的な番組でもユーザーに提示したい情報を画面の中央部に配置することが多い。   In the fourth embodiment, a 1-bit flag indicating that the center of the screen is important will be described as priority slice information 2602. An example in which one image is divided into four in the vertical direction (eye shape). For example, in the case of a content such as a movie having black bands at the top and bottom, the slice segment # 1 at the top of the screen and the slice segment # 4 at the bottom of the screen include a black band. Therefore, the slice segment # 1 and the slice segment # 4 have less useful video information for the user to recognize the screen. In general programs, information to be presented to the user is often arranged at the center of the screen.

このような番組の場合には、表示画像の更新を画面の中央部に制限した方が、ユーザーは映像シーンを認識しやすくなる。   In the case of such a program, limiting the update of the display image to the center of the screen makes it easier for the user to recognize the video scene.

実施の形態4では、図23に示す縦方向4分割(目の字型)のスライスセグメントの場合を例として説明する。また、タイムテーブル(TMSN)のエントリー毎に1ビットの優先スライス情報2602を持つものとして説明する。   The fourth embodiment will exemplify a case of a slice segment divided into four in the vertical direction (eye shape) shown in FIG. Also, the description will be made assuming that each entry of the time table (TMSN) has 1-bit priority slice information 2602.

例えば、優先スライス情報2602の値が「1b」である場合には、画面中央のスライスセグメントであるスライスセグメント#2とスライスセグメント#3とに限定して、順番に表示画面を更新する。一方、優先スライス情報2602の値が「0b」である場合には、表示画面の更新の制限を行わない。つまり、スライスセグメント#1からスライスセグメント#4までの全てを順番に更新する。なお、「1b」はビット値が「1」であることを表す。「0b」はビット値が「0」であることを表す。   For example, when the value of the priority slice information 2602 is “1b”, the display screen is updated in order only for the slice segments # 2 and # 3, which are the slice segments at the center of the screen. On the other hand, when the value of the priority slice information 2602 is “0b”, the update of the display screen is not restricted. That is, all the slice segments # 1 to # 4 are sequentially updated. Note that “1b” indicates that the bit value is “1”. “0b” indicates that the bit value is “0”.

優先スライス情報2602を生成する際には、スライスセグメント毎にヒストグラムを作成する。例えば、スライスセグメント#1とスライスセグメント#4とに黒色のピクセルが数多く含まれている場合には、上下に黒帯がある映画であると判定できる。その場合には、優先スライス情報2602に「1b」を設定する。   When generating the priority slice information 2602, a histogram is created for each slice segment. For example, when many black pixels are included in the slice segment # 1 and the slice segment # 4, it can be determined that the movie has black bands above and below. In that case, “1b” is set in the priority slice information 2602.

実施の形態4では、優先スライス情報2602として1ビット情報を持つものとして説明した。しかし、スライスセグメント毎に表示の更新の有無を設定する4ビット情報(4分割時)としても良い。または、優先スライス情報2602を2ビット情報としてもよい。この場合、例えば、「00」は優先スライスなし。「01」は縦方向の中央部分が優先スライス。「10」は横方向の中央部分が優先スライス。「11」は縦横の中央部分が優先スライス。   In the fourth embodiment, it has been described that the priority slice information 2602 has 1-bit information. However, 4-bit information (at the time of dividing into four) for setting whether or not the display is updated for each slice segment may be used. Alternatively, the priority slice information 2602 may be 2-bit information. In this case, for example, “00” indicates no priority slice. “01” is the priority slice at the center in the vertical direction. “10” is the priority slice at the center in the horizontal direction. “11” is the priority slice at the center in the vertical and horizontal directions.

また、今回は縦方向4分割のスライスセグメントに対して中央部分のスライスセグメントが重要であることをフラグ情報として記録する例を示した。別の例として、横方向4分割のスライスセグメントに対して中央部分のスライスセグメントが重要であることをフラグ情報としてとして記録させても良い。さらに画面を縦3×横3(3行3列)の9つの部分にスライスセグメントを分割し場合には、画面の中央部分だけが重要であることをフラグ情報が示しても良い。また、タイムテーブル(TMSN)を構成しているエントリー毎に優先スライス情報2602を持つ例を示している。しかし、タイムテーブル(TMSN)の全体エントリーに対して1つの優先スライス情報2602で情報を保持しても良い。   In addition, this time, an example has been described in which the importance of the slice segment at the center portion with respect to the slice segment divided into four in the vertical direction is recorded as flag information. As another example, it may be recorded as flag information that the center slice segment is important with respect to the four horizontal slice segments. Further, when the slice segment is divided into nine portions of 3 × 3 (3 rows × 3 columns), the flag information may indicate that only the central portion of the screen is important. Further, an example is shown in which priority slice information 2602 is provided for each entry constituting the time table (TMSN). However, one piece of priority slice information 2602 may hold information for all entries of the time table (TMSN).

図27は、特殊再生時の映像シーンを表した説明図である。特殊再生時の映像シーン(オリジナル画像)2700は、映像シーン#01〜映像シーン#05に順番に切り換わる。なお映像シーン#01から映像シーン#03までは類似の映像シーンである。映像シーン#01から映像シーン#03まででは、一例として、数字の「1」が右側に移動している。同様に、映像シーン#04〜映像シーン#05は類似の映像シーンである。映像シーン#04から映像シーン#05まででは、一例として、数字の「2」が右側に移動している。また、表示更新するスライスセグメントの位置を更新スライス箇所2710として、矢印で図示している。   FIG. 27 is an explanatory diagram showing a video scene during special reproduction. The video scene (original image) 2700 at the time of special reproduction is switched in order from video scene # 01 to video scene # 05. Note that video scene # 01 to video scene # 03 are similar video scenes. In the video scene # 01 to the video scene # 03, for example, the number “1” has moved to the right. Similarly, video scene # 04 to video scene # 05 are similar video scenes. As an example, from the video scene # 04 to the video scene # 05, the numeral “2” has moved to the right. Further, the position of the slice segment to be displayed and updated is indicated by an arrow as an update slice location 2710.

シーンの連続性制御を行わない場合の映像シーンの表示例を映像シーン2701に示す。映像シーン#11は、映像シーン#01と同じである。映像シーン#12では、映像シーン#11に対して、スライスセグメント#2のみが映像シーン#02のスライスセグメント#2に切り換わっている。映像シーン#13では、映像シーン#12に対して、スライスセグメント#3のみが映像シーン#03のスライスセグメント#3に切り換わっている。映像シーン#14では、映像シーン#13に対して、スライスセグメント#4のみが映像シーン#04のスライスセグメント#4に切り換わっている。映像シーン#15では、映像シーン#14に対して、スライスセグメント#1のみが映像シーン#05のスライスセグメント#1に切り換わっている。   A video scene 2701 shows a display example of a video scene when scene continuity control is not performed. Video scene # 11 is the same as video scene # 01. In video scene # 12, only slice segment # 2 is switched to slice segment # 2 of video scene # 02 with respect to video scene # 11. In the video scene # 13, only the slice segment # 3 is switched to the slice segment # 3 of the video scene # 03 with respect to the video scene # 12. In video scene # 14, with respect to video scene # 13, only slice segment # 4 is switched to slice segment # 4 of video scene # 04. In video scene # 15, with respect to video scene # 14, only slice segment # 1 is switched to slice segment # 1 of video scene # 05.

類似の映像シーンでなくなった映像シーン#14は、オリジナルの映像シーン#04とかなり異なる映像になる。類似の映像シーンでないとは、つまりシーンが連続でなくなったことである。同様に、映像シーン#15もオリジナルの映像シーン#05とかなり異なる映像になる。   The video scene # 14 which is no longer a similar video scene becomes a video considerably different from the original video scene # 04. That the scenes are not similar is that the scenes are not continuous. Similarly, the video scene # 15 is a video considerably different from the original video scene # 05.

また、映像シーン#14および映像シーン#15には、オリジナル画像の類似映像である映像シーン#01から#03までの画像と、全く別の映像シーン#04から#05のスライスセグメントが混在して表示されている。そのため、ユーザーは映像シーンの把握自体が困難となる。   Further, in the video scenes # 14 and # 15, images of video scenes # 01 to # 03, which are similar images of the original image, and slice segments of completely different video scenes # 04 to # 05 are mixed. Is displayed. Therefore, it becomes difficult for the user to grasp the video scene itself.

シーンの連続性制御を行う場合の映像シーンの表示例を映像シーン2702に示す。映像シーン#21は、映像シーン#01と同じである。映像シーン#22では、映像シーン#21に対して、スライスセグメント#2のみが映像シーン#02のスライスセグメント#2に切り換わっている。つまり、映像シーン#22は、映像シーン#12と同じである。映像シーン#23では、映像シーン#22に対して、スライスセグメント#3のみが映像シーン#03のスライスセグメント#3に切り換わっている。つまり、映像シーン#23は、映像シーン#13と同じである。映像シーン#24では、スライスセグメント#1から#4までの全てが映像シーン#04に切り換わっている。つまり、映像シーン#24は、映像シーン#04と同じである。映像シーン#25では、映像シーン#24に対して、スライスセグメント#2のみが映像シーン#05のスライスセグメント#2に切り換わっている。   A video scene 2702 shows a display example of a video scene when the continuity control of the scene is performed. Video scene # 21 is the same as video scene # 01. In video scene # 22, only slice segment # 2 is switched to slice segment # 2 of video scene # 02 with respect to video scene # 21. That is, video scene # 22 is the same as video scene # 12. In video scene # 23, only slice segment # 3 is switched to slice segment # 3 of video scene # 03 with respect to video scene # 22. That is, video scene # 23 is the same as video scene # 13. In video scene # 24, all of slice segments # 1 to # 4 have been switched to video scene # 04. That is, video scene # 24 is the same as video scene # 04. In video scene # 25, only slice segment # 2 is switched to slice segment # 2 of video scene # 05 with respect to video scene # 24.

シーンの連続性制御を行う場合には、類似の映像シーンが切り換わった後の映像シーン#24では、全てのスライスセグメント#1〜#4に対して表示画面の更新を行う。このように構成することによって、ユーザーは、類似の映像シーンが切り換わっても画面を把握しやすくなる。   When performing the continuity control of the scene, the display screen is updated for all slice segments # 1 to # 4 in the video scene # 24 after the switching of the similar video scene. With this configuration, the user can easily grasp the screen even when a similar video scene is switched.

図28は、シーン連続性番号2601を用いた表示画面の更新を行うシーケンスを示すフローチャートである。   FIG. 28 is a flowchart showing a sequence for updating the display screen using the scene continuity number 2601.

特殊再生が指示されると、まず、表示画面のエントリーのシーン連続性番号2601を読み込む。その後、Iピクチャの全てのスライスセグメントに対して表示画面を更新する(S2801)。   When the special reproduction is instructed, first, the scene continuity number 2601 of the entry on the display screen is read. Thereafter, the display screen is updated for all slice segments of the I picture (S2801).

特殊再生の停止の指示の有無を確認する(S2802)。特殊再生の停止の指示があれば、特殊再生の処理を停止する(S2809)。この場合には、図28中の「yes」を選択する。特殊再生の停止の指示がない場合には、ステップS2803に移る。この場合には、図28中の「no」を選択する。   It is confirmed whether or not there is an instruction to stop the trick play (S2802). If there is an instruction to stop the trick play, the trick play process is stopped (S2809). In this case, "yes" in FIG. 28 is selected. If there is no instruction to stop the special reproduction, the process moves to step S2803. In this case, "no" in FIG. 28 is selected.

ステップS2803では、タイムテーブル(TMSN)から再生位置のエントリー情報の読み込みを行う(S2803)。その際、特殊再生の再生速度に応じて、エントリー情報の読み込み方法を決める。例えば、全てのエントリー情報を読み込むか、一部のエントリー情報を読み込むか等を決定する。一部のエントリー情報とは、再生速度に応じて、エントリーを1つおきに読み込んだり、2つおきに読み込んだりすることで、間引かれたエントリー情報を示す。   In step S2803, entry information of the reproduction position is read from the time table (TMSN) (S2803). At this time, a method of reading entry information is determined according to the reproduction speed of the special reproduction. For example, it is determined whether to read all entry information or to read some entry information. Part of the entry information indicates entry information that is thinned out by reading every other entry or every other entry according to the reproduction speed.

そして、エントリー情報のシーン連続性番号2601の読込みを行う。そして、読込んだシーン連続性番号2601と、1つ前の表示位置のシーン連続性番号2601とを比較する(S2804)。そして、映像シーンが同じか否かを判定する(S2805)。   Then, the scene continuity number 2601 of the entry information is read. Then, the read scene continuity number 2601 is compared with the scene continuity number 2601 at the immediately preceding display position (S2804). Then, it is determined whether the video scenes are the same (S2805).

ステップS2805で同じ映像シーンと判定した場合には、次の位置にあるスライスセグメントだけを読み出す。そして、読み出したスライスセグメント位置の表示の更新を行う(S2806)。   If it is determined in step S2805 that the video scene is the same, only the slice segment at the next position is read. Then, the display of the read slice segment position is updated (S2806).

ステップS2805で異なる映像シーンと判定した場合には、特殊再生の再生速度が低速か否かを判定する(S2807)。例えば、特殊再生速度が10倍速以下を低速とする。同様に、特殊再生速度が10倍速を超える場合を高速とする。なお、高速と低速の境は10倍速に限定しない。   If it is determined in step S2805 that the video scene is different, it is determined whether the reproduction speed of the special reproduction is low (S2807). For example, a low speed is set to a special reproduction speed of 10 times or less. Similarly, a case where the special reproduction speed exceeds 10 times speed is defined as high speed. The boundary between the high speed and the low speed is not limited to 10 times speed.

ステップS2807で特殊再生の再生速度が高速である場合には、映像シーンを飛ばす幅が大きくなる。この場合には、映像シーン連続性番号2601の値が異なる可能性が高くなる。このような場合には、表示更新の応答性を重視して、ステップS2806に移動する。そして、次スライス箇所の表示更新を行う。ステップS2806の処理の後は、ステップS2802に戻る。   If the reproduction speed of the special reproduction is high in step S2807, the width of skipping the video scene is increased. In this case, there is a high possibility that the value of the video scene continuity number 2601 is different. In such a case, the process shifts to step S2806 with an emphasis on the response of the display update. Then, the display update of the next slice location is performed. After the process in step S2806, the process returns to step S2802.

ステップS2807で特殊再生の再生速度が低速である場合には、全てのスライスセグメントに対して表示を更新する(S2808)。特殊再生速度が低速である場合には、ユーザーは所望の映像シーンを探している可能性が高い。そのため、応答性よりも画面の把握を重視する。なお、ステップS2807の特殊再生の再生速度に基づいた処理を行わず、ステップS2808へ移動してもよい。ステップS2808の処理の後は、ステップS2802に戻る。   If the reproduction speed of the special reproduction is low in step S2807, the display is updated for all slice segments (S2808). When the trick play speed is low, the user is likely to be searching for a desired video scene. For this reason, importance is placed on grasping the screen rather than responsiveness. Note that the process may move to step S2808 without performing the process based on the reproduction speed of the special reproduction in step S2807. After the processing in step S2808, the process returns to step S2802.

図29は、優先スライス情報2602を用いた映像シーケンスの表示例を示した説明図である。特殊再生時の映像シーン(オリジナル画像)2900は、映像シーン#A1〜映像シーン#A5に順番に切り換わる。なお、映像シーン#A1〜映像シーン#A3は類似の映像シーンである。映像シーン#A1から映像シーン#A3まででは、一例として、アルファベットの「A」が右側に移動している。同様に、映像シーン#A4から映像シーン#A5は類似の映像シーンである。映像シーン#A4から映像シーン#A5まででは、一例として、アルファベットの「B」が右側に移動している。また、図29に示す例で、映像シーン#A1から映像シーン#A5は、上下に黒帯が付与されている。なお、表示を更新するスライスセグメントの位置を更新スライス箇所2710として矢印で図示する。   FIG. 29 is an explanatory diagram showing a display example of a video sequence using the priority slice information 2602. The video scene (original image) 2900 at the time of special reproduction is switched in order from video scene # A1 to video scene # A5. The video scenes # A1 to # A3 are similar video scenes. In the video scene # A1 to the video scene # A3, for example, the letter “A” moves to the right. Similarly, video scenes # A4 to # A5 are similar video scenes. As an example, in the video scene # A4 to the video scene # A5, the alphabet “B” moves to the right. In the example shown in FIG. 29, the video scenes # A1 to # A5 are provided with black bands at the top and bottom. The position of the slice segment whose display is to be updated is indicated by an arrow as an update slice location 2710.

優先スライス制御を行わない場合の画面の表示例を映像シーン2901に示す。映像シーン#B1は、映像シーン#A1と同じである。映像シーン#B2では、映像シーン#B1に対して、スライスセグメント#2のみが映像シーン#A2のスライスセグメント#2に切り換わっている。映像シーン#B3では、映像シーン#B2に対して、スライスセグメント#3のみが映像シーン#A3のスライスセグメント#3に切り換わっている。映像シーン#B4では、映像シーン#B3に対して、スライスセグメント#4のみが映像シーン#A4のスライスセグメント#4に切り換わっている。映像シーン#B5では、映像シーン#B4に対して、スライスセグメント#1のみが映像シーン#A5のスライスセグメント#1に切り換わっている。   A display example of a screen when priority slice control is not performed is shown in a video scene 2901. Video scene # B1 is the same as video scene # A1. In the video scene # B2, only the slice segment # 2 is switched to the slice segment # 2 of the video scene # A2 with respect to the video scene # B1. In the video scene # B3, only the slice segment # 3 is switched to the slice segment # 3 of the video scene # A3 with respect to the video scene # B2. In video scene # B4, only slice segment # 4 is switched to slice segment # 4 of video scene # A4 with respect to video scene # B3. In video scene # B5, only slice segment # 1 is switched to slice segment # 1 of video scene # A5 with respect to video scene # B4.

類似の映像シーンでなくなった映像シーン#B4は、オリジナルの映像シーン#A4とかなり異なる映像になる。類似の映像シーンでないとは、つまりシーンが連続でなくなったことである。同様に、映像シーン#B5もオリジナルの映像シーン#A5とかなり異なる映像になる。   The video scene # B4 that is no longer a similar video scene becomes a video that is significantly different from the original video scene # A4. That the scenes are not similar is that the scenes are not continuous. Similarly, the video scene # B5 is a video that is considerably different from the original video scene # A5.

異なる映像になる理由として、映像シーン#B4および映像シーン#B5において、画面上下に存在する黒帯部分の表示領域の更新を行っていることが挙げられる。ユーザーが画面を把握するのは黒帯部分以外の表示領域である。このため、黒帯部分の更新だけでは、ユーザーは画面の更新を認識できない。その結果、映像シーン#B4および映像シーン#B5には、オリジナル画像である映像シーン#A4と映像シーン#A5の画面情報がほとんど表示されない。このため、ユーザーがオリジナルの画像を認識することは困難となる。   The reason why the images are different is that the display areas of the black bands existing at the top and bottom of the screen are updated in the video scene # B4 and the video scene # B5. The user grasps the screen in the display area other than the black band. Therefore, the user cannot recognize the update of the screen only by updating the black belt portion. As a result, in the video scene # B4 and the video scene # B5, almost no screen information of the video scene # A4 and the video scene # A5, which are original images, is displayed. For this reason, it is difficult for the user to recognize the original image.

優先スライス制御を行う場合の画面表示の例を映像シーン2902に示す。映像シーン#C1は、映像シーン#A1と同じである。映像シーン#C2では、映像シーン#C1に対して、スライスセグメント#3のみが映像シーン#A2のスライスセグメント#3に切り換わっている。映像シーン#C3では、映像シーン#C2に対して、スライスセグメント#2のみが映像シーン#A3のスライスセグメント#2に切り換わっている。映像シーン#C4では、映像シーン#C3に対して、スライスセグメント#3のみが映像シーン#A4のスライスセグメント#3に切り換わっている。映像シーン#C5では、映像シーン#C4に対して、スライスセグメント#2のみが映像シーン#A5のスライスセグメント#2に切り換わっている。   An example of a screen display when priority slice control is performed is shown in a video scene 2902. Video scene # C1 is the same as video scene # A1. In video scene # C2, only slice segment # 3 is switched to slice segment # 3 of video scene # A2 with respect to video scene # C1. In the video scene # C3, only the slice segment # 2 is switched to the slice segment # 2 of the video scene # A3 with respect to the video scene # C2. In video scene # C4, only slice segment # 3 is switched to slice segment # 3 of video scene # A4 with respect to video scene # C3. In the video scene # C5, only the slice segment # 2 is switched to the slice segment # 2 of the video scene # A5 with respect to the video scene # C4.

この例では、画面の把握に不要なスライスセグメントの表示の更新を行わない。これによって、画面の更新頻度と画面の認識性とを両立した特殊再生の表示方式となる。この例の映像シーン#C5部分では、オリジナル画像である映像シーン#A5に近い画像が表示されている。   In this example, the display of the slice segment unnecessary for grasping the screen is not updated. As a result, a special reproduction display method can be achieved in which both the screen update frequency and the screen recognizability are compatible. In the video scene # C5 portion of this example, an image close to the video scene # A5 that is the original image is displayed.

図30は、優先スライス情報2602を用いた表示画面の更新を行うシーケンスを示すフローチャートである。   FIG. 30 is a flowchart showing a sequence for updating the display screen using the priority slice information 2602.

特殊再生が指示されると、表示画面のエントリーの優先スライス情報2602を読み込む。   When trick play is instructed, priority slice information 2602 of the entry on the display screen is read.

優先スライス情報2602が「0b」の場合には、全てのスライスセグメントに対して表示画面を更新する。一方、優先スライス情報2602が「1b」の場合には、画面の中央部分にあるスライスセグメント#2とスライスセグメント#3とに限定して表示画面を更新する(S3001)。   When the priority slice information 2602 is “0b”, the display screen is updated for all slice segments. On the other hand, if the priority slice information 2602 is “1b”, the display screen is updated only for slice segment # 2 and slice segment # 3 in the center of the screen (S3001).

特殊再生の停止の指示があった場合には、特殊再生の処理を終了する(S3008)。この場合には、図30中の「yes」を選択する。特殊再生の停止の指示がない場合には、ステップS3003に移る。この場合には、図30中の「no」を選択する。   If there is an instruction to stop the trick play, the trick play process ends (S3008). In this case, “yes” in FIG. 30 is selected. If there is no instruction to stop the special reproduction, the process moves to step S3003. In this case, “no” in FIG. 30 is selected.

ステップS3003では、タイムテーブル(TMSN)から再生位置のエントリー情報の読込みを行う(S3003)。その際、特殊再生の再生速度に応じて、エントリー情報の読み込み方法を決める。例えば、全てのエントリー情報を読み込むか、一部のエントリー情報を読み込むか等を決定する。一部のエントリー情報とは、再生速度に応じて、エントリーを1つおきに読み込んだり、2つおきに読み込んだりすることで、間引かれたエントリー情報を示す。   In step S3003, the entry information of the reproduction position is read from the time table (TMSN) (S3003). At this time, a method of reading entry information is determined according to the reproduction speed of the special reproduction. For example, it is determined whether to read all entry information or to read some entry information. Part of the entry information indicates entry information that is thinned out by reading every other entry or every other entry according to the reproduction speed.

そして、読込んだエントリー情報の優先スライス情報2602の設定値の有無によって、優先スライスによる表示領域の制限があるか否かを判定する(S3004)。   Then, based on the presence or absence of the set value of the priority slice information 2602 of the read entry information, it is determined whether or not the display area is restricted by the priority slice (S3004).

ステップS3004で優先スライス情報2602の値が「1b」であれば、スライスセグメント#1とスライスセグメント#4の画面の表示領域を黒塗りする(S3005)。   If the value of the priority slice information 2602 is “1b” in step S3004, the display area of the screen of the slice segments # 1 and # 4 is painted black (S3005).

上述のように、例えば、優先スライス情報2602の値が「1b」である場合には、画面中央のスライスセグメントであるスライスセグメント#2とスライスセグメント#3とに限定して、順番に表示画面を更新する。一方、優先スライス情報2602の値が「0b」である場合には、スライスセグメント#1からスライスセグメント#4までの全てを順番に更新する。   As described above, for example, when the value of the priority slice information 2602 is “1b”, the display screen is sequentially limited to slice segments # 2 and # 3, which are the slice segments at the center of the screen. Update. On the other hand, when the value of the priority slice information 2602 is “0b”, all slice segments # 1 to # 4 are sequentially updated.

実施の形態4では、優先スライス情報が設定されていれば画面の中央部に限定して表示更新を行う。このため、画面の最上部と最下部のスライスセグメントの表示領域を黒塗りする。なお、ステップS3005の画面の黒塗り処理を行わなくてもよい。この場合には、例えば、以前のスライスセグメントの画像がそのまま表示される。   In the fourth embodiment, if the priority slice information is set, the display is updated only at the center of the screen. Therefore, the display areas of the top and bottom slice segments of the screen are painted black. Note that the blackening processing of the screen in step S3005 may not be performed. In this case, for example, the image of the previous slice segment is displayed as it is.

そして、画面の中央部であるスライスセグメント#2とスライスセグメント#3とに限定して、順次、スライスセグメントの表示画面の更新を行う(S3006)。   Then, the display screen of the slice segment is sequentially updated only for the slice segment # 2 and the slice segment # 3 which are the center part of the screen (S3006).

一方、ステップS3004で優先スライス情報の値が「0b」であれば、全てのスライスセグメント中で、順次、スライスセグメントの表示画面の更新を行う(S3007)。つまり、この場合には、特に画面の表示制限はない。   On the other hand, if the value of the priority slice information is “0b” in step S3004, the display screen of the slice segment is sequentially updated in all slice segments (S3007). That is, in this case, there is no particular display restriction on the screen.

実施の形態4のように構成することで、特殊再生時にスライスセグメント単位で画面表示の更新を実施する際でも、表示画面の更新の応答性に優れ、表示画面の映像シーンが把握しやすい映像記録再生装置が提供できる。   By configuring as in Embodiment 4, even when updating the screen display in slice segments at the time of special playback, excellent responsiveness of updating the display screen is achieved, and video recording that makes it easy to grasp the video scene of the display screen is achieved. A playback device can be provided.

また、シーン連続性番号2601と優先スライス情報2602との両方を用いて特殊再生時の表示制御を行うこともできる。つまり、ステップS3006の処理時にシーケンスが連続でなければ、すべての優先スライスを更新すればよい。同様に、ステップS3007の処理時にシーケンスが連続でなければ、全てのスライスを更新すればよい。   Also, display control during special reproduction can be performed using both the scene continuity number 2601 and the priority slice information 2602. That is, if the sequence is not continuous at the time of the processing in step S3006, all priority slices may be updated. Similarly, if the sequence is not continuous at the time of processing in step S3007, all slices may be updated.

なお、タイムテーブル(TM)とタイムテーブル(TMSN)とを同一のテーブル情報をとして記録してもよい。または、タイムテーブル(TM)とタイムテーブル(TMSN)とを別テーブルとして管理し、別ファイルとして記録してもよい。   The time table (TM) and the time table (TMSN) may be recorded as the same table information. Alternatively, the time table (TM) and the time table (TMSN) may be managed as separate tables and recorded as separate files.

別ファイルとして記録した場合には、タイムテーブル(TM)を構成しているエントリーとタイムテーブル(TMSN)とを同一のエントリー情報として関連付けて記録する。タイムテーブル(TM)が編集されるとタイムテーブル(TMSN)との情報のマッチングがとれなくなる。このため、タイムテーブル(TMSN)にタイムテーブル(TM)のハッシュ情報を記録しておき、再生前にタイムテーブル(TMSN)とタイムテーブル(TM)との関連付けが正常であるか否かを確認するよう構成しても良い。   When recorded as another file, the entries constituting the time table (TM) and the time table (TMSN) are recorded in association with each other as the same entry information. When the time table (TM) is edited, the information cannot be matched with the time table (TMSN). For this reason, hash information of the time table (TM) is recorded in the time table (TMSN), and it is confirmed whether or not the association between the time table (TMSN) and the time table (TM) is normal before reproduction. It may be configured as follows.

優先スライス情報2602が、タイムテーブル(TMSN)に存在する例を示したが、タイムテーブル(TMSN)の外に保持してもよい。この場合、エントリー毎に優先スライスを設定できないため、関連するすべてのエントリーで同一の設定となる。   Although the example in which the priority slice information 2602 exists in the time table (TMSN) has been described, the priority slice information 2602 may be stored outside the time table (TMSN). In this case, since the priority slice cannot be set for each entry, the setting is the same for all related entries.

なお、以上のように本発明の実施の形態について説明したが、本発明はこれらの実施の形態に限るものではない。   Although the embodiments of the present invention have been described above, the present invention is not limited to these embodiments.

以上の各実施の形態を基にして、以下に発明の内容を付記として記載する。   The contents of the invention will be described below as supplementary notes based on the above embodiments.

<付記>
<付記1>
放送波を受け取るチューナー・復調部と、
前記放送波の多重化ストリームの多重化を解除する多重化解除部と、
前記多重化ストリームの多重化が解除された圧縮データを伸長するデコード部と、
前記デコード部で伸長されたデータから記録するための映像データまたは制御情報を収集する記録再生制御部と
を備え、
MMT形式を用いた前記放送波に含まれた映像データを記録する際に、パケットデータを結合した映像データとして記録することを特徴とする映像記録再生装置。
<Appendix>
<Appendix 1>
A tuner / demodulation unit for receiving broadcast waves,
A demultiplexing unit that demultiplexes the multiplexed stream of the broadcast wave,
A decoding unit for expanding the demultiplexed compressed data of the multiplexed stream;
A recording / playback control unit that collects video data or control information for recording from the data expanded by the decoding unit,
A video recording / reproducing apparatus characterized in that, when recording video data included in the broadcast wave using the MMT format, packet data is recorded as video data combined.

<付記2>
収集された前記映像データを再生する時刻と、当該時刻の映像データが記録されている位置とを含むタイムテーブルを作成し、前記収集された映像データと共に記録する付記1に記載の映像記録再生装置。
<Appendix 2>
3. The video recording / reproducing apparatus according to claim 1, wherein a time table including a time at which the collected video data is reproduced and a position at which the video data at the time is recorded is created and recorded together with the collected video data. .

<付記3>
放送波を受け取るチューナー・復調部と、
前記放送波の多重化ストリームの多重化を解除する多重化解除部と、
前記多重化ストリームの多重化が解除された圧縮データを伸長するデコード部と、
前記デコード部で伸長されたデータから記録するための映像データまたは制御情報を収集する記録再生制御部と
を備え、
MMT形式を用いた前記放送波に含まれた映像データを記録する際に、BMFF形式のファイルとして前記映像データを記録することを特徴とする映像記録再生装置。
<Appendix 3>
A tuner / demodulation unit for receiving broadcast waves,
A demultiplexing unit that demultiplexes the multiplexed stream of the broadcast wave,
A decoding unit for expanding the demultiplexed compressed data of the multiplexed stream;
A recording / playback control unit that collects video data or control information for recording from the data expanded by the decoding unit,
A video recording / reproducing apparatus, wherein when recording video data included in the broadcast wave using the MMT format, the video data is recorded as a file in a BMFF format.

<付記4>
前記映像データを光ディスクに記録する際に、前記BMFF形式のファイルの管理データ部分とストリームデータ部分とを前記光ディスク上の異なった位置に記録することを特長とする付記3に記載の映像記録再生装置。
<Appendix 4>
4. The video recording / reproducing apparatus according to claim 3, wherein when the video data is recorded on an optical disc, a management data portion and a stream data portion of the BMFF format file are recorded at different positions on the optical disc. .

<付記5>
前記タイムテーブルにアセット情報を記録する付記2に記載の映像記録再生装置。
<Appendix 5>
3. The video recording / reproducing apparatus according to claim 2, wherein the asset information is recorded in the time table.

<付記6>
前記タイムテーブルにHDRメタデータを記録する付記2に記載の映像記録再生装置。
<Appendix 6>
3. The video recording / reproducing apparatus according to claim 2, wherein HDR metadata is recorded in the time table.

<付記7>
前記タイムテーブルにGOP内で最初にデコードされるIRAPピクチャのデータサイズまたは終了位置を記録する付記2に記載の映像記録再生装置。
<Appendix 7>
3. The video recording / reproducing apparatus according to claim 2, wherein the time table records a data size or an end position of an IRAP picture decoded first in a GOP.

<付記8>
前記タイムテーブルにGOP内の複数の画像の位置を記録する付記2に記載の映像記録再生装置。
<Appendix 8>
3. The video recording / reproducing apparatus according to claim 2, wherein positions of a plurality of images in a GOP are recorded in the time table.

<付記9>
前記映像データは画像を構成するスライスセグメントの構造を持ち、
前記タイムテーブルに前記スライスセグメントの単位での位置を記録する付記2に記載の映像記録再生装置。
<Appendix 9>
The video data has a structure of a slice segment constituting an image,
3. The video recording / reproducing apparatus according to claim 2, wherein a position of the slice segment is recorded in the time table.

<付記10>
前記パケットデータを結合または記録する際に、前記映像データを区切り、
区切られた前記映像データの先頭を、当該映像データにアクセスする際に用いるブロックの区切り位置に置く付記1に記載の映像記録再生装置。
<Appendix 10>
When combining or recording the packet data, delimit the video data,
2. The video recording / reproducing apparatus according to claim 1, wherein a head of the separated video data is placed at a break position of a block used when accessing the video data.

<付記11>
前記映像データを区切る単位はGOPの単位である付記10に記載の映像記録再生装置。
<Supplementary Note 11>
11. The video recording / reproducing apparatus according to supplementary note 10, wherein a unit that divides the video data is a GOP unit.

<付記12>
前記映像データを区切る単位はピクチャの単位である付記10に記載の映像記録再生装置。
<Appendix 12>
11. The video recording / reproducing apparatus according to supplementary note 10, wherein a unit that divides the video data is a picture unit.

<付記13>
前記映像データを区切る位置はIRAPピクチャ先頭、Iピクチャ先頭またはPピクチャ先頭である付記10に記載の映像記録再生装置。
<Appendix 13>
11. The video recording / reproducing apparatus according to Supplementary Note 10, wherein a position at which the video data is divided is an IRAP picture head, an I picture head, or a P picture head.

<付記14>
前記映像データを区切る単位はスライスセグメントの単位である付記10に記載の映像記録再生装置。
<Appendix 14>
11. The video recording / reproducing apparatus according to supplementary note 10, wherein a unit for dividing the video data is a unit of a slice segment.

<付記15>
前記映像データを記録する際に、管理データとしてIピクチャのスライスセグメントの単位で前記映像データの読み出し位置の情報を記録する付記14に記載の映像記録再生装置。
<Appendix 15>
15. The video recording / reproducing apparatus according to Appendix 14, wherein, when recording the video data, information on a read position of the video data is recorded in units of I-picture slice segments as management data.

<付記16>
前記読み出し位置の情報は、前記スライスセグメントの読み出し位置の情報である付記15に記載の映像記録再生装置。
<Appendix 16>
16. The video recording / reproducing apparatus according to supplementary note 15, wherein the information on the read position is information on a read position of the slice segment.

<付記17>
前記映像データを記録する際に、GOPごとに前記スライスセグメントを記録する順序を入れ替える付記15または16に記載の映像記録再生装置。
<Appendix 17>
17. The video recording / reproducing apparatus according to appendix 15 or 16, wherein the order of recording the slice segments is changed for each GOP when recording the video data.

<付記18>
前記映像データを再生する際に、画像ごとに一部の前記スライスセグメントを表示する付記15から17のいずれか1つに記載の映像記録再生装置。
<Appendix 18>
18. The video recording / reproducing apparatus according to any one of Supplementary Notes 15 to 17, wherein when reproducing the video data, a part of the slice segment is displayed for each image.

<付記19>
前記一部のスライスセグメントは、前記画像ごとに表示される位置が変更される付記18に記載の映像記録再生装置。
<Appendix 19>
19. The video recording / reproducing device according to supplementary note 18, wherein a position where the some slice segments are displayed is changed for each of the images.

100 映像記録再生装置、 11 チューナー・復調部、 12 外部入力部、 13 ネットワーク部、 21 多重化解除部、 31 音声デコード部、 32 映像デコード部、 33 字幕デコード・レンダリング部、 34 データ放送・EPG処理部、 41 記録再生制御部、 51 内蔵記録装置、 52 光ディスクドライブ、 53 光ディスク、 Af 管理用ファイル、 Hm 先頭のデータ、 Ba 放送波、 Sm 多重化ストリーム、 Se エレメンタリーストリーム、 Ds 音声データ、 Di0,Di1 映像データ、 Dc 字幕データ、 Db データ放送のデータ、 Dd 表示装置、 Es 音響装置、 Ei 外部装置、 Ne ネットワーク、 Ha 横軸、 Va1,Va2 縦軸、 P1,P2,P3 位置、 Pad パディング、 SI(MPT) 制御パケット、 TP TLVパケット、 TM,TMS タイムテーブル、 V 映像パケット、 V(RAP) 映像パケット、 2601 シーン連続性番号、 2602 優先スライス情報 2700 映像シーン(オリジナル)、 2701 画面表示例(シーン連続性制御なし)、 2702 画面表示例(シーン連続性制御あり)、 2710 更新スライス箇所、 2900 映像シーン(オリジナル)、 2901 画面表示例(優先スライス制御なし)、 2902 画面表示例(優先スライス制御あり)。   Reference Signs List 100 video recording / reproducing device, 11 tuner / demodulation unit, 12 external input unit, 13 network unit, 21 demultiplexing unit, 31 audio decoding unit, 32 video decoding unit, 33 subtitle decoding / rendering unit, 34 data broadcasting / EPG processing Unit, 41 recording / playback control unit, 51 built-in recording device, 52 optical disk drive, 53 optical disk, Af management file, Hm head data, Ba broadcast wave, Sm multiplexed stream, Se elementary stream, Ds audio data, Di0, Di1 video data, Dc subtitle data, Db data broadcast data, Dd display device, Es audio device, Ei external device, Ne network, Ha horizontal axis, Va1, Va2 vertical axis, P1, P2, P3 position, Pad pa , SI (MPT) control packet, TP TLV packet, TM, TMS time table, V video packet, V (RAP) video packet, 2601 scene continuity number, 2602 priority slice information 2700 video scene (original), 2701 screen table Illustrative example (without scene continuity control), 2702 screen display example (with scene continuity control), 2710 updated slice location, 2900 video scene (original), 2901 screen display example (without priority slice control), 2902 screen display example (with priority) With slice control).

Claims (3)

放送ストリームを記録した記録データを再生する映像再生装置であって、
前記記録データは、Iピクチャを含んで構成される映像情報と、前記Iピクチャの開始位置を示す第1のタイムテーブルと、前記Iピクチャを構成する複数のスライスセグメントの開始位置を示す第2のタイムテーブルと、前記映像情報に含まれる映像シーンの連続性を示す連続性情報とを含み、
前記記録データを早送り再生する際に、前記連続性情報が連続であることを示している場合には、前記Iピクチャを構成する複数の前記スライスセグメントのうちの1つの前記スライスセグメントを再生し、前記連続性情報が不連続であることを示している場合には、前記Iピクチャを構成する全ての前記スライスセグメントを再生すること
を特徴とする映像再生装置。
A video playback device that plays back recorded data that records a broadcast stream,
The recording data includes video information including an I picture, a first time table indicating a start position of the I picture, and a second time table indicating a start position of a plurality of slice segments constituting the I picture. Time table, including continuity information indicating the continuity of the video scene included in the video information,
When fast-forwarding playback of the recording data, if the continuity information indicates that the continuity information is continuous, one of the plurality of slice segments constituting the I picture is played back, and When the continuity information indicates discontinuity, all of the slice segments constituting the I picture are reproduced.
放送ストリームを記録媒体に記録する映像記録装置であって、
Iピクチャを含んで構成される映像情報を含む前記放送ストリームを記録し、
前記Iピクチャの開始位置を示す第1のタイムテーブルを生成及び記録媒体に記録し、
前記Iピクチャを構成する複数のスライスセグメントの開始位置を示す第2のタイムテーブルを生成及び記録媒体に記録し、
前記映像情報に含まれる映像シーンの連続性を示す連続性情報を生成及び記録媒体に記録し、
前記放送ストリームを早送り再生する際に、前記連続性情報が連続であることを示している場合には、前記Iピクチャを構成する複数の前記スライスセグメントのうちの1つの前記スライスセグメントを再生し、前記連続性情報が不連続であることを示している場合には、前記Iピクチャを構成する全ての前記スライスセグメントを再生すること
を特徴とする映像記録装置。
A video recording device that records a broadcast stream on a recording medium,
Recording the broadcast stream including video information including an I picture;
Generating a first time table indicating the start position of the I picture and recording it on a recording medium;
Generating and recording on a recording medium a second time table indicating start positions of a plurality of slice segments constituting the I picture;
Generate and record continuity information indicating the continuity of the video scene included in the video information on a recording medium,
When fast-forwarding the broadcast stream, if the continuity information indicates that the continuity information is continuous, one of the plurality of slice segments constituting the I picture is played back, If the continuity information indicates discontinuity, all the slice segments constituting the I picture are reproduced.
映像再生装置によって再生される放送ストリームを記録する映像記録媒体であって、
Iピクチャを含んで構成される映像情報を含む前記放送ストリームと、
前記Iピクチャの開始位置を示す第1のタイムテーブルと、
前記Iピクチャを構成する複数のスライスセグメントの開始位置を示す第2のタイムテーブルと、
前記映像情報に含まれる映像シーンの連続性を示す連続性情報と、が記録され、
前記映像再生装置が、
前記放送ストリームを早送り再生する際に、前記連続性情報が連続であることを示しているか、不連続であることを示しているかを判定し、前記連続性情報が連続であることを示している場合には、前記Iピクチャを構成する複数の前記スライスセグメントのうちの1つの前記スライスセグメントを再生し、前記連続性情報が不連続であることを示している場合には、前記Iピクチャを構成する全ての前記スライスセグメントを再生する処理に用いられること
を特徴とする映像記録媒体。
A video recording medium for recording a broadcast stream reproduced by a video reproduction device,
The broadcast stream including video information including an I picture;
A first time table indicating a start position of the I picture;
A second time table indicating start positions of a plurality of slice segments constituting the I picture;
Continuity information indicating the continuity of the video scene included in the video information, is recorded,
The video playback device,
When fast-forwarding the broadcast stream, determine whether the continuity information indicates continuity or discontinuity, indicating that the continuity information is continuous In the case, one of the plurality of slice segments constituting the I picture is reproduced, and if the continuity information indicates discontinuity, the I picture is composed. A video recording medium, which is used for a process of reproducing all the slice segments to be reproduced.
JP2019182572A 2019-10-03 2019-10-03 Video playback device and video recording device Active JP6991185B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019182572A JP6991185B2 (en) 2019-10-03 2019-10-03 Video playback device and video recording device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019182572A JP6991185B2 (en) 2019-10-03 2019-10-03 Video playback device and video recording device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018187083A Division JP6600059B2 (en) 2018-10-02 2018-10-02 Video playback device and video recording device

Publications (2)

Publication Number Publication Date
JP2020017996A true JP2020017996A (en) 2020-01-30
JP6991185B2 JP6991185B2 (en) 2022-01-12

Family

ID=69581000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019182572A Active JP6991185B2 (en) 2019-10-03 2019-10-03 Video playback device and video recording device

Country Status (1)

Country Link
JP (1) JP6991185B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005151069A (en) * 2003-11-14 2005-06-09 Funai Electric Co Ltd Recording/reproducing device
JP2007043719A (en) * 2005-08-04 2007-02-15 Samsung Electronics Co Ltd Method and apparatus for skipping pictures
JP2007060678A (en) * 2006-10-02 2007-03-08 Mitsubishi Electric Corp Video information recording method, and video information recording medium
JP2016048859A (en) * 2014-08-27 2016-04-07 シャープ株式会社 File generation device and reproduction device
JP6600059B2 (en) * 2018-10-02 2019-10-30 三菱電機株式会社 Video playback device and video recording device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005151069A (en) * 2003-11-14 2005-06-09 Funai Electric Co Ltd Recording/reproducing device
JP2007043719A (en) * 2005-08-04 2007-02-15 Samsung Electronics Co Ltd Method and apparatus for skipping pictures
JP2007060678A (en) * 2006-10-02 2007-03-08 Mitsubishi Electric Corp Video information recording method, and video information recording medium
JP2016048859A (en) * 2014-08-27 2016-04-07 シャープ株式会社 File generation device and reproduction device
JP6600059B2 (en) * 2018-10-02 2019-10-30 三菱電機株式会社 Video playback device and video recording device

Also Published As

Publication number Publication date
JP6991185B2 (en) 2022-01-12

Similar Documents

Publication Publication Date Title
US7313315B2 (en) Methods and apparatus for making and replaying digital video recordings, and recordings made by such methods
US8204366B2 (en) Method, apparatus and program for recording and playing back content data, method, apparatus and program for playing back content data, and method, apparatus and program for recording content data
JP4224690B2 (en) Recording method, recording apparatus, reproducing method, reproducing apparatus, and imaging apparatus
US20090010615A1 (en) Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
JP2000041066A (en) Multimedia storage device
US20130209063A1 (en) Digital receiver and content processing method in digital receiver
KR100770908B1 (en) Apparatus and method for tricking playing of a digital broadcasting stream
KR100405975B1 (en) Method for stream jump
JP6415652B1 (en) VIDEO REPRODUCTION DEVICE, VIDEO RECORDING DEVICE, AND VIDEO RECORDING METHOD
JP6964436B2 (en) Video recording device and video playback device
JP2004536480A (en) System and method for realizing multi-view instant replay function
JP6600059B2 (en) Video playback device and video recording device
KR20030091396A (en) Method for recording position information of broadcasting signal and broadcasting signal transmiting/receiving apparatus capable of recording the position information of broadcasting signal
JP2005018925A (en) Recording and reproducing device, and recording and reproducing method
JP6991185B2 (en) Video playback device and video recording device
JP6982829B2 (en) Recording device, recording method and recording medium
JP2022156728A (en) Video playback device and video recording medium
KR100348265B1 (en) method for video edit in digital broadcasting receiver
JPH11312381A (en) Recording device and method, reproducing device and method, recording and reproducing device and method, recording medium, and providing medium
JP4656481B2 (en) Recording / reproducing apparatus, receiving apparatus, control method, and control program
WO2012123982A1 (en) Recording device/method/medium and replaying device/method
KR100888604B1 (en) Video data recording apparatus and information storage medium on which the video data is recoreded thereby
JP5018976B2 (en) Data recording method, recording medium, and reproducing apparatus
JP2008277930A (en) Moving picture recording/reproducing device
US20090161500A1 (en) Storage apparatus and method for storing data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20200811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211207

R150 Certificate of patent or registration of utility model

Ref document number: 6991185

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150